Alfabetización moral digital para la detección de deepfakes y fakes audiovisuales

2020 
espanolLos deepfakes son videos manipulados donde se suplanta la cara de una persona por la de otra a traves de Inteligencia Artificial. Estos contenidos fotorrealistas pueden convertirse en armas de acoso, propaganda o conflicto social. Esta investigacion de innovacion teorica ahonda en la incipiente literatura cientifica sobre el deepfake en Ciencias Sociales, poniendo sus bases en los trabajos de Wenceslao Castanares. Sus objetivos son analizar el fenomeno, buscar herramientas para detectarlo y combatirlo, e inaugurar una nueva via de alfabetizacion moral digital de especial interes en el campo de la comunicacion, por su importancia social y politica. Se emplea una metodologia diacronica en dos pasos. En primer lugar, se realiza una investigacion bibliografica longitudinal y se ofrece una descripcion historica, sistemica y descriptiva, con los rasgos mas importantes del fenomeno, naturaleza, funcionamiento y posibles usos. En segundo lugar, se realiza una observacion cientifica consciente de mas de medio centenar de videos deepfake, para percibir el fenomeno, conseguir una mayor generalizacion y garantizar la validez de los resultados. Los resultados muestran que aunque se han creado softwares de deteccion de este tipo de fakes, aun no son de acceso libre y gratuito. La unica manera de reconocer el deepfake es a traves de una educacion moral digital, que pueda detectar una serie de parametros visuales hiperrealistas: frecuencia del parpadeo, efecto intermitente de las caras o transiciones entre cabeza y cuello. EnglishDeepfakes are manipulated videos where a person's face is supplanted by that of another through Artificial Intelligence. These photorealistic contents can become weapons of harassment, propaganda or social conflict. This theoretical innovation research delves into the emerging scientific literature on deepfake in Social Sciences, laying its foundations on the research of Wenceslao Castanares. Its objectives are to analyse the phenomenon, find tools to detect and combat it, and inaugurate a new way of moral digital literacy of special interest in the field of communication, due to its social and political importance. A two-step diachronic methodology is used. First, a longitudinal bibliographic investigation is carried out and a historical, systemic and descriptive description is offered, with the most important features of the phenomenon, nature, operation and possible uses. Second, there is a conscious scientific observation of more than fifty deepfake videos, to perceive the phenomenon, achieve greater generalization and guarantee the validity of the results. The results show that although detection software for this type of fakes has been created, it is not yet freely available. The only way to recognize the deepfake is through a digital moral education, which can detect a series of hyper-realistic visual parameters: the frequency of blinking, the subtle intermittent effect of the faces or the transitions between the head and neck.
    • Correction
    • Source
    • Cite
    • Save
    • Machine Reading By IdeaReader
    47
    References
    0
    Citations
    NaN
    KQI
    []