Desde hace cuatro años que se popularizó la utilización de la tecnología de simulación digital visual, o también conocida como deepfake, y en ese momento se alertó del grave riesgo a la violación de la privacidad y datos personales. En aquel entonces, esta tecnología se vendía bajo el ingenuo ocio de visualizarte en la pantalla grande o actuando en algún programa de televisión. Es decir, la aplicación ofrecía la posibilidad al usuario de crear medios sintéticos generados a partir de la inteligencia artificial.
La invitación a utilizar esta tecnología, de por si preocupante, invitaba a intercambiar el rostro no sólo del usuario, también de algún amigo, colega, o cualquier otra persona por la de un famoso, cometiendo una grave violación a la privacidad de terceros al no garantizar el consentimiento de quienes son simulados. Incluso, la misma aplicación se anunciaba en sitios para adultos: “Haz deepfake porno en un segundo”.
A través de softwares de medios sintéticos y aprendizaje automático, que modelan digitalmente los rostros a partir de imágenes de referencia y luego los intercambia en pequeños clips de películas o series de televisión de una forma fluida y sofisticada, se perfeccionó cada vez más la forma de aplicar la tecnología al grado de que actualmente resulta sumamente complejo, para el espectador, distinguir videos falsos.
Según expertos, este fenómeno ha proliferado en términos masificadores hasta llegar al punto de estar al alcance de casi cualquier persona que tenga un teléfono inteligente.
Asegura Adam Dodge, abogado de la firma de seguridad EndTam: “una persona poco sofisticada puede crear un video pornográfico ultrafalso, muy sofisticado y no consentido, una vez que el punto de entrada es tan bajo que no requiere ningún esfuerzo, ese es el punto de inflexión. Ahí es donde empezamos a tener problemas”.
La deepfake para su uso pornográfico es más común de lo que uno puede imaginar, pues representa el 96% de los más de 14 mil videos deepfakes publicados en la web, según Sensity en un informe en el 2019. Y en ese mismo año, Sensity alertaba que aproximadamente cada seis meses se duplicaba el número de videos ultrafalsos en internet.
Por su parte, la compañía IA Metaphysic indicó que la mayoría de los daños causados con la utilización de videos ultrafalsos pornográficos era una forma de violencia digital de género. Y aunque actualmente muchas aplicaciones de la industria del software de intercambio de rostros toman medidas para evitar abusos, lo cierto es que existe un nulo uso ético de los medios sintéticos.
Algunas aplicaciones recuren a la autentificación de identidad de la persona que desea intercambiar su rostro, o en algunos casos, usan inteligencia artificial para detectar las cargas pornográficas, aunque estas medidas no son completamente efectivas en el control de la violencia digital de género.
Reface, por ejemplo, utiliza la moderación botizada y humana del contenido. Es decir, entrenan al algoritmo para sancionar y recurre a la denuncia del usuario.
Ecosistema Digital
Carlos Miguel Ramos Linares
@cm_ramoslinares