18 de octubre de 2018

Sobre "falsedades profundas"

Un ejemplo de lo que la tecnología de manipulación visual ya permite son los videos manipulados con algoritmos de aprendizaje automático, que permiten – por ejemplo – cambiar la cara de una persona por la de otra. (Genbeta, 12/02/2018)
“A finales de 2017 se abrió una 'Caja de Pandora' que nos mostraba los capacidades de la inteligencia artificial cuando se usaba con fines de montaje sobre pornografía, y es que estos montajes consistían en colocar el rostro de alguna celebridad sobre vídeos porno sin su consentimiento. Ante esta avalancha de vídeos, la mayoría de las plataformas, como Twitter Pornhub, se declararon en contra de ellos, al grado de prohibirlos y bloquear a quien los suba o distribuya.
Sin embargo, no todas las compañías piensan igual, y el ejemplo está en Naughty America, una casa productora centrada en la producción de porno para diversas plataformas, quien le dio un giro a los 'deepfakes' y ahora ha empezado a usar sus posibilidades con el fin de obtener dinero.
La compañía ofrece poner el rostro del usuario en lugar del de un actor o actriz porno, para que pueda formar parte de la acción. También ofrece poner el rostro de cualquiera de sus actores o actrices porno en vídeos caseros de sus usuarios. Estos deben ceder su imagen y vídeos para el montaje.” (Xataka, 21/08/2018)
Lo más preocupante es que este tipo de software, a medida que se desarrolla, permitirá a cualquiera a crear eventos, imágenes y videos falsos, cada vez más difíciles de distinguir de los videos reales, lo cual llegó ya a preocupar a la Comisión Europea. Capacitar a los ciudadanos y a la sociedad civil fue la apuesta de una conferencia de alto nivel organizada por ella sobre los riesgos electorales en la era digital, donde los especialistas señalaron la amenaza de las falsificaciones profundas (“deep fakes”), especialmente estos videos falsos díficiles de reconocer:
“Si no eres un experto, es realmente difícil averiguar cuál es el vídeo verdadero o el falso, especialmente en la web cuando la calidad empeora debido a la compresión. La buena noticia, sin embargo, es que se puede utilizar la tecnología de aprendizaje automático para averiguar cuál es el de verdad y qué es el vídeo falso”, explicó a Euronews Matthias Niessner, Profesor y Director del Laboratorio de Informática Visual, Universidad Técnica de Múnich.
“Creemos que esta va a ser la próxima frontera en la manipulación de la información”, ha alertado el experto en geopolítica Fabrice Pothier, director de Estrategia de Rasmussen Global. (Euronews, 16/10/2018)
De este modo, se utilizó el método de aprendizaje profundo en inteligencia artificial para "corregir" la cinta "Solo: A Star Wars Story". (FayerWayer, 17/10/2018).


[Este post forma parte de un futuro libro sobre "Los contenidos de los medios digitales" (2019)]

No hay comentarios:

Publicar un comentario

No se reciben comentarios.

Nota: solo los miembros de este blog pueden publicar comentarios.