"Emma Watson" está desnuda, de rodillas en un sofá. Cerca, "Maisie Williams" está sentada con las piernas separadas. "Gal Gadot" está vestida de vaquera, realizando actos sexuales.
¿Dónde estamos? No en las oscuras profundidades de la fantasía de un adolescente, sino en el sitio web PornHub, donde las únicas diferencias entre la actriz de Hollywood Emma Watson y la falsa estrella del porno "Emma Watson" son unos pocos pixeles, varias capas de ropa y una falta total de consentimiento.
PUBLICIDAD
Bienvenidos al mundo de los deepfakes: un nuevo tipo de robo de identidad con clasificación X.
- La preocupación que despierta la tecnología que permite poner el rostro de cualquiera en los cuerpos de actores porno
- Así funciona "Arts and Culture", la aplicación de Google que encuentra a tu doble en pinturas famosas (y los riesgos de usarla)
Los deepfakes son videos porno modificados utilizando tecnología de intercambio de caras a través de inteligencia artificial, por lo que el rostro del protagonista se reemplaza por la de otra persona.
Hace apenas seis meses, esto requería una codificación extremadamente compleja y un montón de tiempo libre.
Pero, ahora, una búsqueda en internet de "deepfake porn" arroja al menos 700.000 resultados. La tecnología explotó tan rápido —y ya es tan fácil de usar— que prácticamente cualquiera puede crear pornografía personalizada en unas 12 horas.
Las celebridades son las víctimas más populares de los deepfakes. De hecho, este tipo de falsificación de caras empezó en Hollywood.
PUBLICIDAD
"La tecnología para superponer caras de famosos en otras personas lleva años disponible para los efectos especiales", dice Evgeny Chereshnev, director ejecutivo de la compañía de tecnología seguridad BiolinkTech.
Las fotos modificadas, por lo tanto, no son nada nuevo, pero la disponibilidad y nivel de realismo de los modernos deepfakes sí lo son.
Al alcance de cualquiera
Los deepfakes toman su nombre de un usuario de Reddit. El año pasado, "deepfakes" perfeccionó un algoritmo complejo para crear espeluznantes videos que parecen mostrar a las actrices Gal Gadot, Taylor Swift y Scarlett Johansson realizando actos pornográficos.
Aunque tu cerebro sabe que ninguna de ellas es la persona que hace eso, tus ojos sí parecen muy convencidos.
Después, en enero pasado, otro usuario de Reddit creó una app gratuita, llamada FakeApp, con un algoritmo incorporado que hace el intercambio de caras por ti.
Solo necesitarías una computadora potente (como las que se usan para trabajar con video), una unidad de procesamiento gráfico y suficientes imágenes de tu objetivo —lo que, gracias a las redes sociales, YouTube o incluso Linkedln no es demasiado complicado—, pero teóricamente cualquiera puede transformar a una estrella del porno en cualquier otra persona.
Actualmente, hay versiones básicas disponibles para cualquiera: por menos de US$30, Adobe puede proveer las herramientas para crear una copia digital de alguien, aunque se necesitaría un costoso software profesional para llegar al siguiente nivel.
Adobe VoCo, una especie de Photoshop para audio, permite incluso al usuario recrear la voz de alguien solo 20 minutos después de escucharla. Todavía está en etapa de investigación, pero otras compañías como Lyre Bird tienen software más básico ya disponible para su uso.
Ahora cualquiera puede reemplazar las caras de los actores porno con las de su amor platónico, por ejemplo. O tal vez alguien quiera vengarse de un ex y lo hace para acabar con su carrera o su nueva relación. O, de hecho, sabotear la carrera o relación de cualquier persona con la que en ese momento se está enojado.
Así que, de repente, no son solo las celebridades (con su ejército de poderosos abogados) las que se pueden encontrar a sí mismas en las computadoras de alguien más. Puedes ser tú.
Porno de la venganza
La abogada Ann Olivarius, quien ha trabajado con víctimas del "porno de la venganza" dice que recibe llamadas de clientes que fueron víctimas del deepfaking.
"Es una gran preocupación para nosotros", dice Olivarius. "Es realmente devastador para esas mujeres porque con nueva tecnología, puede parecer algo real. Lo que hay detrás es siempre un intento de herir y degradar".
La abogada cree que el deepfaking forma parte del problema del porno de la venganza.
"Hay varios tipos de porno de la venganza ahí afuera", dice. "Es un problema creciente, y se manifiesta en nuevas maneras".
Mientras las celebridades pueden contar con abogados caros, y pueden, potencialmente, usar la ley de difamación para perseguir a los deepfakers (siempre y cuando puedan probar que la imagen causó, o puede causar, un daño grave a su reputación), para la gente común puede ser mucho más difícil emprender una acción.
En enero, un hombre australiano fue sentenciado a 12 meses de cárcel por usar Photoshop para superponer una imagen de la cara de su hijastra adolescente sobre imágenes de mujeres realizando actos sexuales, y ha habido casos similares en Reino Unido.
Para Luke Patel, un especialista en derecho a la intimidad, "el rápido ritmo de desarrollo de la tecnología hace que sea muy difícil que las leyes se mantengan al día y apoyar adecuadamente a las víctimas".
En Europa, la implementación del Reglamento general de protección de datos, que entrará en vigor el 25 de mayo, incluye dos nuevas herramientas: el derecho a solicitar la eliminación de datos y el derecho al olvido.
Luke cree que podrían ayudar "a permitir que un individuo solicite la eliminación o eliminación permanente de sus datos personales (incluyendo imágenes) cuando no hay una buena razón para su publicación continua", aunque cada caso se decidirá de forma individual.
"No es un derecho absoluto, pero el caso es más sólido si la imagen no está justificada y causa un sufrimiento considerable". Aunque, continúa, "todavía son solo herramientas que pueden desplegarse cuando el daño ya está hecho". No impedirán que suceda.
¿Cómo detenerlo?
Una opción es que las plataformas de internet dejen de albergar deepfakes.
Reddit ya los prohibió, calificándolos como una forma inaceptable de "pornografía involuntaria".
Pornhub afirmó en febrero que seguiría el ejemplo, pero si buscas ’porno’ y ’deepfakes’, los mejores resultados están en Pornhub.
BBC Three se puso en contacto con Pornhub para obtener una explicación, y recibió esta declaración de su vicepresidente, Corey Price: "El contenido no consensual no está permitido en nuestra plataforma, ya que infringe nuestros Términos de servicio".
Sin embargo, se pueden contar al menos 20 videos, incluidos varios con celebridades, que claramente podemos asumir que no fueron consensuales.
Pornhub respondió que tienen una página de eliminación de contenido, donde las personas pueden "solicitar la eliminación de material no consensual. Tan pronto como se hace una solicitud, trabajamos para eliminar el contenido inmediatamente. También dependemos de nuestra comunidad y/o propietarios de contenido para marcar el contenido inapropiado".
Crear deepfakes se está volviendo tan fácil que podría convertirse en un juego: trae fotos, bebidas y, en lugar de ver videos de YouTube, siéntate y crea pornografía robada.
"En un par de años, podrías ir a una tienda de aplicaciones pornográficas y comprar experiencias sexuales en realidad virtual con quien quieras", dice Evgeny Chereshnev, de BiolinkTech.
Ya se pueden comprar muñecas sexuales increíblemente realistas. "Pronto —dice Evgeny— la tecnología podría permitirle a alguien robar tu identidad y pedir una muñeca sexual con tu cara".
La idea de un futuro donde "tú" podrías existir en la computadora portátil de alguien, o donde se podrían crear imágenes "tuyas" para ser distribuidas maliciosamente es profundamente inquietante. Pero puede que ese futuro ya esté aquí.
Este artículo fue publicado originalmente en inglés en BBC Three
Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.