En la era de la Inteligencia Artificial las imágenes falsas y la desinformación va en aumento, debido a esto, Google Deep Mind anunció una versión beta de SynthID.
La herramienta marcará e identificará imágenes generadas por IA incrustando una marca de agua digital directamente en los píxeles de una imagen, que será imperceptible para el ojo humano pero detectable para su identificación.
PUBLICIDAD
Kris Bondi, director general y fundador de Mimoto, una empresa de ciberseguridad de detección y respuesta proactivas, dijo que, aunque el SynthID de Google es un punto de partida, el problema de las falsificaciones profundas no se arreglará con una única solución.
Maldad en internet
“La gente olvida que hay muchos actores malintencionados también en el negocio. Sus tácticas y tecnologías evolucionan continuamente, se ponen a disposición de más actores malos, y el costo de sus técnicas, como las Deep Fakes , baja”, dijo Bondi.
“El ecosistema de la ciberseguridad necesita múltiples enfoques para hacer frente a las Deep Fakes, con colaboración para desarrollar enfoques de arquitectura flexible que evolucionen para satisfacer y superar la tecnología de los malos actores”, añade Bondi.
Un gran reto
Ulrik Stig Hansen, cofundador de Encord, una plataforma de datos de entrenamiento de visión por ordenador con sede en Londres, afirma que no cabe duda de que la detección de las falsificaciones será uno de los retos importantes del futuro.
“Lo hemos visto una y otra vez con las nuevas tecnologías, y no es diferente con la IA Generativa: al igual que se está utilizando de formas abrumadoramente positivas (por ejemplo, diagnósticos más baratos en la atención sanitaria, recuperación más rápida en caso de catástrofe), habrá vulnerabilidades para quienes busquen explotarlas”, añade Hansen.
“Será más una cuestión de la rapidez con que las aplicaciones preventivas puedan progresar y de cómo se configure la regulación en torno a este espacio”, afirma Hansen. “Hemos visto algunos indicios de cómo podría ser esto en la UE, pero la clave será permitir el progreso de las aplicaciones con buenas intenciones, al tiempo que se construyen sólidas barreras para limitar el uso indebido”.