Las autoridades en todo el mundo se apresuran a redactar normas para restringir o tomar decisiones frente a la Inteligencia Artificial. En la Unión Europea existe un borrador de legislación que pasó por una votación crucial hace poco tiempo.
Un comité del Parlamento Europeo votó a favor de reforzar el borrador de la destacada propuesta, dentro de un proceso de varios años para marcar los límites a la IA. Esos esfuerzos cobran más urgencia ante el rápido avance de ChatGPT, que destaca los beneficios que puede traer esa tecnología y también los peligros que plantea.
PUBLICIDAD
¿Cómo funcionan las normas?
El proyecto fue propuesto por primera vez en 2021, regirá cualquier producto o servicio que emplee un sistema de inteligencia artificial. La ley clasificará los sistemas en cuatro niveles de riesgo, de mínimo a inaceptable. Las solicitudes que se consideren de más riesgo tendrán requisitos más estrictos, como presentar datos más transparentes y precisos. Funcionaría como un “sistema de gestión de riesgo para IA”, dijo Johann Laux, experto del Oxford Internet Institute.
¿Cuáles son los riesgos?
Uno de los principales objetivos es vigilar contra cualquier amenaza de las IA para la salud y la seguridad y proteger los derechos y valores fundamentales.
Eso implica que algunos usos quedan absolutamente prohibidos para las IA, como los sistemas de “puntuación social” que juzgan a la gente en función de su comportamiento o sistemas que pretenden manipular, como juguetes interactivos parlantes que fomentan un comportamiento peligroso.
Los negociadores reforzaron la propuesta al votar la prohibición de herramientas policiales predictivas, que revisan datos para predecir dónde se cometerán crímenes y quién los cometerá. También apoyaron una prohibición generalizada del reconocimiento facial remoto salvo por algunas pequeñas excepciones de seguridad, como prevenir una amenaza terrorista específica.
Te recomendamos: Inteligencia Artificial hará obsoletos 80% de los trabajos y eso “es algo bueno”
El objetivo es “evitar una sociedad controlada basada en la IA”, explicó a la prensa Brando Benifei, legislador italiano, uno de los líderes en los esfuerzos de la eurocámara para legislar este campo. “Creemos que estas tecnologías podrían utilizarse para el mal además de para el bien, y consideramos que los riesgos son demasiado altos”.
PUBLICIDAD
Los sistemas de IA en categorías de alto riesgo, como empleo y educación, que afectan a la trayectoria vital de una persona, tendrán duros requisitos como ser transparentes con los usuarios y establecer evaluaciones de riesgo y medidas de compensación.
El ejecutivo de la UE dice que la mayoría de los sistemas de IA, como videojuegos o filtros de spam, caen en las categorías de bajo o ningún riesgo.
¿Qué hay de ChatGPT?
La propuesta original de 108 páginas apenas mencionaba los chatbots, y tan sólo requería que estuvieran identificados para que los usuarios supieran que estaban interactuando con una máquina. Los negociadores añadieron después cláusulas para cubrir sistemas de IA con fines generales como ChatGPT, que los somete a algunos de los mismos requisitos que los sistemas de alto riesgo.
Un elemento clave que se ha añadido es el requisito de documentar de forma meticulosa cualquier contenido protegido por derechos de autor empleado para enseñar a las IA a generar textos, imágenes, videos o música que parezcan una creación humana. Eso permitiría a los creadores de contenido saber si sus publicaciones en blogs, libros digitales, artículos científicos o canciones pop se han sido copiadas y pedir indemnizaciones.
“A nivel global, los europeos son bastante acomodados y hay muchos de ellos, de modo que las empresas y organizaciones suelen decidir que el tamaño del mercado único del bloque, con 450 millones de consumidores, hace más fácil aceptar sus límites que desarrollar productos diferentes para regiones diferentes”, indicó Laux.
Pero no es sólo una cuestión de prohibiciones. Al establecer normas comunes para la inteligencia artificial, Bruselas también intenta desarrollar el sistema al dar confianza a los usuarios, dijo Laux.
“La idea es que si puedes convencer a la gente para que confíe en la inteligencia artificial y las aplicaciones, también las utilizará más. Cuando la utilicen más, desbloquearán el potencial económico y social de la IA”, expresó Laux.
También puedes leer: ¿Cuáles son los cambios que prepara Google con el avance de la Inteligencia Artificial?
En caso de incumplir con las normas, las multas serán de hasta 30 millones de euros (cinco mil 900 millones de pesos) o el 6% de los ingresos anuales globales de la compañía, que en el caso de firmas tecnológicas como Google o Microsoft podrían ascender a miles de millones.