La Inteligencia Artificial es una de las tecnologías que más ha crecido y se ha popularizado en el último año. La podemos ver por todas partes, facilitando la vida humana, generando textos e imágenes, así como haciendo incursiones en la medicina y el derecho.
“En general, en los últimos diez años aproximadamente, las técnicas de aprendizaje automático y el hardware han mejorado. Los recientes avances en IA “generativa” forman parte de esa larga tendencia”, explica a Metro Shawn Bayern, catedrático Larry y Joyce Beltz de Agravios en la Facultad de Derecho de la Universidad Estatal de Florida.
PUBLICIDAD
Sin embargo, hay temores ante esta tecnología y voces que piden su regulación. Según un reciente estudio de Pew Research, el 52 % de los estadounidenses dicen sentirse más preocupados que entusiasmados por el creciente uso de la inteligencia artificial. Solo el 10 % dice estar más entusiasmado que preocupado, mientras que el 36 % dice sentir una mezcla igual de estas emociones.
Una de las conclusiones más relevantes de estas cifras es que el porcentaje de estadounidenses que están más preocupados por la IA en la vida cotidiana ha aumentado en 14 puntos porcentuales desde diciembre de 2022, cuando el 38 % expresó esta opinión.
A medida que la Inteligencia Artificial se acelera y surgen temores a su alrededor, también aumentan los intentos de regulación. Cada país quiere tener su propio conjunto de normas, lo que podría conducir a una mayor fragmentación del mercado digital global.
Aunque algunos países ya han empezado a dar los primeros pasos para regular esta tecnología, algunos expertos no están de acuerdo con la idea de poner normas estrictas a la Inteligencia Artificial, ya que no ven una forma generalizada de hacerlo o que esta tecnología represente un peligro para la humanidad.
“Suelo estar a favor de la regulación —no soy alguien que piense que las empresas deberían poder hacer lo que quieran sólo porque puedan tener interés en hacerlo—, pero no creo que haya tenido tantas ganas como mucha gente de apresurarse a ‘regular’ la IA de alguna forma general o exhaustiva”, afirma Bayern.
PUBLICIDAD
El especialista en derecho y tecnología subraya que la regulación de la IA tendría que ser un esfuerzo global, pues de lo contrario algunos países avanzarían en la tecnología mientras otros la prohibirían a nivel nacional. Además, asegura que no ve en esta herramienta el “riesgo existencial para la humanidad” del que se habla.
Otros especialistas, sin embargo, creen que la Inteligencia Artificial debe regularse, pero de forma equilibrada para seguir permitiendo la innovación de esta tecnología, al tiempo que se combaten algunos riesgos inmediatos que plantea la IA.
“No regular la IA también conlleva riesgos, así que la clave está en conseguir el equilibrio adecuado entre ambos”, afirma Maura R. Grossman, profesora de investigación de la Facultad de Informática de la Universidad de Waterloo (Canadá).
Según la experta, los riesgos que plantea actualmente la IA están relacionados con la parcialidad, la difusión generalizada de información errónea y desinformación, violaciones del derecho a la intimidad, etc., así como repercusiones a más largo plazo en el empleo, usos militares, etc.
Bayern concluyó que, en lugar de aplicar una dura regulación a la Inteligencia Artificial que podría detener su avance, deberíamos buscar formas realistas de limitar los posibles abusos de este tipo de software.
“Yo más bien me fijaría en las repercusiones reales, averiguaría qué se puede hacer de forma realista para limitar los abusos de la tecnología, etc.”, declaró el experto.
5 preguntas a Maura R. Grossman
¿Por qué cree que ha crecido tanto el uso de la Inteligencia Artificial en el último año?
—La propia tecnología de IA —por ejemplo, el aprendizaje automático y el procesamiento del lenguaje natural— existe desde hace tiempo. Ha habido algunas mejoras recientes en términos de potencia de cálculo, velocidad de procesamiento, más datos disponibles para el entrenamiento y algoritmos más sofisticados, pero la verdadera razón por la que la IA ha pasado a primer plano desde finales de noviembre de 2022 es que, con la introducción de ChatGPT, la tecnología se hizo mucho más accesible al ciudadano medio que antes, cuando era principalmente competencia de informáticos e investigadores. El interés generalizado del público por los grandes modelos lingüísticos y la IA generativa —incluidos los de texto a texto, texto a imagen, texto a vídeo y síntesis de voz— ha provocado una carrera por comercializar nuevos productos y servicios por parte de las grandes tecnológicas que quieren hacerse con una cuota de mercado, así como una afluencia de nuevas empresas emergentes.
Háblenos de la normativa actual sobre IA.
—En julio de 2023, China se convirtió en el primer país en publicar una serie de normas para la IA generativa que se aplican únicamente a los servicios ofrecidos al público. Pretenden hacer hincapié en una IA segura y digna de confianza. Sin embargo, la iniciativa más completa para regular la IA es el proyecto de Ley de IA de la UE, que podría aprobarse a finales de este año. Esta normativa pretende clasificar la IA en términos de riesgo, desde ciertas aplicaciones de alto riesgo que están directamente prohibidas -—como el uso de la regulación facial para la vigilancia pública— hasta aquellas que afectan a cosas importantes como la salud, la educación y el empleo, que requieren una amplia divulgación, auditoría y una estrecha vigilancia, pasando por aquellas que son de bajo riesgo y no requieren más que divulgación. Estados Unidos ha adoptado un enfoque más local y sectorial de la regulación de la IA, con algunos estados y ciudades aprobando normativas de alcance limitado, por ejemplo, la regulación de la ciudad de Nueva York de la IA utilizada en el contexto laboral, hasta otras jurisdicciones como Springfield, Massachusetts, que han prohibido el uso del reconocimiento facial por parte de las fuerzas de seguridad.
Es probable que la regulación sea necesaria tanto por los riesgos inmediatos que plantea la IA, como la parcialidad, la difusión generalizada de información errónea y desinformación, las violaciones del derecho a la intimidad, etc., como por las repercusiones a más largo plazo en el empleo, los usos militares, etc.
¿En qué aspectos debería regularse la IA?
—Para ser digna de confianza, la IA debe ser precisa (es decir, válida y fiable), imparcial y justa, proteger la intimidad y rendir cuentas, como mínimo. Debe haber cierto grado de transparencia y explicabilidad. Los ciudadanos deben saber cuándo están tratando con un sistema de IA y cómo se toman las decisiones sobre ellos.
¿Podría esta tecnología suponer algún tipo de peligro para la humanidad?
—Aunque se habla mucho de “riesgo existencial”, me cuesta ver que la IA extinga a la humanidad, a menos que se le conceda un acceso ilimitado a la energía eléctrica, de tal forma que no se pueda cortar, o un acceso ilimitado o sin supervisión al dinero o a las armas, de tal forma que pueda actuar de forma autónoma para adquirir bienes y servicios o para matar. Me preocupan mucho más los efectos inmediatos que ya podemos observar: la acumulación de poder en manos de unas pocas grandes empresas tecnológicas no reguladas, principalmente estadounidenses; el sesgo y la distribución desigual de los beneficios y las cargas de la IA; la erosión de la privacidad; y los posibles actos delictivos y amenazas a la democracia como resultado de la difusión generalizada de desinformación y desinformación.
¿Cómo ve el futuro de la regulación de la IA?
—La regulación de la IA es un reto, porque para que sea eficaz tiene que haber un acuerdo global y un planteamiento coherente. Creo que una vez que entre en vigor la Ley de IA de la UE, veremos más esfuerzos encaminados a la regulación en todo el mundo.