Geoffrey Hinton, un galardonado científico informático conocido como “el padrino de la inteligencia artificial”, tiene serias reservas sobre el fruto de su trabajo.
Te puede interesar: TikTok generará avatares con IA utilizando fotografías del usuario
Hinton ayudó crear tecnologías de inteligencia artificial que han sido determinantes para una nueva generación de chatbots como ChatGPT. Pero en entrevistas recientes, reveló que renunció a un alto cargo en Google específicamente para compartir sus inquietudes de que el desarrollo irrestricto de la inteligencia artificial plantea serios riesgos para la humanidad.
PUBLICIDAD
“Repentinamente he cambiado mis puntos de vista sobre si estas cosas serán más inteligentes que nosotros”, declaró en entrevista con MIT Technology Review. “Creo que están ahora muy cerca de serlo y que en el futuro serán mucho más inteligentes que nosotros... ¿cómo vamos a sobrevivir a eso?”
Hinton no es el único que tiene esas preocupaciones. Poco después de que la firma OpenAI lanzó en marzo su nueva versión de chatbot GPT-4, más de mil científicos firmaron una carta pidiendo una pausa de seis meses en el desarrollo de la inteligencia artificial porque plantea “profundos riesgos a la sociedad y a la humanidad”.
Aquí un vistazo a las principales inquietudes de Hinton:
La inteligencia depende de las redes neuronales
Nuestros cerebros son capaces de resolver ecuaciones matemáticas, conducir automóviles y seguir la trama de una serie de televisión gracias a su talento inherente de almacenar y organizar información y producir soluciones para problemas espinosos. Lo que hace eso posible son las aproximadamente 86 mil millones de neuronas que tenemos dentro del cráneo y, lo que es más importante, las 100 billones de conexiones que esas neuronas forjan entre sí.
En comparación, la tecnología que fundamenta a ChatGPT cuenta con entre 500 mil y un billón de conexiones, dijo Hinton en la entrevista. Aunque ello parece menos que la capacidad del cerebro humano, Hinton señala que GPT-4, el modelo de inteligencia artificial más reciente de OpenAI, sabe “cientos de veces más” de lo que sabe un ser humano. Es posible, indica, que tenga “un algoritmo de aprendizaje mucho mejor” y por lo tanto sea más eficiente en tareas cognitivas.
PUBLICIDAD
Probablemente ya es más inteligente que nosotros
Los expertos desde hace tiempo han sostenido que las redes neuronales artificiales demoran mucho más en absorber y aplicar nuevos conocimientos que las personas, ya que para entrenarlas se requiere gran cantidad de energía e información. Eso ya no es así, argumenta Hinton, destacando que sistemas como GPT-4 son capaces de aprender sumamente rápido una vez que son entrenados por los investigadores. Eso no es muy distinto a la manera en que, digamos, un físico profesional es capaz de analizar resultados de un experimento mucho más rápido que un estudiante de secundaria común.
Ello lleva a Hinton a concluir que los sistemas de inteligencia artificial probablemente ya son más inteligentes que nosotros. No sólo pueden captar cosas más rápido, sino que pueden compartir copias de su conocimiento entre ellos casi instantáneamente.
“Es un tipo de inteligencia totalmente distinta”, dice Hinton. “Un nuevo y mejor tipo de inteligencia”.
Guerras y rumores de guerra
¿Qué podrían hacer sistemas de inteligencia artificial más inteligentes que los humanos? Una posibilidad espeluznante es que individuos, grupos o Estados mal intencionados los usen para alcanzar sus propósitos. Hinton está particularmente preocupado por la posibilidad de que estas herramientas sean usadas para manipular resultados electorales o iniciar guerras.
La desinformación electoral propagada por chatbots, por ejemplo, podría ser la nueva versión de la desinformación electoral que anteriormente se propagaba por Facebook u otras redes sociales.
Y eso podría ser apenas el comienzo. “No duden ni por un instante que Putin estaría dispuesto a usar robots inteligentes para matar ucranianos”, dijo Hinton en el artículo. “Él no vacilaría”.
Una falta de soluciones
Lo que nadie sabe es cómo se podría evitar que una potencia como Rusia use la inteligencia artificial para subyugar a sus vecinos o incluso a sus propios ciudadanos. Hinton sugiere que se podría necesitar un acuerdo similar a la Convención Internacional contra las Armas Químicas de 1997, para elaborar normas que rijan el uso de la inteligencia artificial.
Sin embargo, cabe destacar que esa convención no impidió lo que, según investigadores, fueron probablemente ataques del gobierno sirio con cloro y con el neurotóxico sarín contra civiles en 2017 y 2018 durante la guerra civil en ese país.