De Elon Musk a Yuval Noah Harari, intelectuales, tecnólogos y académicos firman una carta abierta en la que solicitan pausar durante seis meses el entrenamiento de sistemas más potentes a GPT-4.
La inteligencia artificial avanza a un ritmo frenético. Desde que el acceso a ChatGPT fue abierto al público el pasado noviembre, el sector tecnológico ha acelerado su apuesta por el lanzamiento de herramientas que dotan a las máquinas con una capacidad de respuesta cada vez más potente. Microsoft ha tomado la delantera en una carrera empresarial «fuera de control» que puede reportarle beneficios multimillonarios, pero cuyo impacto social, económico y cultural comporta «profundos riesgos para la humanidad».
Ese temor es el que ha llevado a más de mil personalidades a firmar una carta abierta en la que se pide a los laboratorios de IA «suspender inmediatamente durante al menos seis meses» el entrenamiento de sistemas más potentes que GPT-4. Ésta es la última generación del modelo de lenguaje de OpenAI, compañía creadora de ChatGPT, publicada el pasado 14 de marzo y que Microsoft ya está integrando en sus servicios, desde su buscador Bing a programas como Word o Excel. «Esta pausa debe ser pública y verificable (…) si no puede realizarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria», explican.
La carta está firmada por expertos, tanto del ámbito empresarial como especialmente del académico. La mayoría de las personas que han firmado la carta son expertos del ámbito universitario y de centros de investigación en IA De forma significativa, el primer firmante es el informático canadiense Yoshua Bengio, uno de los pioneros en el avance del aprendizaje profundo, la tecnología en la que se basan sistemas como ChatGPT. Entre los firmantes destacan nombres como los de Elon Musk, director general de Tesla, Twitter y SpaceX, Steve Wozniak, cofundador de Apple, el intelectual Yuval Noah Harari o el político Andrew Yang, candidato presidencial demócrata de Estados Unidos en 2020. También acompañan los cofundadores de plataformas como Skype, Pinterest o Ripple.
IA no confiable
Aunque estos son los nombres más mediáticos, la mayor parte de los firmantes son reputados académicos e investigadores en IA de todo el mundo. Los expertos afirman que se trata de una tecnología cuyo objetivo es crear texto que parezca lenguaje humano, pero tiene un problema de fondo muy importante que es que no puede garantizar que lo que dice es cierto.
Esa poca fiabilidad hace que, según Sierra, las consecuencias sean impredecibles, pero potencialmente tan «peligrosas» como el «me gusta» de las redes sociales. Razón por la que se demanda una regulación que proteja a los ciudadanos ante la estrategia «imprudente» de gigantes tecnológicos como Microsoft.
Entrevistado recientemente por la Agencia de Noticias Científicas de la UNQ, Emmanuel Iarussi, científico de Conicet y miembro del Laboratorio de Inteligencia Artificial de la Universidad Torcuato Di Tella, señala los riesgos que existen con la IA. En esta línea, afirmaba: «No hay antecedentes de una tecnología que nos permita crear imágenes tan reales y de manera tan masiva».
Entre sus consecuencias, la inteligencia artificial contribuye a la desinformación mediante la manipulación de imágenes, vídeos y la voz. En este sentido, Iarussi explica que si bien hay técnicas para reconocer si una imagen fue alterada, considera que es algo «transitorio». Y añadió: «Los algoritmos están siendo entrenados para ser indistinguibles, entonces es necesario que guardemos una dosis sana de escepticismo. Debemos acostumbrarnos a dudar de la verdad. La tecnología va a avanzar y van a existir cada vez menos contenidos reales».
Nota publicada en Esfera Comunicacional. Podes leer la versión original acá.