
Imagen ilustrativa generada con Inteligencia artificial el 21.03.2023 por mutamagazine
Hace unos meses, hablamos de la carta abierta que encabezaron referentes tecnológicos en la cual pedían detener y regular el avance de las inteligencias artificiales, antes de que los reclutadores de recursos humanos fueran reemplazados por IAS y los Tinders se llenaran de bots.
Lamentablemente, esa carrera viene avanzando lenta pero constante. Al término de la redacción de este post, Sam Altman, CEO, cofundador y evangelista de OpenAI, testificó ante el comite subcomite judicial del estado del Congreso en Washington sobre estándares de seguridad y creación de una licencia para sus sistemas. Días atrás, Bard, el chat gpt de Google, era lanzado con conexión en tiempo real a internet, ¡una locura!
En otras palabras, la búsqueda por capitalizar ganancias con mayor velocidad en la revolución IA avanza sin restricción como en la conquista del viejo oeste: a fin de cuentas, avanzamos sobre territorio desconocido y el que primero llegue se perpetuará en la historia para siempre.
En este marco, y luego de su gira mundial de un mes para hablar con los responsables de las políticas sobre la tecnología, Sam Altman fue bombardeado junto a su ejército de abogados con preguntas respecto a lo que todos queremos saber: ¿Las inteligencias artificiales tienen potencial para modificar cómo las personas trabajan, compran e interactúan?. ¿Cuál es el rol que el estado y las empresas deben tomar para beneficiarse de la tecnología, pero a su vez prevenir posibles amenazas?. ¿Cuáles son los salvavidas con los que contamos en una hipotética situación límite?
Previo al debate de la primera legislación tentativa, el Congreso de los Estados Unidos preparó algunos puntos clave.
Legislación
“Creo que la intervención regulatoria del Estado debe ser crítica para mitigar los riesgos de los modelos cada vez más potentes. Por ejemplo, el Estado norteamericano podría considerar la combinación de una legislación y requisitos para testear el desarrollo y lanzamiento de IAs por encima de un umbral de capacidades. Lo que está pasando en la comunidad del Open Source es increíble, pero existe un pequeño número de proveedores que pueden realizar contribuciones únicas”.
Alcances
“OpenAI fue fundada creyendo que la inteligencia artificial tiene el potencial de mejorar casi todos los aspectos de nuestras vidas, pero también sabiendo que crea riesgos graves con los que debemos trabajar juntos para gestionar. Estamos aquí porque a la gente le encanta esta tecnología. Creemos que puede ser un momento similar a la invención de la imprenta y debemos trabajar juntos para lograrlo. OpenAI es una compañía inusual y la configuramos de esa manera porque la IA es una tecnología inusual. Estamos gobernados por una organización sin fines de lucro y nuestras actividades están impulsadas por nuestra misión y nuestro estatuto, que nos comprometen a trabajar para garantizar la distribución amplia de los beneficios de la IA y maximizar la seguridad de sus sistemas. Buscamos construir herramientas que algún día puedan ayudarnos a hacer nuevos descubrimientos y abordar algunos de los desafíos más grandes de la humanidad, como el cambio climático y la cura del cáncer. Nuestros sistemas actuales aún no son capaces de hacer estas cosas, pero ha sido inmensamente gratificante ver a muchas personas en todo el mundo obtener tanto valor de lo que estos sistemas ya pueden hacer hoy”, dijo Sam Altman, CEO de OpenAI.
Potenciales peligros
Respecto a las peores posibles consecuencias de la IA, Altman sostuvo: “Creo que el empleo y qué haremos todos con nuestro tiempo realmente importan. Estoy de acuerdo en que cuando lleguemos a sistemas muy poderosos, el panorama cambiará. Solo soy más optimista en el sentido de que somos increíblemente creativos y encontramos cosas nuevas para hacer con mejores herramientas. Eso seguirá sucediendo. Mis peores temores son que causamos un daño significativo al mundo y creo que eso podría suceder de muchas maneras diferentes, por eso comenzamos la compañía. Es el motivo por el cual estoy aquí hoy y el por qué hemos estado aquí en el pasado y hemos podido pasar un tiempo con ustedes. Creo que si esta tecnología sale mal, puede salir muy mal, y queremos ser vocales al respecto, queremos trabajar con el gobierno para evitar que eso suceda. Tratamos de tener una visión muy realista de cuál es el peor peligro”.
La administración de Biden está considerando a la inteligencia artificial como una prioridad. Y si bien el líder de la mayoría del Senado, Charles E. Schumer (D-N.Y.), ha estado desarrollando un nuevo marco de inteligencia artificial que “un nuevo marco que proporcione una inteligencia artificial transparente y responsable sin sofocar la innovación crítica y de vanguardia”, la realidad es que aún no existe nada certero.
I don’t think the title of your article matches the content lol. Just kidding, mainly because I had some doubts after reading the article.