119
Views

Yuval Noah Harari, es un historiador, filósofo y escritor activo en materia de inteligencia artificial, conflictos geopolíticos y con best sellers publicados, entre los más conocidos se destacan “Sapiens: de animales a dioses” y “Homo Deus”. Yuval es uno de esos humanos que te lo encuentras hasta debajo de las baldosas, y tiene una justa razón para ser así. Es una de las pocas  personas que plantea más preguntas que respuestas sobre los tiempos que corren.

Mustafa Suleiman, por lo pronto el malo de la película, es un un investigador muy pro en inteligencia artificial, que trabaja con cosas que desconocemos, por lo que nuestro prejuicio nos impulsa a dejarlo a un lado. Este dark vader es el cofundador y CEO de https://inflection.ai/ (un nuevo asistente virtual que te podés bajar e instalar como app para tus quehaceres diarios) y de Deepmind (lo más cerca a una escuela de humanos que estudian cómo la inteligencia artificial se vuelve más inteligente y todo lo que eso implica), ambas adquiridas por Google en 2014.

 

A continuación les compartimos las partes más atractivas de un diálogo que intenta responder si la democracia y el mundo que conocemos sobrevivirá a esta nueva tecnología.

 

 

Zanny Minton-Beddoes: Yuval Noah Harari, Suleiman Mustafa, tienen perspectivas muy diferentes, pero pensé que sería realmente interesante reunirlos para conversar sobre lo que está ocurriendo, lo que va a ocurrir, las oportunidades, pero también lo que está en juego y los riesgos. Tomemos cinco años, 2028. ¿Cómo será el mundo? ¿Qué estaremos haciendo y qué no con la IA?

Mustafa: En los últimos 10 años, nos hemos vuelto muy buenos en la clasificación de la información, podemos entenderla, ordenarla, etiquetarla. La siguiente fase de eso es lo que estamos viendo ahora con la Revolución de la IA generativa. Ahora podemos producir nuevas imágenes, videos, audio y, por supuesto, nuevo lenguaje. En los próximos cinco años, las compañías líderes entrenarán modelos que serán mil veces más grandes de lo que ves hoy en GPT-4. Predecimos que las nuevas capacidades podrán planificar a lo largo de múltiples horizontes temporales en lugar de simplemente generar nuevo texto de un solo golpe. Creo que la IA será capaz de hacer más que simplemente decir cosas, podrán hacer cosas.

La verdadera pregunta es: ¿cómo podemos medir lo que pueden hacer?

He propuesto una prueba que implica que salgan y tomen una inversión de cien mil dólares y, durante tres meses, intenten crear un nuevo producto, investiguen el mercado para ver qué podría gustar a los consumidores, generen algunas imágenes nuevas, planos para fabricar ese producto, se comuniquen con un fabricante, negocien el precio, recojan los ingresos. Creo que en un período de cinco años, es bastante probable que tengamos una IA, una inteligencia artificial capaz, que pueda realizar la mayoría de esas tareas de manera autónoma.

 

Zanny Minton-Beddoes: Yuval, un hombre que no usa mucho el smartphone, escucha esto. ¿Te llena de horror o estás de acuerdo? ¿Crees que es probable que eso ocurra en los próximos cinco años?

Yuval Noah Harari: Lo tomo muy en serio. No sé, no vengo de la industria, por lo que no puedo comentar sobre lo probable que es que ocurra, pero cuando escucho esto como historiador, para mí, lo que acabamos de escuchar es el fin de la historia humana, no el fin de la historia, sino el fin de la historia dominada por los humanos.

 

Zanny Minton-Beddoes: Soy un optimista de corazón. ¿Podemos hablar de las posibilidades? ¿Cuáles son los beneficios potenciales? Porque son numerosos y realmente sustanciales.

Mustafa: Todo lo que hemos creado en la historia humana es producto de nuestra inteligencia, nuestra capacidad para hacer predicciones y luego intervenir en esas predicciones para cambiar el rumbo del mundo. En cierta forma abstracta, es la manera en que hemos producido nuestras empresas, nuestros productos y todo el valor que ha cambiado nuestro siglo.

Todo a nuestro alrededor es producto de la inteligencia, y todo lo que tocamos con estas nuevas herramientas probablemente producirá mucho más valor de lo que hemos visto antes. La tarea para nosotros es ser muy deliberados, precisos y cuidadosos acerca de las capacidades que queremos que surjan del modelo; el desafío de gobernanza para nosotros en las próximas décadas es asegurarnos de que siempre podamos imponer nuestras restricciones en el desarrollo de esta trayectoria.

 

Zanny Minton-Beddoes: Pero las capacidades que surgirán significarán, por ejemplo, mejoras potencialmente transformadoras en la salud humana, acelerar el proceso de innovación y cambios drásticos en la forma en que se realiza el descubrimiento científico. Los problemas difíciles, ya sea el cambio climático o muchos de los grandes desafíos que enfrentamos, podrían abordarse de manera mucho más efectiva con esta capacidad.

Mustafa: Todos tendrán una inteligencia personal en su bolsillo, un ayudante inteligente y capaz, un jefe de personal, un asistente de investigación que constantemente priorizará la información para ti, armando el resumen adecuado de conocimientos que necesitas para tomar acción en cualquier momento. Y eso, sin duda, nos hará a todos mucho más inteligentes y capaces.

 

Zanny Minton-Beddoes: ¿Te resulta atractiva esa idea?

Yuval Noah Harari: Absolutamente. El potencial positivo es tan enorme en todo, desde una atención médica mucho mejor hasta un mayor nivel de vida y la resolución de problemas como el cambio climático. Es por eso que es tan tentador, por eso estamos dispuestos a asumir los enormes riesgos involucrados. Sin embargo, estoy preocupado de que al final el trato no valga la pena.

 

Zanny Minton-Beddoes: Entonces, ¿cree que estamos intercambiando más inteligencia por un riesgo más destructivo?

Yuval Noah Harari: Sí, nuevamente, no es determinista. No creo que estemos condenados. Quiero decir, si pensara eso, ¿cuál sería el punto de hablar al respecto si no pudiéramos prevenir el peor escenario?

 

Zanny Minton-Beddoes: Pensar cuidadosamente al respecto es algo que Mustafa ha estado haciendo en este libro. ¿Crees que la inteligencia artificial, en última instancia, destruirá todos los trabajos porque la IA será mejor que los humanos en todo?

Mustafa: Depende del marco de tiempo. En un período de 10 a 20 años, mi intuición, y tienes razón en que hasta ahora la evidencia no respalda esto, es que no habrá realmente una amenaza significativa para los empleos.

Ahora, en un horizonte de 30 a 50 años, es muy difícil especular. Sabíamos que los humanos siempre serían los creativos, inventando cosas nuevas, haciendo estos saltos asombrosos entre ideas nuevas. Ahora es evidente que estos modelos hacen ambas cosas de manera increíble. Entonces, creo que durante un tiempo, la inteligencia artificial mejorará nuestras habilidades, nos hará más rápidos, más eficientes, más precisos, más creativos, más empáticos, y así sucesivamente.

Yuval Noah Harari: Con respecto a los empleos, estoy de acuerdo en que el escenario en el que simplemente no haya trabajos es poco probable, al menos en las próximas décadas. Pero debemos mirar con más cuidado el tiempo y el espacio. En cuanto al tiempo, el período de transición es el peligro, luego, el problema aún mayor es el del espacio. La desaparición de empleos y la creación de nuevos empleos ocurrirán en diferentes partes del mundo. Así que podríamos ver una situación en la que haya una inmensa demanda de empleos en California o Texas o China, mientras que países enteros pierden su base económica.  No se trata solo del número total de empleos en el planeta, sino de su distribución entre diferentes países. Creo que se creará una inmensa nueva riqueza con estas tecnologías.

 

Zanny Minton-Beddoes: Bueno, eso nos lleva al segundo riesgo potencial, que es el riesgo del AI para el sistema político en su conjunto. Hiciste un punto muy bueno en uno de tus escritos donde nos recordaste que el sistema político actual es realmente un producto del sistema económico en el que nos encontramos. Entonces, ¿sobrevivirá la democracia liberal tal como la conocemos?

 

Yuval Noah Harari: Sí. Antes del siglo XIX, no tenemos ningún ejemplo en la historia de una democracia a gran escala, porque la democracia es una conversación y no había tecnología de información o comunicación que permitiera una conversación entre millones de personas en todo un país. Así que la democracia moderna, tal como la conocemos, se construye sobre tecnología de la información específica. Una vez que la tecnología de la información cambia, queda en duda si la democracia liberal, como la conocemos, puede sobrevivir. Y el mayor peligro ahora es lo contrario a lo que enfrentamos en la Edad Media. En la Edad Media era imposible tener una conversación entre millones de personas porque simplemente no podían comunicarse. Pero en el siglo XXI, algo más podría hacer que la conversación sea imposible: si colapsa la confianza entre las personas. Si el espacio en línea se inunda de entidades no humanas, no tendrás idea de si lo que ves es verdadero o falso. En esta situación, a menos que tengamos ciertas normas, la conversación colapsa.

 

 

Zanny Minton-Beddoes: Creo que hay mecanismos técnicos que podemos implementar para prevenir ese tipo de situaciones, y es por eso que estamos hablando de ellos.

Yuval Noah Harari: Hay mecanismos, simplemente debemos usarlos. Diría dos cosas. En primer lugar, es muy positivo que más personas hayan obtenido una voz. La situación es diferente con los bots; los bots no tienen libertad de expresión, por lo que prohibir los bots es algo bueno.

Mustafa: No deberían tener libertad de expresión.

Yuval Noah Harari: Mi impresión es que la confianza se está desmoronando, la conversación se está desmoronando, y las personas ya no pueden ponerse de acuerdo sobre quién ganó las últimas elecciones, que es el hecho más básico en una democracia. Teníamos grandes desacuerdos antes, pero siento que ahora es diferente, que realmente la conversación se está rompiendo. No estoy seguro de por qué, pero es muy preocupante que, al mismo tiempo que tenemos la tecnología de la información más poderosa de la historia, las personas ya no puedan hablar entre ellas.

 

Zanny Minton-Beddoes: Es un punto muy acertado. Mustafa, en tu libro, te preocupa que uno de los posibles peligros sea la erosión de los poderes del Estado-Nación. ¿Podrías explicar esto como el tercero en mi creciente lista de riesgos?

Mustafa: El desafío es que, justo en el momento en que necesitamos que el estado-nación nos responsabilice, el estado-nación está luchando bajo la carga de la falta de confianza, una gran polarización y un colapso en nuestro proceso político. Y, combinado con eso, los últimos modelos están siendo desarrollados por empresas privadas y con código abierto. Así que tenemos este doble desafío: cómo responsabilizar al poder central cuando el mecanismo existente está un poco roto y cómo abordar este problema de proliferación masiva cuando no está claro cómo detener nada en la proliferación masiva en la web. Eso es realmente un gran desafío.

 

Zanny Minton-Beddoes: Tú, Mustafa, presentas un plan de 10 puntos, que es el tipo de acción que alguien que no solo comenta como tú y yo, sino que en realidad hace cosas. Entonces, cuéntanos, ¿qué necesitamos hacer como humanidad, como gobiernos, como sociedades, para asegurarnos de que capturemos las ganancias de esta tecnología, pero minimicemos los riesgos?

Mustafa: Hay algunas cosas muy prácticas que podemos hacer. Por ejemplo, poner a prueba estos modelos de manera adversarial, sometiéndolos a la mayor presión posible para que generen, por ejemplo, consejos sobre cómo crear un arma biológica o química, cómo fabricar una bomba o incluso impulsarlos a ser muy sexistas, racistas o sesgados de alguna manera. Eso ya es bastante significativo, podemos ver sus debilidades. Necesitamos hacer esto de manera abierta.

La segunda cosa es que debemos compartir las mejores prácticas, y aquí hay una tensión competitiva porque la seguridad será un activo. Ofreceré un mejor producto a mis consumidores si tengo un modelo más seguro. Pero, por supuesto, debe haber un requisito de que si descubro una vulnerabilidad, una debilidad en el modelo, debería compartir eso.

También estoy de acuerdo en que probablemente es hora de declarar explícitamente que no debemos permitir que se utilicen estas herramientas para la campaña electoral. No podemos confiar en ellas todavía, no podemos confiar en que sean estables y fiables. No podemos permitir que las personas las usen para crear personas digitales falsas, y claramente ya hablamos de eso.

Yuval Noah Harari: Bueno, mira, parte del desafío es que estos modelos se están volviendo más pequeños y eficientes. Así que el destino de esta tecnología es la proliferación, y debemos enfrentar esa realidad.El desafío aquí es que no hay supervisión. Lo compras directamente y no necesitas mucha formación, probablemente un estudiante de biología de pregrado hoy en día podría experimentar. En mi libro, estoy tratando de popularizar la idea de que este es el desafío de contención definitorio de las próximas décadas.

 

Zanny Minton-Beddoes: Usas la palabra “contención”, lo cual es interesante porque contigo inmediatamente inspira imágenes de George Kennan y, ya sabes, la dinámica de la Guerra Fría posterior a la Segunda Guerra Mundial. Y ahora estamos en un mundo geopolítico en el que existe una gran tensión entre Estados Unidos y China. ¿Este tipo de “contención”, como lo llama Mustafa, se puede lograr cuando tienes las tensiones que existen entre los grandes actores mundiales? ¿Es el paradigma correcto pensar en los tratados de control de armas de la Guerra Fría? ¿Cómo podemos abordar esto a nivel internacional?

Yuval Noah Harari: Creo que este es el problema más grande. Si se tratara de la humanidad contra una amenaza común de estos nuevos agentes inteligentes alienígenas aquí en la Tierra, entonces sí, creo que hay formas de contenerlos. Pero si los humanos están divididos entre sí y están en una carrera armamentista, se vuelve casi imposible contener esta inteligencia alienígena. Tal vez sean amables, tal vez resuelvan el cáncer y el cambio climático, pero no estamos seguros de lo que enfrentamos, excepto que los alienígenas no vienen en naves espaciales desde el planeta Zircon, vienen de los laboratorios.

 

Zanny Minton-Beddoes: La caracterización real de la naturaleza de la tecnología alienígena tiene por defecto agencia. Estas van a ser herramientas que podemos aplicar en configuraciones específicas.

Yuval Noah Harari: Sí, pero a menos que la contengamos, potencialmente será más inteligentes que nosotros. Creo que nuestra mejor opción no es pensar en términos de alguna regulación rígida, como deberías hacer esto o no deberías hacer aquello. Se trata de desarrollar nuevas instituciones vivas que sean capaces de comprender los desarrollos rápidos y reaccionar sobre la marcha. La mayoría de los gobiernos parecen bastante desinformados acerca de lo que está sucediendo, y las universidades tampoco tienen los recursos necesarios.

 

Zanny Minton-Beddoes: Incluso en estos modelos generativos de IA, el poder que hemos visto en los últimos uno, dos, tres, cuatro años es que han sido capaces de actuar de formas que tú y otros tecnólogos no anticiparon. Alcanzaron, por ejemplo, velocidades que no anticipaste o alcanzaron cosas sorprendentes. Lo sorprendente de ellos es que se han desarrollado de maneras más rápidas de lo que los creadores anticiparon. Es posible que no sean completamente autónomos, pero se moverán hacia eso en ciertas formas, y entonces, ¿cómo te proteges de eso o cómo realizas pruebas de estrés?

Mustafa: Es por eso que he estado abogando por el principio de precaución durante mucho tiempo. Deberíamos eliminar ciertas capacidades y clasificarlas como de alto riesgo. Francamente, el proyecto de ley de la Unión Europea sobre IA, que ha estado en proyecto durante tres años y medio, es muy sensato y tiene un marco basado en riesgos que se aplica a cada dominio de aplicación. Este es el momento en que debemos adoptar un principio de precaución, no por miedo, sino como una forma lógica y sensata de proceder.

 

Zanny Minton-Beddoes: ¿Es sensato para un país descartar ciertas capacidades si la otra parte no va a descartarlas?

Mustafa: Este es un momento en el que colectivamente, en Occidente, debemos establecer nuestros valores y respaldarlos. Desde nuestra propia perspectiva, debemos decidir qué estamos dispuestos a tolerar en la sociedad en lo que respecta a AIS que actúan libremente, vigilancia facial y sistemas autónomos en general. Hasta ahora, hemos adoptado un enfoque bastante cauteloso, la regulación es también un proceso cultural, de lo que consideramos social y políticamente aceptable en un momento dado. Creo que estamos viendo un nivel adecuado de precaución en gran medida.

Yuval Noah Harari: Estoy completamente de acuerdo en eso, en muchos campos necesitamos una coalición de voluntarios. Para proteger nuestras sociedades, sigue siendo una muy buena idea tener este tipo de regulaciones.

 

Zanny Minton-Beddoes: Esa área de acuerdo es una forma de concluir, pero quiero terminar preguntándoles a ambos, primero a Mustafa: están generando alarmas, pero al mismo tiempo están muy involucrados en la creación de este futuro. ¿Por qué siguen adelante?

Mustafa: Personalmente, creo que es posible aprovechar los aspectos positivos y minimizar los aspectos negativos en la inteligencia artificial que hemos creado. PI, que significa Personal Intelligence, es una de las más seguras del mundo en la actualidad. No produce sesgos racistas, tóxicos ni avaricia como lo hacía hace dos años. No es vulnerable a ninguno de los ataques o manipulaciones adversariales. Hemos hecho de la seguridad nuestra máxima prioridad en el diseño de nuestro producto. La próxima ola está llegando y mi contribución es tratar de manifestar una inteligencia personal que realmente cumpla con las mejores restricciones de seguridad que podamos imaginar.

 

Zanny Minton-Beddoes: Si miramos hacia atrás en la historia de la humanidad y hacia el futuro, ¿es esta tecnología y este ritmo de innovación de los que la humanidad se arrepentirá? ¿Debería Mustafa seguir adelante?

Yuval Noah Harari: Podría ser, no puedo predecir el futuro.Pero hay que recordar que nuestras mentes también tienen un gran potencial de desarrollo. Como humanidad, aún no hemos alcanzado nuestro pleno potencial. Si invertimos un dólar y un minuto en inteligencia artificial, deberíamos invertir otro dólar y otro minuto en desarrollar nuestra propia conciencia y mente.

 

Zanny Minton-Beddoes: Bueno, para mí, esta conversación con los dos ha sido precisamente esa inversión. Muchas gracias a ambos. Muchas gracias de verdad. Gracias.

Categorías:
Lo Político

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *