365
Views

Los primeros límites para la inteligencia artificial: concluyó la primera Cumbre Mundial de Seguridad de la Inteligencia Artificial con un plan para las pruebas de seguridad de la IA avanzada.

El 1 y 2 de noviembre en Bletchey Park, una instalación militar localizada en Buckinghamshire, Inglaterra, se celebró el primer AI SAFETY SUMMIT, un encuentro que reunió a naciones líderes en IAs, compañías tecnológicas, investigadores y  grupos civiles, para tomar acciones drásticas y rápidas que entiendan la necesidad de demarcar límites y una frontera de desarrollo responsable para el uso de la inteligencia artificial en el mundo.

Esta conversación crítica estuvo conformada por 28 países que aceptaron firmar La Declaración de Bletchley, un compromiso para abordar los desafíos y riesgos asociados con el desarrollo y despliegue de la inteligencia artificial. Este acuerdo reconoce la urgente necesidad de comprender y gestionar colectivamente los posibles peligros que puedan surgir con su evolución.

A esta se sumó una segunda declaración sobre Seguridad en la inteligencia artificial, con el fin de que aquellos líderes, junto a quienes están desarrollando sistemas avanzados de inteligencia artificial, reconozcan la necesidad de colaborar en la evaluación de la próxima generación de modelos de inteligencia artificial frente a una variedad de riesgos críticos para la seguridad nacional, la seguridad pública y la sociedad en general.

Por último,  acordaron respaldar un informe denominado ‘Estado de la Ciencia’, que contribuirá a construir un consenso internacional sobre las capacidades y riesgos de la inteligencia artificial de vanguardia.

Los países representados también aceptaron apoyar al profesor Yoshua Bengio, de origen canadiense,  reconocido mundialmente como un líder experto en Deep Learning,  ganador del Premio Turing y miembro del Consejo Científico Asesor de la ONU, líder del primer informe “Estado de la Ciencia”, sobre la inteligencia artificial de vanguardia mencionado anteriormente. Esto va a proveer un seguimiento científico a la información existente sobre los riesgos y capacidades y priorizar las áreas de estudio necesarias para el futuro trabajo en la seguridad de la IAs.

En los próximos seis meses, la República de Corea acordó organizar una mini cumbre virtual, mientras que Francia será la anfitriona de la próxima reunión en 1 año.

Alguno de los comentarios destacados de los líderes presentes fueron de la Secretaria de Estado de Ciencia, Innovación y Tecnología, Michelle Donelan, quién expresó: “los pasos que acordamos tomar en los últimos dos días ayudarán a la humanidad a aprovechar las oportunidades para mejorar la atención médica, aumentar la productividad en el trabajo y crear industrias completamente nuevas que la inteligencia artificial segura y responsable está destinada a desbloquear. Asegurar que la inteligencia artificial funcione para el bien de todos es un esfuerzo global, pero me enorgullece el papel único que el Reino Unido ha desempeñado al reunir a gobiernos, empresas y pensadores para acordar pasos concretos hacia un futuro más seguro”.

Entre tanto, el Primer Ministro Rishi Sunak dijo: “hasta ahora, las únicas personas que han estado probando la seguridad de los nuevos modelos de inteligencia artificial han sido las mismas empresas que los desarrollan. No deberíamos depender de ellas para corregir sus propios deberes, como muchos de ellos reconocen. Hoy hemos llegado a un acuerdo histórico, con gobiernos y empresas de inteligencia artificial, trabajando juntos para evaluar la seguridad de sus modelos antes y después de su lanzamiento. El Instituto de Seguridad de la Inteligencia Artificial del Reino Unido desempeñará un papel vital liderando este trabajo, en colaboración con países de todo el mundo”.

El profesor Yoshua Bengio dijo: “el desarrollo seguro y responsable de la inteligencia artificial es un problema que nos concierne a todos. Hemos visto una inversión masiva en mejorar las capacidades de la inteligencia artificial, pero no lo suficiente en proteger al público, ya sea en términos de investigación sobre la seguridad de la IA o en términos de gobernanza para asegurar que la IA se desarrolle en beneficio de todos. Me complace apoyar la muy necesaria coordinación internacional para gestionar la seguridad de la inteligencia artificial, trabajando con colegas de todo el mundo para presentar las últimas evidencias sobre este tema vitalmente importante”.

 

Fuente: https://www.aisafetysummit.gov.uk/

Fuente: https://www.gov.uk/government/news/world-leaders-top-ai-companies-set-out-plan-for-safety-testing-of-frontier-as-first-global-ai-safety-summit-concludes

Categorías:
Cyberpunk

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *