Vie. Mar 29th, 2024

Un grupo de líderes de la industria advirtió el martes que la tecnología de inteligencia artificial que estaban construyendo algún día podría representar una amenaza existencial para la humanidad y debería considerarse un riesgo social como las pandemias y las guerras nucleares.

«La mitigación del riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos para toda la sociedad, como las pandemias y la guerra nuclear», se lee en un comunicado. declaración de una oración publicado por el Center for AI Safety, una organización sin fines de lucro. La carta abierta fue firmada por más de 350 ejecutivos, investigadores e ingenieros que trabajan en IA

Los signatarios incluyeron altos ejecutivos de tres de las principales empresas de IA: Sam Altman, director ejecutivo de OpenAI; Demis Hassabis, CEO de Google DeepMind; y Dario Amodei, CEO de Anthropic.

Geoffrey Hinton y Yoshua Bengio, dos de los tres investigadores que ganaron un Premio Turing por su trabajo pionero en redes neuronales y a menudo se les considera los «padrinos» del movimiento moderno de IA, firmaron la declaración, al igual que otros investigadores eminentes en el campo. (El tercer ganador del Premio Turing, Yann LeCun, quien dirige los esfuerzos de investigación de IA de Meta, no había firmado el martes).

La declaración llega en un momento de creciente preocupación por los daños potenciales de la inteligencia artificial. Los avances recientes en los llamados grandes modelos de lenguaje, el tipo de sistema de IA que usan ChatGPT y otros chatbots, han generado preocupaciones de que la IA pronto se usará a gran escala para difundir información errónea y propaganda, o que podría eliminar millones de empleos de cualificación alta.

Eventualmente, algunos creen que la IA podría volverse lo suficientemente poderosa como para crear interrupciones en toda la sociedad dentro de unos pocos años si no se hace nada para ralentizarla, aunque los investigadores a veces no llegan a explicar cómo sucedería esto.

Estos temores son compartidos por muchos líderes de la industria, lo que los coloca en la posición inusual de argumentar que una tecnología que están construyendo y, en muchos casos, apresurándose furiosamente para construir más rápido que sus competidores, tiene riesgos graves y debe ser regulada más de cerca.

Este mes, Altman, Hassabis y Amodei se reunieron con el presidente Biden y la vicepresidenta Kamala Harris para hablar sobre la regulación de la IA. En el testimonio del Senado después de la reunión, Altman advirtió que los riesgos de los sistemas avanzados de IA eran lo suficientemente graves como para justificar la intervención del gobierno y pidió la regulación de la IA por sus daños potenciales.

Dan Hendrycks, director ejecutivo del Center for AI Safety, dijo en una entrevista que la carta abierta representaba una «salida del armario» para algunos líderes de la industria que habían expresado preocupaciones, pero solo en privado, sobre los riesgos de la tecnología que eran. desarrollo.

“Existe una idea errónea muy común, incluso en la comunidad de IA, de que solo hay un puñado de convictos”, dijo Hendrycks. «Pero, de hecho, muchas personas expresarían en privado sus preocupaciones sobre estas cosas».

Algunos escépticos argumentan que la tecnología de IA aún es demasiado inmadura para representar una amenaza existencial. Cuando se trata de los sistemas de IA actuales, se preocupan más por los problemas a corto plazo, como las respuestas sesgadas e incorrectas, que por los peligros a más largo plazo.

Pero otros han argumentado que la IA está mejorando tan rápidamente que ya ha superado el rendimiento a nivel humano en algunas áreas y pronto las superará en otras. Dicen que la tecnología ha mostrado signos de capacidades y comprensión avanzadas, lo que genera preocupaciones de que la «inteligencia general artificial» o AGI, un tipo de inteligencia artificial que puede igualar o superar el rendimiento del nivel humano en una amplia variedad de tareas, no puede ser lejos.

En un publicación de blog la semana pasada, el Sr. Altman y otros dos ejecutivos de OpenAI ofrecieron varias formas de administrar de manera responsable los poderosos sistemas de IA. Hicieron un llamado a la cooperación entre los principales fabricantes de IA, más investigación técnica sobre modelos de lenguaje extenso y la formación de una organización internacional de seguridad de IA, similar a la Agencia Internacional de Inteligencia de Energía Atómica, que busca controlar el uso de armas nucleares.

Altman también expresó su apoyo a las reglas que requerirían que los fabricantes de modelos de inteligencia artificial grandes y de vanguardia se registren para obtener una licencia emitida por el gobierno.

En marzo, más de 1000 tecnólogos e investigadores firmaron otra carta abierta pidiendo una pausa de seis meses en el desarrollo de los modelos de IA más grandes, citando preocupaciones sobre «una carrera incontrolable para desarrollar e implementar mentes digitales cada vez más poderosas». ”

Esa carta, que fue organizada por otra organización sin fines de lucro centrada en la IA, el Future of Life Institute, fue firmada por Elon Musk y otros líderes tecnológicos conocidos, pero no recibió mucha atención de las firmas de los principales laboratorios de IA.

La brevedad de la nueva declaración del Centro para la Seguridad de la IA (solo 22 palabras en total) pretendía unir a los expertos en IA que podrían estar en desacuerdo sobre la naturaleza de los riesgos específicos o qué medidas se deben tomar para prevenir esos riesgos, pero que comparten preocupaciones generales. sobre poderosos sistemas de inteligencia artificial, dijo Hendrycks.

«No queríamos presionar por un menú muy grande de 30 posibles intervenciones», dijo. «Cuando eso sucede, se diluye el mensaje».

La declaración se compartió originalmente con algunos de los principales expertos en inteligencia artificial, incluido Hinton, quien renunció a su trabajo en Google este mes para poder hablar con más libertad, dijo, sobre el daño potencial de la inteligencia artificial. Desde allí, viajó a varios de los principales laboratorios de IA, donde algunos empleados se inscribieron.

La urgencia de las advertencias de los líderes de IA ha aumentado a medida que millones recurren a los chatbots de IA para entretener, entablar amistad y aumentar su productividad, y la tecnología subyacente está mejorando rápidamente.

“Creo que si esta tecnología sale mal, puede salir mal”, dijo Altman al subcomité del Senado. “Queremos trabajar con el gobierno para evitar que esto suceda”.