Dom. May 19th, 2024

La Casa Blanca anunció el jueves sus primeras nuevas iniciativas para controlar los riesgos de la inteligencia artificial desde que un auge en los chatbots impulsados ​​por IA provocó crecientes llamados para regular la tecnología.

La Fundación Nacional de Ciencias planea gastar $140 millones en nuevos centros de investigación de IA, dijeron funcionarios de la Casa Blanca. La administración también se comprometió a publicar pautas preliminares para que las agencias gubernamentales garanticen que el uso de la IA protege «los derechos y la seguridad del pueblo estadounidense», y agregó que varias compañías de IA acordaron que sus productos estén disponibles para su revisión en agosto en una conferencia de seguridad cibernética.

Los anuncios se produjeron horas antes de que la vicepresidenta Kamala Harris y otros funcionarios de la administración se reunieran con los directores ejecutivos de Google, Microsoft, OpenAI, el fabricante del popular chatbot ChatGPT, y Anthropic, una empresa emergente de tecnología ‘IA, para hablar sobre la tecnología. Un alto funcionario de la administración dijo el miércoles que la Casa Blanca planea convencer a las empresas de que tienen la responsabilidad de lidiar con los riesgos de los nuevos desarrollos de IA. cuadros realistas La explosión de interés en la tecnología comenzó el año pasado cuando OpenAI lanzó ChatGPT al público y la gente inmediatamente comenzó a usarlo para buscar información, hacer tareas y ayudar con su trabajo. Desde entonces, algunas de las empresas tecnológicas más grandes se han apresurado a integrar chatbots en sus productos y acelerar la investigación de IA, mientras que los capitalistas de riesgo han invertido dinero en nuevas empresas tecnológicas.

Pero el auge de la IA también ha planteado preguntas sobre cómo la tecnología transformará las economías, cambiará la geopolítica y mejorará la actividad delictiva. A los críticos les preocupa que muchos sistemas de IA sean opacos pero extremadamente poderosos, con el potencial de tomar decisiones discriminatorias, reemplazar a las personas en sus trabajos, difundir información errónea y posiblemente incluso infringir la ley a través de ellos.

Presidente Biden dijo recientemente que «queda por verse» si la IA es peligrosa, y algunos de sus altos funcionarios se han comprometido a intervenir si la tecnología se usa de manera dañina.

Sam Altman, de pie, director ejecutivo de OpenAI, se reunirá con la vicepresidenta Kamala Harris el jueves. Crédito…Jim Wilson/The New York Times

Los portavoces de Google y Microsoft se negaron a comentar antes de la reunión en la Casa Blanca. Un portavoz de Anthropic confirmó que la empresa asistirá. Una portavoz de OpenAI no respondió a una solicitud de comentarios.

Los anuncios se basan en los esfuerzos previos de la administración para poner salvaguardas en la IA El año pasado, la Casa Blanca publicó lo que llamó un «Plan para una Declaración de Derechos Humanos» ‘IA’, que establecía que los sistemas automatizados deberían proteger la privacidad de los usuarios. datos, protegerlos de resultados discriminatorios y explicar claramente por qué se tomaron ciertas medidas. En enero, el Departamento de Comercio también publicó un marco para reducir el riesgo en el desarrollo de IA, que se había estado trabajando durante años.

La introducción de chatbots como ChatGPT y Bard de Google ha ejercido una enorme presión sobre los gobiernos para que actúen. La Unión Europea, que ya había negociado regulaciones sobre IA, enfrentó nuevas demandas para regular una gama más amplia de IA, en lugar de solo sistemas considerados inherentemente de alto riesgo.

En los Estados Unidos, los miembros del Congreso, incluido el senador Chuck Schumer de Nueva York, líder de la mayoría, han decidido redactar o proponer legislación para regular la IA. Pero es más probable que los pasos concretos para aprovechar la tecnología en el país provengan de la aplicación de la ley en Washington en primer lugar.

Un grupo de agencias gubernamentales se comprometió en abril a “supervisar el desarrollo y uso de sistemas automatizados y promover la innovación responsable”, mientras castiga las violaciones de la ley que utilizan la tecnología.

En un ensayo invitado en The New York Times el miércoles, Lina Khan, presidenta de la Comisión Federal de Comercio, dijo que la nación estaba en un «punto de decisión clave» con AI. Comparó los desarrollos recientes en tecnología con el nacimiento de gigantes tecnológicos como Google. y Facebook, y advirtió que, sin una regulación adecuada, la tecnología podría empoderar a las empresas tecnológicas más grandes y brindarles a los estafadores una herramienta poderosa.

«A medida que el uso de la IA se vuelve más generalizado, los funcionarios públicos tienen la responsabilidad de garantizar que esta historia aprendida con tanto esfuerzo no se repita», dijo.