La vicepresidenta Kamala Harris se reunió el jueves con los jefes de Google, Microsoft y otras dos empresas que desarrollan inteligencia artificial a medida que la administración Biden implementa iniciativas destinadas a garantizar que la tecnología en rápida evolución mejore la vida sin poner en riesgo los derechos y la seguridad de las personas.
El presidente Joe Biden pasó brevemente por la reunión en la Sala Roosevelt de la Casa Blanca y dijo que esperaba que el grupo pudiera “educarnos” sobre lo que más se necesita para proteger y hacer avanzar a la sociedad.
“Lo que están haciendo tiene un enorme potencial y un enorme peligro”, dijo Biden a los directores ejecutivos, según un video publicado en su cuenta de Twitter.
La popularidad del chatbot de IA ChatGPT (incluso Biden lo ha probado, dijeron funcionarios de la Casa Blanca el jueves) ha provocado un aumento de la inversión comercial en herramientas de IA que pueden escribir texto convincentemente similar al humano y producir nuevas imágenes, música y código de computadora.
Pero la facilidad con la que puede imitar a los humanos ha llevado a los gobiernos de todo el mundo a considerar cómo podría quitar empleos, engañar a las personas y difundir desinformación.
La administración demócrata anunció una inversión de 40 millones para establecer siete nuevos institutos de investigación de IA.
Además, se espera que la Oficina de Administración y Presupuesto de la Casa Blanca emita una guía en los próximos meses sobre cómo las agencias federales pueden usar las herramientas de IA. También existe un compromiso independiente por parte de los principales desarrolladores de IA para participar en una evaluación pública de sus sistemas en agosto en la convención de hackers DEF CON de Las Vegas.
Pero la Casa Blanca también debe tomar medidas más enérgicas a medida que los sistemas de inteligencia artificial creados por estas empresas se integran en miles de aplicaciones de consumo, dijo Adam Conner, del Center for American Progress, de tendencia liberal.
“Estamos en un momento en el que en los próximos meses realmente determinaremos si lideramos o no en esto o cedemos el liderazgo a otras partes del mundo, como lo hemos hecho en otros espacios regulatorios tecnológicos como la privacidad o la regulación de grandes plataformas en línea. —dijo Conner—.
La reunión se presentó como una forma para que Harris y los funcionarios de la administración discutieran los riesgos en el desarrollo actual de IA con el CEO de Google, Sundar Pichai, el CEO de Microsoft, Satya Nadella, y los jefes de dos nuevas empresas influyentes: Anthropic respaldada por Google y OpenAI respaldada por Microsoft, el fabricante. de ChatGPT.
Harris dijo en un comunicado después de la reunión a puerta cerrada que les dijo a los ejecutivos que “el sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos”.
ChatGPT ha liderado una serie de nuevas herramientas de “IA generativa” que se suman a las preocupaciones éticas y sociales sobre los sistemas automatizados entrenados en grandes cantidades de datos.
Algunas de las empresas, incluida OpenAI, han mantenido en secreto los datos con los que se han entrenado sus sistemas de IA. Eso hace que sea más difícil entender por qué un chatbot produce respuestas parciales o falsas a las solicitudes o para abordar las preocupaciones sobre si está robando obras protegidas por derechos de autor.
Las empresas preocupadas por ser responsables de algo en sus datos de capacitación también podrían no tener incentivos para realizar un seguimiento riguroso de una manera que sería útil “en términos de algunas de las preocupaciones sobre el consentimiento, la privacidad y la concesión de licencias”, dijo Margaret Mitchell, científica jefe de ética. en la startup de IA Hugging Face.
“Por lo que sé de la cultura tecnológica, eso simplemente no se hace”, dijo.
Algunos han pedido leyes de divulgación para obligar a los proveedores de IA a abrir sus sistemas a un mayor escrutinio de terceros. Pero con los sistemas de IA construidos sobre modelos anteriores, no será fácil proporcionar una mayor transparencia después del hecho.
“Realmente dependerá de los gobiernos decidir si esto significa que tienes que tirar a la basura todo el trabajo que has hecho o no”, dijo Mitchell. “Por supuesto, me imagino que al menos en los EE. UU., las decisiones se inclinarán hacia las corporaciones y apoyarán el hecho de que ya se ha hecho. Tendría ramificaciones tan masivas si todas estas empresas tuvieran que desechar todo este trabajo y empezar de nuevo”.
Si bien la Casa Blanca señaló el jueves un enfoque de colaboración con la industria, las empresas que construyen o usan IA también se enfrentan a un mayor escrutinio por parte de agencias estadounidenses como la Comisión Federal de Comercio, que hace cumplir las leyes antimonopolio y de protección al consumidor.
Las empresas también enfrentan reglas potencialmente más estrictas en la Unión Europea, donde los negociadores están dando los toques finales a las regulaciones de IA que podrían llevar al bloque de 27 naciones al frente del impulso global para establecer estándares para la tecnología.
Cuando la UE elaboró por primera vez su propuesta de reglas de IA en 2021, la atención se centró en controlar las aplicaciones de alto riesgo que amenazan la seguridad o los derechos de las personas, como el escaneo facial en vivo o los sistemas gubernamentales de puntuación social, que juzgan a las personas en función de su comportamiento. Los chatbots apenas se mencionaron.
Pero como reflejo de lo rápido que se ha desarrollado la tecnología de IA, los negociadores en Bruselas se han esforzado por actualizar sus propuestas para tener en cuenta los sistemas de IA de propósito general como los construidos por OpenAI. Las disposiciones añadidas al proyecto de ley requerirían que los llamados modelos básicos de inteligencia artificial divulguen el material con derechos de autor utilizado para entrenar los sistemas, según un borrador parcial reciente de la legislación obtenido por The Associated Press.
Un comité del Parlamento Europeo votará la próxima semana sobre el proyecto de ley, pero podrían pasar años antes de que la Ley de IA entre en vigencia.
En otras partes de Europa, Italia prohibió temporalmente ChatGPT por una violación de las estrictas normas de privacidad europeas, y el regulador de la competencia de Gran Bretaña dijo el jueves que está abriendo una revisión del mercado de IA.
En los EE. UU., poner los sistemas de IA para inspección pública en la conferencia de hackers DEF CON podría ser una forma novedosa de probar los riesgos, aunque probablemente no sea tan exhaustiva como una auditoría prolongada, dijo Heather Frase, investigadora principal del Centro de Seguridad y Seguridad de la Universidad de Georgetown. Tecnología emergente.
Junto con Google, Microsoft, OpenAI y Anthropic, las empresas que, según la Casa Blanca, acordaron participar incluyen Hugging Face, el fabricante de chips Nvidia y Stability AI, conocida por su generador de imágenes Stable Diffusion.
“Esta sería una forma de que las personas muy capacitadas y creativas lo hicieran en una especie de gran explosión”, dijo Frase.