Grandes empresas de IA se unen para abordar los riesgos de seguridad: De qué se trata | Dolarhoy.com
Empresas|08 de febrero de 2024

Grandes empresas de IA se unen para abordar los riesgos de seguridad: De qué se trata

Las principales empresas de inteligencia artificial se suman a más de 200 entidades para apoyar el desarrollo y el despliegue seguros de la IA generativa.

Por Eric Nesich

 

La gobierno de Joe Biden informó el jueves que las principales empresas de inteligencia artificial se encuentran entre las más de 200 entidades que se unen a un nuevo consorcio estadounidense para apoyar el desarrollo y el despliegue seguros de la IA generativa.

 

La secretaria de Comercio, Gina Raimondo, anunció el Consorcio del Instituto de Seguridad de IA de EE. UU. (AISIC), que incluye a OpenAI y Google de Alphabet,  Anthropic, Microsoft, Facebook, Apple, Amazon, Nvidia, Palantir, Intel, JPMorgan Chase y Bank of America.

 

"El Gobierno de Estados Unidos tiene un papel importante que desempeñar en el establecimiento de estándares y el desarrollo de las herramientas que necesitamos para mitigar los riesgos y aprovechar el inmenso potencial de la inteligencia artificial", dijo Raimondo en un comunicado.

 

El consorcio, que también incluye a BP, Cisco Systems, IBM, Hewlett Packard, Northop Grumman, Mastercard, Qualcomm, Mastercard y Visa más las principales instituciones académicas y agencias gubernamentales, estarán alojadas en el Instituto de Seguridad de la IA de EE. UU. (USAISI).

 

El grupo tiene la tarea de trabajar en acciones prioritarias descritas en la orden ejecutiva de IA de octubre del presidente Biden : "Incluir el desarrollo de pautas para la formación de equipos rojos, evaluaciones de capacidades, gestión de riesgos, seguridad y protección, y marcas de agua en contenido sintético".

 

El año pasado , las principales empresas de IA se comprometieron a poner marcas de agua en el contenido generado por IA para hacer que la tecnología sea más segura. El equipo rojo se ha utilizado durante años en ciberseguridad para identificar nuevos riesgos, y el término se refiere a las simulaciones de la Guerra Fría de Estados Unidos en las que el enemigo era denominado "equipo rojo".

La orden de Biden instó a las agencias que establecieran estándares para esas pruebas y abordaran los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad relacionados. En diciembre, el Departamento de Comercio dijo que estaba dando el primer paso hacia la redacción de estándares y directrices clave para el despliegue y prueba seguros de la IA.

 

El consorcio representa el mayor grupo de equipos de prueba y evaluación y se centrará en crear las bases para una "nueva ciencia de medición en la seguridad de la IA", dijo Commerce.

 

La IA generativa, que puede crear texto, fotos y videos en respuesta a indicaciones abiertas, ha generado entusiasmo y temores de que pueda volver obsoletos algunos trabajos, alterar las elecciones y potencialmente dominar a los humanos y causar efectos catastróficos.

 

Si bien la administración Biden busca salvaguardias, los esfuerzos en el Congreso para aprobar una legislación que aborde la IA se han estancado a pesar de numerosos foros de alto nivel y propuestas legislativas.