Más de 200 empresas, organizaciones, startups y equipos académicos forman el nuevo consorcio de IA de Estados Unidos. Entre sus integrantes, se encuentran empresas como OpenAI, Microsoft y Meta.
Las grandes empresas tecnológicas, incluidas OpenAI, Meta, Google, Intel, Microsoft, Apple, Amazon, IBM y Qualcomm, forman parte del nuevo Consorcio del Instituto de Seguridad de IA de Estados Unidos.
Gina Raimondo, secretaria de Comercio del gobierno de Joe Biden, anunció el 8 de febrero la creación del consorcio, que contribuirá al desarrollo de directrices, herramientas, métodos, protocolos y mejores prácticas para el uso seguro y confiable de la Inteligencia Artificial (IA).
El consorcio está integrado por más de 200 grandes empresas, organizaciones, startups y equipos académicos involucrados en el diseño y uso de sistemas de IA.
Además de las ya mencionadas, otros integrantes abarcan a Cisco, el Instituto de Ingenieros Eléctricos y Electrónicos, JPMorgan Chase, KPMG, Linux Foundation, AI & Data, Mastercard, Nvidia, Salesforce, Visa y Lumenova AI.
Dicho consorcio estará alojado en el Instituto de Seguridad de la IA, que forma parte del Instituto Nacional de Estándares y Tecnología, el cual a su vez depende del Departamento de Comercio.
Su meta será contribuir a implementar las acciones dispuestas por la Orden Ejecutiva sobre la IA que el presidente Joe Biden emitió en octubre de 2023.
Los miembros del consorcio ayudarán al Instituto en tareas como las siguientes:
- Desarrollar directrices y puntos de referencia para identificar y evaluar capacidades de IA, centrándose en aquellas que potencialmente podrían causar daño.
- Idear enfoques para incorporar prácticas de desarrollo seguro para la IA generativa, incluidas consideraciones especiales para los modelos básicos de doble uso.
- Desarrollar y garantizar la disponibilidad de entornos de prueba.
- En la orientación, métodos, habilidades y prácticas para lograr un Aprendizaje Automático que preserve la privacidad.
- Crear herramientas para autenticar contenido digital.
- Desarrollar orientación y criterios para las habilidades de la fuerza laboral de IA, incluida la identificación y gestión de riesgos, prueba, evaluación, validación y verificación y experiencia en dominios específicos.
- Analizar la intersección de la sociedad y la tecnología, y cómo los humanos dan sentido a la IA y cómo se relacionan con ella en diferentes contextos.
Consorcio impulsará “una nueva ciencia de medición en la seguridad de la IA”
Raimondo explicó que el trabajo conjunto con el consorcio de líderes de la industria, sociedad civil y academia permitirá enfrentar los desafíos de desarrollar mediciones y estándares para utilizar y aprovechar la Inteligencia Artificial de manera ética y responsable.
En ese sentido, la creación de estándares para la realización de pruebas sobre los productos de IA será uno de los objetivos clave del nuevo consorcio. El año pasado, algunas de las principales empresas tecnológicas ya se habían comprometidocon el gobierno de Joe Biden a implementar medidas para garantizar la seguridad en sus sistemas de IA y evitar afectaciones a los usuarios.
“Para seguir el ritmo de la IA, tenemos que actuar con rapidez y asegurarnos de que todos (desde el gobierno hasta el sector privado y el mundo académico) remen en la misma dirección”, afirmó Bruce Reed, subjefe de gabinete de la Casa Blanca.
El consorcio facilitará un conjunto de equipos de prueba y evaluación para las soluciones de Inteligencia Artificial, y se espera que su colaboración con el gobierno de Estados Unidos ayude a sentar las bases para “una nueva ciencia de medición en la seguridad de la IA”.
Por ahora, el consorcio está conformado por más de 200 actores, que fueron elegidos entre más de 600 cartas de interés que el Instituto Nacional de Estándares y Tecnología recibió entre el 2 de noviembre de 2023 y el 15 de enero de 2024.
CON INFORMACIÓN VÍA DPL NEWS