Se espera que el gobierno de Estados Unidos proporcione comentarios sobre las posibles mejoras de seguridad para los modelos de IA de OpenIA y Anthropic.
Comparte
El Instituto de Seguridad de Inteligencia Artificial (IA) del Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio de Estados Unidos anunció la firma de un memorando de entendimiento con Anthropic y OpenAI sobre la investigación,prueba y evaluación de seguridad de la IA.
Con este acuerdo,firmado el 29 de agosto,Anthropic y OpenAI establecerán un marco para que el Instituto de Seguridad de Inteligencia Artificial reciba acceso a los principales modelos nuevos de cada empresa antes y después de su lanzamiento público.
Por su parte,el Instituto proporcionará comentarios a Anthropic y OpenAI sobre posibles mejoras de seguridad para sus modelos,en estrecha colaboración con sus socios del Instituto de Seguridad de la IA del Reino Unido.
Lee también: El desarrollo de la IA requiere acuerdos globales,pero su regulación depende de cada país: Gabriele Mazzini
Se trata de la primera alianza de este tipo entre la industria IA y el gobierno y habilita la investigación colaborativa sobre cómo evaluar las capacidades y los riesgos de seguridad,así como los métodos para mitigar esos riesgos.
Las evaluaciones realizadas de conformidad con estos acuerdos ayudarán a promover el desarrollo y uso seguro,confiable y protegido de la IA,basándose en la Orden Ejecutiva sobre IA de la administración Biden-Harris y los compromisos voluntarios asumidos ante la administración por los principales desarrolladores de modelos de IA.
“La seguridad es esencial para impulsar la innovación tecnológica revolucionaria. Con estos acuerdos esperamos comenzar nuestras colaboraciones técnicas con Anthropic y OpenAI para avanzar en la ciencia de la seguridad de la IA”,dijo Elizabeth Kelly,directora del Instituto de Seguridad de la IA de EE. UU.