Los tentáculos de Washington se están expandiendo en el ámbito de la inteligencia artificial (IA), mientras los poderes fácticos intentan ejercer control sobre todos los modelos de IA. OpenAI y Anthropic, dos destacadas empresas del sector, han llegado a un acuerdo para compartir sus modelos con el Instituto de Seguridad de la IA del gobierno de EE.UU. antes de su lanzamiento, lo que permitirá a los líderes del país evaluar sus "capacidades y riesgos" antes de autorizar su publicación. Además, según Bloomberg, OpenAI y Anthropic están "colaborando en métodos para mitigar posibles problemas".
"La innovación tecnológica revolucionaria depende en gran medida de la seguridad", afirmó Elizabeth Kelley, quien es directora del Instituto de Seguridad de la IA. "Estos acuerdos representan solo el inicio, pero son un paso significativo mientras nos esforzamos por gestionar de manera responsable el futuro de la IA". Por otro lado, el Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio de EE. UU. anunció que actualmente colabora "estrechamente con el Instituto de Seguridad de IA del Reino Unido" para llevar a cabo iniciativas similares en su lado del océano.
El director de estrategia de OpenAI, Jason Kwon, afirmó: "Apoyamos firmemente la misión del Instituto de Seguridad de la IA de EE. UU. y esperamos trabajar juntos para informar sobre las mejores prácticas y estándares de seguridad para los modelos de IA". Además, destacó que "creemos que el instituto tiene un papel fundamental que desempeñar en la definición del liderazgo de Estados Unidos en el desarrollo responsable de la inteligencia artificial y esperamos que nuestro trabajo conjunto ofrezca un marco sobre el que el resto del mundo pueda construir".