www.mil21.es

Pentágono finaliza piloto de chatbots de IA para medicina militar

lunes 06 de enero de 2025, 14:12h

Escucha la noticia

El Departamento de Defensa de EE. UU. ha concluido un innovador programa piloto que evaluó chatbots de inteligencia artificial en servicios médicos militares, conocido como el Programa de Aseguramiento CAIRT. Este proyecto involucró a más de 200 participantes y reveló más de 800 vulnerabilidades potenciales en los modelos de lenguaje utilizados para resumir notas clínicas y ofrecer asesoramiento médico. La iniciativa busca garantizar que las herramientas de IA cumplan con estrictos estándares de rendimiento y seguridad antes de su implementación en situaciones reales. Este esfuerzo refleja el compromiso del DoD con la innovación responsable en inteligencia artificial, alineándose con prioridades de seguridad nacional y estableciendo un modelo para la integración segura de tecnologías avanzadas en el ámbito militar.

El Departamento de Defensa de los Estados Unidos (DoD) ha culminado un programa piloto, conocido como el Programa de Aseguramiento CAIRT (Crowdsourced AI Red-Teaming), destinado a evaluar chatbots de inteligencia artificial (IA) en el ámbito de los servicios médicos militares. Esta iniciativa se centró en la evaluación de modelos de lenguaje de gran tamaño (LLMs) para resumir notas clínicas y proporcionar asesoramiento médico, involucrando a más de 200 participantes provenientes de diversas organizaciones de salud militar.

Durante el desarrollo del programa, se identificaron más de 800 vulnerabilidades y sesgos potenciales en los sistemas de IA, lo que resalta los desafíos asociados con la implementación de estas tecnologías en tareas críticas para la medicina militar. Los hallazgos obtenidos servirán para la creación de conjuntos de datos que permitirán evaluar futuras herramientas de IA y garantizar que cumplan con estrictos estándares militares.

Un enfoque innovador para la identificación de vulnerabilidades

El programa CAIRT utilizó un enfoque innovador mediante el red-teaming crowdsourced, involucrando a diversos interesados, incluidos proveedores clínicos y futuros beneficiarios, para acelerar la identificación de vulnerabilidades y fomentar la confianza en los sistemas de IA. Esta colaboración se llevó a cabo junto con la organización sin fines de lucro Humane Intelligence.

Este piloto subraya el compromiso del DoD por equilibrar la innovación en IA con la responsabilidad, asegurando que las herramientas sean efectivas y seguras. Además, está alineado con las prioridades más amplias de seguridad nacional, dado que el desarrollo de IA es cada vez más considerado crucial para mantener la competitividad militar estadounidense.

Desarrollo estratégico para el futuro

Los resultados del programa guiarán futuras investigaciones, así como el desarrollo de políticas y mejores prácticas para el uso responsable de la IA en medicina militar. La cautelosa pero proactiva estrategia del DoD sirve como modelo para una integración responsable de la IA, enfatizando la transparencia, supervisión y colaboración necesarias para mitigar riesgos.

Dr. Matthew Johnson, líder del CDAO (Oficina Principal Digital y de Inteligencia Artificial), destacó la importancia del programa al señalar que actúa como un camino esencial para generar datos masivos sobre pruebas y validar opciones para mitigar riesgos. Este esfuerzo no solo orientará investigaciones futuras sino también informará sobre políticas adecuadas para el uso responsable de IA en contextos militares.

Afrontando desafíos globales

Las iniciativas del DoD se desarrollan en un contexto mundial donde la competencia por el desarrollo tecnológico en IA se intensifica. En noviembre pasado, una comisión bipartidista instó a priorizar proyectos relacionados con IA, comparando esta necesidad con el Proyecto Manhattan. Este llamado refleja una creciente conciencia sobre la IA como componente crítico para la seguridad nacional.

A medida que empresas tecnológicas como Meta comienzan a ofrecer sus modelos avanzados al sector militar, surge una intersección entre innovación privada y necesidades militares. Esto plantea interrogantes importantes sobre supervisión ética y los riesgos asociados al uso de IA en entornos críticos.

Mirando hacia adelante

A pesar del inmenso potencial que ofrece la inteligencia artificial, el descubrimiento de más de 800 vulnerabilidades pone en evidencia la necesidad imperiosa de realizar pruebas rigurosas antes de su implementación en áreas sensibles como la medicina militar. A medida que el Pentágono sigue explorando las capacidades que brinda esta tecnología, es fundamental abordar estos riesgos garantizando que la innovación no comprometa ni la seguridad ni la fiabilidad.

En este contexto tecnológico acelerado, el enfoque cauteloso pero visionario del ejército estadounidense hacia la inteligencia artificial establece un estándar para una innovación responsable. Al priorizar aspectos como transparencia, rendición de cuentas y colaboración, el DoD sienta las bases para un futuro donde la inteligencia artificial potencie eficazmente las capacidades defensivas sin poner en riesgo su integridad.

Fuentes incluyen:

CoinTelegraph.com

Defense.gov

BitDegree.org

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios