www.mil21.es
Google elimina su compromiso ético sobre IA, desata críticas por uso militar y vigilancia
Ampliar

Google elimina su compromiso ético sobre IA, desata críticas por uso militar y vigilancia

lunes 10 de febrero de 2025, 14:51h

Escucha la noticia

Google has sparked outrage by retracting its 2018 pledge to avoid using artificial intelligence (AI) for weapons or surveillance. The updated policy, which emphasizes "responsible" AI, lacks explicit prohibitions on military applications, raising concerns among employees and human rights groups about potential mass surveillance and warfare. Critics argue this decision prioritizes profit over ethical considerations, echoing past controversies like Project Maven. As Google collaborates more with government agencies, the absence of robust ethical safeguards in AI development poses significant risks for human rights and privacy. This shift marks a troubling turn in the tech giant's commitment to ethical AI practices.

Google abandona su compromiso ético sobre inteligencia artificial

La empresa Google ha decidido eliminar su promesa de 2018 de no utilizar la inteligencia artificial (IA) para fines bélicos o de vigilancia, lo que ha desencadenado una fuerte reacción por parte de empleados y grupos de derechos humanos. Esta modificación en su política, anunciada recientemente, pone énfasis en el desarrollo de una IA "responsable", aunque carece de prohibiciones explícitas sobre aplicaciones militares o de vigilancia.

Los críticos advierten que esta decisión podría facilitar la vigilancia masiva, la guerra y violaciones a los derechos humanos. La compañía tiene un historial de colaboración con el ámbito militar, incluyendo su reciente apoyo tecnológico a las fuerzas armadas israelíes durante el conflicto entre Israel y Gaza.

Preocupaciones sobre la militarización de la IA

El cambio en la postura de Google se produce casi siete años después de su polémica participación en el Proyecto Maven, una iniciativa del Pentágono destinada a utilizar IA para analizar imágenes de drones y detectar posibles objetivos militares. En 2018, más de 3,000 empleados protestaron contra este proyecto mediante una carta abierta que exigía el cese de la colaboración. Finalmente, Google se retiró del Proyecto Maven y publicó sus principios originales sobre IA, que prohibían explícitamente el uso de IA en contextos bélicos y de vigilancia.

A pesar de ello, Google ha continuado colaborando con el ejército estadounidense en otros proyectos relacionados con computación en la nube y respuesta ante desastres. Informes recientes han revelado que Google también ha proporcionado tecnología de IA al ejército israelí desde las primeras semanas del conflicto mencionado, lo que aumenta las preocupaciones sobre su papel en conflictos globales.

Reacciones internas y dilemas éticos

La decisión de eliminar su compromiso ético ha generado un fuerte descontento dentro de la propia empresa. Parul Koul, ingeniera de software en Google y presidenta del Sindicato de Trabajadores Alphabet, expresó a Wired: “Es profundamente preocupante ver cómo Google abandona su compromiso con el uso ético de la tecnología sin consultar a sus empleados ni al público en general.”

Este movimiento refleja una tendencia más amplia entre las empresas tecnológicas que priorizan los beneficios económicos y los contratos gubernamentales por encima de consideraciones éticas. Margaret Mitchell, exco-líder del equipo ético de IA en Google, advirtió que la eliminación de cláusulas relacionadas con el "daño" podría indicar una disposición a desplegar tecnologías que pueden causar daño humano directo.

Un contexto geopolítico complejo

Los ejecutivos de Google han defendido este cambio como una respuesta a un "entorno geopolítico cada vez más complejo". En un comunicado publicado por James Manyika, vicepresidente senior, y Demis Hassabis, CEO de Google DeepMind, argumentaron que las democracias deben liderar el desarrollo de IA guiadas por “valores fundamentales como libertad, igualdad y respeto por los derechos humanos”. Insistieron en la necesidad de colaboración entre gobiernos y empresas privadas para garantizar que la IA apoye tanto la seguridad nacional como el crecimiento global.

No obstante, los críticos continúan siendo escépticos. Anna Bacciarelli, investigadora senior en derechos humanos en Human Rights Watch, calificó esta decisión como “increíblemente preocupante”, subrayando la necesidad urgente de regulaciones vinculantes en lugar de principios voluntarios.

Un futuro incierto para la ética en tecnología

El abandono del compromiso ético por parte de Google representa un punto crítico en la relación entre la industria tecnológica y las aplicaciones militares y de vigilancia. Al priorizar la competencia geopolítica y los contratos gubernamentales sobre salvaguardias éticas, Google corre el riesgo de habilitar los mismos daños que antes buscaba prevenir.

A medida que la inteligencia artificial continúa evolucionando rápidamente, muchos temen que la falta de regulaciones robustas deje a la humanidad vulnerable ante el mal uso potencial de esta poderosa tecnología. Para una empresa que alguna vez se guió por el lema “No seas malvado”, este último movimiento plantea una pregunta crítica: ¿ha perdido Google su brújula moral?

Fuentes utilizadas para este artículo incluyen:

DailyMail.co.uk

CNN.com

BBC.com

RT.com

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios