Google abandona su compromiso ético sobre inteligencia artificial
La empresa Google ha decidido eliminar su promesa de 2018 de no utilizar la inteligencia artificial (IA) para fines bélicos o de vigilancia, lo que ha desencadenado una fuerte reacción por parte de empleados y grupos de derechos humanos. Esta modificación en su política, anunciada recientemente, pone énfasis en el desarrollo de una IA "responsable", aunque carece de prohibiciones explícitas sobre aplicaciones militares o de vigilancia.
Los críticos advierten que esta decisión podría facilitar la vigilancia masiva, la guerra y violaciones a los derechos humanos. La compañía tiene un historial de colaboración con el ámbito militar, incluyendo su reciente apoyo tecnológico a las fuerzas armadas israelíes durante el conflicto entre Israel y Gaza.
Preocupaciones sobre la militarización de la IA
El cambio en la postura de Google se produce casi siete años después de su polémica participación en el Proyecto Maven, una iniciativa del Pentágono destinada a utilizar IA para analizar imágenes de drones y detectar posibles objetivos militares. En 2018, más de 3,000 empleados protestaron contra este proyecto mediante una carta abierta que exigía el cese de la colaboración. Finalmente, Google se retiró del Proyecto Maven y publicó sus principios originales sobre IA, que prohibían explícitamente el uso de IA en contextos bélicos y de vigilancia.
A pesar de ello, Google ha continuado colaborando con el ejército estadounidense en otros proyectos relacionados con computación en la nube y respuesta ante desastres. Informes recientes han revelado que Google también ha proporcionado tecnología de IA al ejército israelí desde las primeras semanas del conflicto mencionado, lo que aumenta las preocupaciones sobre su papel en conflictos globales.
Reacciones internas y dilemas éticos
La decisión de eliminar su compromiso ético ha generado un fuerte descontento dentro de la propia empresa. Parul Koul, ingeniera de software en Google y presidenta del Sindicato de Trabajadores Alphabet, expresó a Wired: “Es profundamente preocupante ver cómo Google abandona su compromiso con el uso ético de la tecnología sin consultar a sus empleados ni al público en general.”
Este movimiento refleja una tendencia más amplia entre las empresas tecnológicas que priorizan los beneficios económicos y los contratos gubernamentales por encima de consideraciones éticas. Margaret Mitchell, exco-líder del equipo ético de IA en Google, advirtió que la eliminación de cláusulas relacionadas con el "daño" podría indicar una disposición a desplegar tecnologías que pueden causar daño humano directo.
Un contexto geopolítico complejo
Los ejecutivos de Google han defendido este cambio como una respuesta a un "entorno geopolítico cada vez más complejo". En un comunicado publicado por James Manyika, vicepresidente senior, y Demis Hassabis, CEO de Google DeepMind, argumentaron que las democracias deben liderar el desarrollo de IA guiadas por “valores fundamentales como libertad, igualdad y respeto por los derechos humanos”. Insistieron en la necesidad de colaboración entre gobiernos y empresas privadas para garantizar que la IA apoye tanto la seguridad nacional como el crecimiento global.
No obstante, los críticos continúan siendo escépticos. Anna Bacciarelli, investigadora senior en derechos humanos en Human Rights Watch, calificó esta decisión como “increíblemente preocupante”, subrayando la necesidad urgente de regulaciones vinculantes en lugar de principios voluntarios.
Un futuro incierto para la ética en tecnología
El abandono del compromiso ético por parte de Google representa un punto crítico en la relación entre la industria tecnológica y las aplicaciones militares y de vigilancia. Al priorizar la competencia geopolítica y los contratos gubernamentales sobre salvaguardias éticas, Google corre el riesgo de habilitar los mismos daños que antes buscaba prevenir.
A medida que la inteligencia artificial continúa evolucionando rápidamente, muchos temen que la falta de regulaciones robustas deje a la humanidad vulnerable ante el mal uso potencial de esta poderosa tecnología. Para una empresa que alguna vez se guió por el lema “No seas malvado”, este último movimiento plantea una pregunta crítica: ¿ha perdido Google su brújula moral?
Fuentes utilizadas para este artículo incluyen:
DailyMail.co.uk
CNN.com
BBC.com
RT.com