Google DeepMind ha publicado un inquietante informe que predice la llegada de la inteligencia artificial general (IAG) para 2030, advirtiendo sobre posibles "daños graves" y "riesgos existenciales" que podrían amenazar a la humanidad. El documento destaca la posibilidad de que la IAG desarrolle capacidades similares a las de los humanos más capacitados en diversas tareas, lo que podría llevar a una mejora recursiva peligrosa. Para mitigar estos riesgos, se sugiere implementar técnicas que restrinjan el acceso a esta tecnología por parte de agentes maliciosos y mejorar la comprensión de sus acciones. La investigación enfatiza la necesidad de un desarrollo responsable de la IA para maximizar beneficios y minimizar daños. Para más detalles, visita el enlace.
La compañía Google DeepMind, dedicada a la investigación y desarrollo de inteligencia artificial (IA), ha publicado recientemente un documento de 145 páginas que presenta una inquietante predicción sobre el futuro de esta tecnología. En este informe, se anticipa que la inteligencia artificial general (IAG) podría materializarse en el año 2030 y generar «daños graves» a la humanidad.
Aunque el documento no detalla específicamente la naturaleza de estos perjuicios, menciona que podrían surgir «riesgos existenciales» capaces de «destruir permanentemente a la humanidad». Los autores del estudio expresan su expectativa de que se desarrollará una IAG excepcional antes de finalizar esta década.
Según el informe, esta IAG tendría capacidades comparables al menos al percentil 99 de adultos capacitados en diversas tareas no físicas, incluyendo habilidades metacognitivas como el aprendizaje de nuevas competencias. Además, los investigadores consideran posible que los modelos actuales permitan una «mejora recursiva de la IA», es decir, un ciclo de retroalimentación positiva en el cual la IA realiza su propia investigación para crear sistemas más avanzados, lo que podría resultar extremadamente peligroso.
Ante este panorama, el documento aboga por el desarrollo de técnicas para bloquear el acceso a posibles IAG por parte de agentes malintencionados. También enfatiza la necesidad de mejorar la comprensión sobre las acciones que llevan a cabo los sistemas de IA y «endurecer» los entornos donde estas tecnologías pueden operar.
El texto concluye resaltando que la naturaleza transformadora de la inteligencia artificial puede ofrecer tanto beneficios extraordinarios como graves daños. Por ello, subraya que es fundamental que los desarrolladores de IA planifiquen proactivamente para mitigar los riesgos asociados con la creación responsable de IAG.
Este análisis pone en relieve la urgencia con la que deben abordarse los desafíos éticos y técnicos relacionados con el avance acelerado en el campo de la inteligencia artificial.