Un destacado experto en tecnología y desinformación de la Universidad de Stanford, quien desempeñó un papel crucial al asesorar a gobiernos sobre la implementación de medidas de distanciamiento social durante la pandemia del coronavirus (COVID-19), ha sido acusado de propagar desinformación. Jeff Hancock, profesor de comunicaciones en dicha institución, admitió en una declaración judicial que pasó por alto citas "alucinadas" generadas por el programa de inteligencia artificial conocido como ChatGPT.
En su declaración, Hancock revisó literatura académica para evaluar los riesgos asociados con la tecnología deepfake y la difusión de desinformación a través de GPT-40. Sin embargo, irónicamente, no verificó las citas producidas por el programa de IA, las cuales resultaron ser de revistas ficticias que ni siquiera existen.
Reconocimiento del error
“No tenía la intención de engañar al tribunal o a los abogados”, escribió Hancock. “Lamento sinceramente cualquier confusión que esto haya podido causar. Dicho esto, defiendo firmemente todos los puntos sustantivos en la declaración”.
Este incidente se produce en el contexto de un caso judicial en Minnesota relacionado con la prohibición del uso de deepfakes para influir en elecciones. Los demandantes argumentan que esta prohibición es inconstitucional porque limita indebidamente la libertad de expresión. Hancock presentó una declaración experta en nombre del fiscal general del estado, Keith Ellison, afirmando que los deepfakes amplifican la desinformación y erosionan la legitimidad percibida de las instituciones democráticas.
El impacto de la IA
Los abogados de los demandantes acusaron a Hancock de utilizar inteligencia artificial para redactar su declaración judicial, señalando dos citas a artículos inexistentes. En respuesta, Hancock presentó otra declaración donde detallaba el proceso que siguió para investigar y redactar su primera declaración, admitiendo que utilizó GPT-40 y Google Scholar para crear la lista errónea de citas.
Aparte de generar dos "citas alucinadas", como se denomina en la industria tecnológica, ChatGPT también cometió un notable error al listar autores para un estudio existente. “Utilizo herramientas como GPT-40 para mejorar la calidad y eficiencia de mi trabajo”, explicó Hancock.
Consecuencias legales
El error surgió cuando Hancock solicitó a GPT-40 que produjera un párrafo breve basado en uno de los puntos que él mismo había redactado. Un "[cite]" incluido como marcador para recordarle agregar las citas correctas no fue interpretado adecuadamente por el modelo AI, lo que resultó en citas falsas al final de su declaración judicial.
Dado que Hancock recibió $600 por hora para elaborar dicha declaración, el gobierno parece estar interesado en recuperar ese dinero, especialmente porque él declaró bajo pena de perjurio que todo lo contenido en el documento era “verdadero y correcto”.
Reacciones ante el escándalo
Las reacciones han sido diversas; algunos críticos señalaron que “la IA definitivamente está siendo utilizada por los más perezosos entre los ‘académicos’ como una excusa para evitar hacer trabajo”. Otros expresaron inquietudes sobre cómo este tipo de incidentes podría socavar aún más la confianza en el ámbito académico.
"Los medios tradicionales deben ser culpados en gran medida, pero el peor atentado contra la verdad e integridad proviene de estos académicos 'expertos' en desinformación", comentó un observador. La desinformación se ha convertido en un tema candente y recurrente en el debate público actual.
Fuentes consultadas:
X.com
StanfordDaily.com
NaturalNews.com