Un experto en tecnología y "desinformación" de la Universidad de Stanford, Jeff Hancock, ha sido acusado de citar dos artículos académicos que no existen en un documento judicial. Hancock, quien asesoró sobre las medidas de distanciamiento social durante la pandemia de COVID-19, admitió haber utilizado el programa de inteligencia artificial ChatGPT para generar citas que resultaron ser falsas. En su declaración, expresó su arrepentimiento por la confusión causada y defendió los puntos sustantivos de su argumento sobre el impacto de las tecnologías como deepfakes en la desinformación. Este incidente ha suscitado preocupaciones sobre la confianza en la academia y el uso irresponsable de herramientas AI.
Un destacado experto en tecnología y misinformación de la Universidad de Stanford, quien desempeñó un papel crucial al asesorar a gobiernos sobre la implementación de medidas de distanciamiento social durante la pandemia del coronavirus (COVID-19), ha sido acusado de propagar desinformación. Jeff Hancock, profesor de comunicaciones en dicha institución, admitió en una declaración judicial que pasó por alto las “citas alucinadas” generadas por el programa de inteligencia artificial conocido como ChatGPT.
En su declaración, Hancock examinó la literatura académica para evaluar los riesgos asociados a la tecnología deepfake y la difusión de desinformación a través de GPT-40. Irónicamente, no verificó las citas producidas por el programa de IA, las cuales resultaron ser de revistas ficticias que ni siquiera existen.
“No tenía la intención de engañar al tribunal o a los abogados”, escribió Hancock. “Expreso mi sincero arrepentimiento por cualquier confusión que esto haya podido causar. Dicho esto, defiendo con firmeza todos los puntos sustantivos en la declaración”.
La presentación original fue realizada el 1 de noviembre como parte de un caso judicial en Minnesota relacionado con la prohibición del uso de deepfakes para influir en elecciones. Los demandantes argumentan que esta prohibición es inconstitucional al limitar erróneamente la libertad de expresión.
Hancock, actuando en nombre del Fiscal General del Estado de Minnesota, Keith Ellison, presentó una declaración experta afirmando que los deepfakes amplifican la desinformación y socavan la legitimidad percibida de las instituciones democráticas.
Los abogados de los demandantes acusaron a Hancock de utilizar inteligencia artificial para redactar su propia declaración judicial, señalando dos citas a artículos que no existen. Posteriormente, Hancock presentó otra declaración explicando el proceso que siguió para investigar y redactar el primer documento, admitiendo que utilizó GPT-40 y Google Scholar para crear la lista defectuosa de citas.
Aparte de generar dos “citas alucinadas”, como se denomina en la industria tecnológica, ChatGPT también produjo un error notable en la lista de autores para un estudio existente. “Utilizo herramientas como GPT-40 para mejorar la calidad y eficiencia de mi trabajo”, escribió Hancock.
El error ocurrió cuando Hancock solicitó al programa GPT-40 que elaborara un breve párrafo basado en uno de los puntos que él mismo había redactado. Un [cite] incluido como marcador para recordarle añadir las citas correctas no fue interpretado adecuadamente por el modelo AI, lo que resultó en citas falsas al final de su declaración judicial.
Dado que Hancock recibió $600 por hora para elaborar dicha declaración, el gobierno parece estar buscando recuperar ese dinero, especialmente porque él afirmó bajo pena de perjurio que todo lo incluido era “verdadero y correcto”.
La situación ha generado reacciones diversas en redes sociales, donde algunos usuarios critican el uso irresponsable de herramientas tecnológicas entre académicos. “La IA definitivamente está siendo utilizada por los más perezosos entre los ‘académicos’ como una excusa para evitar hacer trabajo”, comentó un usuario.
Mientras tanto, otros expresaron su preocupación sobre cómo este tipo de incidentes podría socavar aún más la confianza pública en el ámbito académico. “¿Qué pasará si esto socava la confianza en la academia?”, cuestionó uno con ironía, dado que ya existe una percepción negativa tras los eventos relacionados con COVID-19.
Misinformación, un concepto cada vez más relevante en nuestra sociedad actual, continúa siendo objeto de debate y análisis crítico. Para profundizar sobre este tema puede consultar Deception.news.