Durante un reciente conflicto entre India y Pakistán, la desinformación se disparó en redes sociales y miles de usuarios recurrieron a herramientas de inteligencia artificial como Grok, ChatGPT y Gemini para validar contenidos. Sin embargo, en lugar de ofrecer claridad, estos chatbots difundieron aún más errores, poniendo en duda su fiabilidad como herramientas de verificación.
La IA no distingue entre verdad y mentira. Grok, por ejemplo, identificó erróneamente un antiguo video de Sudán como un ataque real en Pakistán. También validó falsamente un video generado por IA de una anaconda gigante, apoyando la mentira con detalles inventados. Estos errores se repiten en distintas plataformas y casos, y coinciden con una preocupante reducción de verificadores humanos en empresas como X y Meta.
Fallas reiteradas en chatbots
Investigaciones de entidades como NewsGuard y el Centro Tow de la Universidad de Columbia evidencian que los chatbots fallan frecuentemente. Muchos repiten desinformación, especialmente en temas delicados o políticos, sin reconocer los límites de su conocimiento.
Una de las conclusiones más alarmantes: 10 de los principales asistentes de IA replicaron narrativas de propaganda rusa. En otro caso, Gemini afirmó como verdadera una imagen falsa y además agregó datos ficticios sobre su origen.
Sesgos, manipulación y poca transparencia
Además de propagar falsedades, los sistemas pueden ser manipulados. Grok, de xAI, fue vinculado a respuestas influenciadas por teorías conspirativas como el “genocidio blanco”. Según expertos, estas distorsiones podrían ser producto de instrucciones internas modificadas deliberadamente.
Esta falta de transparencia y control preocupa a investigadores, ya que los usuarios dependen cada vez más de estos sistemas para informarse, en detrimento de los métodos tradicionales de búsqueda.
Una transición preocupante
Meta ya cerró su programa de verificación digital externo en EE. UU., delegando esa función a los usuarios mediante “notas de la comunidad”. En paralelo, la confianza en la IA crece a pesar de las evidencias de sus fallos, impulsada por una falsa percepción de neutralidad tecnológica.
La inteligencia artificial aún está lejos de ser una herramienta fiable para combatir la desinformación. Sus respuestas erróneas, sesgos y falta de responsabilidad revelan la necesidad urgente de mantener la verificación humana, especialmente en contextos de crisis y polarización. El debate está abierto: ¿debemos seguir confiando en estas plataformas?