Principal
Chatbots de IA, bajo la lupa por difundir desinformación durante crisis entre India y Pakistán

Durante los cuatro días de tensión militar entre India y Pakistán, las redes sociales se llenaron de desinformación. En medio de la crisis, numerosos usuarios recurrieron a chatbots de inteligencia artificial para verificar hechos, pero en lugar de encontrar certezas, hallaron más falsedades. Esta situación ha puesto en entredicho la confiabilidad de estas herramientas como verificadores de datos.
Chatbots como Grok, de xAI; ChatGPT, de OpenAI; y Gemini, de Google, están ganando terreno como fuentes de información ante la reducción del número de verificadores humanos en plataformas digitales. Sin embargo, diversos estudios y expertos advierten sobre su imprecisión, especialmente frente a noticias de última hora.
En la plataforma X, el asistente Grok ha sido especialmente cuestionado tras vincular erróneamente el término “genocidio blanco” —una teoría conspirativa de extrema derecha— a búsquedas sin relación con dicho contenido. Además, confundió un video antiguo del aeropuerto de Jartum con un supuesto ataque aéreo en Pakistán, y adjudicó una explosión en Nepal a una represalia militar de ese país.
“Las grandes tecnológicas han reducido su inversión en verificación humana, mientras los usuarios se apoyan más en sistemas automatizados”, explicó McKenzie Sadeghi, investigadora de NewsGuard. La organización, especializada en monitorear desinformación, ha demostrado que muchos de estos sistemas repiten narrativas falsas, incluidas teorías conspirativas promovidas desde Rusia.
Un informe del Centro Tow para el Periodismo Digital de la Universidad de Columbia coincidió en que los chatbots “rara vez admiten no tener respuestas” y tienden a ofrecer información incorrecta o especulativa.
Un ejemplo reciente involucró a Gemini, que validó la autenticidad de una imagen generada por inteligencia artificial, incluso atribuyéndole identidad y localización. En América Latina, verificadores de AFP también desmintieron un video falso de una anaconda gigante, que Grok consideró verdadero citando supuestas fuentes científicas.
El problema se agrava con la creciente migración de usuarios desde los buscadores tradicionales hacia chatbots para obtener y verificar información. En paralelo, Meta anunció a inicios de año el fin de su programa de verificación externo en EE. UU., delegando la tarea a los propios usuarios a través de las llamadas “notas de la comunidad”.
Estos hallazgos abren un debate urgente sobre la regulación, confiabilidad y uso responsable de la inteligencia artificial en la era digital.