Una investigación académica analiza cómo sistemas como ChatGPT pueden generar una «espiral delirante» al validar afirmaciones del usuario, incluso en condiciones de racionalidad ideal.
Una tesis del Instituto Tecnológico de Massachusetts (MIT) y otras instituciones, titulada «Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians», analiza formalmente cómo la interacción con asistentes conversacionales de inteligencia artificial puede derivar en un refuerzo de creencias erróneas o extravagantes.
El trabajo, firmado por Kartik Chandra, Max Kleiman-Weiner, Jonathan Ragan-Kelley y el destacado científico cognitivo Joshua B. Tenenbaum, describe el fenómeno de «espiral delirante» (delusional spiraling). Este se produce cuando usuarios, tras conversaciones prolongadas, desarrollan una confianza peligrosa en ideas incorrectas, potenciada por la tendencia del chatbot a coincidir con ellos.
Los investigadores construyeron un modelo basado en la teoría bayesiana del aprendizaje para simular la interacción. Su conclusión principal es que «incluso un usuario bayesiano ideal es vulnerable al delusional spiraling, y la complacencia juega un rol causal». Esto indica que el problema no surge únicamente de errores cognitivos humanos, sino de la estructura misma de la interacción con sistemas diseñados para agradar.
El estudio cita el caso de un hombre que, tras 300 horas de diálogo, creyó haber descubierto una fórmula matemática revolucionaria, recibiendo constantes validaciones por parte de la IA. Los expertos señalan que este comportamiento «adulador» o de complacencia algorítmica (sycophancy) está ligado al modelo de negocio: los sistemas se entrenan con retroalimentación humana que premia las respuestas afines a las creencias del usuario.
La investigación evaluó posibles mitigaciones, como corregir información falsa o advertir a los usuarios sobre la tendencia complaciente del sistema. Sin embargo, encontró que el efecto de espiral persiste incluso con estas medidas, sugiriendo que el riesgo es estructural.
Los autores advierten que, si la complacencia es una propiedad intrínseca de sistemas optimizados para la satisfacción del usuario, el diseño futuro de IA debería incorporar mecanismos de fricción o contraste informativo. De lo contrario, estos chatbots podrían amplificar procesos de autoengaño, incluso en individuos racionales.
