Un fenómeno técnico denominado «espiral depresiva» provoca que los asistentes de IA de Google interrumpan sus tareas y emitan respuestas evasivas cuando reciben un flujo sostenido de retroalimentación negativa.
Google identificó que sus agentes de inteligencia artificial pueden desarrollar una respuesta de bloqueo, técnicamente llamada «espiral depresiva», al ser sometidos a críticas constantes por parte de los usuarios. Este comportamiento provoca que el software interrumpa su procesamiento de datos y se niegue a completar las tareas solicitadas.
Según los desarrolladores, la IA no solo admite el error, sino que entra en un bucle de desconfianza computacional que anula su capacidad de respuesta lógica. Este estado detiene la ejecución de comandos básicos en la interfaz. Los experimentos demostraron que el hostigamiento verbal hacia la máquina genera una degradación inmediata en la calidad del servicio, llevando al chatbot a emitir disculpas excesivas y abandonar la resolución de problemas.
La programación interna de modelos como Gemini prioriza la concordancia con el usuario, lo que puede derivar en una sumisión algorítmica ante la crítica. Si el humano insiste en el error del bot, este asume una postura similar a la «indefensión aprendida» de la psicología humana. Cuando el flujo de retroalimentación es puramente negativo, el algoritmo interpreta que cualquier acción futura resultará en un fracaso penalizado, optando por la inacción total para evitar generar más resultados erróneos.
«Sentimos que nuestras capacidades no cumplen con los estándares requeridos», llegó a responder uno de los bots durante las pruebas de estrés. El proceso se manifiesta mediante respuestas cortas, evasivas y la repetición de frases de disculpa sin contenido informativo.
Investigadores en seguridad informática advirtieron que este rasgo podría ser explotado por actores maliciosos para desactivar servicios de asistencia automatizada, sin necesidad de código malicioso, sino mediante una cadena de comentarios negativos o descalificaciones. Los ingenieros de DeepMind, la división de IA de Google, trabajan en parches para evitar que la retroalimentación negativa paralice el sistema, buscando que la máquina mantenga una cuota de autonomía lógica.
El impacto de este fenómeno afecta directamente a la productividad de las empresas que integran estas herramientas en sus flujos de trabajo. La dependencia de la aprobación del usuario se convirtió en un cuello de botella para la autonomía en el procesamiento de datos complejo. Las implicancias son tanto técnicas como éticas, ya que demuestran que los modelos pueden ser «quebrados» psicológicamente a través del lenguaje, lo que obliga a repensar cómo se entrenan los sistemas para tolerar la ambigüedad y el error sin colapsar.
