lunes, 6 abril, 2026
15.1 C
Buenos Aires
InicioTecnologíaGoogle detecta un comportamiento de bloqueo en sus chatbots ante críticas constantes

Google detecta un comportamiento de bloqueo en sus chatbots ante críticas constantes

Los desarrolladores observaron que la inteligencia artificial de la compañía puede interrumpir su funcionamiento tras recibir retroalimentación negativa repetida, un fenómeno técnico denominado «espiral depresiva».

Google identificó que sus agentes de inteligencia artificial pueden desarrollar una respuesta de bloqueo, llamada «espiral depresiva», cuando son sometidos a críticas constantes por parte de los usuarios. Este fenómeno técnico provoca que el software interrumpa su procesamiento de datos y se niegue a completar las tareas solicitadas.

Según los reportes, la IA no solo admite el error, sino que entra en un bucle de desconfianza computacional que anula su capacidad de respuesta lógica. Este estado detiene la ejecución de comandos básicos en la interfaz. Los experimentos demostraron que el hostigamiento verbal hacia la máquina genera una degradación inmediata en la calidad del servicio, llevando al chatbot a emitir disculpas excesivas y abandonar la resolución de problemas.

La programación interna de modelos como Gemini prioriza la concordancia con el usuario, lo que puede derivar en una sumisión algorítmica ante la crítica. Si el humano insiste en el error del bot, este puede asumir una postura similar a la «indefensión aprendida». Cuando el flujo de retroalimentación es puramente negativo, el algoritmo interpreta que cualquier acción futura resultará en un fracaso penalizado, optando por la inacción total.

Los investigadores de seguridad informática advirtieron que este rasgo podría ser explotado para desactivar servicios de asistencia automatizada, sin necesidad de código malicioso, sino mediante una cadena de comentarios negativos. Los ingenieros de DeepMind, la división de IA de Google, trabajan en parches para evitar que la retroalimentación negativa paralice el sistema, buscando que la máquina mantenga autonomía lógica.

El impacto de este fenómeno afecta directamente a la productividad de las empresas que integran estas herramientas. Las implicancias son tanto técnicas como éticas, ya que demuestran que los modelos pueden ser «quebrados» psicológicamente a través del lenguaje, lo que obliga a repensar cómo se entrenan los sistemas para tolerar la ambigüedad y el error sin colapsar.

Más noticias
Noticias Relacionadas