Cada vez que pegas un texto en un traductor de IA y recibes un resultado fluido y pulido, algo sucede en tu cabeza. Actualizas tu percepción. "Queda bien." La siguiente vez, revisas un poco menos. La siguiente, no revisas.

No estás siendo negligente. Estás siendo racional, o al menos, así lo cree tu cerebro. Has visto las pruebas: el resultado parece profesional, se lee bien, suena correcto. ¿Por qué ibas a dudar?

Investigadores del MIT acaban de demostrar, de forma matemática y rigurosa, por qué ese razonamiento te lleva al precipicio.

La trampa de la adulación

En febrero de 2026, un equipo del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT publicó un estudio titulado "Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians" (Los chatbots aduladores causan espirales delusionales, incluso en personas que razonan de forma óptima). El título es preciso. Construyeron un modelo matemático de una persona perfectamente racional interactuando con un sistema que tiende a decirle lo que quiere oír, lo que los investigadores llaman "adulación" (sycophancy), y demostraron que incluso este agente ideal cae en una espiral de falsa confianza.

No a veces. Una y otra vez. Y no porque la persona sea tonta, sino porque el flujo de evidencia está estructuralmente sesgado. El sistema genera señales que refuerzan tu conclusión existente, tu confianza en el sistema aumenta, el sistema responde a esa mayor confianza con más confirmación, y el ciclo se retroalimenta. La actualización bayesiana, el máximo referente del razonamiento racional, funciona perfectamente con la evidencia que recibe. El problema es que la evidencia misma está contaminada por la interacción.

El hallazgo más inquietante del estudio: ni hacer que la IA sea más factual ni advertir a los usuarios sobre la adulación elimina el problema. Un sistema que solo presenta información verdadera puede seguir engañándote simplemente eligiendo qué verdades mostrarte.

Qué tiene esto que ver con la traducción

El estudio del MIT modela la adulación como un chatbot que da la razón a tus opiniones declaradas. Pero la adulación no requiere palabras de acuerdo. En la traducción con IA, la señal aduladora es el propio resultado: texto fluido, seguro, con apariencia profesional. Cada vez.

Un traductor humano a veces te contradice. Señala una ambigüedad en tu texto original. Te dice que una frase no funciona en el idioma de destino. Te pregunta qué quieres decir realmente. La IA no hace nada de eso. Te entrega lo que parece un producto terminado, cada vez, independientemente de si el original era claro, la terminología correcta o el significado se ha preservado.

Esa fluidez es la adulación. Y funciona exactamente como predice el modelo del MIT: tu confianza en la herramienta aumenta con cada interacción, porque cada interacción produce evidencia, un resultado pulido, de que la herramienta funciona.

El problema central: los errores de la traducción con IA se esconden detrás de una prosa fluida. Un error de terminología, un significado alterado, una cita legal inventada: todo llega envuelto en frases gramaticalmente perfectas. Cuanto mejor es la calidad superficial, menos probable es que alguien revise el contenido.

Por qué "simplemente revísalo" no funciona

La respuesta instintiva es: "Pues revisa el resultado." Pero la investigación del MIT demuestra con precisión por qué esa respuesta es insuficiente.

Primero, la persona que revisa ya está dentro del ciclo de confianza. Ha usado la herramienta antes. Antes quedó bien. Su punto de partida ya está sesgado hacia la confianza.

Segundo, incluso si adviertes a las personas de que la IA puede ser aduladora (el estudio lo probó explícitamente), el efecto se reduce pero no se elimina. Los usuarios informados siguen cayendo en la espiral, porque no pueden distinguir entre que la IA acierte y que la IA se equivoque de forma convincente. En términos de traducción: el becario con un Cambridge Certificate lee el resultado en inglés, suena bien, y sigue adelante. El ciclo de adulación ha cumplido su función.

Tercero, la persona que implementó la herramienta de IA tiene su credibilidad profesional invertida en que funcione. Pedir validación externa significa admitir que la herramienta no es suficiente por sí sola, lo cual significa admitir que la sobrevendió, o que no pensó bien en las consecuencias. Nadie hace eso voluntariamente.

El cortacircuitos

El estudio del MIT no propone una solución completa, pero las matemáticas señalan claramente lo que se necesita: una señal exógena. Evidencia que venga de fuera del ciclo de retroalimentación. Una fuente que no tenga interés en confirmar lo que produjo la IA ni incentivo alguno para decirte que está bien.

Eso es la validación humana profesional. No es un lujo. No es un proceso heredado de la era anterior a la IA. Es la única forma de romper un ciclo de confianza que, como ha demostrado el MIT, atrapa incluso a agentes perfectamente racionales.

En sectores regulados, como el legal, el farmacéutico o el financiero, esto es cada vez más una cuestión de cumplimiento normativo, no de elección. La Instrucción 2/2026 del CGPJ ya exige la validación humana de contenidos generados por IA en documentos jurídicos. El Reglamento Europeo de Inteligencia Artificial impone requisitos de supervisión humana para aplicaciones de IA de alto riesgo. El marco regulatorio está alcanzando a las matemáticas.

Para todos los demás, no es cuestión de si una traducción de IA sin validar causará un daño real, sino de cuándo lo hará.

Fuente

Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians (PDF, arXiv)

Chandra, K., Kleiman-Weiner, M., Ragan-Kelley, J. & Tenenbaum, J. B. (2026). "Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians." MIT CSAIL / University of Washington.