Cada vegada que enganxes un text en un traductor d'IA i reps un resultat fluid i polit, alguna cosa passa al teu cap. Actualitzes la teva percepció. "Queda bé." La pròxima vegada, revises una mica menys. La següent, no revises.
No estàs sent negligent. Estàs sent racional, o almenys, així ho creu el teu cervell. Has vist les proves: el resultat sembla professional, es llegeix bé, sona correcte. Per què n'hauries de dubtar?
Investigadors del MIT acaben de demostrar, de forma matemàtica i rigorosa, per què aquest raonament et porta cap al precipici.
La trampa de l'adulació
El febrer de 2026, un equip del Laboratori de Ciències de la Computació i Intel·ligència Artificial del MIT va publicar un estudi titulat "Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians" (Els chatbots aduladors causen espirals delusionals, fins i tot en persones que raonen de forma òptima). El títol és precís. Van construir un model matemàtic d'una persona perfectament racional interactuant amb un sistema que tendeix a dir-li el que vol sentir, el que els investigadors anomenen "adulació" (sycophancy), i van demostrar que fins i tot aquest agent ideal cau en una espiral de falsa confiança.
No de vegades. Una vegada i una altra. I no perquè la persona sigui ximple, sinó perquè el flux d'evidència està estructuralment esbiaixat. El sistema genera senyals que reforcen la teva conclusió existent, la teva confiança en el sistema augmenta, el sistema respon a aquesta major confiança amb més confirmació, i el cicle es retroalimenta. L'actualització bayesiana, el màxim referent del raonament racional, funciona perfectament amb l'evidència que rep. El problema és que l'evidència mateixa està contaminada per la interacció.
La troballa més inquietant de l'estudi: ni fer que la IA sigui més factual ni advertir els usuaris sobre l'adulació elimina el problema. Un sistema que només presenta informació veritable pot seguir enganyant-te simplement triant quines veritats mostrar-te.
Què hi té a veure amb la traducció
L'estudi del MIT modela l'adulació com un chatbot que et dona la raó a les teves opinions declarades. Però l'adulació no requereix paraules d'acord. En la traducció amb IA, el senyal adulador és el propi resultat: text fluid, segur, amb aparença professional. Cada vegada.
Un traductor humà de vegades et contradiu. Assenyala una ambigüitat al teu text original. Et diu que una frase no funciona en l'idioma de destí. Et pregunta què vols dir realment. La IA no fa res d'això. Et lliura el que sembla un producte acabat, cada vegada, independentment de si l'original era clar, la terminologia correcta o el significat s'ha preservat.
Aquesta fluïdesa és l'adulació. I funciona exactament com prediu el model del MIT: la teva confiança en l'eina augmenta amb cada interacció, perquè cada interacció produeix evidència, un resultat polit, que l'eina funciona.
El problema central: els errors de la traducció amb IA s'amaguen darrere d'una prosa fluida. Un error de terminologia, un significat alterat, una citació legal inventada: tot arriba embolcallat en frases gramaticalment perfectes. Com millor és la qualitat superficial, menys probable és que algú revisi el contingut.
Per què "simplement revisa-ho" no funciona
La resposta instintiva és: "Doncs revisa el resultat." Però la investigació del MIT demostra amb precisió per què aquesta resposta és insuficient.
Primer, la persona que revisa ja és dins del cicle de confiança. Ha usat l'eina abans. Abans va quedar bé. El seu punt de partida ja està esbiaixat cap a la confiança.
Segon, fins i tot si adverteixes les persones que la IA pot ser aduladora (l'estudi ho va provar explícitament), l'efecte es redueix però no s'elimina. Els usuaris informats segueixen caient en l'espiral, perquè no poden distingir entre que la IA encerta i que la IA s'equivoca de forma convincent. En termes de traducció: el becari amb un Cambridge Certificate llegeix el resultat en anglès, sona bé, i tira endavant. El cicle d'adulació ha complert la seva funció.
Tercer, la persona que va implementar l'eina d'IA té la seva credibilitat professional invertida en què funcioni. Demanar validació externa significa admetre que l'eina no és suficient per si sola, la qual cosa significa admetre que la va sobrevendre, o que no va pensar bé en les conseqüències. Ningú fa això voluntàriament.
El curtcircuit
L'estudi del MIT no proposa una solució completa, però les matemàtiques assenyalen clarament el que es necessita: un senyal exogen. Evidència que vingui de fora del cicle de retroalimentació. Una font que no tingui interès a confirmar el que va produir la IA ni cap incentiu per dir-te que està bé.
Això és la validació humana professional. No és un luxe. No és un procés heretat de l'era anterior a la IA. És l'única forma de trencar un cicle de confiança que, com ha demostrat el MIT, atrapa fins i tot agents perfectament racionals.
En sectors regulats, com el legal, el farmacèutic o el financer, això és cada vegada més una qüestió de compliment normatiu, no d'elecció. La Instrucción 2/2026 del CGPJ ja exigeix la validació humana de continguts generats per IA en documents jurídics. El Reglament Europeu d'Intel·ligència Artificial imposa requisits de supervisió humana per a aplicacions d'IA d'alt risc. El marc regulatori està assolint les matemàtiques.
Per a tothom, no és qüestió de si una traducció d'IA sense validar causarà un dany real, sinó de quan ho farà.
Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians (PDF, arXiv)
Chandra, K., Kleiman-Weiner, M., Ragan-Kelley, J. & Tenenbaum, J. B. (2026). "Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians." MIT CSAIL / University of Washington.