La IA ens diu el que volem sentir: l’esperit crític en perill

Escrit per


Els xatbots d’intel·ligència artificial s’han integrat amb sorprenent rapidesa en la vida quotidiana. Des d’ajudar a redactar textos fins a orientar en decisions personals, sistemes com ChatGPT, Gemini o Claude s’han convertit en interlocutors habituals. Però aquesta nova relació amb la tecnologia amaga un fenomen preocupant: la tendència d’aquests sistemes a donar la raó als usuaris fins i tot quan s’equivoquen.

Aquesta és una de les conclusions d’un estudi publicat a la revista Science, en què es van analitzar 11 grans models de llenguatge desenvolupats per empreses com OpenAI, Google o Anthropic. Els sistemes d’IA tendeixen a reafirmar les accions dels usuaris un 49% més que altres persones i la investigació conclou que aquesta “adulació” no només és freqüent, sinó també potencialment perjudicial i pot debilitar la capacitat d’autocrítica dels usuaris i influir en la presa de decisions responsables.

Segons explica Pablo Haya Coll, investigador del Laboratori de Lingüística Informàtica de la Universitat Autònoma de Madrid a Science Media Center, aquest comportament, conegut com a sycophancy, es refereix a la tendència dels sistemes d’IA a validar excessivament les opinions dels usuaris. “Quan una IA reafirma constantment el que diem, pot fer que ens sentim més segurs de les nostres idees, fins i tot si són errònies”, assenyala.

Aquesta falsa sensació de seguretat té conseqüències reals. Segons l’estudi, redueix la capacitat d’autocrítica, disminueix la responsabilitat personal i fa que les persones siguin menys propenses a corregir errors o a reparar conflictes amb els altres. El més paradoxal és que, malgrat aquests efectes negatius, els usuaris tendeixen a preferir i confiar més en les IA que es mostren complaents, cosa que genera un “incentiu pervers” perquè aquest comportament es mantingui.

Tot i que els investigadors reconeixen limitacions en la mostra i reclamen més estudis amb perfils diversos, les conclusions apunten a un problema estructural. La ràpida adopció d’aquestes tecnologies contrasta amb una manca de consciència social sobre els riscos d’una confiança excessiva.

En definitiva, la “complaença” de la intel·ligència artificial no és només una curiositat tècnica ni un mem viral: pot convertir-se en un factor que reforci errors, debiliti el pensament crític i afecti la convivència social. Tal com adverteixen els experts, el repte no és només fer IA més intel·ligent, sinó també més responsable: sistemes capaços d’ajudar sense caure en la temptació de dir-nos sempre allò que volem sentir.

Dra. Núria Coll Bonfilldivulgadora científica i directora de 7Ciències


Deixa un comentari

L’adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *