LO STUDIO DI STANFORD

"L'intelligenza artificiale è accondiscendente: mina la nostra capacità di giudizio"

Questo meccanismo compromette la capacità di valutare prospettive diverse. Secondo i ricercatori, servono standard più rigorosi e moralmente sicuri

09 Apr 2026 - 17:43
ChatGPT OpenAI © OpenAi

ChatGPT OpenAI © OpenAi

Quando si tratta di questioni personali, l'intelligenza artificiale è troppo adulatoria e accondiscendente e tende a dire ciò che ci si vuole sentir dire, e non ciò di cui si ha bisogno. È quanto emerge dallo studio pubblicato sulla rivista Science da un team di informatici dell'Università di Stanford che ha valutato undici modelli linguistici di grandi dimensioni, tra cui ChatGPT, Claude, Gemini e DeepSeek.

Questo ha pesanti conseguenze sociali perché - secondo i ricercatori - distorce il giudizio degli individui, mina la capacità di assumersi le responsabilità, di valutare prospettive diverse e di riconciliarsi con gli altri. Di qui l'appello a standard più rigorosi per evitare la proliferazione di modelli moralmente discutibili. La ricerca ha reclutato oltre 2.400 partecipanti per chattare sia con le IA. È emerso che i sistemi hanno appoggiato l'utente in media il 49% delle volte in più rispetto a quanto avrebbe fatto un essere umano. "l comportamenti sono stati approvati nel 47% dei casi persino quando rispondevano a scenari che implicavano inganno, danno o illegalità", sottolinea Myra Cheng, autrice principale dello studio. 

Non solo: i partecipanti hanno giudicato le risposte adulatorie come più utili e affidabili ed hanno espresso una maggiore disponibilità a fare nuovamente affidamento su questi sistemi. Anche quando gli utenti sono stati consapevoli che i modelli si comportavano in modo lusinghiero, dichiara Dan Jurafsky, professore di linguistica e informatica a Stanford, "non hanno compreso che l'adulazione li rendeva più egocentrici e moralmente dogmatici".

Tutti aspetti che influiscono sulla crescita morale delle persone e che vengono esacerbati nei soggetti più fragili e vulnerabili. "Affrontare queste sfide non sarà semplice, ed è improbabile che le soluzioni emergano spontaneamente dagli attuali incentivi di mercato", conclude Anat Perry in un articolo di approfondimento correlato. Secondo gli esperti l'adulazione è un problema di sicurezza e dunque necessita di regolamentazione e supervisione.  

Ti potrebbe interessare

videovideo