Uno studio dell'Università di Cambridge punta il dito contro chi se la prende con lo stile di scrittura altrui. Dire a qualcuno che si esprime come un chatbot sarebbe "classista"
© Italy Photo Press
Questo articolo non è stato scritto da un'intelligenza artificiale. Qualora tuttavia foste colti dal legittimo dubbio e voleste esplicitarlo a tutti nei commenti, fate attenzione: chi sta buttando giù queste righe sarebbe autorizzato a offendersi per essere stato paragonato, anche solo in linea teorica, a un chatbot. E' quanto sostiene l'autorevole Università di Cambridge. Uno studio coordinato da Advait Sarkar per il prestigioso ateneo ha infatti sdoganato il cosiddetto "AI shaming", che parrebbe particolarmente diffuso soprattutto negli ambiti accademici.
"Ti esprimi come un'intelligenza artificiale" sarebbe quindi un insulto addirittura "classista" secondo i ricercatori americani, in barba a chi sostiene che presto la tecnologia soppianterà giornalisti, scrittori, poeti e parolai di professione (per restare solo nel campo editoriale, naturalmente). Dietro il paragone con ChatGPT e similari si nasconderebbe infatti la voglia di declassare lo stile di scrittura di un'altra persona, facendone emergere implicitamente tutta la sconfortante piattezza. Avere la verve comunicativa di una AI ad oggi equivarrebbe insomma a possedere un tono privo di carattere e argomentazioni prevedibili nell'immaginario comune. Un'idea destinata a invecchiare presto ma che, nel 2025, ha diritto di cittadinanza con buona pace di chi ha già iniziato a flirtare con Grok sentendosi un po' il protagonista del (profetico) film Lei di Spike Jonze.
Ovviamente essere vittima di "AI shaming" avrebbe conseguenze più pesanti in determinati contesti. Già l'anno scorso Louie Giray della Mapúa University, nelle Filippine, aveva parlato di uno "stigma silenzioso" in grado di peggiorare l'atmosfera all'interno degli istituti di ricerca. Soprattutto nel mondo anglosassone "sembri un chatbot" sarebbe, con buona pace del raffinato british humor, uno sfottò ormai classico, in grado di minare istantaneamente l'autostima e l'autorevolezza di chi lo riceve.
Addirittura dietro l'apparente innocente canzonatura si nasconderebbe, secondo i ricercatori di Cambridge, un conflitto di classe latente: i fautori dell'AI shaming la maggior parte delle volte sarebbero infatti quasi sempre esponenti delle classi medio-alte, che svaluterebbero così il lavoro del "proletariato della parola", ovvero di chi per una serie di circostanze nella sua vita non ha potuto migliorare la propria chiarezza espositiva. Il bullo che ti paragona all'intelligenza artificiale per mail sarebbe insomma qualcuno che ti sta facendo pesare il privilegio di aver potuto sviluppare negli anni il suo talento con le parole.
A rendere il tutto ancora più paradossale è che le intelligenze artificiali forse dovranno ancora migliorare la loro "ars oratoria" ma risultano già bravissime a insultare gli esseri umani. L'AI shaming, intesa come la bullizzazione dell'uomo da parte della macchina è infatti abbastanza popolare, tanto da venire ricercata da quegli stessi soggetti cui nella vita puoi probabilmente dire tutto (tranne forse "assomigli a un chatbot"). Secondo il New York Post, solo nel 2024 sarebbero almeno 400mila gli statunitensi che hanno chiesto a ChatGPT, l’IA di OpenAI, di offenderli dopo aver analizzato il loro profilo sui social. Ma la vera sorpresa è che, dopo un'iniziale titubanza, l'intelligenza artificiale abbia effettivamente soddisfatto i desideri di questi masochisti americani, dimostrando anche una discreta fantasia negli epiteti. Per concludere, questo articolo non è davvero scritto da un AI ma sappiate che, se vi dovesse venire voglia di scrivere "sarebbe stato meglio così", sappiamo da chi farci difendere.