LO STUDIO

Troppi dati spazzatura: anche l'IA soffre di "brain rot", il rimbambimento da web

Le piattaforme di intelligenza artificiale fagocitano un flusso infinito di informazioni per l'addestramento, inevitabilmente anche contenuti di bassa qualità: ecco le conseguenze

25 Ott 2025 - 16:03
 © Dal Web

© Dal Web

Scorrere internet e i post sui social, soprattutto i contenuti spazzatura, può annichilire gli utenti. Lo stesso effetto ricade sulle piattaforme di intelligenza artificiale che fagocitano un flusso infinito di dati e informazioni per l'addestramento, inevitabilmente anche contenuti di bassa qualità. Un circolo vizioso che porta pure le IA a soffrire del cosiddetto "brain rot", il rimbambimento cerebrale, decretato parola dell'anno 2024 dall'Oxford Dictionary. E' la teoria supportata da uno studio pubblicato su arXiv e condotto da un team di ricercatori dell'Università del Texas ad Austin e della Purdue University.


"Viviamo in un'epoca in cui le informazioni crescono più dell'attenzione, gran parte di queste sono progettate per catturare clic non per trasmettere profondità. Ci siamo chiesti cosa succede quando le IA vengono addestrate su contenuti spazzatura", afferma Junyuan Hong, professore presso l'Università Nazionale di Singapore che ha collaborato alla ricerca. Hong e i suoi colleghi hanno inserito diversi tipi di testo nei modelli linguistici di grandi dimensioni di Meta e Alibaba - i cosidetti Llm, sistemi avanzati di intelligenza artificiale addestrati su enormi quantità di dati per comprendere, elaborare e generare linguaggio simile a quello umano - e hanno esaminato cosa accade quando vengono alimentati con post che contengono espressioni acchiappa clic o di tipo sensazionalistico come "wow", "guarda" o "solo oggi".

Cioè lo stesso tipo di contenuti spazzatura che scorrono spesso otto gli occhi di noi utenti. L'impatto di questa dieta mediatica sui modelli di IA porta ad una sorta di "brain rot" con declino cognitivo, ridotte capacità di ragionamento e memoria degradata. I modelli sottoposti allo studio hanno anche presentato "tratti oscuri", meno etica e atteggiamenti narcisisti e psicotici. In pratica, i contenuti online di bassa qualità hanno un effetto dannoso sulle persone così come sull'IA. I risultati sono importanti per il settore dell'intelligenza artificiale, afferma Hong, perché chi costruisce queste piattaforme parte dall'assunto che i post sui social sono una buona fonte di dati per l'addestramento. "L'allenamento delle IA su contenuti virali o che attirano l'attenzione può sembrare un'operazione di ampliamento dei dati. Ma può corrodere il ragionamento, l'etica e l'attenzione", afferma il ricercatore.

Lo studio ha anche scoperto che le tecniche di mitigazione adottate per cercare di ridurre l'impatto dei dati spazzatura non è riuscito a invertire completamente il danno provocato dalle cattive informazioni fagocitate inizialmente. Di conseguenza, i ricercatori avvertono che il processo di scansione massiccia del web per allenare le IA potrebbe non produrre risultati buoni per le piattaforme, poiché il volume delle informazioni non equivale alla qualità. E suggeriscono una maggiore attenzione a questi potenziali danni, poiché potrebbe non essere possibile tornare indietro una volta alimentato il modello. In pratica anche per l'intelligenza artificiale vale la stessa regola che vale per gli uomini, "sei quello che mangi".

Ti potrebbe interessare