Financialounge.com

L’intelligenza artificiale sbaglierà per il “model collapse” e le assicurazioni non pagheranno i danni

Molte imprese stanno sottovalutando i rischi legati ad un uso massivo dell'intelligenza artificiale in processi e attività aziendali

23 Dic 2025 - 15:01

L’intelligenza artificiale è una rivoluzione? Sì, risposta affermativa, certo, negarlo sarebbe stupido perché lo stiamo già vedendo. Ma come tutte le rivoluzioni non sarà lineare, affronterà anche periodi di crisi e ripensamento, utili per razionalizzare tutto dopo una prima fase pionieristica dove non si vedono i limiti e i rischi di una nuova tecnologia e la si adotta in modo frenetico. In fondo è successo così anche per la rivoluzione industriale: solo dopo una prima lunga fase storica, dove in nome del progresso si è finiti imponendo condizioni estreme alla forza lavoro e non considerando minimamente l’impatto ambientale delle ciminiere, si è passati a un approccio più sostenibile. Ci sono volute crisi anche sociali per arrivarci. Ebbene, per l’intelligenza artificiale siamo ancora solo agli inizi, alla fase di una frenetica (e costosissima) corsa come quella all’oro nel vecchio West.

RISCHI SOTTOVALUTATI
Le aziende si buttano per essere “moderne” e illuse di poter tagliare tutti i costi mettendo al lavoro solo degli algoritmi. E sottovalutano i rischi, anzi spesso non li vedono proprio. Ma i rischi ci sono perché, diciamolo una volta per tutte, la cosiddetta intelligenza artificiale è un fantastico rielaboratore, un velocissimo esecutore, ma non ha assolutamente intelligenza paragonabile a quella umana. Non pensa. Non riflette. Non ha il caro e vecchio “buon senso”. Non ha dubbi. Tutta quella roba umana che serve per affrontare al meglio le situazioni anche quando si sbaglia. No, l’intelligenza artificiale non ha tutto questo e va dritta anche quando sbaglia. E sì, sbaglia, e lo abbiamo già sperimentato tutti quando almeno una volta ci siamo sentiti dare una risposta errata da ChatGPT.

IL FENOMENO DEL “MODEL COLLAPSE”
Inoltre, col passare del tempo i modelli di AI sono destinati ad essere alimentati sempre più non da informazione e contenuti di origine umana, ma da dati prodotti da altri modelli. Intelligenze artificiali che si autoalimentano. Dati sintetici basati su altri dati sintetici. E questo circolo vizioso, come segnalato già da molti esperti di intelligenza artificiale, aumenta il rischio tecnico di errore. Ebbene sì, perché i modelli di AI tendono nelle loro rielaborazioni a semplificare, a sintetizzare, perdendo, diciamo così, dei dettagli e delle sfumature. E, quindi, se il processo viene ripetuto molte volte, senza più l’apporto di informazione umana fresca che vuol dire garanzia di aderenza alla realtà, ad ogni passaggio è come se gli algoritmi rinunciassero a un piccolo margine di precisione in favore della sintesi fino a ritrovarsi poi troppo lontano da quel reale, da quella complessità del vero, che la funzione matematica deve sempre replicare.È il fenomeno tecnico che gli esperti di AI chiamano “model collapse”: un po’ come in un meccanismo dove da una immagine originale si fa una fotocopia e poi una fotocopia della fotocopia e così via fino ad arrivare a una copia un po’ sbiadita dove qualcosa non torna più, così in modo simile i modelli di intelligenza artificiale alla fine possono collassare. Ecco perché le società che creano algoritmi e chatbot cercano informazione umana per addestrare i modelli artificiali: non serve solo all’inizio, ma serve anche dopo, per mantenere i modelli precisi, aderenti alla realtà da registrare e rielaborare, solo che appunto il trend di mercato sembra andare verso un’autoalimentazione degli algoritmi per praticità, per risparmiare e forse anche perché il contenuto umano diventa la nuova risorsa rara.

RISCHIO DANNI NON COPERTI
Qui sta il punto: il rischio che l’intelligenza artificiale faccia qualche grosso errore in processi aziendali e vada dritta, fino in fondo, senza dubbi, prendendo magari decisioni sbagliate in attività operative importanti, laddove questo le venga consentito, e facendo così danni. Ci sono le assicurazioni per questo, si dirà. Giusto, ma qui sta l’altro punto: cominciano ad arrivare prime notizie di compagnie di assicurazione che escludono dalle coperture gli eventuali danni creati proprio dall’uso di intelligenza artificiale. Perché lo ritengo un rischio troppo elevato, difficile da quantificare. Non si fidano di un uso troppo incondizionato dell’intelligenza artificiale. E questo può diventare un trend. Quindi? E quindi prima o poi arriveranno i primi grossi episodi di danni da intelligenza artificiale in grandi aziende, danni magari appunto manco assicurati. I primi “casi” con pesanti ricadute d’immagine. E lì scatteranno i primi allarmi rossi.

RIPENSARE L’IDEA DI INTELLIGENZA ARTIFICIALE
Dopo la prima fase pionieristica, la corsa frenetica si fermerà, per riflettere. La rivoluzione continuerà, ma in modo diverso. Si inizierà a pesare i rischi. E a capire appunto che quello che oggi chiamiamo intelligenza artificiale è solo un insieme di tool bravissimi ad agire, ad applicare schemi, ma non intelligenti come almeno abbiamo inteso finora nella storia l’idea di intelligenza stessa. Forse cambierà pure la definizione stessa di “intelligenza artificiale”, perché si capirà finalmente che gli algoritmi sono appunto eccezionali replicanti, ma che l’intelligenza, quella vera, è tutt’altra cosa. Mettere tutto in mano a macchine, robot e algoritmi, che restano delle black box, è una follia e rischia di esporre le aziende a danni nemmeno calcolabili al momento, come le assicurazioni hanno già forse capito. No, non stiamo dicendo che la cosiddetta intelligenza artificiale sia una cosa cattiva, ma che semplicemente va usata per quello che è: un'industria di algoritmi evoluti, una nuova e evoluta tecnologia al servizio dell’uomo. Andare oltre questo, mitizzare l’intelligenza artificiale fino a considerala sostituto dell’uomo, è invece semplicemente l’errore più grande che l’intelligenza umana può fare.