Scongiurare lo "scenario Terminator"

Elon Musk lancia l'allarme sull'intelligenza artificiale: "Un rischio per l'umanità"

A lanciare l'allarme è il patron di Tesla con altri 1.000 fra ricercatori e manager che, in una lettera aperta, chiedono uno stop o una moratoria dei governi per evitare il temuto "scenario Terminator" 

30 Mar 2023 - 12:50

L'intelligenza artificiale pone "profondi rischi per la società e l'umanità" e per questo servirebbe una "pausa" di almeno sei mesi nell'addestramento dei sistemi più avanzati. A lanciare l'allarme è Elon Musk con altri 1.000 fra ricercatori e manager che, in una lettera aperta, chiedono uno stop o una moratoria dei governi per evitare il tanto temuto "scenario Terminator" e consentire lo sviluppo di protocolli di sicurezza condivisi.

I firmatari della lettera-appello

 La lettera, pubblicata dalla organizzazione no profit Future of Life Institute, vanta firme eccellenti e per questo viene presa molto seriamente. A sottoscriverla ci sono il co-fondatore di Apple, Steve Wozniak, ma anche quelli di Pinterest e Skype, così come i fondatori delle start up di intelligenza artificiale Stability AI e Charatcters.ai.

Investimenti mirati di Musk

 Ma tra i firmatari spicca ovviamente il nome del patron di Tesla che aspira a migliorare il cervello con Neuralink dopo aver contribuito a trasformare l'industria dello spazio con SpaceX e rivoluzionare quella dell'auto spianando la strada già più di un decennio fa alle vetture elettriche che si guidano da sole. Fanatico della tecnologia, Musk ha investito in società di intelligenza artificiale ed è stato anche nel Cda di OpenAI, il colosso del settore su cui Microsoft ha scommesso miliardi di dollari. Investimenti, come spiegato più volte dallo stesso Musk, che sono stati fatti "non per guadagnare" ma "per tenersi al passo con i tempi" e quindi conoscere queste tecnologie.

Non solo rapper, Papa Francesco "fake" finisce anche sullo skateboard

1 di 6
© Reddit © Reddit © Reddit © Reddit

© Reddit

© Reddit

"Corsa fuori controllo allo sviluppo"

 Nel mirino dei big non c'è tutta l'intelligenza artificiale ma i sistemi più avanzati di GPT-4, la chatbot di OpenAI capace di raccontare barzellette e superare facilmente esami come quello per diventare avvocato. "I sistemi potenti di IA dovrebbero essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili", si legge nella lettera in cui si parla di una "corsa fuori controllo allo sviluppo e al dispiegamento di potenti menti digitali che nessuno, neanche i loro creatori, possono capire, prevedere e controllare".

Scongiurare "effetto Terminator"

 Una corsa che, se non sarà fermata, rischia di far divenire realtà la fantascientifica "Skynet" protagonista dei film del ciclo Terminator di James Cameron e la sua decisione di distruggere l'umanità. Oppure, di far finire in mani sbagliate questi potenti sistemi con ricadute possibilmente devastanti. Pechino - ha avvertito il senatore Mike Gallagher a capo della commissione della Camera Usa sulla Cina - vede l'intelligenza artificiale come uno "strumento o un'arma per perfezionare la sua sorveglianza orwelliana tecno-totalitaria".

Chiesa una pausa di sei mesi

 Proprio il timore di conseguenze catastrofiche ha spinto i grandi dell'hi-tech a chiedere una pausa di sei mesi da usare per lo "sviluppo congiunto e l'implementazione di protocolli condivisi" che assicurino la "sicurezza" dei sistemi "al di là di ogni ragionevole dubbio", si legge ancora nella lettera, che invita i laboratori di IA a concentrarsi nel rendere più "accurati, trasparenti, credibili e leali" gli attuali sistemi invece di correre verso lo sviluppo di mezzi ancora più potenti. "La società ha fatto una pausa su altre tecnologie con effetti potenzialmente catastrofici - prosegue la lettera -. Possiamo farlo anche in questo caso. Godiamoci una lunga estate dell'IA, e non corriamo impreparati verso l'autunno".

Fotogallery - Trump, le foto fake del suo arresto fanno scandalo

1 di 8
© Ansa © Ansa © Ansa © Ansa

© Ansa

© Ansa

Ti potrebbe interessare

Commenti (0)

Disclaimer
Inizia la discussione
0/300 caratteri