FOTO24 VIDEO24 Logo Mediaset ComingSoon.it Donne logo mastergame Grazia Meteo.it People sportmediaset_negative sportmediaset_positive TGCOM24 meteo.it
Podcast DirettaCanale 51
Temi del momento

Intelligenza artificiale, l'allarme delle big tech: può portare all'estinzione

Una nuova dichiarazione firmata da un gruppo di ricercatori e manager operanti nel campo dell'IA, mette in guardia sui rischi che questa tecnologia potrebbe rappresentare in futuro

Intelligenza artificiale, l'allarme delle big tech: può portare all'estinzione - foto 1
Italy Photo Press

L'Intelligenza artificiale potrebbe portare all'estinzione dell'umanità.

È l'allarme lanciato dagli esperti del settore tra cui Sam Altman, a.d. del produttore di ChatGPT OpenAI, Demis Hassabis, amministratore delegato di Google DeepMind, e Dario Amodei di Anthropic. "Mitigare il rischio di estinzione dell'Intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare", si legge in una dichiarazione congiunta pubblicata sul sito Centre for AI Safety.

 

Anche altri importanti figure del settore come il dottor Geoffrey Hinton, Yoshua Bengio, professore di informatica all'Università di Montreal e Yann LeCunn professore della NYU, considerati dei pionieri nel loro campo hanno deciso di firmare la dichiarazione. Altri esperti invece sostengono che questo scenario sia da considerare alquanto irrealistico. Arvind Narayanan, informatico dell'Università di Princeton, ha dichiarato alla BBC che i rischi da considerare sono altri e non sono minimamente paragonabili a quelli descritti nel documento: "L'attuale intelligenza artificiale non è neanche lontanamente capace di far materializzare questi rischi. Anzi, questo distrae l'attenzione dai possibili danni a breve termine dell'IA".

L'avvertimento di Elon Musk

 Non si tratta del primo allarme di questo tipo. Lo scorso marzo un gruppo di esperti del settore, tra cui Elon Musk, uno dei fondatori di OpenAI, aveva scritto una lettera in cui chiedevano di sospendere lo sviluppo della nuova generazione di sistemi più potenti di Gpt-4. "I sistemi potenti di IA dovrebbero essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili", si legge nella lettera in cui si parla di una "corsa fuori controllo allo sviluppo e al dispiegamento di potenti menti digitali che nessuno, neanche i loro creatori, possono capire, prevedere e controllare".

 

Commenti
Commenta
Disclaimer
Grazie per il tuo commento

Sarà pubblicato al più presto sul nostro sito, dopo essere stato visionato dalla redazione

Grazie per il tuo commento

Il commento verrà postato sulla tua timeline Facebook

Regole per i commenti

I commenti in questa pagina vengono controllati
Ti invitiamo ad utilizzare un linguaggio rispettoso e non offensivo, anche per le critiche più aspre

In particolare, durante l'azione di monitoraggio, ci riserviamo il diritto di rimuovere i commenti che:
- Non siano pertinenti ai temi trattati nel sito web e nel programma TV
- Abbiano contenuti volgari, osceni o violenti
- Siano intimidatori o diffamanti verso persone, altri utenti, istituzioni e religioni
- Più in generale violino i diritti di terzi
- Promuovano attività illegali
- Promuovano prodotti o servizi commerciali