il libro

Ruben Razzante: "L'intelligenza artificiale non soppianti l'uomo, ma lo potenzi"

Il professore di Diritto dell'informazione presenta la decima edizione del suo Manuale, adottato in molte università italiane. "Il nuovo umanesimo digitale deve rimettere al centro l'essere umano. I deepfake rappresentano una minaccia ai diritti fondamentali"

20 Ott 2025 - 10:36
© Ufficio stampa

© Ufficio stampa

L'intelligenza artificiale generativa sta ridefinendo i confini tra uomo e tecnologia, sollevando questioni etiche, culturali e giuridiche sempre più urgenti. Ruben Razzante, professore di Diritto dell'informazione all'Università Cattolica di Milano e alla Lumsa di Roma, ne è convinto e lo affronta ogni giorno nelle aule e nei suoi studi.

Autore del "Manuale di diritto dell'informazione e della comunicazione" (Wolters Kluwer), giunto alla decima edizione e diventato testo di riferimento per università e master in giornalismo, Razzante nel 2023 è stato nominato consulente della Commissione straordinaria del Senato per il contrasto dei fenomeni di intolleranza, razzismo, antisemitismo e istigazione all'odio, presieduta dalla senatrice a vita Liliana Segre.

Ai microfoni di Tgcom24 il professor Razzante analizza le sfide poste dall'AI: dalla tutela del copyright ai deepfake, dalla responsabilità delle piattaforme alla necessità di un "nuovo umanesimo digitale" che non si opponga alla tecnologia ma la guidi verso un progresso condiviso e responsabile.

Quali sono le novità più significative che distinguono la decima edizione del Manuale dalla precedente?
Il fatto stesso di essere arrivati alla decima edizione del Manuale testimonia la necessità di monitorare con un approccio scientifico e con spirito critico e onestà intellettuale i cambiamenti in atto nei vari ambiti analizzati nei nove capitoli, dalla privacy al copyright, dalle leggi sui media al diritto all’oblio, dalla deontologia giornalistica fino alla stessa Intelligenza Artificiale, alla quale dedico un intero capitolo per analizzare la sua evoluzione normativa e le differenze degli approcci adottati in Europa, in America e in Cina. Inoltre, vista la necessità di rendere il volume più snello al fine di facilitarne una più ampia fruizione, è stata inserita per la prima volta un'appendice consultabile online nella quale sono state raccolte alcune sentenze utili per lo studio dei temi affrontati. Ciò ha consentito di ridurre in modo significativo il numero di pagine.

Come si è evoluto il concetto di “nuovo umanesimo digitale” con l’avvento massiccio dell’Intelligenza Artificiale Generativa, tema centrale della decima edizione?
Il concetto di "nuovo umanesimo digitale" ha subìto una profonda trasformazione con l’avvento dell’AI Generativa, che ha contribuito a ridefinire i tradizionali rapporti tra uomo e tecnologia. Il confine tra i due si è fatto sempre più sottile, il che solleva diverse questioni etiche, culturali e sociali. Da un lato sono state ampliate le possibilità espressive e creative delle persone grazie a questi strumenti sempre più evoluti e sofisticati. Dall’altro, però, si è acceso un dibattito soprattutto per quanto riguarda la tutela del diritto d’autore e le opere direttamente generate dall’AI. 
Il nuovo umanesimo digitale, quindi, si evolve come tentativo di rimettere al centro l’essere umano. L’AI non deve soppiantare ma piuttosto potenziare la condizione umana e funzionare a supporto e con gli individui potenziando le loro attività. In questo scenario, l’umanesimo non si oppone alla tecnologia ma cerca di guidarla, in modo che l’innovazione non si traduca in alienazione o disuguaglianza, ma in un’occasione di crescita condivisa e responsabile. Ciò può avvenire solo se l’AI verrà progettata con consapevolezza, etica e rispetto per i diritti fondamentali, così da diventare un motore di progresso che tenga conto dell’identità di ogni individuo, valorizzando le diversità e il pluralismo.

Quali sono le sfide legali più urgenti poste dall’AI che il Manuale affronta per bilanciare innovazione e tutela dei diritti fondamentali?
Una delle principali sfide riguarda il rischio di potenziare bias o pregiudizi già esistenti, replicandoli o addirittura amplificandoli con l’AI. Un’altra questione, invece, riguarda la mancanza di trasparenza nei processi decisionali dei sistemi intelligenti, i quali spesso risultano essere poco comprensibili, il che rende difficili eventuali contestazioni.  La privacy e la protezione dei dati rappresentano un’altra sfida legale, vista l’enorme quantità di dati, spesso anche sensibili, utilizzati durante la fase di addestramento.  La questione della responsabilità, anche per quanto riguarda il copyright, è ancora poco chiara dal punto di vista giuridico. Infine, i deepfake, sempre più diffusi, hanno un impatto negativo sui diritti fondamentali delle persone. 

© Ufficio stampa

© Ufficio stampa

Dopo gli anni della pandemia, il diritto dell’informazione è riuscito a colmare il divario tra il ritmo della tecnologia e quello della legislazione in Italia e in Europa?
Sicuramente il diritto dell’informazione ha compiuto dei passi avanti ma non ha ancora colmato del tutto il divario tra il ritmo della tecnologia e quello della legislazione. Durante gli anni della pandemia si è resa sempre più evidente la centralità dell’informazione diffusa online, soprattutto sui social media, e dei relativi rischi. L’Unione europea ha reagito emanando il Digital Services Act, per regolare le piattaforme e contrastare il fenomeno della disinformazione, e il Digital Markets Act per limitare il potere delle Big tech e garantire maggiori equilibri di mercato. Infine, con l’AI Act sta cercando di disciplinare l’uso dell’Intelligenza Artificiale a seconda del livello di rischio. Tuttavia, nonostante i provvedimenti e le normative adottate, la legislazione continua a rimanere indietro rispetto alle innovazioni e al continuo progresso tecnologico, trovandosi a doverlo rincorrere in continuazione.

Quali sono i rischi legali prevalenti che studenti e professionisti devono affrontare oggi riguardo alla disinformazione e alle fake news in Rete?
Se la diffusione di notizie false è intenzionale si possono configurare reati come la diffamazione o l’istigazione all’odio, i quali portano a conseguenze civili e penali. Spesso anche la sola condivisione di contenuti non verificati può comportare delle responsabilità, soprattutto nei confronti di coloro che possiedono una certa autorevolezza o influenza in quel determinato settore. In generale, la diffusione di fake news può compromettere la reputazione e la credibilità delle persone. Per cercare di contrastare tale fenomeno, le stesse piattaforme stanno aumentando i controlli sui contenuti che veicolano; tuttavia questo non esonera gli utenti dal verificare la validità delle fonti. Infatti, anche il Digital Services Act ha imposto una maggiore responsabilità agli utenti, oltre che alle big tech. Perciò, è necessario un approccio che sia critico, informato e responsabile. 

Oltre all’AI, quale nodo giuridico emergente ritiene che subirà gli sviluppi imprevedibili più rapidi?
Il nodo riguardante la possibile attribuzione di nuove responsabilità giuridiche alle piattaforme web e social per la condivisione di contenuti prodotti dagli utenti.

Qual è il messaggio principale che la decima edizione intende veicolare a istituzioni e aziende in merito all’importanza dell’autoregolamentazione sui social media e della conservazione dei dati?
L’autoregolamentazione sui social media e la corretta conservazione dei dati non sono solamente strumenti di conformità normativa ma elementi essenziali e fondamentali per garantire la trasparenza e la tutela dei diritti fondamentali e dei singoli utenti all’interno dell’ecosistema digitale.