il caso che scuote la magistratura

Spagna, giudice multato per aver scritto una sentenza con l'intelligenza artificiale

Scoperto per una distrazione nel testo, il magistrato evita la sospensione: per il Consiglio Generale della Magistratura l'AI non può sostituire la funzione giurisdizionale

27 Apr 2026 - 17:27
 © Istockphoto

© Istockphoto

Un copia-incolla di troppo. Basta una distrazione, una riga non cancellata, e il lavoro invisibile dell'intelligenza artificiale diventa improvvisamente pubblico. È così che un giudice di un tribunale provinciale spagnolo è finito sotto procedimento disciplinare: nel testo di una sentenza sono rimaste le query di ChatGPT, rivelando che l'elaborato era stato almeno in parte costruito con l'ausilio di un sistema automatizzato. Un dettaglio tecnico, ma dal peso istituzionale enorme.

La sanzione economica, ma niente sospensione

 Il Consiglio Generale della Magistratura (CGPJ) ha deciso di infliggere al magistrato una multa di mille euro per grave infrazione, escludendo però la sospensione dalla professione. La decisione è arrivata a maggioranza dal Comitato disciplinare, che ha ricondotto il caso nell'alveo della violazione delle norme sulla gestione e divulgazione di dati appresi nell'esercizio delle funzioni.

Ben più dura la posizione iniziale del pubblico ministero, che aveva proposto una sospensione di quindici giorni per una violazione ritenuta gravissima, affiancata da una sanzione economica. Secondo l'accusa, il comportamento del giudice avrebbe potuto configurare una forma di "inaccettabile ignoranza" nell’esercizio delle funzioni. Una linea non condivisa né dalla Commissione disciplinare né dalla Procura, che ha invece chiesto l'archiviazione senza sanzioni.

IA sì, ma solo come supporto

 Il nodo centrale della decisione sta nella qualificazione dell'uso dell'intelligenza artificiale. Per il CGPJ, il giudice non avrebbe delegato integralmente la funzione giurisdizionale alla macchina, ma avrebbe utilizzato l'IA come "ausilio e complemento". Una distinzione sottile, ma decisiva: l'errore non sarebbe stato l'uso dello strumento in sé, bensì il modo e il contesto in cui è stato impiegato.

Per l'accusa è una "sentenza costruita dall’algoritmo"

 Di tutt'altro avviso il pubblico ministero che ha avviato il procedimento. Secondo cui il magistrato avrebbe presentato ai colleghi una decisione solo formalmente propria, ma in realtà costruita attraverso "metodi artificiali" basati sull'analisi dei dati processuali affidati a ChatGPT. Non un semplice supporto, dunque, ma un rischio concreto di elusione della funzione giurisdizionale.

Il caso arriva in un momento delicato: il 28 gennaio scorso, il CGPJ aveva già fissato paletti chiari sull'uso dell'intelligenza artificiale. Le linee guida vietano esplicitamente che sistemi automatizzati possano emettere sentenze, valutare prove o applicare la legge senza un controllo umano "costante, reale, consapevole ed effettivo". La direttiva è netta: l'IA non può sostituire il magistrato né nella responsabilità decisionale né nell'esercizio dell'indipendenza. Restano centrali la tutela dei diritti fondamentali, la riservatezza e la sicurezza dei dati, oltre alla prevenzione dei bias algoritmici. I giudici possono utilizzare solo strumenti approvati o forniti direttamente dalle autorità competenti.

Ti potrebbe interessare

videovideo