Cerca

ATTUALITA'

Avvocato sanzionato per sentenze false generate dall’IA

Errore grave in aula: 30mila euro di condanna

Avvocato sanzionato per sentenze false generate dall’IA

A Siracusa un avvocato è stato condannato a versare 30mila euro dopo aver presentato in tribunale quattro precedenti giurisprudenziali inesistenti, prodotti da un sistema di intelligenza artificiale. L’anomalia è emersa durante le verifiche del giudice che non ha trovato riscontro di alcuna delle sentenze citate all’interno del CED della Corte di Cassazione.

Nella decisione n. 338/2026, depositata il 20 febbraio, il magistrato individua nell’uso non verificato dell’intelligenza artificiale la causa dell’errore, parlando di affidamento privo di controllo sulle fonti. Secondo quanto ricostruito, il legale avrebbe utilizzato uno strumento generativo senza sottoporre i risultati a una verifica diretta, introducendo così in giudizio riferimenti giuridici privi di fondamento reale.

Il caso si inserisce in un contesto in cui l’uso dell’intelligenza artificiale nel lavoro legale è sempre più diffuso. Come osserva Giuseppe Gurrieri, vicepresidente della Camera penale di Siracusa, tali strumenti possono rappresentare un supporto concreto per l’analisi di documenti complessi o per la costruzione di motivazioni, purché vengano utilizzati con metodo e controllo. In questo episodio, tuttavia, la tecnologia ha generato contenuti fuorvianti, esponendo il professionista a conseguenze rilevanti.

La sentenza ha imposto una triplice sanzione: oltre 14mila euro di spese legali a favore della controparte, un identico importo per responsabilità aggravata legata alla lite temeraria e 2mila euro destinati alla Cassa delle Ammende. Il giudice ha sottolineato come sia ormai noto che i modelli linguistici non costituiscono archivi affidabili di giurisprudenza, ma sistemi probabilistici capaci di generare testi verosimili senza alcuna garanzia di veridicità.

Le quattro pronunce richiamate esistevano formalmente, ma non contenevano i passaggi citati in aula e risultavano riferite a materie del tutto differenti. Un controllo minimo avrebbe consentito di individuare immediatamente l’errore. L’omissione di tale verifica ha portato il tribunale a qualificare la condotta come colpa grave, fissando un principio destinato a incidere sull’uso futuro dell’intelligenza artificiale nelle professioni legali.

Resta aggiornato, iscriviti alla nostra newsletter

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su

Caratteri rimanenti: 400