
L’uso dell’IA generativa solleva numerosi interrogativi in materia giuridica, in particolare quando produce contenuti errati o inventati: le famose “allucinazioni”.
Fino ad oggi, queste situazioni sembravano documentate soprattutto al di fuori dell’Unione Europea.
Ma nel 2025 abbiamo potuto assistere all’inversione di rotta. In questo articolo, Damien Charlotin analizza un caso inedito: la prima decisione francese a identificare esplicitamente le allucinazioni dell’IA in un contenzioso. Il ricercatore, specializzato in diritto pubblico internazionale, mette in luce una sfida chiave per la pratica forense: non tutte le IA si equivalgono, a seconda degli usi.
Laddove gli strumenti generalisti possono produrre contenuti senza garanzia di affidabilità giuridica, l’IA specializzata si basa su corpora identificati, citati e verificabili, condizione indispensabile per limitare le allucinazioni e consentire un autentico controllo umano.
Questo articolo riflette il punto di vista personale dell'autore.
Il tema delle allucinazioni dell'IA approda davanti ai giudici francesi
Sarebbe potuto trattarsi di una causa come un’altra: un ricorrente si rivolge al Tribunale Giudiziario di Périgueux, nel Sud-Ovest della Francia, in conflitto la sede dipartimentale della CAF (l'equivalente francese dell'INPS per quanto riguarda i sussidi e le prestazioni sociali). La vicenda dà luogo a uno scambio di memorie difensive, che la sezione competente rilegge con attenzione prima di emettere la propria sentenza.
Ma ecco il problema: la memoria del ricorrente si basa, a più riprese, su giurisprudenze che la corte non riesce a reperire. Altri argomenti si fondano su sentenze esistenti, ma i cui dettagli (data, oggetto) non corrispondono.
Nella sua decisione del 18 dicembre 2025, la sezione del Tribunale di Périgueux rileva che alcune giurisprudenze citate sono introvabili o errate, e invita esplicitamente il ricorrente e il suo difensore – seppur vittoriosi nel merito – ad assicurarsi che le loro fonti non siano frutto di "allucinazioni", che provengano da motori di ricerca o da strumenti di intelligenza artificiale ("IA").
Al di là dell'episodio legato al contenzioso in questione, la portata è più ampia: per la prima volta, a quanto pare, un giudice francese mobilita il vocabolario tecnico dell'IA nella sua motivazione. E molto probabilmente non sarà l'ultima.
Le allucinazioni nel resto del mondo
Dalla primavera del 2025, e nell'ambito dei miei corsi su come l'IA ridefinirà la professione legale, mi dedico a repertoriare questo tipo di casi in tutto il mondo. Ho creato un database che conta già 900 casi in cui una corte o un tribunale ha trattato l'uso di strumenti di IA generativa che ha dato luogo a tali allucinazioni.
Si tratta, ovviamente, di una cifra sottostimata: la base elenca solo le decisioni esplicite in materia, ed è certo che molte altre allucinazioni sono state ignorate, consapevolmente o meno.
Le IA non sono addestrate a dire "no"
Nella maggior parte, i casi repertoriati testimoniano la scarsa conoscenza dell'intelligenza artificiale da parte delle parti in causa: molto spesso gli individui considerano l'IA generativa come una fonte di verità, ignorando l'approccio probabilistico al cuore di questi sistemi. Si dimentica anche che, troppo spesso, le IA non sono addestrate a dire "no", e preferiscono inventare una fonte giuridica piuttosto che dare torto all'utente.
Ciò che questi casi dimostrano è anche che l'archetipo dell'avvocato che redige i propri atti e padroneggia il suo fascicolo è spesso lontano dalla realtà: in molte situazioni, le argomentazioni sono il frutto del contributo di una moltitudine di individui e strumenti, la cui coordinazione offre all'IA altrettante opportunità di inserirvi allucinazioni.
Tuttavia, l'idea di questa banca dati non è quella di dimostrare i "pericoli" dell'IA in campo giuridico, ma piuttosto di far luce sugli incidenti di percorso di una tecnologia non ancora del tutto matura, e di identificare le possibili soluzioni per garantire un buon utilizzo di questi nuovi strumenti.

L'uso consapevole dell'IA
Tali soluzioni sono globalmente note, e riguardano in particolare l'uso consapevole dell'intelligenza artificiale a seconda dei contesti d'impiego: non si utilizza necessariamente lo stesso strumento per diversi compiti, così come non si delega qualsiasi tipo di attività ad un collega o ad un subordinato.
Un punto degno di nota emerso dai dati raccolti è che, in tutto il mondo, i giudici e le altre parti sono consapevoli delle promesse dell'IA per rendere la giustizia più accessibile e più efficiente; quasi tutti i provvedimenti ne fanno menzione. Tuttavia, tutto dipende da che tipo di uso se ne fa.
La ricerca in Modalità Tabella risponde esclusivamente sulla base del corpus giurisprudenziale, mentre Chatta con i Documenti si basa solo sui documenti forniti – entrambi assicurandosi di citare sempre le loro fonti.
Una delle chiavi in questo senso è la gestione del contesto: il modo migliore per trarre il massimo beneficio dall'IA è assicurarsi che si ispiri e sfrutti corpora giuridici precisi, che possa poi citare per facilitarne il compito di verifica. È esattamente ciò a cui mirano gli strumenti di IA di Doctrine: la ricerca in Modalità Tabella risponde esclusivamente sulla base del corpus giurisprudenziale, mentre Chatta con i Documenti si basa solo sui documenti forniti – entrambi assicurandosi di citare sempre le loro fonti.
Ma se si può sperare di ridurle, non si può garantire l'assenza di allucinazioni. Per questo motivo i professionisti del mondo del diritto devono adottare una certa igiene epistemica: non fidarsi ciecamente di un contenuto generato automaticamente ed adattare il grado di verifica all'importanza di tale contenuto. Anche se, anche in questo caso, ci si può aiutare con l'IA per automatizzare in parte il processo di verifica.
Il ruolo dell'avvocato
Una delle ragioni per cui le allucinazioni non si sono realmente diffuse in Europa, finora, è dovuta al ruolo più significativo dell'avvocato nel contenzioso.
Infatti, la maggior parte dei casi nella banca dati riguarda individui che si rappresentano da soli – una situazione molto più rara in Europa continentale, dove è spesso necessario farsi assistere da un avvocato. L'uso abituale di produrre le sentenze e le fonti giuridiche su cui ci si basa è anche molto utile per frenare la diffusione delle allucinazioni.
Nel caso di Périgueux, era presente un avvocato, avendo il ricorrente richiesto – e ricevuto – il patrocinio a spese dello Stato. Sembra tuttavia probabile che l'avvocato incaricato si sia basato su memorie prodotte dal suo cliente, senza rimetterle sufficientemente in discussione.
È, in ultima analisi, l'avvocato che mette in gioco la propria responsabilità in un procedimento giuridico
Anche in questo caso, l'allucinazione rivela una realtà: probabilmente non è una pratica isolata, e non si tratta di puntare il dito. Ma essa ricorda anche un punto essenziale: è, in ultima analisi, l'avvocato che mette in gioco la propria responsabilità in un procedimento giuridico, ed è a quest’ultimo/a che incombe il compito di assicurarsi che questo non sia ostacolato da informazioni non veritiere.
Quando generare testo non costa più nulla, stabilire la verità giuridica diventa una questione di strumenti, di dati e di discernimento.
Damien Charlotin è co-direttore dello Smart Law Hub, presso HEC Paris, e ricercatore associato a Sciences Po Paris. Esercita il diritto internazionale pubblico e ha appena lanciato un strumento che automatizza la verifica di citazioni e riferimenti.


