Intelligenza artificiale e processo: opportunità, rischi e obblighi di trasparenza
- Produzione Webidoo

- 4 giorni fa
- Tempo di lettura: 2 min

Negli ultimi mesi l’uso dell’intelligenza artificiale nel mondo forense e giudiziario è stato al centro di numerosi dibattiti. Il Consiglio dell’Ordine degli Avvocati di Milano ha messo a disposizione uno schema di informativa sull’utilizzo dell’IA nei rapporti con i clienti: un documento che chiarisce doveri e limiti per i professionisti.
L’informativa del COA Milano: trasparenza verso il cliente
Il documento diffuso dall’Ordine degli Avvocati milanese stabilisce alcuni principi fondamentali:
Obbligo di trasparenza: l’avvocato deve informare il cliente quando utilizza strumenti di IA nella gestione della pratica, specificando finalità e limiti.
Ruolo ausiliario dell’IA: i sistemi possono essere impiegati solo per attività di supporto e non per sostituire il giudizio professionale.
Tutela dei dati: resta centrale l’obbligo di garantire la riservatezza e la protezione dei dati trattati.
Responsabilità personale: anche in caso di errori o bias algoritmici, l’avvocato rimane pienamente responsabile delle scelte difensive e del contenuto degli atti.
Questi punti vanno letti alla luce dell’AI Act europeo e della recente normativa italiana, che ribadiscono la centralità dell’uomo nei processi decisionali.
Il processo e l’IA: le criticità evidenziate al Forum Legale 2025
Al Forum Legale 2025 l’avvocato Massimiliano Pappalardo (Ughi e Nunziante, co-fondatore di AIRIA) ha richiamato l’attenzione sul futuro dell’IA nel processo civile e penale, ponendo l’accento su alcuni aspetti chiave:
Alto rischio e vigilanza: l’AI Act classifica l’uso dell’IA da parte delle autorità giudiziarie come pratica ad alto rischio, imponendo controlli e garanzie.
Shadow AI: senza un coordinamento centrale, tribunali e procure rischiano di adottare strumenti disomogenei e non controllati. La delega al Ministero della Giustizia per autorizzare le sperimentazioni, pur con criticità, mira a prevenire questo rischio.
Trasparenza ed explainability: fondamentale che sia sempre chiaro come e perché viene usato un sistema di IA, per garantire parità tra le parti e correttezza processuale.
Asimmetrie tra le parti: chi ha accesso a strumenti avanzati può avere un vantaggio competitivo, creando squilibri nella dialettica processuale. Da qui la necessità di AI literacy, cioè formazione diffusa su questi strumenti.
Casi d’uso positivi: nei contenziosi seriali (bancari, assicurativi, RC) l’IA può favorire la deflazione, aiutando le imprese a valutare rischi e opportunità prima di agire in giudizio.
Uno strumento neutro, da usare con prudenza
L’IA non è di per sé buona o cattiva: è uno strumento neutro che può potenziare il lavoro dell’avvocato e del giudice, oppure distorcerlo se utilizzato senza competenza e controllo.
La vera sfida è duplice:
per gli avvocati, garantire trasparenza e corretto uso, senza mai rinunciare al proprio ruolo intellettuale e critico;
per le istituzioni, disciplinare l’uso nei tribunali con regole chiare, evitando zone d’ombra e garantendo uniformità.
L’introduzione dell’intelligenza artificiale nel processo non è più una prospettiva futura, ma una realtà già in atto. Il percorso è ancora pionieristico, ma inevitabile.
La parola chiave resta responsabilità: quella dell’avvocato verso il cliente, quella della magistratura verso i cittadini, quella del legislatore nel garantire trasparenza e sicurezza.




Commenti