top of page

Intelligenza artificiale e processo: opportunità, rischi e obblighi di trasparenza

  • Immagine del redattore: Produzione Webidoo
    Produzione Webidoo
  • 4 giorni fa
  • Tempo di lettura: 2 min
Intelligenza artificiale

Negli ultimi mesi l’uso dell’intelligenza artificiale nel mondo forense e giudiziario è stato al centro di numerosi dibattiti. Il Consiglio dell’Ordine degli Avvocati di Milano ha messo a disposizione uno schema di informativa sull’utilizzo dell’IA nei rapporti con i clienti: un documento che chiarisce doveri e limiti per i professionisti.


L’informativa del COA Milano: trasparenza verso il cliente


Il documento diffuso dall’Ordine degli Avvocati milanese stabilisce alcuni principi fondamentali:

  • Obbligo di trasparenza: l’avvocato deve informare il cliente quando utilizza strumenti di IA nella gestione della pratica, specificando finalità e limiti.

  • Ruolo ausiliario dell’IA: i sistemi possono essere impiegati solo per attività di supporto e non per sostituire il giudizio professionale.

  • Tutela dei dati: resta centrale l’obbligo di garantire la riservatezza e la protezione dei dati trattati.

  • Responsabilità personale: anche in caso di errori o bias algoritmici, l’avvocato rimane pienamente responsabile delle scelte difensive e del contenuto degli atti.

Questi punti vanno letti alla luce dell’AI Act europeo e della recente normativa italiana, che ribadiscono la centralità dell’uomo nei processi decisionali.


Il processo e l’IA: le criticità evidenziate al Forum Legale 2025


Al Forum Legale 2025 l’avvocato Massimiliano Pappalardo (Ughi e Nunziante, co-fondatore di AIRIA) ha richiamato l’attenzione sul futuro dell’IA nel processo civile e penale, ponendo l’accento su alcuni aspetti chiave:

  • Alto rischio e vigilanza: l’AI Act classifica l’uso dell’IA da parte delle autorità giudiziarie come pratica ad alto rischio, imponendo controlli e garanzie.

  • Shadow AI: senza un coordinamento centrale, tribunali e procure rischiano di adottare strumenti disomogenei e non controllati. La delega al Ministero della Giustizia per autorizzare le sperimentazioni, pur con criticità, mira a prevenire questo rischio.

  • Trasparenza ed explainability: fondamentale che sia sempre chiaro come e perché viene usato un sistema di IA, per garantire parità tra le parti e correttezza processuale.

  • Asimmetrie tra le parti: chi ha accesso a strumenti avanzati può avere un vantaggio competitivo, creando squilibri nella dialettica processuale. Da qui la necessità di AI literacy, cioè formazione diffusa su questi strumenti.

  • Casi d’uso positivi: nei contenziosi seriali (bancari, assicurativi, RC) l’IA può favorire la deflazione, aiutando le imprese a valutare rischi e opportunità prima di agire in giudizio.


Uno strumento neutro, da usare con prudenza


L’IA non è di per sé buona o cattiva: è uno strumento neutro che può potenziare il lavoro dell’avvocato e del giudice, oppure distorcerlo se utilizzato senza competenza e controllo.


La vera sfida è duplice:

  1. per gli avvocati, garantire trasparenza e corretto uso, senza mai rinunciare al proprio ruolo intellettuale e critico;

  2. per le istituzioni, disciplinare l’uso nei tribunali con regole chiare, evitando zone d’ombra e garantendo uniformità.

L’introduzione dell’intelligenza artificiale nel processo non è più una prospettiva futura, ma una realtà già in atto. Il percorso è ancora pionieristico, ma inevitabile.

La parola chiave resta responsabilità: quella dell’avvocato verso il cliente, quella della magistratura verso i cittadini, quella del legislatore nel garantire trasparenza e sicurezza.


 
 
 

Commenti


bottom of page