Il D.L. 132/2025 rappresenta un punto di svolta nel panorama normativo italiano sull’intelligenza artificiale. L’Italia, in linea con il percorso europeo tracciato dall’AI Act, ha scelto di fissare alcuni principi fondamentali per garantire che la tecnologia si sviluppi in modo coerente con i valori costituzionali. Tra le disposizioni più significative spicca l’articolo 13, che tocca da vicino la professione legale.
Se negli ultimi anni si è molto discusso della cosiddetta giustizia predittiva, il legislatore italiano ha deciso di concentrare l’attenzione anche sul ruolo dei professionisti del diritto e sull’uso dell’IA nei loro studi. È un passaggio importante: non si parla solo del giudice, ma anche dell’avvocato e del rapporto fiduciario con il cliente.
Cosa prevede l'articolo 13 del D.L. 132/2025
L’articolo 13 sancisce un principio chiaro: l’intelligenza artificiale può essere impiegata dagli avvocati come strumento di supporto, ma non può mai sostituire l’attività intellettuale, strategica e responsabilmente personale del professionista.
Si tratta di un aspetto non banale. Negli studi legali le applicazioni di IA sono ormai molteplici: dalla ricerca giurisprudenziale assistita, alla redazione automatica di bozze di atti, fino ai sistemi di analisi dei contratti e di gestione documentale. Strumenti che promettono velocità e precisione, riducendo i tempi di lavoro su attività ripetitive e permettendo all’avvocato di concentrarsi sugli aspetti più delicati della difesa.
Il legislatore, però, mette dei paletti. Non si può pensare che una decisione difensiva venga presa da un algoritmo, né che una linea argomentativa sia “imposta” da un software. La scelta della strategia processuale, così come la valutazione delle prove o l’interpretazione di una norma, restano competenze che appartengono esclusivamente all’avvocato.
Il tema della trasparenza
Un punto centrale dell’articolo 13 riguarda il rapporto di trasparenza tra professionista e cliente. Se l’avvocato decide di utilizzare sistemi di intelligenza artificiale per organizzare dati, elaborare analisi o predisporre schemi di difesa, deve dichiararlo al cliente in maniera chiara.
Perché questa precisazione? Perché il cuore del rapporto tra cliente e avvocato è la fiducia. Ogni persona che si affida a un legale sa di consegnargli non solo documenti e pratiche, ma soprattutto la tutela dei propri diritti e, spesso, aspetti profondamente personali della propria vita. Sapere che il professionista utilizza anche strumenti tecnologici può essere percepito come un elemento positivo, se vissuto nella piena trasparenza. Viceversa, se il cliente lo scopre “a posteriori”, può nascere la sensazione che la sua causa sia stata trattata più da un algoritmo che da un avvocato.
L’obbligo di trasparenza serve proprio a evitare questa diffidenza: l’IA non sostituisce l’avvocato, ma lo assiste. È un modo per valorizzare l’uso degli strumenti tecnologici, senza però snaturare la centralità della responsabilità umana.
Opportunità e rischi
Le opportunità sono evidenti. Grazie all’IA, un avvocato può consultare migliaia di pronunce in pochi secondi, individuare orientamenti giurisprudenziali pertinenti, predisporre rapidamente tabelle di danno o simulazioni di calcolo di interessi e rivalutazioni. Tutto questo si traduce in un servizio più rapido, più completo e, talvolta, anche meno oneroso per il cliente.
Ma accanto alle opportunità emergono rischi concreti. Il primo è il pericolo di appiattimento: se tutti i professionisti si affidassero agli stessi strumenti, il rischio sarebbe quello di uniformare eccessivamente gli approcci difensivi, perdendo la creatività e la capacità critica che rendono ogni avvocato unico.
Il secondo è il rischio di diffidenza: se il cliente percepisce che la macchina “lavora al posto” dell’avvocato, la professionalità potrebbe sembrare svalutata. Infine, esiste il problema dei bias algoritmici: se i dati utilizzati per addestrare un sistema sono incompleti o distorti, anche i risultati possono esserlo.
Ecco perché l’articolo 13 richiama la centralità dell’avvocato: la tecnologia è utile, ma è l’essere umano che deve controllarla, filtrarla e spiegarla al cliente.
Una questione culturale
La vera sfida che emerge dall’articolo 13 non è tecnologica, ma culturale. Non si tratta di stabilire se l’IA sia “buona” o “cattiva”, ma di imparare a usarla e soprattutto a spiegarla. L’avvocato del futuro non sarà chi rifiuta la tecnologia, ma chi saprà integrarla nel proprio lavoro rendendola comprensibile e rassicurante per il cliente.
È qui che si gioca la partita della fiducia: l’IA deve diventare uno strumento che rafforza il rapporto professionista-cliente, non che lo indebolisce. Perché se la percezione diffusa fosse quella di un avvocato che delega troppo alle macchine, allora si produrrebbe l’effetto opposto: non trasparenza, ma diffidenza.
In questo senso, non è corretto dire che la norma rappresenti una “scelta sbagliata”: piuttosto, indica che siamo ancora in una fase di educazione all’intelligenza artificiale. Bisogna imparare a conoscerne i limiti, a valorizzarne le potenzialità e a comunicarle correttamente. L’articolo 13 del D.L. 132/2025 non è una chiusura, ma un’apertura: riconosce che l’IA è entrata a pieno titolo anche nella professione legale, ma stabilisce che il suo uso deve avvenire entro confini di responsabilità e trasparenza.
Per gli avvocati si tratta di una sfida: saper utilizzare gli strumenti tecnologici senza mai perdere il controllo sul proprio lavoro e senza smarrire la centralità del rapporto fiduciario con il cliente.
La macchina può calcolare, comparare, suggerire. Ma solo l’avvocato può decidere, interpretare e assumersi la responsabilità della difesa. Ed è in questa sintesi che si gioca il futuro del diritto nell’era digitale.







