L’avvento dell’Intelligenza Artificiale Generativa (GenAI) non rappresenta solo un salto tecnologico, ma un vero e proprio cambio di paradigma per la professione forense. Se fino a ieri l’automazione riguardava compiti ripetitivi, oggi l’emergere della agentic AI con sistemi capaci di agire in autonomia per raggiungere obiettivi complessi impone una revisione profonda delle prassi negli studi legali. In questo scenario, il quadro normativo si è cristallizzato attraverso il Regolamento (UE) 2024/1689 (AI Act) e, a livello nazionale, con la Legge n. 132 del 23 settembre 2025. Comprendere questo ecosistema è vitale per gestire le responsabilità legali nell’uso dell’AI e garantire la conformità deontologica.
1. Il Quadro Normativo Europeo: L’AI Act e il rischio nel settore Legale
Il pilastro della regolamentazione è l'AI Act, il primo regolamento organico al mondo sull'intelligenza artificiale, pienamente operativo nelle sue componenti essenziali dal 2 agosto 2025. Il Regolamento adotta un approccio basato sul rischio, classificando i sistemi in base al potenziale danno che possono arrecare ai diritti fondamentali.
I Sistemi ad Alto Rischio per l'Avvocatura
È fondamentale sottolineare che l'AI Act e gli avvocati si incontrano in una zona critica: i sistemi destinati all'amministrazione della giustizia e ai processi democratici sono classificati come ad alto rischio. Questo include strumenti utilizzati per assistere le autorità giudiziarie nella ricerca, interpretazione dei fatti e applicazione della legge. Anche se l’avvocato agisce come deployer (utilizzatore), l’uso di tali strumenti richiede una diligenza estrema, poiché il loro impatto sullo Stato di diritto è significativo.
La Commissione Europea ha inoltre rilasciato specifiche Linee Guida sulle pratiche proibite, che vietano categoricamente sistemi di "social scoring" o di identificazione biometrica remota in tempo reale negli spazi pubblici (salvo eccezioni limitate); principi che ogni professionista IT e legale deve conoscere.
2. L'AI Act Italiano: la Legge n. 132 del 23 settembre 2025
L'Italia ha recepito e integrato la disciplina europea con la Legge n. 132 del 23 settembre 2025, pubblicata nella Gazzetta Ufficiale ("Disposizioni e deleghe al Governo in materia di intelligenza artificiale"), entrata in vigore il 10 ottobre 2025. Questa norma non è solo un atto formale, ma definisce il perimetro della responsabilità civile e professionale in Italia.
I punti chiave per l'AI Act italiano includono:
- Centralità dell'uomo (Antropocentrismo): L’IA deve essere uno strumento di supporto, mai un sostituto del giudizio intellettuale.
- Obbligo di Informativa: L’art. 13 stabilisce che il professionista deve comunicare con linguaggio chiaro, semplice ed esaustivo l’utilizzo di sistemi di IA nello svolgimento dell'incarico.
- Trasparenza: Ogni output generato deve essere verificabile, contrastando il fenomeno della "black box".
3. Responsabilità Legali e Deontologia Forense
L'integrazione della GenAI nel workflow legale solleva questioni critiche di data protection e segreto professionale. Secondo le Linee guida del Consiglio degli Ordini Forensi d'Europa (CCBE), l'avvocato rimane l'unico responsabile dei contenuti prodotti, indipendentemente dal mezzo usato.
Il Rischio di Allucinazioni e Bias
Uno dei pericoli maggiori della GenAI è rappresentato dalle cosiddette "allucinazioni": la generazione di risposte fattualmente errate o citazioni giurisprudenziali inesistenti. Affidarsi ciecamente a un output senza una verifica umana rigorosa espone il professionista a gravi responsabilità per negligenza professionale. Inoltre, il bias algoritmico, ossia il pregiudizio derivante dai dati di addestramento, può portare a conclusioni inique. La deontologia forense impone di mantenere l'indipendenza di giudizio, evitando che la "compiacenza" verso la macchina sostituisca l'analisi critica.
4. IP, IT e Data Protection: Il Triangolo della Compliance
L’uso di sistemi di intelligenza artificiale tocca tre aree tecniche fondamentali:
- IP (Intellectual Property): chi detiene i diritti su un atto legale scritto da una GenAI? La tutela del diritto d'autore richiede un apporto creativo umano. Senza un intervento significativo dell'avvocato (il cosiddetto Legal Prompting), l'output potrebbe non essere tutelabile.
- IT (Information Technology): la sicurezza dell'infrastruttura è vitale. Gli studi devono proteggersi da nuovi vettori di attacco come la prompt injection (istruzioni malevole che manipolano l’IA) o il data poisoning.
- Data Protection: inserire dati sensibili dei clienti in un prompt di una chat pubblica è una violazione del GDPR. È fondamentale utilizzare soluzioni "enterprise" che garantiscano che i dati non vengano riutilizzati per l'addestramento dei modelli. Per approfondimenti sulla protezione dati, è essenziale consultare regolarmente il sito del Garante Privacy.
5. Dall'IA Generativa alla Agentic AI: il futuro della Professione
Mentre la GenAI si limita a creare contenuti, la agentic AI rappresenta l'evoluzione prossima: agenti capaci di navigare sul web, interagire con altri software e prendere decisioni operative. Per gli avvocati, questo significa poter disporre di "assistenti autonomi" per la gestione di scadenze, archiviazione di atti o analisi documentali massive. Tuttavia, l'uso di browser agentici o agenti autonomi amplifica i rischi di sicurezza informatica. La responsabilità dell'avvocato si sposta dalla semplice supervisione del testo alla supervisione del "processo" decisionale delegato alla macchina.
6. Comportamenti da osservare: checklist per il Professionista
Per conformarsi all'AI Act e alla Legge n. 132/2025, l'avvocato moderno deve adottare una strategia di AI Literacy:
- Verifica delle Fonti: mai utilizzare un output di IA senza controllare i riferimenti normativi su fonti ufficiali.
- Privacy by Design: scegliere solo strumenti di IA che garantiscano il trattamento locale dei dati o crittografia end-to-end.
- Formazione Continua: comprendere il funzionamento tecnico degli LLM (Large Language Models) per mitigare rischi di bias e allucinazioni.
- Trasparenza con il Cliente: aggiornare le lettere di incarico includendo clausole specifiche sull'uso dell’IA, come richiesto dalla normativa italiana.
L’intelligenza artificiale non è una minaccia per l’avvocatura, ma un potenziatore di capacità, a patto che venga utilizzata entro i binari della legalità e dell’etica. La Legge n. 132/2025 e l'AI Act europeo non devono essere visti come ostacoli burocratici, ma come scudi protettivi per il professionista e per il cliente. In un mercato legale sempre più competitivo, la vera differenza la farà chi saprà gestire le responsabilità legali nell’uso dell’AI con competenza, trasparenza e una profonda comprensione dei limiti tecnologici, preservando sempre la dignità e la centralità intellettuale della professione forense.
Per approfondire l’argomento, Form&Lex organizza un minimaster sull’Intelligenza Artificiale in quattro giornate.
Verranno analizzati il corretto uso dell’I.A. nelle diverse discipline e i profili di responsabilità e i criteri risarcitori dei relativi danni con particolare riferimento alle professioni intellettuali (avvocato-medico e relativi profili deontologici), al giornalista, al direttore del giornale, all’editore, con un focus sul diritto d’autore e sulla violazione della privacy.
Saranno oggetto di attenzione le prime pronunce giurisprudenziale sull’uso dell’Intelligenza artificiale. Saranno analizzati anche i limiti all’utilizzo della I.A., le condotte non conformi e i profili di responsabilità delle Forze dell’Ordine e dell’Agenzia delle Entrate.
Un focus sarà dedicato all’adeguamento della polizza RC professionale al rischio I.A.
Docenti del corso:
- Domenico Chindemi, Presidente emerito di Sezione della Suprema Corte di cassazione. Presidente della Corte di giustizia di 2° grado di Milano e autore di numerose pubblicazioni in materia.
- Luca Casella: Consulente in cyber security ed ex sottufficiale della Guardia di Finanza
Info e dettagli nella pagina del corso.
