Quando i deputati scrivono le leggi con l’AI: tra innovazione, etica e il rischio di perdere la bussola democratica.
(70 percento umano - 30 percento IA)
Non è più solo
il futuro: è l’oggi. Ma
come ogni svolta epocale, dietro l’entusiasmo per l’innovazione si nascondono
anche dubbi, insidie e interrogativi che meritano di essere affrontati. E in
questo articolo voglio fare proprio questo: esplorare le tipologie di chatbot
introdotti, analizzare pro e contro, riflettere su chi sarà l'utente tipo di
queste tecnologie, e suggerire qualche accorgimento per non finire schiavi
della macchina che volevamo solo usare.
Le tre IA
della Camera: cosa fanno e come funzionano: Legislab è uno strumento pensato per aiutare nella
scrittura dei testi di legge. Gli si dà un obiettivo normativo, una bozza o un
tema, e lui propone un testo coerente, con tanto di articoli, commi e
riferimenti. Un vero e proprio legislatore fantasma, sempre pronto, mai stanco,
veloce come un clic.
Norma è il cervello archivista: analizza leggi
esistenti, trova punti di contatto e conflitto, suggerisce riformulazioni. Un
assistente giuridico instancabile che si nutre di normative, dossier, articoli,
precedenti. Fa da radar nella giungla del diritto.
DepuChat invece è l'interfaccia pubblica: consente
ai cittadini di interrogare i dati parlamentari, sapere cosa fa un deputato,
quali interrogazioni ha presentato, a quali commissioni partecipa. Un ponte
digitale tra eletti ed elettori.
Tutto bello?
Non proprio. Il primo
vantaggio è evidente: la velocità. L’IA può generare una bozza normativa in
pochi secondi, una cosa che richiederebbe ore – se non giorni – a un gruppo di
esperti. Non si tratta solo di scrivere velocemente, ma anche di analizzare
rapidamente interi codici, confrontare testi, suggerire migliorie stilistiche e
strutturali. È come avere un pool di esperti giuridici sempre accanto.
In secondo luogo,
l’intelligenza artificiale favorisce la trasparenza. DepuChat, ad esempio,
permette a chiunque di accedere alle attività parlamentari senza passare
attraverso linguaggi tecnici o siti istituzionali farraginosi. È un passo
importante verso una democrazia più accessibile.
Infine, l’IA può
essere un valido supporto per la qualità legislativa, evitando incoerenze,
sovrapposizioni, lacune e favorendo un linguaggio più chiaro e normativamente
solido.
Ma come ogni
bisturi può diventare arma, anche ogni algoritmo può nascondere trappole. Il
primo rischio è la dipendenza tecnologica: se il legislatore si abitua a
delegare all’IA il lavoro critico e analitico, c'è il pericolo che perda
capacità di discernimento, senso storico, consapevolezza delle implicazioni
sociali di una norma.
C'è poi il
rischio dei bias algoritmici. Ogni IA è addestrata su dati, e i dati non sono mai neutrali. Se lo
strumento assorbe pregiudizi impliciti, ideologie dominanti, logiche di potere,
li riprodurrà nei testi che genera. Si rischia quindi di amplificare le
disuguaglianze invece di combatterle.
Un’altra
criticità riguarda la deresponsabilizzazione politica. Se una legge sbagliata
viene scritta da un chatbot, chi ne risponde? Il deputato che ha cliccato
“genera”? Il programmatore che ha scritto il modello? O si nasconde tutto sotto
la comoda etichetta “è stata l’IA”? Questo meccanismo può essere pericoloso per
la democrazia.
Il profilo del
nuovo legislatore: serve un avvocato esperto in IA? Davanti a questi strumenti, il profilo del
parlamentare medio potrebbe radicalmente cambiare. Non basta più essere
giuristi o esperti di diritto pubblico: servono competenze digitali, conoscenze
di etica algoritmica, nozioni base di machine learning. Potremmo trovarci
davanti a un nuovo tipo di legislatore: un avvocato specializzato in IA, che
conosce i codici ma anche i codici binari, che sa distinguere tra un bias e un
comma, tra un prompt ingannevole e un dettato costituzionale.
Il rischio, al
contrario, è che l’uso acritico dell’IA porti a un legislatore passivo, che
delega troppo, che si fida ciecamente dello strumento, trasformando il
Parlamento in un “parlamento assistito”.
Ma tutto
questo… è in linea con l’AI Act europeo? Qui la questione si fa seria. Il regolamento
europeo sull’Intelligenza Artificiale – l’AI Act, approvato nel 2024 ed entrato
in vigore proprio nel 2025 – classifica i sistemi IA secondo il livello di
rischio: inaccettabile, alto, limitato e minimo.
Un sistema che
partecipa alla stesura di leggi si colloca facilmente nella categoria “alto
rischio”. Per l’AI Act, questo significa che dev’essere trasparente,
spiegabile, auditabile, che ci dev’essere una supervisione umana attiva e
competente, che vanno garantiti i diritti fondamentali, la non discriminazione
e la sicurezza, e che il sistema va iscritto in un registro pubblico europeo
dei sistemi ad alto rischio.
Ora, la domanda è siamo in zona grigia? Non sono stati
pubblicati i dettagli sui modelli usati. Esistono organi indipendenti di
controllo etico? Non sappiamo chi sarà il “responsabile legale” delle decisioni
prese con l’ausilio dell’IA. Insomma, se non stiamo creando un’eccezione, ci
stiamo andando pericolosamente vicino?
Cosa fare
allora? I miei suggerimenti per restare umani: L’IA può essere un’opportunità enorme, ma solo se
resta uno strumento nelle mani dell’uomo, e non un padrone silenzioso che
scrive leggi al posto nostro. Dobbiamo dichiarare sempre quando un testo
normativo è stato generato o co-generato da IA. Serve un comitato etico
parlamentare per l’IA, indipendente, competente, trasparente. È necessario
pubblicare gli algoritmi, o almeno renderli accessibili per verifica e audit. I
parlamentari vanno formati all’uso critico e consapevole di questi strumenti. E
infine, bisogna prevedere sanzioni in caso di uso improprio, opaco o
manipolativo.
In chiusura:
un bivio chiamato futuro: Non siamo ancora al punto in cui le macchine legiferano da sole. Ma ci
stiamo avvicinando a uno scenario ibrido dove l’umano e l’algoritmo
co-producono leggi. Questo può essere un bene se l’IA è trattata come un
martello nelle mani di un buon carpentiere. Ma può diventare un incubo se
diventa la mente al posto nostro.
La democrazia non
è solo un processo, è anche una cultura. E quella cultura non può essere
codificata da nessun algoritmo, per quanto avanzato.
Scrivere le leggi
con l’IA non deve significare smettere di pensare, sentire, dubitare. Deve
significare avere uno strumento in più per proteggere ciò che ci rende umani:
la coscienza, la responsabilità, la libertà.
Parliamone ora,
prima che sia troppo tardi. O peggio: prima che un prompt lo faccia al posto
nostro.