Translate

Visualizzazione post con etichetta chatbot legislativi. Mostra tutti i post
Visualizzazione post con etichetta chatbot legislativi. Mostra tutti i post

giovedì 10 luglio 2025

“Quando l’Intelligenza Artificiale entra in Parlamento: sogno di efficienza o incubo distopico?”

Quando i deputati scrivono le leggi con l’AI: tra innovazione, etica e il rischio di perdere la bussola democratica. 

(70 percento umano - 30 percento IA)

Introduzione – dalla notizia al dibattito: Il 9 luglio 2025 Fanpage ha pubblicato una notizia che sembra uscita da una puntata di Black Mirror, e invece è vera, reale, italiana: alla Camera dei Deputati arrivano i chatbot per scrivere le leggi. L’iniziativa, guidata dalla vicepresidente Anna Ascani, è partita con tre strumenti: Norma, MSE e DepuChat. Si tratta di sistemi basati sull’intelligenza artificiale generativa che promettono di rivoluzionare il modo in cui i parlamentari raccolgono informazioni, redigono norme, confrontano articoli e rispondono ai cittadini.

Non è più solo il futuro: è l’oggi. Ma come ogni svolta epocale, dietro l’entusiasmo per l’innovazione si nascondono anche dubbi, insidie e interrogativi che meritano di essere affrontati. E in questo articolo voglio fare proprio questo: esplorare le tipologie di chatbot introdotti, analizzare pro e contro, riflettere su chi sarà l'utente tipo di queste tecnologie, e suggerire qualche accorgimento per non finire schiavi della macchina che volevamo solo usare.

Le tre IA della Camera: cosa fanno e come funzionano: Legislab è uno strumento pensato per aiutare nella scrittura dei testi di legge. Gli si dà un obiettivo normativo, una bozza o un tema, e lui propone un testo coerente, con tanto di articoli, commi e riferimenti. Un vero e proprio legislatore fantasma, sempre pronto, mai stanco, veloce come un clic.

Norma è il cervello archivista: analizza leggi esistenti, trova punti di contatto e conflitto, suggerisce riformulazioni. Un assistente giuridico instancabile che si nutre di normative, dossier, articoli, precedenti. Fa da radar nella giungla del diritto.

DepuChat invece è l'interfaccia pubblica: consente ai cittadini di interrogare i dati parlamentari, sapere cosa fa un deputato, quali interrogazioni ha presentato, a quali commissioni partecipa. Un ponte digitale tra eletti ed elettori.

Tutto bello? Non proprio. Il primo vantaggio è evidente: la velocità. L’IA può generare una bozza normativa in pochi secondi, una cosa che richiederebbe ore – se non giorni – a un gruppo di esperti. Non si tratta solo di scrivere velocemente, ma anche di analizzare rapidamente interi codici, confrontare testi, suggerire migliorie stilistiche e strutturali. È come avere un pool di esperti giuridici sempre accanto.

In secondo luogo, l’intelligenza artificiale favorisce la trasparenza. DepuChat, ad esempio, permette a chiunque di accedere alle attività parlamentari senza passare attraverso linguaggi tecnici o siti istituzionali farraginosi. È un passo importante verso una democrazia più accessibile.

Infine, l’IA può essere un valido supporto per la qualità legislativa, evitando incoerenze, sovrapposizioni, lacune e favorendo un linguaggio più chiaro e normativamente solido.

Ma come ogni bisturi può diventare arma, anche ogni algoritmo può nascondere trappole. Il primo rischio è la dipendenza tecnologica: se il legislatore si abitua a delegare all’IA il lavoro critico e analitico, c'è il pericolo che perda capacità di discernimento, senso storico, consapevolezza delle implicazioni sociali di una norma.

C'è poi il rischio dei bias algoritmici. Ogni IA è addestrata su dati, e i dati non sono mai neutrali. Se lo strumento assorbe pregiudizi impliciti, ideologie dominanti, logiche di potere, li riprodurrà nei testi che genera. Si rischia quindi di amplificare le disuguaglianze invece di combatterle.

Un’altra criticità riguarda la deresponsabilizzazione politica. Se una legge sbagliata viene scritta da un chatbot, chi ne risponde? Il deputato che ha cliccato “genera”? Il programmatore che ha scritto il modello? O si nasconde tutto sotto la comoda etichetta “è stata l’IA”? Questo meccanismo può essere pericoloso per la democrazia.

Il profilo del nuovo legislatore: serve un avvocato esperto in IA? Davanti a questi strumenti, il profilo del parlamentare medio potrebbe radicalmente cambiare. Non basta più essere giuristi o esperti di diritto pubblico: servono competenze digitali, conoscenze di etica algoritmica, nozioni base di machine learning. Potremmo trovarci davanti a un nuovo tipo di legislatore: un avvocato specializzato in IA, che conosce i codici ma anche i codici binari, che sa distinguere tra un bias e un comma, tra un prompt ingannevole e un dettato costituzionale.

Il rischio, al contrario, è che l’uso acritico dell’IA porti a un legislatore passivo, che delega troppo, che si fida ciecamente dello strumento, trasformando il Parlamento in un “parlamento assistito”.

Ma tutto questo… è in linea con l’AI Act europeo? Qui la questione si fa seria. Il regolamento europeo sull’Intelligenza Artificiale – l’AI Act, approvato nel 2024 ed entrato in vigore proprio nel 2025 – classifica i sistemi IA secondo il livello di rischio: inaccettabile, alto, limitato e minimo.

Un sistema che partecipa alla stesura di leggi si colloca facilmente nella categoria “alto rischio”. Per l’AI Act, questo significa che dev’essere trasparente, spiegabile, auditabile, che ci dev’essere una supervisione umana attiva e competente, che vanno garantiti i diritti fondamentali, la non discriminazione e la sicurezza, e che il sistema va iscritto in un registro pubblico europeo dei sistemi ad alto rischio.

Ora, la domanda è siamo in zona grigia? Non sono stati pubblicati i dettagli sui modelli usati.  Esistono organi indipendenti di controllo etico? Non sappiamo chi sarà il “responsabile legale” delle decisioni prese con l’ausilio dell’IA. Insomma, se non stiamo creando un’eccezione, ci stiamo andando pericolosamente vicino?

Cosa fare allora? I miei suggerimenti per restare umani: L’IA può essere un’opportunità enorme, ma solo se resta uno strumento nelle mani dell’uomo, e non un padrone silenzioso che scrive leggi al posto nostro. Dobbiamo dichiarare sempre quando un testo normativo è stato generato o co-generato da IA. Serve un comitato etico parlamentare per l’IA, indipendente, competente, trasparente. È necessario pubblicare gli algoritmi, o almeno renderli accessibili per verifica e audit. I parlamentari vanno formati all’uso critico e consapevole di questi strumenti. E infine, bisogna prevedere sanzioni in caso di uso improprio, opaco o manipolativo.

In chiusura: un bivio chiamato futuro: Non siamo ancora al punto in cui le macchine legiferano da sole. Ma ci stiamo avvicinando a uno scenario ibrido dove l’umano e l’algoritmo co-producono leggi. Questo può essere un bene se l’IA è trattata come un martello nelle mani di un buon carpentiere. Ma può diventare un incubo se diventa la mente al posto nostro.

La democrazia non è solo un processo, è anche una cultura. E quella cultura non può essere codificata da nessun algoritmo, per quanto avanzato.

Scrivere le leggi con l’IA non deve significare smettere di pensare, sentire, dubitare. Deve significare avere uno strumento in più per proteggere ciò che ci rende umani: la coscienza, la responsabilità, la libertà.

Parliamone ora, prima che sia troppo tardi. O peggio: prima che un prompt lo faccia al posto nostro.

“Quando l’Intelligenza Artificiale entra in Parlamento: sogno di efficienza o incubo distopico?”

Quando i deputati scrivono le leggi con l’AI: tra innovazione, etica e il rischio di perdere la bussola democratica.  (70 percento umano - 3...