Translate

giovedì 10 luglio 2025

“Quando l’Intelligenza Artificiale entra in Parlamento: sogno di efficienza o incubo distopico?”

Quando i deputati scrivono le leggi con l’AI: tra innovazione, etica e il rischio di perdere la bussola democratica. 

(70 percento umano - 30 percento IA)

Introduzione – dalla notizia al dibattito: Il 9 luglio 2025 Fanpage ha pubblicato una notizia che sembra uscita da una puntata di Black Mirror, e invece è vera, reale, italiana: alla Camera dei Deputati arrivano i chatbot per scrivere le leggi. L’iniziativa, guidata dalla vicepresidente Anna Ascani, è partita con tre strumenti: Norma, MSE e DepuChat. Si tratta di sistemi basati sull’intelligenza artificiale generativa che promettono di rivoluzionare il modo in cui i parlamentari raccolgono informazioni, redigono norme, confrontano articoli e rispondono ai cittadini.

Non è più solo il futuro: è l’oggi. Ma come ogni svolta epocale, dietro l’entusiasmo per l’innovazione si nascondono anche dubbi, insidie e interrogativi che meritano di essere affrontati. E in questo articolo voglio fare proprio questo: esplorare le tipologie di chatbot introdotti, analizzare pro e contro, riflettere su chi sarà l'utente tipo di queste tecnologie, e suggerire qualche accorgimento per non finire schiavi della macchina che volevamo solo usare.

Le tre IA della Camera: cosa fanno e come funzionano: Legislab è uno strumento pensato per aiutare nella scrittura dei testi di legge. Gli si dà un obiettivo normativo, una bozza o un tema, e lui propone un testo coerente, con tanto di articoli, commi e riferimenti. Un vero e proprio legislatore fantasma, sempre pronto, mai stanco, veloce come un clic.

Norma è il cervello archivista: analizza leggi esistenti, trova punti di contatto e conflitto, suggerisce riformulazioni. Un assistente giuridico instancabile che si nutre di normative, dossier, articoli, precedenti. Fa da radar nella giungla del diritto.

DepuChat invece è l'interfaccia pubblica: consente ai cittadini di interrogare i dati parlamentari, sapere cosa fa un deputato, quali interrogazioni ha presentato, a quali commissioni partecipa. Un ponte digitale tra eletti ed elettori.

Tutto bello? Non proprio. Il primo vantaggio è evidente: la velocità. L’IA può generare una bozza normativa in pochi secondi, una cosa che richiederebbe ore – se non giorni – a un gruppo di esperti. Non si tratta solo di scrivere velocemente, ma anche di analizzare rapidamente interi codici, confrontare testi, suggerire migliorie stilistiche e strutturali. È come avere un pool di esperti giuridici sempre accanto.

In secondo luogo, l’intelligenza artificiale favorisce la trasparenza. DepuChat, ad esempio, permette a chiunque di accedere alle attività parlamentari senza passare attraverso linguaggi tecnici o siti istituzionali farraginosi. È un passo importante verso una democrazia più accessibile.

Infine, l’IA può essere un valido supporto per la qualità legislativa, evitando incoerenze, sovrapposizioni, lacune e favorendo un linguaggio più chiaro e normativamente solido.

Ma come ogni bisturi può diventare arma, anche ogni algoritmo può nascondere trappole. Il primo rischio è la dipendenza tecnologica: se il legislatore si abitua a delegare all’IA il lavoro critico e analitico, c'è il pericolo che perda capacità di discernimento, senso storico, consapevolezza delle implicazioni sociali di una norma.

C'è poi il rischio dei bias algoritmici. Ogni IA è addestrata su dati, e i dati non sono mai neutrali. Se lo strumento assorbe pregiudizi impliciti, ideologie dominanti, logiche di potere, li riprodurrà nei testi che genera. Si rischia quindi di amplificare le disuguaglianze invece di combatterle.

Un’altra criticità riguarda la deresponsabilizzazione politica. Se una legge sbagliata viene scritta da un chatbot, chi ne risponde? Il deputato che ha cliccato “genera”? Il programmatore che ha scritto il modello? O si nasconde tutto sotto la comoda etichetta “è stata l’IA”? Questo meccanismo può essere pericoloso per la democrazia.

Il profilo del nuovo legislatore: serve un avvocato esperto in IA? Davanti a questi strumenti, il profilo del parlamentare medio potrebbe radicalmente cambiare. Non basta più essere giuristi o esperti di diritto pubblico: servono competenze digitali, conoscenze di etica algoritmica, nozioni base di machine learning. Potremmo trovarci davanti a un nuovo tipo di legislatore: un avvocato specializzato in IA, che conosce i codici ma anche i codici binari, che sa distinguere tra un bias e un comma, tra un prompt ingannevole e un dettato costituzionale.

Il rischio, al contrario, è che l’uso acritico dell’IA porti a un legislatore passivo, che delega troppo, che si fida ciecamente dello strumento, trasformando il Parlamento in un “parlamento assistito”.

Ma tutto questo… è in linea con l’AI Act europeo? Qui la questione si fa seria. Il regolamento europeo sull’Intelligenza Artificiale – l’AI Act, approvato nel 2024 ed entrato in vigore proprio nel 2025 – classifica i sistemi IA secondo il livello di rischio: inaccettabile, alto, limitato e minimo.

Un sistema che partecipa alla stesura di leggi si colloca facilmente nella categoria “alto rischio”. Per l’AI Act, questo significa che dev’essere trasparente, spiegabile, auditabile, che ci dev’essere una supervisione umana attiva e competente, che vanno garantiti i diritti fondamentali, la non discriminazione e la sicurezza, e che il sistema va iscritto in un registro pubblico europeo dei sistemi ad alto rischio.

Ora, la domanda è siamo in zona grigia? Non sono stati pubblicati i dettagli sui modelli usati.  Esistono organi indipendenti di controllo etico? Non sappiamo chi sarà il “responsabile legale” delle decisioni prese con l’ausilio dell’IA. Insomma, se non stiamo creando un’eccezione, ci stiamo andando pericolosamente vicino?

Cosa fare allora? I miei suggerimenti per restare umani: L’IA può essere un’opportunità enorme, ma solo se resta uno strumento nelle mani dell’uomo, e non un padrone silenzioso che scrive leggi al posto nostro. Dobbiamo dichiarare sempre quando un testo normativo è stato generato o co-generato da IA. Serve un comitato etico parlamentare per l’IA, indipendente, competente, trasparente. È necessario pubblicare gli algoritmi, o almeno renderli accessibili per verifica e audit. I parlamentari vanno formati all’uso critico e consapevole di questi strumenti. E infine, bisogna prevedere sanzioni in caso di uso improprio, opaco o manipolativo.

In chiusura: un bivio chiamato futuro: Non siamo ancora al punto in cui le macchine legiferano da sole. Ma ci stiamo avvicinando a uno scenario ibrido dove l’umano e l’algoritmo co-producono leggi. Questo può essere un bene se l’IA è trattata come un martello nelle mani di un buon carpentiere. Ma può diventare un incubo se diventa la mente al posto nostro.

La democrazia non è solo un processo, è anche una cultura. E quella cultura non può essere codificata da nessun algoritmo, per quanto avanzato.

Scrivere le leggi con l’IA non deve significare smettere di pensare, sentire, dubitare. Deve significare avere uno strumento in più per proteggere ciò che ci rende umani: la coscienza, la responsabilità, la libertà.

Parliamone ora, prima che sia troppo tardi. O peggio: prima che un prompt lo faccia al posto nostro.

lunedì 7 luglio 2025

“Study Together”: ChatGPT diventa compagno di studio — Rivoluzione o rischio educativo?

OpenAI testa una nuova funzione che trasforma ChatGPT in partner virtuale per lo studio condiviso. 

Un’innovazione che promette di cambiare radicalmente il modo in cui studenti e professionisti imparano. Ma ci sono anche rischi da non ignorare. Nel silenzio pulsante delle biblioteche e nei ritmi frammentati delle aule virtuali, si affaccia una nuova era dell'apprendimento: ChatGPT, l’intelligenza artificiale sviluppata da OpenAI, sta sperimentando una funzione chiamata “Study Together”, pensata per rendere lo studio non più un’attività solitaria ma un'esperienza condivisa e interattiva. La notizia è stata lanciata da BleepingComputer, portale autorevole nel campo della tecnologia, e ha subito acceso il dibattito tra entusiasti dell’innovazione e custodi del metodo tradizionale.

L’idea è tanto semplice quanto dirompente: creare un ambiente virtuale dove si possa studiare insieme ad altri utenti o con l’assistenza costante di ChatGPT stesso, quasi fosse un compagno sempre disponibile, paziente, instancabile. Un assistente che non giudica e non si stanca, che aiuta a ripetere concetti, simulare quiz, risolvere esercizi o chiarire dubbi all’istante.

Ma cosa significa davvero “studiare insieme” con un’intelligenza artificiale? E dove ci porterà questa trasformazione?

Secondo l’articolo originale di BleepingComputer  https://www.bleepingcomputer.com/news/artificial-intelligence/chatgpt-is-testing-disruptive-study-together-feature/, la funzione “Study Together” è attualmente in fase di test, riservata a un numero limitato di utenti, ma promette di aprire scenari inediti nel campo dell’educazione. L’utente potrà scegliere di lavorare da solo con l’IA o coinvolgere amici in sessioni condivise, dove l’assistente AI fungerà da facilitatore, tutor, organizzatore e anche motivatore.

La promessa è seducente. Studiare non sarà più un esercizio in solitaria, ma un viaggio assistito, ritmato dalla presenza costante di un’intelligenza che conosce il nostro stile di apprendimento, anticipa le difficoltà e propone percorsi personalizzati. Soprattutto, elimina gli ostacoli dell’imbarazzo o della lentezza, dando a tutti l’opportunità di apprendere senza pressioni esterne.

Tuttavia, in questa prospettiva apparentemente luminosa, si nascondono anche delle ombre. È giusto delegare all’IA una parte così intima e formativa della crescita personale come lo studio? Non rischiamo, in nome dell’efficienza, di sacrificare la fatica, l’errore, il confronto umano, tutti elementi imprescindibili per un apprendimento autentico?

L’aspetto positivo è senza dubbio l’accessibilità. Pensiamo a studenti con difficoltà di apprendimento, a chi lavora e può studiare solo di notte, a chi vive in zone isolate o non può permettersi un tutor privato. ChatGPT diventa un alleato silenzioso e potente, capace di colmare diseguaglianze strutturali e rendere l’istruzione più democratica. Inoltre, la possibilità di collaborare con altri utenti, anche a distanza, costruisce una dimensione nuova di apprendimento collettivo, che spezza l’isolamento tipico dello studio individuale.

Ma ci sono anche lati critici, e vanno affrontati con sincerità. Uno su tutti: il rischio di eccessiva dipendenza. Se lo studente si affida completamente all’IA, rischia di smettere di interrogarsi, di esplorare, di sbagliare. Perché è proprio l’errore a costruire la consapevolezza. C'è poi il pericolo che si perda la capacità di riflessione profonda, quella che nasce dal silenzio, dalla lentezza, dalla noia persino.

Il secondo nodo riguarda la veridicità e l’autorevolezza delle informazioni. Anche le intelligenze artificiali possono sbagliare o offrire risposte parziali, e se l’utente non ha gli strumenti per valutare criticamente ciò che riceve, può cadere in una trappola: accettare ogni suggerimento dell’IA come verità assoluta.

Inoltre, la condivisione con altri utenti, se non gestita con regole precise, può diventare una distrazione più che un aiuto. L’ambiente digitale offre sì una possibilità di connessione, ma anche un potenziale terreno di dispersione, dove l’attenzione è fragile e il tempo facilmente diluito in conversazioni secondarie.

C’è poi il grande interrogativo etico: come verranno trattati i dati generati durante queste sessioni di studio condiviso? Saranno usati per addestrare ulteriormente i modelli? E con quale trasparenza verrà gestita questa parte del processo?

Non si tratta di demonizzare la novità, né di idealizzare il passato. Il punto è un altro: ogni strumento, anche il più innovativo, va compreso, contestualizzato, educato. Non possiamo affidare la nostra crescita a un algoritmo se non siamo noi i primi a educarlo con le nostre domande, le nostre paure, i nostri desideri.

“Study Together” potrebbe segnare una svolta epocale. Ma perché sia una rivoluzione utile e non un’illusione lucente, occorre un pensiero critico, un accompagnamento umano, un progetto educativo consapevole. L’intelligenza artificiale non deve sostituire l’intelligenza umana, ma potenziarla. Non deve togliere l’anima allo studio, ma aiutarla a brillare meglio.

Nel mondo dell’istruzione, dove spesso l’innovazione si scontra con l’inerzia delle istituzioni, una proposta come questa può diventare motore di rinnovamento, a patto che venga accolta con spirito di vigilanza e apertura. Non è lo strumento che fa la differenza, ma l’uso che se ne fa.

In fondo, studiare è sempre stato un atto di fiducia: fiducia nella possibilità di crescere, di capire, di cambiare. Se ChatGPT saprà farsi compagno senza diventare padrone, allora “Study Together” sarà davvero una conquista. Ma se diventerà scorciatoia, rifugio o peggio ancora sostituto del pensiero, allora rischia di lasciarci più soli, nonostante la sua promessa di compagnia.

Il futuro, come sempre, non è scritto. Ma possiamo scriverlo insieme. Anche studiando. Anche con un’intelligenza artificiale al nostro fianco. Purché resti uno strumento e non una stampella permanente.

E allora sì, ben venga il cambiamento. Ma con occhi aperti e cuore vigile.





#ChatGPT #StudyTogether #OpenAI #EducazioneDigitale #IntelligenzaArtificiale #FuturoDelloStudio #CompagnoDiStudio #ApprendimentoAssistito #TecnologiaEdEducazione #ScrivereAlFuturo


mercoledì 25 giugno 2025

IA, LIBRI E DIRITTI: LA SENTENZA CHE CAMBIA TUTTO (E IL MONDO CHE CI ASPETTA)

Quando l’ultima frase vera sarà scritta da mani tremanti, e l’IA leggerà se stessa all’infinito, sapremo chi ha vinto davvero.

Il 24 giugno 2025 il giudice William Alsup ha tracciato una linea sottile tra legalità e abisso: addestrare un’IA su testi protetti da copyright è legittimo, ma solo se quei libri sono stati ottenuti in modo legale e usati in modo trasformativo. Non si copia, si apprende. Ma non tutto.

Anthropic, l’azienda dietro Claude, sarà comunque processata per l’uso di oltre 7 milioni di testi piratati, scaricati da Library Genesis e altri archivi illegali (Washington Post).

Per essere in regola oggi servono: Origine legale dei testi; Uso trasformativo, non replicante; Nessun danno al mercato dell’autore; Tracciabilità dei dati.

Ma domani?

Nel 2150 le IA scriveranno romanzi su romanzi leggendo se stesse, in un’eco infinita. Nessuna fatica, nessuna verità, solo parole ben formattate.
E poi… ci sarà un vecchio. Con la mano che trema. Scriverà qualcosa su carta ruvida.
Sarà sbagliata. Ma sarà sua.
E sarà più vera di tutto quello che l’algoritmo ha letto.

 #Copyright #FairUse #Anthropic #IA #ClaudeAI #DirittiDAutore #FuturoDigitale #scriverealfuturo #LetteraturaUmana #ScritturaConIlSangue #LasciatoIndietro #MaiPiùLasciatiIndietro #2150

“Quando l’Intelligenza Artificiale entra in Parlamento: sogno di efficienza o incubo distopico?”

Quando i deputati scrivono le leggi con l’AI: tra innovazione, etica e il rischio di perdere la bussola democratica.  (70 percento umano - 3...