Vai al contenuto

L’equilibrio tra democrazia e Intelligenza Artificiale (IA) è ancora da costruire: richiede tempo, dialogo e lavoro; per questo abbiamo iniziato a raccogliere punti di vista da persone che le utilizzano quotidianamente nella sfera professionale e personale. Le IA generative si basano sui Large Language Models (LLM) addestrati con ampie raccolte di testi con cui producono contenuti, a partire dalla combinazione di parole più probabile rispetto i dati con cui sono state allenate e la richiesta fatta.

Per comprendere un po’ meglio come le IA usano le parole è stato naturale chiamare Mafe de Baggis, digital media strategist che proprio delle parole ha fatto un mestiere.
La curiosità di Mafe de Baggis per l’Intelligenza Artificiale nasce dallo studio della sociolinguistica e dei tanti tentativi di replicare il linguaggio umano con il software, stimolata da libri come “Gödel, Escher, Bach. Un’eterna ghirlanda brillante” di Douglas Hofstadter, tra macchine di Turing e teorema di Gödel. Per molto tempo il “pensiero delle macchine” è stato considerato perlopiù un esercizio intellettuale, con una serie infinita di fallimenti dei tentativi di metterlo in pratica, mentre oggi ci sono cambiamenti alla velocità della luce che lasciano molte persone disorientate e forse un po’ spaventate.

Immagine di Mafe de Baggis

RMB. Ciao Mafe, ti posso chiedere come sta cambiando il mondo con lo sviluppo delle IA?

MdB. Sulle IA c’è ancora un po’ di “romanticismo pericoloso”, come accaduto con i libri di carta. Anch’io pensavo fosse impossibile passare agli ebook e invece sono stata sedotta dalla possibilità di avere tutti i libri che voglio con me.

Allo stesso modo, pro e contro dell’IA dipendono da come la utilizziamo e dal rapporto che abbiamo con le parole. Ad esempio, può alleggerire lavori noiosi e ripetitivi, liberando tempo per ciò che ha valore. Pensa a come può aiutarti nella trascrizione di questa intervista! Uno degli aspetti positivi dell’IA è che può democratizzare la scrittura e la comprensione tra noi esseri umani. Ma allo stesso tempo può illuderci di essere competenti perché ci fornisce rapidamente tante informazioni anche su temi complessi. Le IA generative non sono enciclopedie, producono risposte plausibili sulla base di un calcolo, però possono sbagliare generando molta confusione.

RMB. Forse in questo spazio di confusione si gioca il dibattito sul futuro della democrazia, secondo te come possiamo utilizzare le IA come strumento inclusivo e di crescita collettiva?

MdB. È un po’ come quando Neo nel primo film di Matrix impara il Kung Fu, le IA abilitano una serie di competenze ma siamo nelle fasi di apprendimento del modo in cui fare le cose. E qual è il problema? Dobbiamo distinguere tra piloti e passeggeri dell’IA. I software vengono usati molto bene dalle persone che si fanno aiutare perché le stesse rimangono al volante dell’interazione con la macchina e vanno dove vogliono andare. I passeggeri invece si lasciano guidare della macchina per non fare la propria parte di lavoro.

Se si rimane passeggeri il rischio è che si verifichi quel fenomeno di “workslop” raccontato dall’Harvard Business Review per cui si generano contenuti con l’IA senza alcun controllo finendo per creare “sbobba lavorativa”, cioè delle parole inutili a meno che qualcuno non si prenda la responsabilità di verificare o rifare tutto il lavoro. Le IA andrebbero viste come “protesi cognitive” al pari degli occhiali che indossiamo per vedere meglio. Gli LLM sono una spremuta del meglio e del peggio dell’umanità: se le usiamo per imparare o fare pratica ci aiutano a costruire sulle spalle di chi è venuto prima; nulla di diverso da ciò che fanno artisti o scienziati altrimenti si moltiplica quella confusione dovuta agli errori dell’IA.

Anche per questo l’IA ci richiede di parlare di diritti, abilismo o inclusività in senso ampio. Se ci ricordiamo che l’intelligenza delle persone non c’entra nulla con la loro cultura e che tutto ciò è ben separato dalla sensibilità o dalla capacità di prendersi cura gli uni degli altri, allora possiamo andare nella giusta direzione.

RMB. Come dici bisogna rimanere “piloti” dell’interazione e mantenere la responsabilità su quello che viene generato con l’IA, ma come possono questi software supportare o migliorare l’azione della Pubblica Amministrazione verso cittadine e cittadini?

MdB. Sull’utilizzo dell’IA nella pubblica amministrazione, il caso esempio dell’INPS è confortante perché grazie a questi software hanno riscritto pagine del sito con lo scopo di rendere più accessibili le informazioni. Il tutto è stato poi validato da un gruppo di persone che hanno dimostrato come alcune pagine generate con l’IA fossero più chiare di quelle scritte da esseri umani.

Le parole “tecniche” o il linguaggio burocratico possono respingere le persone. Questo però è un problema democratico, una questione di diritti, perché rappresenta una barriera all’accesso alle informazioni, alle prestazioni professionali o ai servizi pubblici. Sembra quasi che delle parole vengano usate per spaventare ma l’IA ci abilita a dare diverse forme allo stesso contenuto, adattandolo alle necessità della situazione.

Il tema della responsabilità nel loro utilizzo è sia quando faccio “copia-incolla” senza rivedere gli errori, sia quando decido quali parole e contenuti usare. Abbattere queste barriere è importante per la pubblica amministrazione perché c’è necessità di spiegare in modo chiaro, umano e caldo quello che si vuole dire.

Le parole di Mafe de Baggis sull’IA, stimolano a continuare la riflessione su questa innovazione tecnologica e immaginare un nuovo modo di concepire la democrazia. Al di là dei luoghi comuni e delle parole che inquinano il dibattito, quello che emerge è che per sconfiggere la paura e la reticenzaoccorre conoscerne i meccanismi, imparando a collocare nel giusto binario l’utilizzo di questi software. Un po’ come ci aveva raccontato anche Gerardo De Luzenberger, le parole possono anche mettere in connessione le persone grazie al dialogo. Come ActionAid grazie al progetto iDEM stiamo contribuendo allo sviluppo di un’applicazione che converte i testi complessi in testi con parole più semplici e frasi più brevi per poter coinvolgere in un caso d’uso persone con disabilità intellettive e disturbi del neurosviluppo e con difficoltà linguistiche.

L’IA ci può permettere di immaginare un futuro in cui le persone non verranno escluse dai processi decisionali a causa delle barriere linguistiche e cognitive, avvicinandoci a quel sogno in cui la democrazia diventa una tavola dove ogni voce è accolta. Anche per questo con il progetto iDEM abbiamo sviluppato una mini-guida con delle raccomandazioni per le pubbliche amministrazioni per migliorare l’accessibilità nei processi decisionali, nei servizi, negli eventi o negli spazi per le persone con disabilità intellettive o che affrontano barriere linguistiche.

Per approfondire Se leggendo l’intervista ti è venuta qualche curiosità in più qui trovi la mini guida con le raccomandazioni di iDEM per aumentare l’accessibilità nei processi democratici, mentre qui l’articolo dell’Harvard Business Review sul “workslop”.

Rainer Maria Baratti
Collaboratore Programma Risk Management Unità Resilience

In primo piano

Blog

L’Unione Europea arretra sui diritti 

Blog

Per una scuola democratica

Pubblicazione

Magazine – 02 – 2025

Molte persone ammassate in cerca di cibo. Sullo sfondo macerie e distruzione.
Blog

Se non lo chiamiamo genocidio, smette di esserlo? 

Blog

Come dobbiamo adattarci alla crisi climatica?  

Blog

Qualità della democrazia 2025 

Pubblicazione

Welfare di comunità e amministrazione condivisa

Blog

Dove le comunità diventano protagoniste

Blog

Svelare i fondi europei: AwareEU e il monitoraggio civico

Podcast

La mia parte – edizione speciale

Blog

IA e democrazia: sfide e opportunità da bilanciare 

Blog

La democrazia: una tavola per ogni voce