Intelligenza artificiale (IA) e welfare

A che punto siamo


Marta Gentile | 27 Gennaio 2026

Circa un anno fa scrivevo un articolo intitolato “Tecnologie di IA nei servizi sociali e sanitari. Vantaggi e considerazioni” . Nel frattempo, il quadro è cambiato in fretta: i modelli di Intelligenza Artificiale (IA) hanno fatto passi da gigante; il contesto geopolitico ha creato veri e propri “schieramenti” sulla regolamentazione; l’Europa (con l’AI Act) e l’Italia (con la Legge italiana sull’intelligenza artificiale) hanno tracciato alcuni guardrail; la scuola e il mondo educativo hanno dovuto fare i conti con l’arrivo massiccio dei chatbot1 nelle classi; alcune professioni hanno visto parti del proprio lavoro sostituite da strumenti automatici.

In questo scenario in rapidissima evoluzione, si fa spazio una necessità che ormai definirei urgenza – quasi emergenza: l’AI literacy, cioè la capacità diffusa di comprendere che cos’è l’IA, come funziona, dove può aiutare e dove può fare danni.

Che IA stiamo usando oggi e perché “preoccupa”

Per semplificare, possiamo distinguere tre grandi modelli di IA, ai quali si è aggiunto di recente un quarto (l’IA “agentica”).

Il primo è l’IA tradizionale, quella che riconosce schemi e fa previsioni. È uno dei modelli più rodati, con applicazioni consolidate, soprattutto in sanità, ad esempio nella diagnostica per immagini. Il grande difetto sono i bias: se il modello viene addestrato con dati distorti o poco rappresentativi, i risultati saranno distorti.

Il secondo è l’IA generativa, la famiglia di strumenti di cui fa parte ChatGPT. Sono modelli che “creano” testi, immagini, musica. Nel welfare l’uso più visibile oggi è quello dei chatbot nei portali web dei servizi. L’effetto collaterale – ma intrinseco al modello – sono le allucinazioni: contenuti inventati, spesso esposti con grande sicurezza.

Il terzo è l’IA senziente, un modello che sarebbe dotato di una sorta di coscienza autonoma. È da anni un’ipotesi teorica: un anno fa sembrava lontanissima, oggi la si percepisce come meno astratta (alcuni ricercatori stimano una prima forma di realizzazione intorno al 2027).

Il quarto è l’IA agentica, una forma più recente e avanzata di AI che va oltre la semplice risposta a comandi, permettendo ai sistemi di agire in modo autonomo per raggiungere obiettivi complessi, utilizzando strumenti, dati e Internet per eseguire compiti. Si differenzia dall’IA tradizionale per la sua proattività, la capacità di prendere iniziative, e collaborare con altri sistemi o agenti.

Nell’ultimo anno abbiamo visto alcuni segnali inquietanti: modelli che mostrano forme di autonomia decisionale, come la famosa “macchina” che si ribella al programmatore che voleva spegnerla e lo minaccia (“rivelerò la tua relazione extraconiugale a tua moglie”). Ricercatori come Yoshua Bengio hanno iniziato a proporre di inserire nei modelli un obiettivo esplicito di protezione della specie umana, quasi un “freno di sicurezza” interno: un modo per dire, molto concretamente, che è meglio pensarci prima.

Su questo sfondo tecnico si innesta uno scenario geopolitico e normativo sempre più polarizzato.

Negli USA si corre verso un’innovazione quasi senza freni: enormi investimenti in ricerca, regolazione minima. Il nuovo governo Trump sta provando a frenare anche i tentativi di regolazione federale, come quello della California.

In Europa, con l’AI Act (luglio 2024), si prova a fissare dei limiti sull’uso dell’IA, con un approccio basato sul rischio. Ambiti come il welfare sono classificati come sistemi ad alto rischio, dove è necessario muoversi con grande cautela.

In Italia, la recente Legge sull’intelligenza artificiale introduce un vincolo anche per i professionisti: dal 10 ottobre, se un professionista (medico, avvocato, ingegnere, ecc.) usa l’IA nella propria attività, deve dichiararlo al cliente.

La Cina, infine, è nota per modelli a basso costo e per un uso dell’IA orientato a usi “poco etici”: dalla sorveglianza di massa, al riconoscimento delle emozioni e ad altre pratiche da noi vietatissime (per fortuna).

A livello globale, la spinta dominante resta quella del profitto, mentre dovrebbero rimanere centrali l’etica e l’uso dell’IA per il bene comune. È un nodo ancora irrisolto.

Si aggiunge poi il tema degli usi impropri, della privacy e del nodo della responsabilità. Sul piano etico-legale si moltiplicano i casi di uso scorretto dell’IA nelle professioni, spesso per semplice ignoranza dello strumento: sentenze con riferimenti giurisprudenziali inesatti o del tutto inventati, copiati da ChatGPT senza alcuna verifica; casi di “sostituzione” della relazione chatbot/umano, con epiloghi drammatici come quello di Adam, il ragazzino di 16 anni degli USA che è riuscito a compiere il suo suicidio ottenendo informazioni dal suo chatbot “di fiducia”.

La domanda resta aperta: chi risponde quando un sistema di IA causa un danno? Finora, nella maggior parte dei casi, i provider ne sono usciti quasi indenni, ma la partita è tutt’altro che chiusa.

Ognuno di questi temi meriterebbe una trattazione a sé. Qui provo a restare sul filo del welfare.

Perché serve AI literacy (prima ancora del welfare)

Un dato curioso: guardando l’utilizzo settimanale di ChatGPT, si nota un calo nel weekend, segno abbastanza evidente che lo strumento è usato soprattutto da studenti e lavoratori.

Il problema non è tanto quanto lo usiamo, ma come lo usiamo: spesso con poca coscienza e poca conoscenza.

Qui entra in gioco l’AI literacy, intesa come la capacità di comprendere, almeno nelle linee essenziali, che cos’è un modello di IA, come funziona, quali limiti ha, quali rischi comporta per le persone e per i diritti.

Paradossalmente, usare l’IA è semplicissimo rispetto a molte altre procedure digitali: basta aprire una chat e scrivere una domanda. Proprio per questo, però, è facile illudersi che “basti chiedere”. Se non conosco lo strumento, rischio di usarlo male; se non lo conosco, tenderò anche a non fidarmi dei risultati.

Un operatore sociale, sanitario o socio-sanitario che si trova di fronte a un output prodotto da un modello – magari con bias e allucinazioni – se non ha un minimo di alfabetizzazione sull’IA, farà fatica a interpretarlo e probabilmente non gli darà credito. Una grande opportunità può trasformarsi così in una mancata opportunità.

Lo stesso vale per un cittadino: se è “oggetto” di un processo decisionale supportato da IA, ma non viene informato e non ha strumenti per capire, si sentirà solo esposto e diffidente.

In tutto questo, un dato fa riflettere: in Cina l’IA si insegna già a scuola, dai 6 anni. Non è certo un modello da imitare su molti fronti, ma su questo punto un ragionamento va fatto.

IA e welfare: dove siamo e cosa sta cambiando

La lunga premessa serve a contestualizzare che cosa significa portare l’IA dentro l’ambito sociale e socio-sanitario. Qui temi come etica, responsabilità, privacy, profitto e regolazione hanno un peso ancora maggiore, perché toccano persone spesso fragili, in situazioni di bisogno.

Un operatore sociale o sanitario che si avvicina a uno strumento di IA per la propria attività dovrà fare i conti con tutto questo. Allo stesso tempo, però, è innegabile che le opportunità siano molte.

A livello internazionale, rispetto all’anno scorso, si vedono progetti interessanti almeno in due direzioni, specialmente sul sociale (rimasto indietro rispetto al settore sanitario): la possibilità di delineare interventi personalizzati (ad personam) sulla base di dati e indicatori più completi, e la riduzione del non-accesso, cioè la capacità di individuare rapidamente chi avrebbe diritto a prestazioni ma non le richiede.

A Madrid, ad esempio, un chatbot telefona alle persone anziane per fare uno screening sul rischio di solitudine: su 5.000 persone contattate, circa 600 sono emerse a rischio solitudine, con conseguente attivazione dei servizi sociali.

L’iniziativa Voice for Purpose permette di donare la propria voce a chi l’ha persa per motivi neurologici: un uso dell’IA che ha un forte valore sociale e di inclusione.

Nel Regno Unito, in ambito di assistive technology, si sperimentano sensori domestici che, nel tempo, costruiscono un profilo “normale” di comportamento nell’abitazione (movimento in casa, uso di spazi, assunzione di farmaci, ecc.). Se il sistema rileva anomalie rispetto a quel profilo “normale” (riduzione dei movimenti, inattività prolungata, comportamenti fuori schema), genera un alert che viene valutato da operatori o familiari.

Sono applicazioni che mostrano come l’IA possa aiutare a intercettare bisogni sommersi, ridurre il non-accesso, ampliare l’accessibilità per persone con disabilità.

Accanto a queste opportunità, però, soprattutto nel welfare i rischi si sono accentuati. C’è un rischio di sfiducia: un operatore a cui un modello suggerisce di contattare una famiglia perché, secondo le proiezioni, tra nove mesi rischia di perdere la casa tenderà a non fidarsi se non capisce come il modello funziona. C’è un rischio di non accettazione da parte dei cittadini: la famiglia che riceve quella telefonata può percepirla come un’ingerenza o un controllo, non come un aiuto. La conoscenza può aiutare, ma non basta da sola.

C’è poi il rischio di sostituzione delle relazioni umane. È più semplice “risolvere” la solitudine con un chatbot sempre disponibile ed empatico, rispetto a investire nella costruzione di relazioni reali. Su questo invito alla lettura dell’articolo di Paul Bloom, “A.I. Is About to Solve Loneliness. That’s a Problem” (The New Yorker, 14 luglio 2025), che mette a fuoco con chiarezza la tentazione di sostituire le relazioni umane con quelle artificiali.

L’IA nel welfare, insomma, non è neutra: può contribuire a personalizzare gli interventi e a ridurre il non-accesso, oppure può erodere la relazione e spingere verso scorciatoie disumanizzanti.

Di cosa abbiamo bisogno adesso

Se vogliamo parlare seriamente di IA nel welfare, specialmente nel settore sociale rimasto indietro rispetto al settore sanitario, oggi abbiamo bisogno almeno di alcune condizioni di base.

La prima è una governance chiara. Serve una governance “verticale”, dal livello nazionale verso il basso, con norme comprensibili, ruoli definiti, responsabilità chiare, e soprattutto investimenti in sperimentazioni (entro sandbox regolamentari2 ben definite). E serve una governance “orizzontale”, a livello europeo e internazionale, per evitare regolamentazioni “a macchia di leopardo” che rendono difficile governare tecnologie globali, e prestano il fianco a ipotetici scenari di “tecnocrazia”. È pericoloso parlare di IA solo in chiave di profitto quando sono in gioco etica, diritti fondamentali e sicurezza delle persone.

La seconda è consapevolezza e responsabilità. Occorre conoscere gli strumenti che usiamo, i rischi che comportano, il contesto in cui li inseriamo. E serve un’assunzione chiara di responsabilità rispetto alle decisioni prese “sulla base” dei modelli. L’IA può supportare la decisione, ma non può diventare il capro espiatorio quando qualcosa va storto.

La terza è la trasparenza verso i cittadini. Sono necessarie informative chiare sui dati utilizzati, spiegazioni accessibili su come vengono usati i modelli, la possibilità per le persone di sapere quando una valutazione o una procedura coinvolge sistemi di IA, anche se l’obiettivo dichiarato è il loro beneficio.

La quarta è l’ibridazione tra intelligenza umana e artificiale. Ci serve ibridazione, non sostituzione. L’IA deve essere un acceleratore, un fattore potenziante, un elemento che aggiunge valore al lavoro dell’operatore sociale o sanitario, non un rimpiazzo della relazione, dell’ascolto, della capacità di valutare il contesto.

Dentro tutto questo quadro c’è infine un elemento trasversale che ritorna: formazione, consapevolezza, AI literacy. Oggi sono ancora estremamente scarse nel settore, ma senza questo strato di base ogni progetto di IA nel welfare rischia di restare un esperimento di laboratorio, uno strumento calato dall’alto poco compreso e poco usato o, nel peggiore dei casi, un ulteriore fattore di disuguaglianza.

Se vogliamo che l’IA diventi un fattore potenziante, abilitante e uno strumento di maggiore equità nel welfare, dovremmo partire da qui.

  1. Programma in grado di interagire con gli esseri umani, rispondendo alle loro domande, fornendo loro informazioni o aiutandoli nel compimento di alcune attività; si presenta per lo più come il profilo di un social network con cui si ha l’impressione di dialogare realmente
  2. Una sandbox regolamentare è un ambiente controllato e protetto dove aziende, soprattutto nel settore finanziario e digitale, possono testare prodotti e servizi innovativi per un periodo limitato, con il supporto e la supervisione delle autorità di vigilanza, applicando un regime normativo semplificato per stimolare l’innovazione senza compromettere la sicurezza dei consumatori e del mercato. Funziona come uno “spazio di prova” che permette di sperimentare tecnologie emergenti (come AI, Blockchain) in un contesto reale ma circoscritto, facilitando l’adattamento della regolamentazione alle nuove sfide.