Per la mia professione da tempo frequento una famiglia di alieni: le Intelligenze Artificiali (prevalentemente Gemini, Copilot, Perplexity, ChatGTP, Claude, NotebookLM nelle versioni free). In attesa che diventino di casa, non ho ancora compreso appieno come ragionano: ne vedo l’output, anche cangiante nel tempo, per la loro continua evoluzione. D’altronde spesso se ne parla come di black box, anche in termini di “opacità”, mancanza di trasparenza e responsabilità: danno risposte, ma poche spiegazioni su come ci arrivano, ponendo gravi problemi di trasparenza (oltre che di copyright). Una situazione paradossale per cui una nuova e più molto più potente Gutenberg è anche quella che potrebbe eludere più facilmente il controllo e la comprensione umana.
Allora questo non è un saggio che analizza le innumerevoli questioni connesse al loro uso, ma il racconto da utilizzatore finale per quei professionisti che operano nei servizi, soprattutto con ruoli manageriali.
Potenzialità
- Elaborazione di grandi quantità di dati in brevissimo tempo. Esempio: caricare più articoli per chiederne una sintesi e/o una analisi comparata; analizzare siti complessi.
- Individuazione di aree geografiche e/o popolazioni che necessitano di maggiore supporto; anticipare bisogni individuali e/o collettivi; prevedere eventi futuri.
- Supporto alle decisioni fornendo analisi, scenari simulati, sintesi per la programmazione.
- Impostazione di programmi per raggiungere obiettivi specifici, attenti alla ottimizzazione delle risorse e alla misurabilità dell’efficacia, anche utilizzando il Logical framework e la Work breakdown structure.
- Potenziamento della partecipazione dei cittadini attraverso piattaforme online e strumenti di raccolta di feedback.
- Fare ricerche mirate, anche visualizzando tendenze su testi, rapporti, etc.
- Esecuzione di compiti ripetitivi, noiosi, burocratici.
Come Ragionano
Per fare tutto questo utilizzano una loro logica, razionalità, tuttavia radicalmente diversa dalla nostra, così come è stata classicamente definita da Aristotele in poi. Si basano prevalentemente sulla logica induttiva, passando dal particolare al generale. Infatti costruiscono modelli e conclusioni da osservazioni, dati e informazioni, usando algoritmi e modelli matematici predittivi e probabilistici, combinando scienze come calcolo delle probabilità, scienze cognitive, machine learning (LLM) e reti neurali profonde. Un esempio, limitato ma emblematico, è l’algoritmo di riconoscimento delle immagini che, “allenato” con migliaia di foto di gatti e cani, impara a distinguere le loro caratteristiche differenziali per poi applicare questo apprendimento a nuove immagini. In questo le AI attuali mancano di pensiero divergente (generare soluzioni creative multiple), pensiero laterale (ristrutturare radicalmente la prospettiva), e serendipità (scoperte inaspettate): la loro apparente creatività deriva da ricombinazioni statistiche di pattern esistenti. Infatti, sebbene nella innovazione sociale possano “simulare” comportamenti simili al pensiero divergente e laterale, non lo fanno nel senso umano, mancando di flessibilità cognitiva, intuizione, capacità emotiva e pensiero “out-of-the-box“. In sintesi, possiamo considerarle conservative.
Problemi di Fondo
Si tende a pensare che innovazione e tecnologia siano neutrali. Tuttavia, per Harari, “se non sapete che cosa volete nella vita, sarà fin troppo facile per la tecnologia dare forma alle vostre intenzioni al posto vostro e prendere il controllo sulla vostra vita.”1. Per l’Autore una delle principali preoccupazioni riguarda l’etica dell’innovazione tecnologica e il suo impatto sociale: teme che l’avanzamento tecnologico, se non gestito con equità, possa accentuare le disuguaglianze sociali esistenti e le AI potrebbero concentrare la ricchezza e il potere nelle mani pochi. Senza contare le domande poste fin dalla prima rivoluzione industriale del ‘700: l’introduzione della tecnologia riduce la forza lavoro? Abbassa il valore dei salari? Inoltre innovazione e tecnologia sono raramente distribuite equamente, ma sono influenzate dalle risorse infrastrutturali (connettività, hardware, finanza, dati) e dal divario digitale (reddito, istruzione). Infine, nel supporto alle decisioni, tendono a non considerare il legame tra tecnica e politica: chi decide priorità, modalità di intervento, dati da usare, parametri di ottimizzazione degli algoritmi (indicatori)?
Principali Criticità Attuali
Prima di entrare in queste questioni occorre una avvertenza generale: le AI possono essere soggette a manipolazioni intenzionali (es. avvelenamento dei dati, bias algoritmici, manipolazione della logica e degli output, ecc.) per gli scopi più diversi, con possibili gravi conseguenze gravi. Detto questo proviamo ad entrare nel merito di alcune attuali tendenze.
- Appiattimento sulla “moda statistica” e sulle probabilità con cui una certa parola segua una sequenza di altre2, nonché sul ranking dei motori di ricerca3: tendono a privilegiare le informazioni più ricorrenti presenti sul web, a confermare le “evidenze” preesistenti, anche se discriminatorie, spesso senza verificarne l’accuratezza, trascurando fonti più rare o alternative.
- Riutilizzo, per efficienza, di soluzioni e ricerche apprese in precedenza con una standardizzazione, amplificazione di idee e soluzioni a scapito di nuove.
- Limitatezza delle fonti di informazione: si basano sulle informazioni presenti sul web, ignorando la letteratura di base presente sulla carta stampata o soggetta a “paywall”, limitando la loro capacità di fornire risposte complete e accurate.
- “Allucinazioni”: possono inventare informazioni, comprese citazioni, pur di rispondere4.
- Raccolta di informazioni personali sugli utenti ed i loro dati, con gravi problemi di privacy.
AI nella Programmazione Sociale
Quello che producono è essenzialmente una programmazione sinottica, governata dal principio di razionalità e causalità lineare5, che assume: che sia possibile progettare interventi mirati in base a disegni predeterminati; che vi sia un’unica entità di programmazione che possiede una conoscenza completa, complessiva, sintesi dei differenti punti di vista del problema che la programmazione intende risolvere prendendo decisioni in base a chiari Finalità e Obiettivi; i beneficiari finali sono visti come oggetti di interventi decisi da altri. Modello che funziona quando le risorse (tempo, denaro, ecc.) sono scarse e/o vi è perfetto consenso nella definizione degli Obiettivi e nelle modalità di intervento (schema di Thompson & Tuden). Parliamo di decisioni top-down basate su dati e informazioni anziché su processi democratici partecipativi e sul consenso, cioè del passaggio dal government alla governance, di programmazione partecipata, di community planning, e dell’utilizzo di tecniche come problem solving, design thinking, etc.
Nel nostro ambito l’appiattimento sulla “moda statistica” che utilizza i dati storici e si concentra sulle esigenze e le caratteristiche del gruppo più ampio o dominante, trascurando le necessità specifiche delle minoranze, non è solo un problema di conoscenza astratta, capacità di comprensione, rappresentazione completa delle diversità e sfaccettature. Significa appiattire, sotto rappresentare, informazioni o opinioni delle “code della distribuzione”, trascurando le necessità specifiche delle minoranze fino alla loro possibile “soppressione”, proprio quando l’obiettivo è la riduzione delle differenze. Non solo: l’applicazione rigida di un approccio logico formale alla programmazione rischia di far perdere di vista la visione generale e di incorrere in una forma di “paradosso del Titanic” (mettere in ordine le sedie a sdraio sul ponte mentre la nave affonda).
Uso pratico
Nello specifico dei servizi (sanità, istruzione, inclusione sociale), hanno applicazioni semplici come monitoraggio, diagnosi, apprendimento personalizzato, supporto mirato, ecc. E nello specifico della pianificazione, programmazione, progettazione?
Aiutano a superare la “sindrome della pagina bianca”. È un tema che può coinvolgere anche i gruppi lavoro di fronte alla complessità di una costruzione di un programma. Allora partire da una prima analisi, proposta delle AI può essere un buon punto di partenza per far partire la discussione. Cioè utilizzare le AI come strumento di supporto, non di sostituzione, mantenendo sempre al centro la dimensione umana e relazionale: usarle più per impostare i problemi che per risolverli. La creatività, la visione strategica e la capacità di comprendere le dinamiche sociali, essenziali per il raggiungimento degli Obiettivi, sono competenze che solo un gruppo di lavoro e la capacità relazionale tra persone “coscienti” può fornire6. Tuttavia, nello specifico della programmazione sociale occorre fare sinteticamente alcune distinzioni tra tre ambiti.
Nella pianificazione (azione orientativa che pone direzioni di sviluppo e Finalità di tipo generale, strategiche, spesso di vasta area), le AI fanno molta difficoltà poiché appaiono prevalenti gli aspetti politici di direzione da prendere e modalità con cui farlo (es. democrazia, partecipazione, equità sociale, riconoscimento dei diritti fondamentali delle persone e dell’ambiente). Le cose vanno meglio con la programmazione (azione indicativa che individua Obiettivi misurabili), mentre si trovano a proprio agio nella progettazione esecutiva, anche se possono fare difficoltà con la complessità di Linee guida e Criteri di valutazione dei bandi7.
In ogni caso occorre definire prioritariamente in modo chiaro i problemi che si vogliono affrontare (Albero dei problemi e Obiettivi): solo allora è possibile definire Finalità, Obiettivi Generali e specifici che si vogliono conseguire (Logical framework, Quadro logico) nonché la Logica dell’intervento che si intende adottare per raggiungerli. A questo punto ha senso chiedere un supporto.
Saper fare le domande giuste e non fidarsi delle risposte, cioè essere in grado di estrarre informazioni pertinenti ed utili evitando ambiguità, imprecisioni, addirittura allucinazioni. Solo la combinazione di comprensione del campo ed esperienza pratica consentono agli “esperti” di interagire in modo più efficace rispetto ai “principianti”.
Non solo: un esperto sa come affinare ulteriori domande in base alla risposta ricevuta, correggendo eventuali errori o approfondendo aspetti specifici. In fondo è l’approccio Ishikawa: di fronte ad un problema ci si dovrebbe domandare più volte, approfondendo, “perché?”, su quale base? Con le AI funziona bene perché le obbliga a chiarire (essere trasparenti) la base su cui risponde. Nello stesso modo gli output richiedono revisione e correzione da parte del gruppo di progetto, che possiede una visione d’insieme oltre che una conoscenza delle tecniche e terminologia pertinenti.
Utilizzare diverse AI per confrontare le risposte. È difficile che si contraddicano, ma quasi sempre forniscono punti di vista differenti. È un po’ come se si mettesse all’opera un gruppo di lavoro di esperti.
Infine, attenzione alle citazioni e alle fonti: verificarle sempre in termini di affidabilità, autorevolezza, obsolescenza, accuratezza, corretta attribuzione, utilizzando ed incrociando sistemi “certificati”.
Conclusioni
Le AI sono ormai un elemento imprescindibile in molti settori. Tuttavia, data la potenza dello strumento, è fondamentale evitare che le AI diventino l’unico riferimento, soprattutto decisionale. Una dipendenza eccessiva rischia di portare ad una perdita di competenze, limitazione della capacità operativa e critica, fino a una progressiva “atrofizzazione” della funzione, ignoranza o forse persino stupidità: dovrebbero essere viste come un esperto in più da sfruttare al meglio.
Per integrarle pienamente e senza errori anche nel nostro ambito, serve un investimento significativo sia sulle persone che sul sistema nel suo complesso (Azioni di sistema).
Una bibliografia essenziale ed una prima rassegna di esempi di utilizzo delle AI nella programmazione sociale sono rintracciabili sulla specifica scheda del sito “Pianificazione, programmazione sociale”.
- Harari Y.N., 21 Lezioni per il XX secolo, Bompiani, 2018
- Bender E.M., Gebru T., McMillan-Major A., Shmitchell S., On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, 2021.
- Lindemann, N. F., Chatbots, search engines, and the sealing of knowledges, AI & Society, 2024.
- Dina, “AI e il paradosso della ricerca: strumenti avanzati, risultati errati e sfide per l’informazione”, Rivista AI, 17 marzo 2025.
- Merlo G., La programmazione sociale, Carocci faber, Roma, 2014
- Bordone G., Merlo G., La centralità del programmatore sociale, welforum.it, 22 giugno 2022)
- Bortolami A., Caravello G., Mazzucato A., “Intelligenza Artificiale Generativa e Progettazione sociale: opportunità e sfide”, Welforum.it, 24 gennaio 2025.