M. De Caro e B. Giovanola – Intelligenze. Etica e Politica dell’IA


Mario De Caro e Benedetta Giovanola
Intelligenze. Etica e Politica dell’IA
Bologna, Il Mulino 2025, pp. 173


Quale etica per l’intelligenza artificiale? Un percorso verso l’artificial phrónesis, la saggezza artificiale.

Oggigiorno assistiamo non solo ad una vertiginosa accelerazione dei processi tecnologici, ma anche a una notevole proliferazione di testi e volumi che si interessano dell’Intelligenza Artificiale (IA). Ciò è non solo scontato, ma anche lodevole: di fatto è ormai da tempo che l’IA è diventata una tecnologia a uso universale e applicabile a moltissimi aspetti della nostra esistenza (si pensi all’ambito educativo, a quello della pubblica amministrazione, a quello delle imprese e all’ambito medico…), e questo richiede una attenta analisi delle sue infinite possibilità, delle cose straordinarie che essa può fare, così pure agli esiti disastrosi a cui potrebbe condurci in un prossimo futuro (si pensi qui solo alle forme di discriminazione nel mercato del lavoro, alle disuguaglianze nell’accesso alle cure, alle operazioni militari automatizzate, all’inquinamento del dibattito pubblico mediante campagne di disinformazione su larga scala, ecc.). Diventa quindi necessario riflettere e sviluppare un approccio equilibrato alla dirompente rivoluzione tecnologica avviata dall’IA in modo da valutarne le opportunità e i rischi, i benefici e i pericoli non solo per i singoli individui, ma per la società intera.

IA come soggetto e come oggetto

Il testo di Mario De Caro e Benedetta Giovanola offre a questo riguardo un prezioso contributo per analizzare, progettare, e utilizzare l’IA in modo etico e politico, offrendo una riflessione critica su alcune questioni centrali che riguardano il presente e il futuro dell’IA. L’originalità del testo risiede nel fatto che esso integra le questioni più rilevanti che emergono quando si considera l’IA come soggetto (discutendo delle possibilità di un’IA generale e della Super-intelligenza artificiale, soffermandosi poi su alcuni aspetti centrali della soggettività, come la coscienza, la comprensione e la creatività), l’IA come oggetto (riflettendo sui sistemi di IA progettati e utilizzati dagli esseri umani che vi interagiscono con sempre maggiore frequenza: centrali sono qui i concetti di interazione con le tecnologie artificiali, di autonomia umana, di privacy contro il “capitalismo della sorveglianza” che non si limita a predire ma automatizza il comportamento umano, di equità, di esplicabilità e di sostenibilità) e infine l’IA vista nella sua interazione con le pratiche sociali e politiche della collettività (i concetti presi qui in esame sono quelli della democrazia, del potere e della legittimità, della sovranità digitale, della difesa nazionale e di una governance globale inclusiva che prevenga il formarsi di logiche ingiuste e di modelli di stampo coloniale).

Quali vincoli etici all’IA?

Il libro termina con un quarto capitolo dedicato all’urgenza di porre dei vincoli etici all’utilizzo dell’IA i quali, secondo il principio dell’ethics by design, devono essere incorporati fin dalla fase di progettazione direttamente all’interno dei sistemi artificiali in modo da prevenire scenari potenzialmente catastrofici. L’approccio a cui si ispirano gli autori non è quello top-down delle “etiche generaliste” tipicamente deduttive e universaliste (come l’etica utilitarista o quella deontologica in cui delle regole e i principi generali vengono applicati per analizzare e orientare le decisioni nelle situazioni particolari) quanto piuttosto quello bottom-up delle cosiddette “etiche contestualiste” che enfatizzano l’importanza degli specifici ambiti in cui sorgono le questioni morali e che sono quindi più flessibili e sensibili alla complessità del reale. Questa particolare scelta degli autori è motivata soprattutto dal fatto che è ormai da tempo che si è verificato il passaggio da un’IA simbolica (come ad esempio quella del GOFAI, Good Old-Fashioned Artificial Intelligence, il cui ragionamento esplicito si basava su simboli, regole e logica formale) ad una IA Post-simbolica, un sistema questo che apprende dai dati riconoscendo dei pattern ricorrenti per generare risultati senza affidarsi a regole predefinite e procedendo così caso per caso (rientrano in questa categoria i vari modelli generativi come GPT e, in generale, le reti neurali che operano per apprendimento statistico).

Verso l’artificial phrónesis, la saggezza artificiale

A questo riguardo, il modello più convincente e promettente per lo sviluppo di sistemi di IA che includano al loro interno una “saggezza artificiale” (artificial phrónesis) è individuato dagli autori nel “Modello Aretai”. Quest’ultimo, che si rifà nientemeno che all’etica delle virtù di stampo aristotelico, si incentra sulla coltivazione di atteggiamenti e di ragionamenti virtuosi che, proprio come nella IA Post-simbolica, considera ogni situazione morale nella sua specificità senza ricorrere a regole universali, e attribuisce grande spessore alla saggezza pratica che coordina e integra tutte le altre disposizioni virtuose che dipendono dai diversi contesti morali. I vantaggi che questo modello offre per quanto riguarda l’ethics by design sono facilmente individuabili: in primo luogo, e in fase di progettazione etica dell’IA, non si tratterebbe di costruire dei moduli per ogni virtù (coraggio, giustizia, onestà, ecc.), ma sarebbe sufficiente sviluppare un unico sistema di discernimento pratico in modo da ridurre la complessità dell’architettura etica da implementare; in secondo luogo, la saggezza pratica (ovvero la capacità di giudizio adattivo e contestuale) funziona in maniera molto simile alle reti neurali o ai modelli generativi propri dell’IA post-simbolica che lavorano per patterns e adattamenti situazionali; in terzo e ultimo luogo, la flessibilità propria della saggezza pratica tiene conto fin dall’inizio del contesto al fine di trovare la soluzione giusta al momento giusto, proprio come si comportano i sistemi adattivi basati sull’IA.

Il modello proposto, secondo gli autori, supererebbe così due classiche osservazioni critiche riguardo a questo tipo di approccio etico dell’IA: che ogni cultura possiede dei propri valori morali e che quindi si dovrebbe addestrare le macchine tenendo conto delle particolarità etiche di ogni società (ma si osserva che pur nella varietà delle culture esiste comunque un nucleo morale comune); che l’addestramento di questo sistema etico sarebbe di natura ingegneristica, dovendo quindi etichettare una gran quantità di situazioni morali affinché possa funzionare (ma si rileva che si potrebbero usare delle strategie tipo weak supervision mediante un apprendimento con feed-back umano e varie simulazioni in modo da apprendere una forma di saggezza pratica mediante il machine learning). Rimane tuttavia un dubbio circa questa proposta (così come su tutti i tentativi di affrontare il tema dell’etica dell’IA): infatti sistemi dell’IA (siano essi post-simbolici o meno in quanto entrambi non-senzienti) non saranno mai responsabili delle azioni che essi sceglieranno di svolgere, avendo così la possibilità di agire senza subire alcuna conseguenza, e senza pagare in termini esistenziali per questo loro enorme potere decisionale.

Il testo è ricco di spunti, e la chiarezza e competenza nell’esposizione aiuta ad accostarsi alle varie posizioni e ai diversi problemi e opportunità suscitati dalle nuove tecnologie dell’IA, offrendo così strumenti concettuali adatti e indispensabili per interpretare dove e come si evolverà il futuro dell’IA.