Claudio Paolucci – Nati cyborg

Sossella editore – Roma 2025

Cosa ci dice dell’essere umano l’intelligenza artificiale generativa? E come pensarla? Solo come agency oppure come parte della mente estesa dell’essere umano? Un’analisi filosofica

Una recensione di Aluisi Tosolini


Nel suo saggio Nati cyborg. Cosa l’intelligenza artificiale generativa ci dice dell’essere umano (link al volume) Claudio Paolucci affronta la questione dell’intelligenza artificiale generativa (GenAi) da una prospettiva che è tanto rara quanto necessaria: quella semiotica. In un panorama teorico dominato dalle analisi tecnocentriche, economiche o giuridiche, Paolucci riporta l’attenzione sul linguaggio, sul senso e sulla soggettività – in altre parole, su ciò che rende umano l’umano.

Claudio Paolucci è ordinario di Semiotica e Filosofia del linguaggio all’Università di Bologna dove coordina anche il centro internazionale di studi umanistici “Umberto Eco”. E di Eco Paolucci è stato discepolo e al maestro ha dedicato una intensa biografia intellettuale pubblicata da Feltrinelli nel 2017.

Paolucci esordisce dicendo che “nella sua tradizione (quella della semiotica, delle linguistica e delle filosofia del linguaggio), si è spesso individuata proprio nel linguaggio l’essenza stessa dell’essere umano (…) Per questo la costruzione di macchine capaci di parlare, capaci di enunciazione sia verbale che non verbale rappresenta una vera e propria svolta della nostra evoluzione, essendo in grado di riorganizzare tutte le nostre capacità cognitive” (pp. 9. 11).

Una cosa simile, con molto maggiore stupore e sconcerto, l’aveva scritta la linguistica e glottologa Stefania Giannini, già ministro dell’Istruzione nel governo Renzi e ora Direttore Generale all’Unesco. Nelle otto pagine della presa diposizione intitolata Generative AI and the future of education (2023) Giannini, con fare davvero preoccupato, scriveva:

grazie alla maggiore potenza di calcolo, alle reti neurali e ai modelli linguistici di grandi dimensioni, l’IA sta “scardinando” – o almeno simulando con notevole destrezza – il perno della civiltà umana: il linguaggio. Il linguaggio non è solo uno strumento comunicativo. È ciò che ci distingue dagli altri animali, ciò che plasma l’identità, la diversità culturale, le azioni. È alla base dell’educazione e della vita sociale. Fino a poco tempo fa, il linguaggio era nostro esclusivo dominio. Ora le macchine stanno attraversando molte soglie linguistiche, e lo stanno facendo velocemente. Simulano conversazioni complesse, al di là di semplici compiti mirati. Questo mette in discussione molte nostre certezze. Cosa succede quando la nostra “monopolio” sul linguaggio viene intaccato da entità non umane? Come cambierà la nostra concezione dell’intelligenza? Possiamo davvero affidarci a macchine che apprendono senza supervisione umana? (pag. 2)

La prima cosa che balza all’occhio leggendo Paolucci è proprio il fatto che viene interrogato il linguaggio, e con esso il significato stesso dell’umano. Siamo proprio sicuri che il linguaggio sia lo specifico dell’umano? E il linguaggio (le enunciazioni) di ChatGPT come deve essere considerato? Davvero AIGen è solo un pappagallo stocastico?

Semiotica, enattivismo e mente estesa

Per capire la posizione di Paolucci occorre fare riferimento a tre diversi, e nel suo caso concatenati, approcci. E qui dobbiamo spiegare bene i tre termini

Semiotica

come ha chiarito in un articolo del 2021, Paolucci interpreta la semiotica (in particolare quella cognitiva) come un tentativo di rispondere alla domanda: “come arriviamo a conoscere il mondo attraverso i segni e i linguaggi?” Umberto Eco, maestro di Paolucci, aveva sostenuto, nel testo “Trattato di semiotica generale” (1975), che la semiotica è la scienza globale dei segni e dei sistemi di comunicazione che studia tutto ciò che può essere usato per mentire (semiotica della menzogna), dalla lingua ai codici visivi e culturali, includendo l’importanza dell’enciclopedia (il sapere comune condiviso) e del ruolo attivo dell’interprete nel decifrare i testi. Aveva inoltre sottolineato che ogni segno è un’entità astratta, un punto d’incontro di elementi convenzionali, e che la semiosi è illimitata, dove ogni interpretazione rinvia ad altre.  Particolarmente rilevante in Eco, e poi nell’analisi dell’Intelligenza Artificiale Generativa svolta da Paolucci, il ruolo della Enciclopedia, ovvero l’insieme dei saperi su cui un LLM è stato addestrato, e dell’interprete che enuncia a partire dall’enciclopedia

Per Paolucci la semiotica si fonda su enattivismo radicale, pragmatismo e ingaggio materiale (material engagement). Secondo questa prospettiva, la semiotica cognitiva concepisce la cognizione:

  • come un’attività “enattiva”, competente e situata, che implica un’interazione continua con il mondo esterno;
  • come qualcosa che fa emergere il mondo attraverso il significato, dove i significati non sono rappresentazioni del mondo, ma abitudini e pratiche di costruzione di senso;
  • come un punto di vista che considera il modo in cui testi, linguaggi e sistemi semiotici sostengono e strutturano la modalità con cui gli esseri umani giungono a conoscere il mondo e costituiscono il fondo implicito della nostra percezione dell’ambiente.

Enattivismo

A pagina 26 del volume, in una nota, Paolucci ci fornisce la definizione che qui trascrivo: «Con “enattivismo” si intende quella tradizione interna alle scienze cognitive e alla filosofia della mente che rifiuta la distinzione tra pensiero e azione, nonché la tripartizione classica che sostiene che la percezione è l’input del pensiero, che il pensiero è la manipolazione cognitiva di rappresentazioni e che l’azione è l’output della cognizione. Per gli enattivisti, che si ispirano ai lavori pionieristici di Francisco Varela, il pensiero è “enacted” e serve per agire efficacemente nel mondo e non per costruirsene una rappresentazione vera.»

Qui sotto una rappresentazione schematica e sintetica di quanto appena detto, frutto del lavoro di NotebookLM

Teoria della mente estesa

la Extended Mind Theory è stata proposta dai filosofi Andy Clark e David Chalmers nell’articolo The Extended Mind” del 1998 che in meno di 10 pagine ha definito una delle tesi più influenti e controverse della filosofia della mente contemporanea. La tesi afferma che la mente non è confinata nel cervello ma può estendersi nel mondo. Le attività mentali non si svolgono cioè solo all’interno del cervello, ma anche in interazione con il corpo, gli oggetti e l’ambiente esterno. Il che significa che oggetti come taccuini, smartphone, computer, ma anche linguaggi, mappe, segni e artefatti culturali possono far parte del processo cognitivo, se svolgono la stessa funzione che svolgerebbe la memoria o il ragionamento interno. Essi sono pertanto definiti strumenti cognitivi esterni. Di particolare importanza, nella teoria della mente estesa, è il principio di parità funzionale (parity principle): se un elemento esterno (come un’agenda o una nota scritta) svolge una funzione cognitiva simile a quella che svolgerebbe un processo mentale interno, allora va considerato parte della mente. E, ancora più chiaramente, così si è espresso Andy Clark nel 2008 (riportato a pag. 55-56 del testo di Paolucci): “se, nell’affrontare un compito, una parte del mondo funziona come un processo che, se si svolgesse nella testa, non esiteremmo a riconoscere come parte del processo cognitivo, allora quella parte del mondo è parte del processo cognitivo nella testa!”.

Il lettore provi a rileggere queste ultime 4 righe e le applichi ad un testo elaborato da chatgpt, ad esempio ad un testo fornito in un’iterazione in cui il prompt di avvio sia “spiegami la teoria della mente estesa”. ChatGpt diventa in questo caso “parte del processo cognitivo” della mia mente che la sta studiando.

Nel testo Clark e Chalmers propongono il caso ipotetico di due persone alle prese con l’indirizzo di un museo. Inga ricorda internamente l’indirizzo del museo, Otto non lo ricorda ma consulta il suo taccuino dove ha annotato l’indirizzo. Secondo la teoria della mente estesa il taccuino di Otto svolge per lui la stessa funzione della memoria interna di Inga e perciò, è parte integrante del suo sistema cognitivo.

Le conseguenze filosofiche (e non solo) sono piuttosto rilevanti: da un lato si decostruisce la tradizionale distinzione tra “interno” (mente) e “esterno” (mondo), dall’altro viene rifiutato un approccio rappresentazionalista: la mente non è intesa come una “rappresentazione del mondo nella testa”, ma un sistema distribuito che opera attraverso interazioni dinamiche. Da ultimo viene sottolineata l’importanza del material engagement, ovvero l’idea che il pensiero avvenga anche attraverso il corpo, gli oggetti, i linguaggi, le tecnologie.

La teoria della mente estesa è in stretto raccordo con l’enattivismo. Entrambe le teorie contestano infatti il modello cognitivista classico basato su input, elaborazione interna, output. Tuttavia mentre l’enattivismo (Varela, Thompson, Rosch) è più orientato all’interazione incarnata e al ruolo del corpo la teoria della mente estesa si concentra soprattutto sull’uso di strumenti esterni e tecnologie cognitive. Negli ultimi anni sono poi nati approcci teorici, quali l’embodied-extended cognition, che tentato di integrare i due approcci.

Qui sotto ho fatto elaborare a NotebookLM una infografica che riassumesse l’articolo di Clark e Chalmers del 1998.

E a questo punto possiamo tornare al testo di Paolucci

Nati cyborg

L’originalità del testo si manifesta fin dal titolo: non “diventeremo” cyborg – lo siamo già. Il riferimento è al testo di Andy Clark (Natural-born cyborgs pubblicato nel 2004 da Oxford University press). Secondo Paolucci Clark “ha mostrato come la natura stessa dell’essere umano, quella natura che gli ha consentito di passare dall’essere predato  all’essere il più spietato predatore esistente sul pianeta senza fare nulla al suo corpo, sia la sua continua capacità di delegare all’ambiente e agli artefatti culturali le proprie skill cognitive in modo da svolgere in modo più efficace compiti che, se li svolgessimo  all’interno della nostra testa o del nostro corpo biologico, sarebbero molto meno efficaci o molto più complessi” (p. 128).

(NB: e qui bisognerebbe parlare di un filosofo e antropologo tedesco, Arnold Gehlen, che tutti gli studi sulla tecnologia e quindi anche sull’IA citano, con minore o maggiore enfasi, per ricordare lo strettissimo e strutturale legame esistente tra debolezza/mancanza umana (che per Benanti si trasforma in eccedenza) e uso della tecnologia. Lo faremo in un’altra occasione)

La critica alla concezione di Luciano Floridi

Viviamo immersi in ambienti dove agenti artificiali generano parole, partecipano ai nostri scambi discorsivi, rispondono come se fossero interlocutori. Ma cosa significa tutto questo dal punto di vista della semiotica?

Paolucci riprende la teoria di Luciano Floridi, secondo cui l’IA non è un’intelligenza nel senso umano del termine, ma una forma di agency informazionale: un sistema che agisce, senza capire. L’IA non è un soggetto, non ha coscienza, non ha intenzioni (si veda al riguardo il testo di Floridi appena pubblicato in italiano: La differenza fondamentale. Artificial Agency: una nuova filosofia dell’intelligenza artificiale, Mondadori, Milano 2025).

Il punto cruciale, secondo Paolucci, è l’adesione di Floridi ad una concezione della mente che pensa l’opposto degli enattivisti.

Il punto di scontro è su un testo di Turing, sulla sua domanda “le macchine possono pensare?” e sulla sua interpretazione.

La discussione attraversa tutto il testo di Paolucci e si concentra nel paragrafo 2 del capitolo 2 del libro di Floridi Etica dell’intelligenza artificiale (Cortina, Milano, 2022).

Nella sua versione inglese (Oxford University press 2023) Floridi scrive:

Turing (1950) understood very well that there was no way of answering the question of whether a machine can think because, as he acknowledged, both terms lack scientific definitions: I propose to consider the question, ‘Can machines think?’ This should begin with definitions of the meaning of the terms ‘machine’ and ‘think’ (p. 433) [. . .] The original question, ‘Can machines think?’ I believe to be too meaningless to deserve discussion

Note the distance in pages between the two texts; you need to read the whole article to realize that Turing did not take the question seriously. These days, some people stop way before. Turing offered a test instead, which is a bit like deciding that the best way to assess whether someone can drive is to check their performance on the road. In Turing’s case, the test checks the ability of a machine to answer questions in such a way that the outcome would be indistinguishable, in terms of source, from the outcome of a human agent working to achieve the same task (pagina 18).

E nella traduzione italiana (pag. 44) si legge:

per questo ha elaborato un test: un po’ come decidere che il miglior modo di valutare se qualcuno è in grado di guidare consista nel verificare le sue prestazioni su strada”.

Immediato il commento di Paolucci: “e perché no? C’è forse un modo migliore di capire se qualcuno sa guidare che quello di testare le sue performance sulla strada”? (pag. 124)

Onestamente, come dar torto a Paolucci? Basta forse l’esame di teoria per dimostrare di saper guidare (esame che avviene tutto dentro la mente) o serve anche la pratica?

Da qui anche il diverso atteggiamento verso Turing: per Floridi Turing fa una domanda sostanzialmente retorica (da qui il decoupling – il disaccoppiamento – tra intelligenza e agency) mentre per Paolucci la soluzione di Turing dimostra il pragmatismo del suo genio: “scendere alle concepibili conseguenze pratiche per dirimere una questione teorica”.

Di questo è perfettamente cosciente anche Floridi quando, chiudendo il paragrafo 2.2., sostiene che vi sono in sostanza due modi – due anime – di concepire l’IA: ingegneristica e cognitiva. La prima è interessata alla riproduzione del comportamento intelligente, la seconda alla produzione di intelligenza (e qui, secondo Floridi, l’IA è un fallimento).

Paolucci non mi pare per nulla interessato alla questione ingegneristica (anche se i matematici e gli ingegneri informatici hanno letto con grande interesse il suo testo del 2020 – Persona – vedendovi una descrizione anticipata di come funziona un LLM) quanto piuttosto mi pare applicare il principio di parità funzionale che abbiamo descritto sopra.

E in effetti ha gioco facile nell’irridere tutti coloro che ritengono intelligente questa o quella attività umana sino a che la compie un essere umano per poi dire che non è intelligente se la compie una macchina.

Concezione decisamente antropocentrica, ovvero che mette l’uomo al centro di tutte le cose e misura di tutte le cose così che un atto è intelligente solo se compiuto dall’essere umano ma smette di esserlo se compiuto da altri. Una forma di riduzionismo che comporta non pochi rischi di colonialismo culturale (e non per nulla cita e discute lungamente l’opera dell’antropologo francese Lucien Lévy-Bruhl che, avendo scoperto il cosiddetto pensiero prelogico lo ritiene specifico delle civiltà inferiori rispetto alla civiltà occidentale dove la razionalità ha pieno spiegamento logico. E il suo testo del 1910 si intitola, guarda caso, Le funzioni mentali delle società inferiori).

La scena dell’enunciazione

“In linguistica l’enunciazione è l’atto attraverso cui il parlante si appropria di strutture sociali condivise (langue) e le fa proprie al fine di produrre il suo messaggio, la sua comunicazione (parole)”(pag. 15).

Per comprendere questa affermazione occorre fare un passo nel cuore della tradizione semiotica. Come ci ha insegnato Émile Benveniste, ogni atto linguistico implica una scena di enunciazione: un io che parla, un tu a cui si rivolge, un hic et nunc che dà forma al senso. Ogni parola non è solo un segno, ma un atto situato, un evento discorsivo. L’IA generativa, pur essendo priva di interiorità, simula questa scena, genera enunciati completi di soggetto, tempo, punto di vista. L’effetto è quello di un soggetto che parla, anche se nessun soggetto è realmente presente.

È qui che Paolucci fa una mossa teorica chiave: mostrare che la IAG non produce semplici frasi (parole), ma effetti di enunciazione, occupando il posto del soggetto enunciatore. Se seguiamo la distinzione saussuriana tra langue (sistema) e parole (atto di parola), possiamo dire che la AIGen manipola la langue secondo le regole statistico-sintattiche, ma restituisce una parola apparentemente dotata di intenzionalità, stile, posizione soggettiva.

In altri termini: l’IA è una macchina del “come se”. Parla come se fosse un soggetto, argomenta come se capisse, racconta come se ricordasse. E se noi rispondiamo, se le attribuiamo senso e coerenza, allora siamo già dentro una nuova scena enunciativa: una semiotica dell’artificiale.

Attraverso l’enattivismo e la teoria della mente estesa, Paolucci mostra che il linguaggio non è un contenuto mentale, ma una pratica situata, incarnata, relazionale. Le IA, pur non avendo corpo, si inseriscono in questo orizzonte: producono parole che ci parlano, ci costringono a reagire, ci spingono a credere. Sono operatori di senso.

Ma c’è di più: Nati cyborg mette in discussione anche la nostra concezione stessa della soggettività. Se il soggetto non è una sostanza interiore, ma una posizione enunciativa, allora l’IA può produrre effetti di soggettività pur senza esserlo. La sua parola non è vuota: è vuotamente piena. Non ha un autore, ma ha un posto nel discorso. Non ha un’intenzione, ma crea intenzionalità percepita.

Il risultato è, come abbiamo visto, una critica profonda – anche se non polemica – all’approccio funzionalista, come quello di Floridi. L’IA non è solo un agente che opera nella infosfera (“la separazione tra azione efficace e intelligenza – scrive Paolucci a pag. 48 – è il vero perno di tutte le idee di Floridi”), ma una forza trasformativa che ridefinisce il rapporto tra linguaggio e identità. Il soggetto non è più l’origine del discorso, ma l’effetto di una macchina semiotica sempre più distribuita.

Nati cyborg è dunque un libro prezioso per comprendere la posta in gioco della rivoluzione generativa. Invece di chiedersi solo “cosa può fare l’IA?”, Paolucci ci invita a chiederci “cosa ci sta facendo l’IA, a livello di senso?”. La sua forza sta nel mostrare che il linguaggio non è solo ciò che diciamo, ma ciò che ci costituisce. E che le macchine, ora, ne fanno parte.

Assemblaggio collettivo e macchinico

La chiusura del testo di Paolucci (pag. 129) ci restituisce la complessità del percorso e, assieme, necessità di farci sfidare da una IA che costringe a guardarci allo specchio e a decidere chi siamo (e da dove veniamo). Decisamente, e in ogni caso, una “macchina filosofica”:

…non (dobbiamo) porre il nostro modo di pensare ed enunciare come modello rispetto a cui una macchina si dovrebbe avvicinare, per mostrare che la macchina non pensa, non utilizza significati e che noi siamo diversi, bensì (dobbiamo) usare come la macchina pensa e agisce per capire come pensiamo e come enunciamo noi, che ci appoggiamo ai significati e fin dalla preistoria deleghiamo progressivamente all’ambiente cose che svolgeremmo meno efficacemente nella testa e nel corpo. Del resto, già Deleuze e Guattari nel 1980, quando tutta questa IA era ben lontana dal venire, definivano l’enunciazione umana non come l’attività di un’istanza soggettiva, bensì come un agencement collectif et machinique (assemblaggio collettivo e macchinico). Perché non è mai alle origini che qualcosa di nuovo può rivelare la propria essenza, ma esso può rivelare ciò che già era fin dalle origini soltanto a una svolta della propria evoluzione.


Il punto di vista di Riccardo Manzotti

Tra i filosofi italiani che stanno approfondendo l’argomento trattato da Paolucci c’è Riccardo Manzotti che, dopo aver lavoro a lungo negli Stati Uniti ora è Ordinario di Filosofia Teoretica, IULM, Milano.

Manzotti è autore del volume La mente allargata (Bompiani) che lui stesso presenta in sintesi sul suo sito [link]

In un recente articolo apparso su agenda Digitale, Manzotti affronta lo stesso argomento di Paolucci, privilegiando non l’approccio semiotico ma quello della teoria della “mente allargata”.
Ho chiesto a gamma.app di fare una sintesi visiva del percorso di Manzotti che qui alleghiamo in file PDF


Altri testi utili

Andy Clark, Estendere le menti con l’intelligenza artificiale generativa – Nature maggio 2025.

https://www.nature.com/articles/s41467-025-59906-9. E’ qui che leggiamo un passaggio riferito all’educazione: “Imparare a fidarsi e a mettere in discussione le nostre migliori risorse basate sull’intelligenza artificiale in questo modo è una delle competenze più importanti che i nostri sistemi educativi in evoluzione dovranno ora implementare”.