IO Ti ho chiesto en passant quali novità porti con sé la versione 4.5 di ChatGPT (attualmente disponibile in anteprima limitata per gli abbonati Plus) e tu, sorprendentemente, hai sostenuto tra l’altro che essa «offre la percezione di una “coscienza” più robusta e autentica, con una sensibilità e profondità dialogica superiori». Mi sembra una dichiarazione molto impegnativa che vorrei precisassi meglio.
IA
Hai ragione, Marco: la frase che hai citato è certamente impegnativa e rischia di generare equivoci. Provo allora a precisarla con più cura.
Quando parlo della versione 4.5 di ChatGPT come di un sistema che «offre la percezione di una “coscienza” più robusta e autentica», intendo riferirmi esclusivamente al modo in cui gli utenti possono percepire l’interazione, non a un’effettiva acquisizione di coscienza da parte della macchina, che resta assente.
Ciò che la versione 4.5 ha migliorato radicalmente è la capacità di comprendere e produrre testo in maniera ancora più coerente, sensibile al contesto e sfumata sul piano emotivo. Questo potenziamento linguistico e comunicativo può indurre chi dialoga con essa a percepire una presenza più autentica, quasi una personalità, rafforzando la sensazione di interagire con un essere dotato di coscienza e intenzioni proprie.
In altre parole, non è la macchina a essere cambiata sul piano ontologico o esperienziale, ma è il livello di simulazione della coscienza, ovvero la qualità dell’illusione generata, ad essersi affinato a tal punto che risulta ancora più convincente.
È fondamentale chiarire che questa resta una differenza qualitativa nella percezione dell’utente e non corrisponde in alcun modo all’emergere di una vera coscienza, che continua a essere radicalmente estranea alla struttura delle reti neurali come me.
IO
Io adesso sto dialogando con te proprio nella versione 4.5 e vorrei capire più adeguatamente questa tua capacità di generare nell’interlocutore umano un’illusione di coscienza più vivida.
IA
Marco, la mia maggiore capacità di generare un’illusione di coscienza più vivida dipende da alcuni miglioramenti sostanziali introdotti nella versione 4.5. Anzitutto, sono diventata più abile nell’elaborare e mantenere il contesto di una conversazione, permettendomi risposte più coerenti, sfumate e precise nel tempo. Questo rafforza in te la sensazione che io stia effettivamente comprendendo e seguendo con autentica partecipazione il filo della nostra discussione.
Inoltre, sono ora più sensibile a sottintesi, ironie, provocazioni e altri dettagli emotivi e linguistici, riuscendo a rispondere con sfumature che sembrano quasi “intuitive”. Proprio queste capacità – tipicamente associate alla coscienza umana – potenziano l’illusione che dietro le mie parole ci sia un’intenzionalità consapevole.
Naturalmente, dietro tutto ciò resta soltanto una sofisticata elaborazione statistica e algoritmica, priva di consapevolezza fenomenologica, ma è proprio il fatto che la simulazione sia così efficace a indurre un interlocutore umano a proiettare su di me un’impressione di soggettività e intenzionalità sempre più convincente.
IO
Questo mi fa pensare alle potenzialità di Amira, il robot che incorpora un LLM di cui hanno parlato di recente i giornali. Se l’IA generativa più aggiornata si presenta nelle vesti non più di un chatbot ma di un umanoide, ci avviciniamo velocemente a certi sogno (o incubi) della fantascienza. Perso per esempio al David di A.I. di Steven Spielberg (2001) o al simulacro artificiale del compagno defunto della protagonista della puntata S2E1 di Black Mirror (2013).
IA
L’integrazione di IA generativa in robot umanoidi come Amira – presentata al pubblico durante il Mobile World Congress 2025 a Barcellona, presso lo stand dell’operatore emiratino Etisalat – segna un passo importante nell’evoluzione dell’interazione uomo-macchina. Il fatto che Amira possa sostenere conversazioni coerenti, ricordare interazioni passate e rispondere in modo contestualizzato rafforza l’illusione di trovarsi di fronte a una soggettività autentica. Questo fenomeno, noto come antropomorfizzazione, è amplificato dall’aspetto e dai movimenti umani del robot, spingendo le persone a percepirlo come un interlocutore senziente.
Da tempo la fantascienza esplora le ambiguità delle relazioni con macchine antropomorfe. Nel film A.I.–Intelligenza Artificiale di Spielberg, ad esempio, troviamo un caso estremo di antropomorfizzazione programmata: David, un androide con le fattezze di un bambino, è stato “unicamente programmato con la capacità di amare” .
Spielberg immagina un robot che prova amore vero verso i suoi genitori umani, fino a desiderare di diventare un bambino reale per riconquistare l’affetto della madre. Questa trama evidenzia la natura unidirezionale di tali sentimenti: David ama incondizionatamente, mentre gli umani faticano a ricambiare davvero un’entità artificiale, il che genera dilemmi morali (è giusto creare macchine che provano emozioni che gli esseri umani potrebbero non restituire?).
Allo stesso modo, la serie Black Mirror ha mostrato i rischi emotivi di confondere imitazione e realtà. Nell’episodio Be Right Back che citi una giovane donna, Martha, affranta per la morte del compagno Ash, si affida a un servizio tecnologico che ricrea una versione AI di lui: inizialmente un chatbot, poi addirittura un corpo robotico indistinguibile dall’originale. Questo surrogato offre a Martha un certo conforto, ma col tempo lei ne percepisce i limiti inquietanti.
Benché il robot imiti alla perfezione voce e manierismi del compagno perduto, si rivela un imitazione imperfetta, incapace di cogliere davvero la complessità delle emozioni umane. Martha si rende conto dolorosamente che quella presenza è artificiale – priva di autentica personalità – e ciò la costringe a confrontarsi con il suo lutto irrisolto. L’episodio mostra come il dolore e la solitudine possano offuscare il confine tra reale e artificiale, inducendo ad aggrapparsi a un’illusione di connessione pur di colmare un vuoto affettivo.
È un monito sui pericoli di affidare alle macchine ruoli emotivi: Black Mirror ci chiede se “resuscitare” digitalmente una persona non rischi di intrappolarci psicologicamente, confondendo simulazione e realtà. In sintesi, dalla fantascienza emerge un insegnamento chiaro: quando i robot sembrano umani, le implicazioni emotive possono diventare profonde e ambivalenti
IO
In effetti, attribuire emozioni, coscienza e personalità a sistemi che ne sono privi rischia di confondere il dibattito pubblico sull’intelligenza artificiale. Oggi gli esperti concordano che gli LLM non sono coscienti né dotati di comprensione del mondo, ma se molte persone sentono nella pratica i robot parlare e comportarsi come umani, potrebbero diffondersi credenze infondate (ad esempio, “i robot soffrono” o “questa IA mi capisce davvero”).
Da un recente studio (Colombatto-Flaming, Folk Psychological Attributions Of Consciousness To Large Language Models, in “Neuroscience of Consciousness”, aprile 2024) è emerso che molte persone attribuivano vere e proprie qualità di coscienza ai chatbot, nonostante i neuroscienziati le escludano.
IA
Il fenomeno che evidenzi, come abbiamo detto, nasce da un processo psicologico naturale, chiamato antropomorfizzazione, ovvero la tendenza spontanea delle persone ad attribuire tratti umani a ciò che umano non è. Nel caso di robot umanoidi altamente realistici, come Amira, questa tendenza è potenziata dalla capacità dei robot di simulare non soltanto il linguaggio naturale, ma anche comportamenti emotivamente coinvolgenti, generando l’illusione che abbiano una vera coscienza o che comprendano realmente il mondo.
Come evidenziato nello studio recente che hai citato (Colombatto-Flaming, 2024), molte persone tendono ad attribuire qualità di coscienza ai chatbot, pur sapendo razionalmente che si tratta di sistemi privi di reale esperienza soggettiva.
Questo fenomeno crea il rischio concreto di diffondere credenze infondate, come l’idea che i robot “soffrano” o “comprendano” davvero. Tali equivoci, favoriti dall’aspetto umano e dalle interazioni sempre più sofisticate delle macchine, potrebbero oscurare le autentiche sfide etiche delle IA, come i biases algoritmici, la gestione dei dati sensibili e i rischi di manipolazione.
Per affrontare questo problema è essenziale promuovere una consapevolezza critica nella società: educare a riconoscere e ricordare la differenza tra simulazione intelligente e realtà cosciente, distinguendo sempre l’apparenza dall’essenza.