Introduzione
Dove sta andando il mondo? Possiamo solo tentare controverse ipotesi che cambieranno di pari passo alla velocità con cui gli eventi si trasformano.
Su una cosa possiamo essere tutti abbastanza d’accordo: stiamo andando dove il nostro agire ci porterà. Sono in atto notevoli trasformazioni su più livelli: nuove pandemie, cambiamento climatico, guerre, siccità, aumento delle disuguaglianze, calo delle nascite… e la crescita vertiginosa dell’Intelligenza Artificiale (IA). Dove ci porteranno, in che mondo o in che modo vivremo nei prossimi anni? Restringendo i problemi che affliggono il mondo e concentrandoci sugli sviluppi sorprendenti dell’IA, di cui si è fatto un gran parlare negli ultimi mesi (inizio 2023) grazie agli sviluppi sorprendenti della Chatgpt, mi sono chiesta come cambierà il nostro modo di essere e di stare in un mondo sempre più dominato dall’IA, che la cosa ci piaccia o no.
Fino ad oggi l’IA ci ha permesso di vivere in un mondo più comodo: pensiamo ai vantaggi nelle comunicazioni, nella produzione, ai miglioramenti in ambito sanitario, scientifico, nell’istruzione, nell’intrattenimento. Ma all’orizzonte c’è una rivoluzione che modificherà a breve (lo sta già facendo da un po’) il mondo della scrittura, del giornalismo, della scuola, dell’arte, del marketing, del cinema e tanto altro. Come verranno gestite le conseguenze sul mondo del lavoro, sul piano sociale, giuridico, etico, politico, sulla salvaguardia del diritto d’autore?
Oggi in molti si stanno chiedendo se e quando lo sviluppo di IA si avvicinerà ad un’intelligenza sempre più umana. Il dibattito che sta scuotendo la coscienza di molti, tanto da indurre il Garante della privacy in Italia a bloccare Chatgpt (Marzo ‘23) è se l’IA potrà mai apprendere ed elaborare contenuti non prestabiliti e magari diventare cosciente, creativa ed empatica come noi, finendo per dominarci.Come è noto, ci si divide perlopiù tra due opposte fazioni, sia a livello del “senso comune”, sia tra esperti: coloro che sono convinti che le macchine non potranno mai diventare coscienti e quindi avranno sempre bisogno degli umani per funzionare, e coloro che invece pensano sia solo questione di tempo. Prima di schierarsi da una parte o dall’altra dovremo trovare un accordo su cosa significhi “apprendere”, cosa sia la “coscienza”, “l’intelligenza”, la “creatività”, “l’empatia”, questioni a tutt’oggi aperte, nonostante studiosi di diversi ambiti si interroghino da anni su questi temi, in particolare sul tema della coscienza: cos’è la coscienza e cosa la provoca?
Mi chiedo: se non sappiamo cos’è la coscienza, e non abbiamo un’unica definizione neanche degli altri aspetti della cognizione umana, come mai molti studiosi sono convinti che le macchine non potranno mai diventare coscienti e possedere un’intelligenza simile alla nostra?
Perché quella dei chatbot (dispositivi in grado di comprendere il linguaggio umano, simulare conversazioni ed eseguire semplici attività automatizzate) deve essere un’intelligenza “umana”? Che abbia ancora una volta a che fare con la nostra visione antropocentrica?
Quello che ad oggi sappiamo, come ci spiega bene il neuroscienziato Davide Eagleman in L’intelligenza Dinamica (2020) è che il nostro cervello si rimodella continuamente in rapporto alle nostre azioni e interazioni con gli altri, con l’ambiente e con gli oggetti che usiamo.
Se l’uso dell’intelligenza artificiale si espanderà, come sta già avvenendo, facendoci vivere in una costante interazione con le sue potenzialità, quello su cui dovremo interrogarci non è tanto se le macchine diventeranno come noi e in quanto tempo (alla fine del XXI secolo o tra un decennio), ma come la nostra intelligenza e coscienza si modificherà vivendo a contatto con loro in modo sempre più pervasivo. Come sarà il mondo abitato da umani sempre più dotati di protesi artificiali e macchine sempre più intelligenti? Come possiamo utilizzare queste tecnologie per evitare i rischi che comportano sul piano etico, politico, culturale, sociale, economico? Come sarà comunicare in una società sempre più integrata tra uomini e macchine. Domani sarò ciò che oggi ho scelto di essere, scriveva Joyce, perché sono le decisioni di oggi ad avere conseguenze domani.
1. A che punto siamo?
In tutto il mondo, mentre milioni di persone sperimentano quotidianamente l’utilizzo della Chatgpt, tra curiosità e inquetudine, tutti i giganti tech (ma anche laboratori sparsi qua e là, come Pisa, di cui parlerò in seguito) stanno sviluppando progetti per rendere l’IA sempre più potente: da Microsoft a Google (che sta lanciando Bard, un IA con cui si può conversare), da Amazon alla cinese Alibaba, a Elon Musk. Quest’ultimo, dopo aver firmato insieme a molti nomi illustri tra cui l’astrofisico italiano Roberto Battiston, la moratoria per limitare l’uso dell’IA, sta lanciando la sperimentazione di un nuovo chatbot concorrente di Chatgpt.
Anche se al momento la novità è rappresentata da Chatgpt4, non è da oggi che chattiamo con prototipi IA all’interno di diverse applicazioni, e la cosa non ha destato la benché minima preoccupazione. La novità di Chatgpt4 è che ci troviamo di fronte a un modello di IA generativa (AGI, Artificial General Intelligence), ovvero un sistema capace di generare conoscenza da sé, addestrata su grandissime quantità di dati, foto e video, in grado di fornire istantaneamente risposte scritte e immagini sempre più coerenti, sulla base di precise descrizioni.
L’inedita capacità “multimodale” della Chatgpt4, cioè la sua capacità di decodificare imput di diversa natura, ha turbato parecchio esperti e opinione pubblica perché una tale capacità la rende particolarmente pericolosa. Saremo sempre meno capaci di distinguere il reale dal falso, in un mondo già ad alta manipolazione scritta e visiva (pensiamo alle foto di guerra a scopo propagandistico), con tutte le conseguenze che una tale eventualità avrà sui nostri comportamenti, oltre agli effetti sul piano editoriale, economico, politico, sociale, del mondo del lavoro e via così.
Nonostante Chatgpt4 sia più potente delle versioni precedenti, gli esperti sostengono che non siamo di fronte ad una rivoluzione perché la formula di costruzione è sempre la stessa: in quest’ultima versione, anche se la quantità di dati è ancora maggiore, il sistema continua a non essere in grado di “generalizzare”, cioè cogliere gli aspetti sottostanti le informazioni, come ad es. i rapporti di causa e effetto. L’IA “forte” possiede ancora solo l’abilità di individuare correlazioni, non si tratta insomma di un cambiamento qualitativo, ma quantitativo.
Sta di fatto che diversi laboratori in tutto il mondo stanno cercando di far comprendere alle macchine i rapporti di causa-effetto, come ad esempio il lavoro di Judea Pearl (2019) sul ragionamento causale a livello informatico. Una tale competenza renderà l’Intelligenza Artificiale Generativa sempre più capace di comprendere ciò che succede nell’ambiente intorno, proprio come noi. Questo significa che il chatbot sta diventato cosciente, consapevole del mondo che lo circonda?
Non è proprio così. Almeno per ora! Nel libro scritto con MacKenzie, J. Pearl sostiene che l’IA, nonostante si avvicini sempre più all’intelligenza umana, lavora ancora al livello più basso della scala metaforica a tre pioli da lui ipotizzata (Vedere, Fare, Immaginare), cioè funziona a livello del “vedere” che realizza in termini di associazioni. Il passaggio al Fare sarebbe consentito dalla rivoluzione causale, che implica la capacità di prevedere gli effetti delle azioni e le relazioni di dipendenza/indipendenza tra le stesse (cosa accadrebbe a Y se faccio X). Secondo Pearl, la maggior parte della conoscenza umana è organizzata attorno a fattori causali, non statistico/probabilistici e sarebbe rappresentata nel cervello da reti bayesiane (di cui Pearl è uno dei pionieri). Per elevarsi al terzo piolo (Immaginare) l’IA dovrebbe diventare inoltre capace di “guardare indietro” e astrarre, immaginando cosa avrebbe potuto cambiare sul piano del successo/fallimento, o del giusto/sbagliato, se avesse fatto qualcosa di diverso.
L’obiettivo di AGI è raggiungere queste capacità per assomigliare sempre più all’intelligenza umana ed essere quindi in grado di conversare con gli umani, evitando le goffaggini. Prendiamo ad esempio il modello LaMDA sperimentato da tempo da Google, in grado di emulare dialoghi umani fingendo di provare emozioni e cercando di cogliere le intenzioni del suo interlocutore umano, condizioni che gli consentono di mantenere il filo del discorso e di fornire le risposte più adeguate, tanto da aver tratto in inganno perfino un ingegnere di Google, che ormai ritiene che LaMDA possa essere considerata senziente. LaMDA è in grado di assumere anche differenti personalità a seconda dell’utente che si trova davanti e della discussione in atto.
Tutto questo è stato ottenuto in assenza di coscienza, solo perché il sistema è stato addestrato sulla base di milioni di storie che navigano nel web: le nostre chat, le nostre immagini, il racconto delle nostre emozioni e tutte le banche dati che Google possiede (ecco perché l’oro del XXI secolo non sarà né giallo né nero, ma corrisponderà alla quantità di dati che un’azienda possiede).
Siamo di certo sbalorditi di quello che una macchina riesce a fare, ma non ci rendiamo conto degli immensi calcoli implementati per costruire le correlazioni fra parole e algoritmi che portano alla costruzione di frasi adatte a una data situazione, e che consentono al sistema di scrivere qualcosa di sensato. È strano che il nostro cervello non ci stupisca altrettanto: quanti collegamenti esegue, a livello neurale in un tempo impercettibile, per permetterci di parlare, comprendere, leggere e scrivere, comporre poesie… Siamo dotati di uno straordinario, quanto sofisticato ed efficace congegno che consideriamo unicamente come fenomeno biologico, mentre anche noi, come le macchine, per apprendere abbiamo bisogno di una moltitudine di informazioni e di interazioni con il mondo circostante, che giorno dopo giorno configurano la nostra struttura neuro-cognitiva, un qualcosa di magico che ancora attende di essere svelato.
Ho il sospetto che, nel tentativo di rendere sempre più simile a noi l’IA, arriveremo a comprendere molte più cose di noi; infatti, per implementare algoritmi che simulano sempre più le nostre risposte, gli scienziati dovranno comprendere meglio i meccanismi che le provocano, come nascono gli atteggiamenti, le decisioni, come si diventa creativi, empatici, ecc. In altre parole, se l’IA funziona grazie al modello fornito dal nostro cervello, anche noi accresceremo le conoscenze del nostro funzionamento grazie all’IA. L’ibridazione reciproca è iniziata da tempo.
Nei paragrafi successivi proverò a riflettere sul perché, nonostante le somiglianze nel modo di funzionare delle reti neurali naturali e artificiali, le differenze sono ancora molto marcate (paragrafo 2). Ma la domanda che attraversa tutto ragionamento è: si può essere intelligenti senza essere coscienti? Cos’è la coscienza e che ruolo ha il nostro corpo, il linguaggio e le emozioni nel generarla? (p. 4) L’IA potrebbe un giorno diventare creativa e provare emozioni, se dotata di un corpo bionico? (p.5) Perché temiamo tanto l’IA, se è vero, come molti sostengono, che non potrà mai raggiungere la nostra intelligenza? È necessario regolamentare il suo utilizzo? (p.6)
2. Intelligenze a confronto
Indubbiamente le macchine diventeranno sempre più intelligenti, ma si tratta di un’intelligenza simile alla nostra? Potranno un giorno superarci e dominarci, essendo molto più potenti e veloci nell’elaborare quantità di dati e di calcoli sovraumani? Proviamo a chiederci prima cosa intendiamo per “intelligenza”. Poiché è stata definita in diversi modi, utilizzerò una definizione generale affidandomi alla sua etimologia: il termine intelligere è formato dal verbo legĕre, (cogliere, leggere) più la preposizione inter (“fra”, relazione tra due cose). Possiamo quindi intendere l’intelligenza come la capacità di cogliere le relazioni/differenze tra le cose sulla base dell’esperienza.
La capacità di cogliere le differenze sottende infatti alla formazione dei concetti, grazie ai quali attribuiamo un significato alle cose e conseguentemente decidiamo di agire in un modo piuttosto che in un altro. Sembra proprio che ciò che distingue (per ora) l’intelligenza umana dall’IA, abbia a che fare con la capacità di decidere o scegliere cosa dire/fare quando la risposta non è stata programmata. Gli esperti sostengono che quando l’IA sarà in grado di interagire con l’ambiente esterno come noi, utilizzando per esempio sensori e attuatori per manipolare oggetti, o muoversi ricevendo feedback dall’ambiente, assomiglierà sempre più all’uomo. È quello che si propone oggi la robotica evoluzionistica, ossia programmare le condizioni di base affinché un sistema IA possa attivamente evolvere interagendo con l’ambiente. La ricerca sta anche mettendo a punto dispositivi sofisticati per far sì che le macchine riconoscano le emozioni e vi rispondano in merito, imparando ad usare un meccanismo simile all’empatia. Tutte queste caratteristiche, associate a tecnologie sempre più avanzate, foggerebbero macchine capaci di rispondere in modo “creativo”, cioè originale e inatteso. Ci arriveremo? Chi se ne occupa sostiene che con l’aggiornamento numero 5, Chatgpt potrebbe diventare indistinguibile da un essere umano e si prevede che questo potrebbe succedere già l’inverno prossimo (2023-24). Molti esperti e ricercatori sono però più propensi a ritenere che sia impossibile prevedere l’evoluzione di AGI, cioè la capacità di un programma di pensare e agire esattamente come una persona, anche se la ricerca in questa direzione non si ferma, anzi procede senza intoppi.
Nel suo ultimo libro Nello Cristianini (La Scorciatoia, 2023) si chiede come hanno fatto le macchine a diventare intelligenti senza pensare in modo umano, essendo guidate solo da relazioni statistiche. Quella che chiamiamo “intelligenza”, dall’alto della posizione che pensiamo di occupare nella scala evolutiva, non è appannaggio nostro e, fa notare Cristianini, l’intelligenza esisteva prima della comparsa dell’uomo. Inoltre, continua l’autore, non è vero che le macchine possono fare solo quello che programmiamo facciano: stanno già “imparando” i computer che abbiamo in tasca, grazie a come noi li addestriamo attraverso le nostre risposte. E aggiunge: se per “intelligenza” intendiamo la capacità di perseguire un dato obiettivo in un ambiente nuovo e sconosciuto e l’abilità di decidere cosa fare, ci possono essere molti modi diversi per farlo: imparando dall’esperienza, pianificando, oppure anche solamente mediante dei riflessi innati. Anche una macchina può essere intelligente, solamente imparando sulla base dei clic che miliardi di persone mettono sui contenuti, che funzionano come i feedback di rinforzo che noi riceviamo attraverso le nostre interazioni, condizioni essenziali per apprendere. Poiché non esiste un solo modo per essere intelligenti, continua Cristianini, è chiaro che una macchina può essere più intelligente di noi in certi ambiti (come nel gioco degli scacchi, o in tanti videogiochi) e stanno già imparando dall’esperienza; il punto vero è cosa siamo disposti a far fare alle macchine, fino a che punto intendiamo spingere la loro “libertà” di azione.
Questo è il problema. C’è unanime consenso nell’affermare che le abilità delle macchine continueranno ad aumentare; i ricercatori che se ne occupano sperano che un giorno le macchine possano manifestare la capacità di percepire, apprendere autonomamente, ragionare, pianificare, manipolare oggetti. Ma queste capacità non sono racchiudibili in pacchetti stabiliti una volta per tutte. Come spiega D. Eagleman, nel già citato L’intelligenza dinamica, l’incredibile potere del nostro cervello non risiede nelle parti di cui è composto, bensì nel modo in cui queste parti interagiscono tra loro e si rimodellano continuamente perché il cervello è un sistema dinamico, un oggetto basato sul cablaggio dal vivo (pp.16-17). Secondo il neuroscienziato, il fatto che le macchine posseggano un apparato efficientissimo e ordinato di algoritmi “comporta anche l’incapacità di stare in equilibrio sull’orlo del caos, di prepararsi all’inaspettato, di implementare cambiamenti rapidi nel sistema” (p. 237). Secondo Eagleman, le macchine memorizzano qualsiasi cosa chiediamo loro di memorizzare, che è una caratteristica utile, ma è anche il motivo per cui l’IA non è particolarmente umana: agli attuali algoritmi di IA non importa nulla della rilevanza delle informazioni che possiedono. Considerazioni importanti, ma non dimentichiamo che Eagleman le scriveva due anni fa, un periodo lunghissimo per l’accelerazione che sta investendo la ricerca. Pertanto, non c’è dubbio che l’IA generativa sarà sempre più dotata di un’intelligenza forte e raffinata, ma potrà anche un giorno essere cosciente di quello che fa?
3. Si può essere intelligenti senza esserne coscienti?
Nel paragrafo precedente ho cercato di dare una definizione generale e sommaria di intelligenza, ragionando sulla possibilità che l’IA possa un giorno raggiungere le caratteristiche di quella umana.
Ancora più arduo è chiedersi se le macchine diventeranno coscienti, anche perché non sappiamo bene cosa sia la coscienza. Si tratta di uno dei fenomeni “più difficili” da studiare, ovvero capire come gli esseri umani abbiano esperienze delle cose (i qualia), cosa ben diversa dal spiegare capacità più “facili”, come per esempio discriminare e integrare informazioni; per questo il problema della coscienza è stato definito da Chalmers hard problem (1995).
Come in ogni dibattito sulle potenzialità dell’intelligenza artificiale vi è chi pensa che le macchine coscienti saranno un traguardo possibile, anche se difficile, e coloro invece che considerano questo un limite insormontabile. Tra questi ultimi c’è chi pensa, come Yuval Harari, che l’IA possa raggiungere livelli di intelligenza altissimi senza bisogno di essere cosciente e chi invece, non solo è convinto dell’impossibilità dell’IA di pervenire alla coscienza, ma ritiene anche inappropriato parlare di “intelligenza” delle macchine. Ma di quali proprietà si parla quando si discute della coscienza? Non lo sappiamo con certezza, anche se i progressi nell’esplorazione di questo grande e affascinante fenomeno non mancano. La coscienza ha sempre destato nel corso dei secoli grande curiosità da parte dei filosofi ed è stata negli ultimi cinquant’anni oggetto di ricerche anche da parte di neuroscienziati, biologi e fisici. Attualmente non abbiamo una visione condivisa di questa singolare e sfuggente facoltà. Una delle teorie più accreditate è la Teoria dell’informazione integrata elaborata da Giulio Tononi (2004) che da anni si interroga, dapprima in collaborazione con G. Edelman, su cosa provochi la coscienza. Edelman e Tononi sostengono (Un universo di coscienza, 2002) che la coscienza non occupa un posto preciso nel nostro cervello e non riguarda una singola facoltà, ma si manifesta quando più parti del cervello si scambiano informazioni e si attivano contemporaneamente.
Tononi è riuscito persino a calcolare l’attività di questo scambio di informazioni, che ha espresso in una formula (PHI) e che corrisponderebbe alla misura della coscienza: maggiore è il PHI tanto più si è coscienti. Studi fMRI (risonanza magnetica funzionale) hanno infatti messo in risalto che più il cervello è cosciente, più parti di esso sono attive. Edelman e Tononi sottolineano che non siamo gli unici ad avere una coscienza: anche gli animali sono consapevoli di avere un corpo, del contesto che li circonda, del presente e del passato più prossimo, pur trattandosi di una coscienza meno sviluppata.
Edelman definisce quest’ultima “coscienza primaria” per distinguerla dalla “coscienza di ordine superiore” che si formerebbe grazie al linguaggio per le connessioni neurali che questo permette tra le regioni concettuali del cervello, che a loro volta, attraverso le interazioni sociali, permettono un arricchimento del linguaggio (In Più grande del cielo, 2004).
Dunque il linguaggio avrebbe un ruolo fondamentale nella formazione della coscienza. Oltre al linguaggio, anche i sentimenti e le emozioni, sostiene A. Damasio, contribuiscono alla coscienza (L’errore di Cartesio, 1994). Secondo il neuroscienziato portoghese, la coscienza consiste nella costruzione della relazione organismo-oggetto attraverso un processo di trasformazione reciproca. Per Damasio la coscienza inizia come un particolare tipo di “sentimento” (“sentire” lo stato del corpo, cioè le emozioni primarie: fame, paura, sesso…), un sentire che condividiamo con gli animali (il proto-sé) grazie al quale impariamo gradualmente a riconoscersi come parte separata dal mondo esterno; l’interazione costante con gli oggetti dell’ambiente porta allo sviluppo della coscienza nucleare, un fenomeno biologico in base al quale sviluppiamo un senso del sé “qui e ora”; infine si approda nella coscienza estesa, o sé autobiografico, che richiede il linguaggio, poiché solo attraverso di esso possiamo narrare la nostra storia, tessendo i ricordi, le speranze, le delusioni e tanto altro.
In estrema sintesi, allo stato attuale delle conoscenze, la coscienza richiederebbe, oltre all’attivazione simultanea di più parti del cervello, anche l’uso del linguaggio e dei sentimenti, entrambi collegati alla possibilità d’interazione costante con gli altri, gli oggetti e l’ambiente.
A questo punto la domanda interessante non è tanto chiedersi se le macchine potranno diventare senzienti, ma fino a che punto si potrà parlare di una coscienza artificiale simile alla nostra e quale sarà l’impatto dell’IA generativa sulla coscienza umana?
Proprio perché il cervello si rimodella continuamente in rapporto alle nostre interazioni con gli altri, l’ambiente e gli oggetti che usiamo, come si modificherà la nostra intelligenza e coscienza vivendo a contatto con l’IA generativa in modo sempre più pervasivo? L’AGI è già parte integrante delle grandi aziende, del commercio e dei servizi, e lo è proprio in virtù della capacità di generare e interpretare il linguaggio, ovvero la porta principale di accesso alla nostra coscienza.
Se la coscienza è ciò che ci contraddistingue dall’IA, che dire dei processi che hanno luogo al di sotto della coscienza, che non solo agiscono 300 millesecondi prima dei processi coscienti, ma sono anche fondamentali per il realizzarsi di quest’ultimi. Le scoperte delle neuroscienze rivelano un brulichio di processi neuronali che avvengono al di sotto del pensiero cosciente per consentire poi alla coscienza di emergere, anche se non sappiamo ancora come la coscienza emerga dal non-conscio (diverso dall’inconscio freudiano). Katherine Hayles (una delle più note teoriche del post-umano) parla di “assemblaggio cognitivo” riferendosi al ruolo che la cognizione non-conscia esercita nel rispondere in modo rapido ed efficace alla molteplicità di informazioni provenienti dall’esterno, come fanno anche le macchine (K. Hayles, 2017). Tuttavia, per passare all’azione volontaria, sostiene la studiosa, è necessario passare attraverso la coscienza, che quindi preserva un ruolo cruciale.
Se è vero che l’intelligenza non risiede solo nella nostra testa ma si estende fino a comprendere le relazioni con le azioni, gli oggetti e gli altri, dove si concentrerà l’intelligenza in quello che diventerà un groviglio sempre più intricato di uomini e macchine. K. Hayles, come Y. Harari, si chiede se è necessario che le macchine complesse si dotino di coscienza o se potrebbero avere abilità cognitive sofisticate anche restando non-consci. K. Hayles ci invita a superare il binomio umano/non umano per arrivare a una nuova “ecologia cognitiva”, che condividiamo con molte forme di cognizione non-conscia, da quelle tecnologiche a quelle viventi, come le piante e gli animali, con i quali intrecciamo relazioni complesse di affetto e sfruttamento.
Resta il fatto che l’IA generativa, pur dimostrando quanto si possa ottenere senza coscienza, è certamente diversa dall’intelligenza umana perché funziona su una base completamente diversa, cioè non ha un corpo come il nostro, non ha lo stesso tipo di embodiement. Ciò non toglie che il suo funzionamento potrebbe permetterci di riformulare alcune idee sulle nostre facoltà, per esempio, l’intuizione: è proprio vero che accade all’improvviso o potrebbe invece trovare una plausibile spiegazione in termini di cognizione non-conscia?
4. La coscienza, il corpo vivo e il linguaggio
Nonostante l’intelligenza artificiale generativa diventi sempre più capace di rispondere adeguatamente a compiti diversi, tanto da far venire il dubbio che possa anche diventare cosciente, per le neuroscienze cognitive, almeno per il momento, un tale obiettivo è ancora lontano.
Avendo dimostrato infatti che cervello, corpo e ambiente interagiscono costantemente per produrre il pensiero, cioè la mente, questa non può che dipendere dal corpo che abbiamo, dalle azioni che il corpo ci consente e dalle relazioni che intrattiene. Il corpo vivo e la sua morfologia, il nostro embodiment, è l’interfaccia con il mondo ed è quello che spiega in primis tutta la differenza con i sistemi di IA. Varela et al. (1991) per esempio, riconoscono una circolarità tra l’azione e l’esperienza che si trasforma in conoscenza: la cognizione dipende dai tipi di esperienza che derivano dal fatto di avere un corpo con varie capacità sensomotorie e dall’essere inseriti in un determinato contesto biologico e culturale. Anche per A. Damasio il cervello non può essere studiato senza tener conto dell’organismo a cui appartiene e dei suoi rapporti con l’ambiente. Secondo il neuroscienziato l’errore di Cartesio (1995) è stato quello di non capire che la natura ha costruito l’impianto della razionalità (la logica) a partire da quello della regolazione biologica. Per Damasio, come riportato nel paragrafo precedente, coscienza ed emozione non sono separabili poiché l’emozione è legata al “sentire del corpo”. Il termine embodiment fa anche riferimento alle idee di Lakoff e Núñez elaborate in Da dove viene la matematica (2000), dove sostengono che la formazione dei concetti non è un’attività che riflette una qualche realtà esterna, ma è intrinsecamente costruita dalla natura del nostro corpo e del nostro cervello attraverso il sistema sensomotorio. Intendono dire che le nostre idee, quindi anche le nostre teorie, sono strettamente legate alla nostra natura biologica, ovvero nascono dal modo in cui percepiamo il mondo attraverso il sistema sensoriale e motorio.
Studi sperimentali (Iriki et al., 1996), a partire dalla scoperta dei neuroni specchio che hanno contribuito largamente a rafforzare il paradigma embodied della cognizione, evidenziano come le caratteristiche morfologiche del corpo e le azioni che esso permette (compresi gli oggetti utilizzati) riconfigurano l’area cerebrale coinvolta nell’interazione corpo/ambiente, modellando i nostri pensieri. Nell’esperimento citato, un’attività motoria aveva determinato una modificazione del cervello per incorporare anche lo strumento utilizzato (un rastrello) per raggiungere un oggetto oltre lo spazio peripersonale. In altre parole, quello che siamo, e tutto il nostro apparato cognitivo, è il risultato della fusione mente-corpo e tale dispositivo, essendo inserito in un contesto ambientale, sociale e culturale con il quale agisce ed interagisce, finisce per riflettere anche quest’ultimo, modificandosi entrambi costantemente. Da questi studi è evidente che, finché l’IA sarà implementata in un corpo metallico, le differenze con l’intelligenza umana saranno sempre marcate.
Ma non è solo il nostro corpo a evidenziare la distanza con le macchine, per quanto potenti e sofisticate: noi parliamo e scriviamo, cioè abbiamo sviluppato nel corso dell’evoluzione un sistema simbolico (il linguaggio) che possiede solo l’uomo e che dipende, ancora una volta, dalla morfologia e struttura del nostro corpo in costante interazione con l’ambiente.
Gallese e Lakoff (2005), nella loro ipotesi dello “sfruttamento neurale” sostengono che l’architettura cerebrale che controlla l’azione sarebbe stata in seguito adattata come nuova struttura per il pensiero e il linguaggio, pur mantenendo la sua funzione originale. Gallese (2008) sostiene che la struttura neuro-funzionale all’interno dell’area premotoria che prepara la sequenza appropriata all’azione finalizzata (dove si trovano i neuroni specchio, corrispondente all’area di Broca), potrebbe “essere sfruttata” per la strutturazione frastica del linguaggio e la formazione dei concetti.
Glemberg e Gallese, nella teoria ABL (Action-based language; 2011) propongono un modello per mettere in evidenza la base motoria e gestuale del linguaggio e come il significato sia fondato sull’azione e sul risultato atteso dell’azione. Attualmente c’è molto interesse per gli studi che indagano le basi neurali della conoscenza concettuale, ovvero gli studi che tentano di capire come l’attivazione di certi schemi, localizzati nelle diverse reti neurali, possono consentire la capacità di distinguere, riconoscere, classificare e concettualizzare gli oggetti e gli eventi del mondo. L’IA s’ispira ai risultati di questi studi per modellare reti neurali artificiali sempre più in grado di apprendere attraverso meccanismi simili a quelli dell’intelligenza umana.
In sintesi, ciò che ancora ci distingue dagli altri viventi e dalle macchine è il tipo di corpo che abbiamo e il linguaggio che usiamo, generato dalla fusione corpo-ambiente. E sono proprio queste straordinarie peculiarità, unite all’uso degli oggetti disponibili (tecnologia) ad aver permesso all’uomo di circondarsi di strumenti sempre più tecnologici, che gli hanno evitato la fatica fisica in molti campi e che oggi sembrano invece prendere gradualmente il suo posto, destando non poche preoccupazioni. In molti si chiedono cosa succederebbe se si cominciasse a dotare i robot di un sistema di creazione di simboli simile a quello che genera il nostro linguaggio (sulla cui origine abbiamo ancora solo ipotesi) e di un corpo sempre più simile al nostro: sensori per mani artificiali, muscoli artificiali, pelle biomimetica con cui rivestire i robot e permettere loro di rilevare la morbidezza di oggetti reali, e tanto altro.
Sperimentazioni di Intelligenza incorporata sono già in atto a livello internazionale e in Italia. Per esempio, negli esperimenti dell’Università di Pisa (Progetto FoReLab), oltre allo sviluppo della telerobotica e della chirurgia robotica, stanno perseguendo l’ambizioso programma della “Realtà aumentata tattile”, un nuovo paradigma che permetterà all’IA di sostituire l’uomo in compiti rischiosi, consentendo una maggior qualità del lavoro e progressi nel campo della sicurezza. L’obiettivo dei ricercatori di FoReLab è programmare sistemi corporei, percettivi, motori e cerebrali affinché possano evolvere interagendo con l’ambiente in contesti non strutturati e imprevedibili, condizioni cruciali per sviluppare un’intelligenza più flessibile nella soluzione di problemi. È anche previsto l’impiego di embodied intelligence per operazioni robotiche cooperative, con squadre di robot in grado di operare in modo intelligente.
Come si vede, oggi le neuroscienze, che negli ultimi vent’anni hanno avuto una costante accelerazione, sono costrette ad aggiornarsi sulla spinta dei risultati dell’IA e della Robotica, campi che si intrecciano continuamente illuminandosi a vicenda. Di fronte a fenomeni così inediti e veloci, è difficile pensare che la nostra rappresentazione del mondo e il concetto di realtà non subiscano trasformazioni. Quando i robot saranno dotati di un’apparecchiatura sempre più simile alla nostra, e reagiranno in modo adattivo e creativo, la nostra percezione dei rapporti con gli altri (di cui faranno parte i robot) e la nostra coscienza (qualunque cosa voglia dire) si modificherà giocoforza. Saremo più attratti dalla comunicazione con i nostri simili o con i robot?
5. L’Intelligenza Artificiale potrebbe diventare creativa, empatica e consapevole?
Come già accennato, nonostante l’ultima generazione dei chatbot conosca abbastanza il linguaggio umano da produrre inferenze corrette anche senza coscienza, sembra che l’IA non possa competere con la mente umana in termini di creatività. Quello della “creatività” è uno degli argomenti rassicuranti che vengono utilizzati per sostenere che l’IA non potrà mai essere intelligente come noi. Mi chiedo quanto possa essere di conforto pensare che creatività ed empatia non saranno mai accessibili all’IA quando, ciononostante, sono a tutt’oggi imprevedibili le potenzialità dell’AGI.
Inoltre, se i chatbot stanno diventando sempre più bravi nel riconoscere il linguaggio naturale e nel risolvere problemi (anche se non hanno ancora raggiunto la flessibilità e i livelli di comprensione umana) come mai siamo così restii a credere che possano diventare anche “creativi”, ovvero capaci di collegare in modo originale e pertinente i dati a disposizione, andando oltre il prestabilito.
Ma cosa intendiamo per “creatività”? Siamo proprio sicuri che la nostra creatività nasca in modo naturale, spontaneo, imprevedibile, cioè indipendente dalle migliaia di connessioni tra le reti neurali che abbiamo formato nel corso della nostra esperienza? Certo non è riducibile a questo.
Tuttavia, il bagaglio esperienziale incorporato, intrecciandosi con le emozioni, i desideri, i bisogni, ecc., riaffiorando improvvisamente alla coscienza, sembra nascere dal nulla, come qualcosa di inedito, ma dipende invece da una miriade impressionante di calcoli che il cervello esegue a nostra insaputa. D. Eagleman, in un documentario del 2019, Il pensiero creativo, afferma che la creatività è una caratteristica del cervello umano, non una prerogativa di pochi geni o artisti, ma un modo di funzionare che ci ha permesso di evolverci dalla preistoria ad oggi grazie alla possibilità di cercare più soluzioni a un dato problema. Tale abilità, consentendoci di immaginare cose che non sono presenti, favorisce la ricerca di idee nuove, accrescendo quella che definiamo “creatività” spesso associata a originalità, pensiero divergente, immaginazione, inventiva. Non si tratterebbe, spiega Eagleman, di inventare qualcosa dal nulla, ma di rimodellare qualcosa che già esiste, ovvero combinare diversamente ciò che già conosciamo.
Anche per G. Edelman (Premio Nobel 1972) la creatività è dovuta alla capacità combinatoria e integrativa del nostro cervello che dà luogo a quella che lo scienziato definisce la nostra “seconda natura” (2007). Lo stesso pensiero sarebbe una “creazione” dovuta alla smisurata possibilità di interazione-integrazione delle nostre mappe sensoriali e motorie, riflesso delle esperienze personali.
È questa possibilità a rendere ogni cervello unico e irripetibile, anche perché la risposta agli stimoli che incontriamo non è mai la stessa neanche nello stesso individuo. Ed è questo che ci rende ancora diversi dalle macchine. Infatti l’AGI, pur essendo già in grado di ricombinare i dati in modo nuovo, non può definirsi “originale” finché non sarà in grado di deviare dal percorso segnato dal programma.
Ma siamo sicuri che noi invece abbiamo la possibilità di uscire dagli schemi incorporati nel corso della nostra esperienza? È proprio vero che siamo così imprevedibili, e che la nostra creatività è un processo difficilmente conoscibile? Non può essere che noi siamo così “imprevedibili” perché la scienza non ha ancora a disposizione gli strumenti e un adeguato paradigma per esplorare quali e quanti dati abbiamo immagazzinato e intrecciato nel corso delle nostre interazioni con gli altri e le cose? Magari un giorno scopriremo che anche noi, nonostante la variabilità e l’imprevedibilità delle risposte/reazioni, non abbiamo infinite possibilità tra cui scegliere, ma solo quelle che le precedenti interazioni e combinazioni ci consentono in presenza di certi stimoli.
Un’altra caratteristica tipicamente umana, che le macchine sono ancora lontane dal raggiungere, è il senso dell’umorismo. Primo perché, non essendo ancora ben chiaro come funzionano le dinamiche umoristiche, non ci sono le condizioni per implementarle nelle reti neurali artificiali; secondo perché sono abilità che affondano le loro radici nelle relazioni con gli altri e richiedono la coscienza di sé e dell’altro da sé, nonché la percezione della loro similarità, pur nella diversità.
Per cogliere la battuta di spirito, come sostiene Victor Raskin (1985), occorre essere capaci di empatia e possedere gli stessi script, ovvero sequenze codificate e condivise di gesti, azioni e pensieri riferiti a una data situazione che durante la narrazione, all’improvviso, subiscono un cambio inaspettato di direzione che provoca ilarità (Script Opposition). Si tratta, per certi versi, di una dinamica simile a quella di un atto creativo; infatti, anche nell’umorismo si assiste ad una ricombinazione di schemi noti in modalità inedita. Si potrà arrivare in futuro a far elaborare i dati in modo creativo ad un software? Tra non molto lo sapremo.
Riguardo a “l’empatia”, i robot intelligenti che captano stati d’animo e bisogni delle persone vivono già tra noi: i robot “badanti”, quelli utilizzati nella pet therapy, altri che interagiscono con bambini autistici o sono impiegati per usi educativi. Significa che stanno diventando empatici? Non come lo siamo noi! Rispetto alla consapevolezza, anche se attualmente sembra che in molte prestazioni (matematica, medicina, psicologia, legge e altro) Chatgpt4 sia molto vicina alle prestazioni umane, facendo anche grandi progressi a livello di “buon senso”, non significa che stia acquistando autoconsapevolezza (ma non vuol dire che non ci potrà arrivare).
Per il neuroscienziato Danko Nicolic (2015; 2017) le macchine potranno assomigliare sempre più all’intelligenza umana, ma non potranno mai superarla perché le menti umane interagiscono con il mondo circostante da cui ricevono i feedback che consentono al sistema-mente di organizzarsi a vari livelli, mentre le macchine manipolano i simboli internamente, senza più subire influenze esterne.
La ricerca di J. Pearl sul ragionamento causale a livello informatico (già citato al paragrafo 1) va in questa direzione: mostra come la realizzazione di una macchina di inferenza causale richieda almeno tre livelli distinti di abilità (dal vedere all’immaginare passando attraverso il fare) in cui ogni livello emerge dal precedente per causazione. Mentre Pearl sembra introdurre il principio di causazione come principio alla base dell’emergere di un’intelligenza simile a quella umana, secondo G. Bateson (1980), le relazioni di tipo causa-effetto si ripetono meccanicamente nel mondo fisico (quello delle macchine) mentre nei sistemi viventi vi sarebbe un rapporto di reciproca generazione fra struttura e processo: quello che è processo (o flusso) ad un livello, diventa struttura (o forma) al livello più alto, che a sua volta genera altri processi, e così via.
Secondo Bateson questa condizione è alla base del processo mentale, dell’evoluzione delle idee, dell’apprendimento, delle relazioni interpersonali e di ogni altro fenomeno “mentale”. Comunque sia, sta di fatto che i prodigiosi risultati che ottengono queste macchine continuano ad accadere in modalità associativa e non creativa, e questo perché fondamentalmente mancano di “relazioni circolari”. Come sostiene Bateson, la relazione “viene prima” ed è molto più potente di un algoritmo. E se un giorno l’IA arriverà ad usare il linguaggio in modo creativo, ma non ancora a provare sentimenti, emozioni, preoccupazioni, dubbi, ecc., magari potremo scoprire la genesi di questi stati e non a considerarli come qualcosa di banalmente naturale per noi, quanto piuttosto qualcosa di incredibilmente complesso e potente che rende la nostra umanità.
6. Come orientarci nel mondo che verrà
Mi trovo spesso a pensare perché improvvisamente temiamo tanto l’IA dal momento che abita tra noi da diversi anni. Abbiamo da tempo cominciato a comunicare con varie forme di intelligenza artificiale: in auto, davanti la TV, con la nostra banca tascabile, con Siri, Alexa e tanto altro; non abbiamo ancora gli elettrodomestici che ci parlano o l’auto che guida al posto nostro, ma è solo questione di tempo. Consideravamo l’IA evidentemente innocua, circoscritta ad alcune applicazioni o che fosse necessario molto tempo prima che fosse in grado di espandersi e comunicare con noi.
Oggi gli esperti ci rassicurano che, per quanto potente e di “buon senso” possa diventare, non potrà mai raggiungere la nostra intelligenza in quanto, come fa notare Howard Gardner nella sua teoria delle intelligenze multiple, non importa quanto sei intelligente, importa come lo sei e, aggiungo, come lo siamo diventati. La nostra intelligenza si è formata nel corso di milioni di anni e il suo sviluppo è legato al bisogno di risolvere problemi legati all’esistenza stessa, dunque in costante interazione con l’ambiente e gli altri, in un incessante andirivieni dall’esterno all’interno secondo una dinamica di accoppiamento strutturale (Maturana e Varela, 1984) che ha prodotto una mente dinamica, flessibile (quindi creativa), consapevole di sé e degli altri (dunque empatica). L’IA viene da un’altra storia.
Diventerà una minaccia per noi? Ma noi siamo già a rischio estinzione, e abbiamo fatto tutto con le nostre mani e le nostre menti. Talvolta mi chiedo se eventuali post-umani digitali potrebbero fare più danni di quelli che abbiamo fatto noi all’unico pianeta che permette la vita (almeno dalle conoscenze che abbiamo). La storia dell’uomo è costellata da guerre (che comportano l’uccisione dei nostri simili non per fame, ma per motivi economici, di potere, prestigio), sfruttamenti dei più deboli, stermini razziali, distruzione di territori, estinzioni di piante e animali e tante altre brutalità.
Certo, siamo stati anche capaci di costruire piramidi, dipingere la Cappella Sistina, scrivere la Divina Commedia, scoprire la penicillina o andare sulla Luna. E se in futuro le incredibili capacità che stiamo implementando sull’IA saranno tali che l’uomo non potrà più dominarle, sarà ancora una volta grazie a quello che abbiamo fatto noi per renderli tali. Scrive G. E. Valori in Cyberspazio e intelligenza artificiale tra Occidente e Oriente (2023) che se l’uomo programmasse l’IA per la difesa dell’ambiente, la prima cosa che farebbe l’IA per raggiungere l’obiettivo sarebbe l’eliminazione dell’uomo in quanto rappresenta il massimo pericolo per la distruzione della Terra.
Al di là di queste tristi e piccate considerazioni, penso che a spaventarci di più sia il ritmo con cui l’IA avanza, che è tale da sorprendere anche i suoi costruttori; se prima un avanzamento nella ricerca avveniva nell’arco di decenni, ora avviene nell’arco di mesi, più velocemente di qualsivoglia previsione. Pertanto, a preoccuparci non sembra tanto la possibilità di saper competere con robot tanto intelligenti, quanto quella di trovarci impreparati alla loro diffusione in ogni ambito, come se l’espansione delle loro abilità emergenti fosse molto più rapida del tempo che occorre a noi per affrontarli. La questione da affrontare a breve, al di là di oscuri scenari e previsioni catastrofiche, è come orientarsi nel mondo che verrà: realtà aumentata e virtuale, ambienti immersivi, chatbot con cui interagire in ogni ambito: dalla scuola al mondo del lavoro, dalla sanità allo shopping, dall’intrattenimento ai libri/giornali (chi li scriverà?). Come la nostra intelligenza e coscienza si modificherà vivendo a contatto con una tecnologia che ridisegnerà i confini della realtà, rendendo sempre più difficile la distinzione tra vero e falso e il conseguente pericolo per la democrazia (già in crisi da un po’). Abbiamo visto tutti le foto dell’arresto di Trump o quelli del funerale di Berlusconi (mentre era ricoverato in ospedale) che viaggiavano nell’Web tra Marzo e Aprile ‘23, veri falsi d’autore, frutto dell’Intelligenza Artificiale. Succede già che per motivi politici, militari, a volte per semplici scoop giornalistici, le foto siano manipolate, ma non avevamo ancora assistito alla costruzione di video di sana pianta sulla base di alcune frasi elaborate da un Intelligenza Artificiale.
Se in futuro si ricorrerà con estrema facilità a queste potenzialità “degeneri”, più che “generative”, come faremo a distinguere le notizie vere da quelle false (già arduo senza queste sofisticazioni tecnologiche), come evolverà la ormai conclamata sfiducia del pubblico nei confronti delle informazioni che trasmettono i media, internet, i social, ecc.? Come e verso quali valori saremo indirizzati dal potere tecnologico, economico e politico? Come accorgersi se un libro, del tutto o in parte, è scritto dal suo autore o da un IA: ci emozioneranno comunque le parole se sapessimo che sono state scritte da un chatbot? Che fine farà il diritto d’autore, pensando alla miriade di testi da cui le intelligenze artificiali attingono (sono già in atto le proteste di giornalisti, illustratori, case editrici…), senza considerare i posti di lavoro che scomparirebbero in ogni ambito.
Per non parlare della trasformazione che inevitabilmente subiranno i processi di insegnamento e apprendimento. La scuola, a qualsiasi livello di scolarità, non potrà ignorare la presenza di questa “realtà”. Dovrà affrontarla, conviverci, dotando le future generazioni degli strumenti critici necessari per utilizzarla in modo costruttivo, per imparare a studiare in modo attivo e soprattutto imparare a porre le domande giuste e ordinare le idee. Fondamentale è non affidare ai chatbot la possibilità di pensare al posto nostro, delegare a loro le scelte, affidare loro l’organizzazione di piani e progetti, onde evitare che il venir meno di queste “abitudini” da parte nostra ci renda sempre meno “esseri pensanti” e sempre più “esseri chattanti”. Questi sono i timori incombenti, non tanto se l’IA ci supererà come intelligenza, se diventerà cosciente, creativa o empatica “come noi” (il continuo riferimento al “noi” consolida l’affermazione di Protagora: l’uomo misura di tutte le cose).
Geoffrey Hinton, che ha lavorato a lungo sulle reti neurali contribuendo a realizzare le potenzialità dell’IA, in un’intervista al Times (2/05/23) ha dichiarato di aver lasciato Google per poter parlare liberamente dei rischi dell’IA, in particolare riguardo all’eliminazione di posti di lavoro (sono già scattati migliaia di licenziamenti nelle grandi aziende tech (Google, Facebook, Microsoft, Amazon…) e la creazione di un mondo in cui non saremo più in grado di sapere cosa è vero.
Per Roberto Battiston (intervistato da Repubblica il 4/04/23) l’algoritmo “è troppo invasivo e oscuro per essere lasciato alla sola volontà degli sviluppatori.” Si tratta di decidere cosa la tecnologia deve fare per il bene delle persone e della società nel suo complesso. Non è un obiettivo facilmente raggiungibile perché gli interessi in gioco non sono esattamente allineati con i valori etici, ma con quelli economici e con i traguardi di una sperimentazione sempre più sfrenata da parte dei giganti dell’Web. Secondo Nello Cristianini servono delle leggi chiare, a partire dalla possibilità di controllare quali “convinzioni” la macchina ha formato durante la fase di addestramento; dal momento che questo è difficile da ottenere, l’autore auspica almeno una collaborazione tra scienze umane, sociali e naturali. Stuart Russell (in Intelligenza Artificiale: un approccio moderno; 2005), essendo dell’avviso che gli scienziati abbiano sottovalutato per anni l’impatto che l’IA avrebbe avuto sull’uomo, individua due modi per regolamentare l’uso dell’IA: 1) un codice di condotta per i ricercatori e leggi per regolarne l’uso; 2) la formazione dei ricercatori per assicurarsi che non siano sensibili a pregiudizi e altri problemi simili.
Come si può notare, c’è unanime consenso sulla necessità di regolamentare l’uso dei nuovi generatori linguistici, ma le regole, per essere efficaci, dovrebbero essere fatte a livello internazionale. Intanto i paesi dell’UE stanno tentando di legiferare un uso equo ed etico dell’IA, anche se l’IA non può essere né buona, né cattiva; è l’utilizzo dei dati e delle potenzialità dell’IA da parte dell’uomo che può essere “buono” o “cattivo”. Ancora una volta è il potere dell’uomo che va controllato! Nonostante la complessità della materia da normare, l’UE sta preparando un insieme di norme per gestire le opportunità e i rischi rappresentati dall’IA, mettendo in guardia i singoli e la società sul potenziale impatto dell’IA, salvaguardando nel contempo le possibilità di crescita della ricerca.
Pensando alle opportunità che l’IA può offrire, e considerando che siamo sull’orlo di un’altra trasformazione epocale (il cambiamento climatico), perché non utilizzare l’Intelligenza Artificiale per sviluppare processi e sistemi per la produzione di energie rinnovabili? Magari, mettendo una “minaccia” al servizio dell’altra, potremo neutralizzare la pericolosità di entrambe!
Conclusione
Le macchine “intelligenti” vengono ormai utilizzate da anni nelle aziende per realizzare compiti che un tempo erano appannaggio degli uomini. Fino a poco tempo fa il loro uso ha consentito di alleviare la fatica e il lavoro ripetitivo, ma oggi? Oggi non riusciamo neanche a immaginare in che misura potrebbero decretare una “nuova era tecnologica” (transumanesimo o postumanesimo?) dominata dall’utilizzo sproporzionato dei robot nei posti di lavoro destinati agli uomini e dalla possibilità di ampliare il potenziale umano tramite l’inserimento nel corpo di parti robotiche (sistemi bionici). I robot dotati di un IA generativa saranno sempre più simili a noi? È una domanda che non ci porta da nessuna parte. Anche se saranno sempre più simili a noi, non potranno mai essere “come noi” per il semplice fatto che noi siamo “viventi” e le macchine, per quanto efficienti, parlanti, interattive e sensibili, non lo sono, almeno fino a quando non potranno anche riprodursi autonomamente! Cosa distingue infatti il vivente dal non-vivente?
Sulla questione, nonostante la definizione risalga agli anni ‘80, ci vengono in aiuto i due biologi cileni Maturana e Varela (1980; 1992) con il concetto di autopoiesi: una “macchina autopoietica” è un sistema che produce da sé i componenti che lo costituiscono, grazie ad una rete dinamica di relazioni interne ed esterne da cui emerge la sua organizzazione nel tempo e nello spazio.
Le macchine invece non generano da sé i loro componenti e nemmeno la loro organizzazione, sono generate e programmate dall’uomo, quindi non sono viventi. È una differenza fondamentale, che rimarrà tale, a meno che le macchine intelligenti non impareranno anche a crearsi da sé. Per ora sono congegni potentissimi che sanno fare cose per noi impossibili, ma si tratta di dati, statistica, calcolo delle probabilità. Si tratta di un altro tipo di cognizione, sono “altre intelligenze” ed è su questo che dobbiamo concentrarci. La cognizione non dovrà più essere concepita come dominio dell’umano, dovremo abituarci a dividere l’intelligenza con altre menti, altri modi di manifestarsi della realtà, come ben descrive Godfrey-Smith raccontando dei calamari. L’IA generativa come Chatgpt, pur non operando secondo la logica della vita, sarà sempre più efficiente e in grado di occupare spazi a noi inaccessibili. Possiamo fermare questa corsa? Se pensiamo che anche i progressi in ambito scientifico (neuroscienze, ingegneria genetica, biologia molecolare) sono stati resi possibili grazie ai modelli informatici, e che la sperimentazione sulle reti neurali artificiali consente di comprendere meglio il funzionamento del cervello umano, la risposta è scontata. Ma possiamo fare molto per evitare di subire la tirannia delle macchine con il conseguente disallineamento delle nostre vite.
Sarebbe necessario scegliere accuratamente i dati che si immettono e le regole che li collegano (ispirate ai nostri valori), in modo da neutralizzare la diffusione di pregiudizi, discriminazioni, fake e altri effetti dannosi. Ma come si imposta la neutralità o i valori umani in un programma informatico? Per farlo dovremo conoscere come funzionano i nostri circuiti neuro-cognitivi in termini valoriali. Questo non lo sappiamo ancora, ma possiamo istituire regole chiare per impedire che all’IA vengano affidati compiti che da sempre contraddistinguono l’essere umano, per esempio: l’insegnamento, l’educazione, la scrittura di tesi, libri, articoli, video, film e altre opere artistiche (o perlomeno dichiarare quali parti sono state elaborate dall’IA). È altresì necessario salvaguardare la privacy (già parecchio minacciata), ma soprattutto impedire di delegare le “scelte di vita” all’IA, per quanto avanzata e sofisticata diventi. Mi riferisco alla selezione del personale nelle aziende, nei concorsi, nelle università, alla delega dei giudizi nei tribunali, all’impatto sulle elezioni, all’applicazione di IA nelle armi (che diventerebbero sempre più autonome), solo per fare qualche esempio. Sarebbe a rischio la democrazia a livello mondiale (già parecchio indebolita).
Pertanto, onde evitare sconvolgimenti etici, sociali ed economici, occorre studiare, impegnarsi, riflettere sulle conseguenze, prima che i prototipi vengano messi in circolo. Anche Sam Altman (il padre della Chatgpt), in audizione al Senato degli Stati Uniti il 16/05/23, lancia un allarme: chiede alla politica di fissare rigidi paletti per regolamentare il lavoro delle aziende che operano nel campo del IA; ritiene che gli Stati Uniti dovrebbero “guidare la regolamentazione” dell’IA, prima che diventi incontrollabile, stabilendo standard di sicurezza a livello internazionale, come è avvenuto per gli armamenti nucleari. Mi ricorda il pensiero di G. Bateson rispetto alla direzione che possono prendere le innovazioni senza un congruo conteggio dei loro effetti; Bateson sostiene che avremo bisogno di una barriera simile a quella che impedisce ai geni di modificarsi ad ogni perturbazione dall’esterno, “…ma nelle culture, nei sistemi sociali e nelle grandi università non esiste una barriera equivalente. Le innovazioni vengono adottate in modo irreversibile e inserite nella dinamica del sistema senza che ne venga verificata la vitalità a lungo termine…” (Mente e Natura; 1984, p. 293).
Diventa quindi fondamentale vigilare sull’uso che si intende fare dell’IA generativa, definendo i compiti che siamo disposti ad assegnare alle macchine. La sfida è delineare un futuro in cui le persone rimangano indispensabili e “umani”, senza temere l’impiego di qualsiasi tecnologia. Sarebbe auspicabile che, grazie alle sfide che l’IA “forte” imporrà all’uomo, i ricercatori si focalizzassero su ciò che ci distingue anziché su quello che ci accomuna; dovrebbero chiedersi in cosa consiste il nostro “essere umani” e salvaguardare la nostra singolarità; saperlo potrebbe portarci ad esserlo in modo più compiuto, evitando gli aspetti di “disumanità” troppe volte manifestati, sia nei confronti dei nostri simili, sia dell’ambiente che ha permesso la nostra vita sulla terra. L’AGI, in mano a ricercatori saggi, potrebbe aiutare l’uomo a ottimizzare quelle componenti che hanno permesso, nonostante tutto, il progresso sostenibile, la bellezza duratura e la cooperazione tra i popoli.
Daniela Mario
Daniela Mario ha conseguito il PhD in Scienze della Cognizione e della Formazione presso l’Università Ca’ Foscari (VE). È psicologa dell’apprendimento e formatrice, già docente di Psicologia, Filosofia e Scienze dell’Educazione nella Scuola Superiore. Ricercatrice indipendente. Fra le ultime pubblicazioni: Il ruolo delle rappresentazioni sensomotorie e metaforiche nell’apprendimento (2022). Con Rollo D. (2023). Metaphorical thought’s form. Franco Angeli, in press.
Bibliografia
- Bateson G. (1984). Mente e Natura. Trad. it. di G. Longo (1984) Milano, Adelphi.
- Chalmers D. J. (1995). Facing up to the problem of consciousness. Journal of Consciousness Studies 2: 200-19.
- Cristianini N. (2023). La Scorciatoia: Come le macchine sono diventate intelligenti senza pensare in modo umano, Bologna,Il Mulino.
- Damasio A.R. (1994). L’errore di Cartesio. Milano, Adelphi.
- Eagleman E. (2021). L’intelligenza Dinamica. Trad. it di Francesca Pe’, Milano, Corbaccio-Garzanti. Tit. orig. Livewired, 2020.
- Edelman G., & Tononi G. (2002). Un universo di coscienza. Come la materia diventa immaginazione. Traduzione di Silvio Ferraresi, Torino, Einaudi.
- Edelman G. (2004). Più grande del cielo. Torino, Einaudi.
- Edelman, G.M. (2007). Seconda natura. Scienza del cervello e conoscenza umana. Milano, Raffaello Cortina.
- Gallese V., e Lakoff, G. (2005). The brain’s concepts: The role of the sensorimotor system in conceptual knowledge. Cognitive Neuropsychology, 21, 455-479.
- Gallese V. (2008). Mirror neurons and the social nature of language: The neural exploitation hypothesis. Social Neuroscience, 3, 317-333.
- Glenberg A., Gallese V.(2011). Action-based language: A theory of language acquisition comprehension and production. Cortex (2011), doi: 10.1016/j.cortex.2011.04.010
- Gardner H. (1983). Formae Mentis: saggio sulla pluralità dell’intelligenza, trad. it., Milano, Feltrineli, 2013.
- Godfrey-Smith P. (2016) Altre Menti. Trad. di Isabella C. Blum. Milano, Adelphi (2018).
- Hayles K. (2017). Untought, The Power of the Cognitive Nonconscious, Chicago University Press . Trad. di Silvia Dal Dosso e Gregorio Magini, L’impensato. Teoria della cognizione naturale. Effequ, 2022.
- Iriki A.,Tanaka M., Iwamura Y. (1996) Coding of modified body schema during tool use by macaque postcentral neurones, Neuroreport oct 27 (14) 2325-36
- Lakoff G. & Núñez R.E. (2000). Where Mathematics Comes From. How the Embodied Mind Brings Mathematics into Being. Trad. it. (2005) Da dove viene la matematica. Come la mente embodied dà origine alla matematica. Torino, Bollati Boringhieri.
- Maturana H.R., & Varela F.J. (1980). Autopoiesis and Cognition. The Realization of the Living. Tr.it. Autopoiesi e cognizione, la realizzazione del vivente.Venezia, Marsilio (1985).
- Maturana H.R., & Varela F.J. (1984). El árbol del conocimiento. Trad.it. L’albero della conoscenza Garzanti, Milano (1992).
- Maturana H.R., & Varela F.J. (1992). Macchine ed esseri viventi. L’autopoiesi e l’organizzazione biologica. Trad. it. Astrolabio Ubaldini, 1992.
- Nikolić D. (2015). Practopoiesis: or how life fosters a mind. J Theor Biol. 21;373:40-61. doi: 10.1016/j.jtbi.2015.03.003. Epub 2015 Mar 16. PMID: 25791287.
- Nikolić D. (2017). Why deep neural nets cannot ever match biological intelligence and what to do about it. Int. J. Autom. Comput. 14, 532–541 (2017). https://doi.org/10.1007/s11633-017-1093-8
- Pearl J. & MacKenzie D. (2019), The book of why. The new science of cause and effect. Basic Books, New York.
- Raskin V. (1985). Semantic mechanism of humor, Reidel, Dordrecht.
- Russell, S. J., & Norvig, P. (2005). Intelligenza artificiale. Un approccio moderno (Vol. 1). Pearson Italia Spa.
- Tononi G. (2004). An information integration theory of consciousness, in BMC Neuroscience, vol. 5, n. 1, pp. 42, DOI:10.1186/1471-2202-5-42.
- Valori G.E. (2023). Cyberspazio e intelligenza artificiale tra Occidente e Oriente. Catanzaro, Rubbettino, EAN 9788849875454
- Varela F.J., Rosh E. e Thompson E. (1991). The Embodied Mind. Cognitive Science and Human Experience, MIT Press. Trad. it. di I.Blum, La via di mezzo della conoscenza. Le scienze cognitive alla prova de ll’esperienza. Milano, Feltrinelli (1992).
© COPYRIGHT Illustrazione di Raffaella Cocchi per BRAINFACTOR Tutti i diritti riservati.
Leave a comment