La natura dell’intelligenza artificiale

I neuroni digitali stanno facendo concorrenza a quelli umani in modo sempre più incisivo. La rivoluzione informatica che stiamo vivendo ha infatti come sua fase fondamentale lo sviluppo dell’intelligenza artificiale (IA o AI), che prevedibilmente sarà destinata a incidere sulle nostre esistenze in modo progressivamente più significativo e magari accattivante: pensiamo agli androidi e ad altri robot “smart” che ci potranno assistere in futuro.

Per riuscire a gestire nel modo più consono alle esigenze della specie umana lo sviluppo di nuove tecnologie interattive basate sulle reti neurali, è importante interrogarsi quindi su quale sia la natura dell’IA.

L’intelligenza artificiale è già più presente e pervasiva di quanto si possa pensare: dal funzionamento dei motori di ricerca all’individuazione di nuovi antibiotici [1], dalle diagnosi automatizzate (basate su database) agli assistenti vocali, passando per i navigatori satellitari, fino al riconoscimento dei volti e di altre caratteristiche utili all’identificazione delle persone.

Recentemente sono stati messi a disposizione del grande pubblico due strumenti online basati sull’IA: ChatGPT e Bard. Qual è la natura del loro essere in termini operativi? Sinteticamente possiamo dire che si tratta di due modelli linguistici molto potenti, nati originariamente per esigenze di traduzione e fatti evolvere fino a poter conversare con gli esseri umani per iscritto sugli argomenti più disparati: dalla psicologia all’astrofisica, passando per la filosofia e la neurologia, fino agli argomenti più divertenti e triviali. La forza di questi strumenti avveniristici risiede soprattutto sull’enorme mole di testi su cui fondano la loro quasi incessante attività di comunicazione. La loro architettura neuro-digitale è particolarmente affascinante; vediamo più precisamente in quali termini.

L’algoritmo su cui ChatGPT e Bard fondano principalmente il proprio funzionamento si chiama Transformer ed è stato sviluppato da Google a partire da un articolo pubblicato nel 2017 (1). È questo il “motore intelligente” che consente loro di viaggiare a 360° attraverso un’enorme mole di dati raccolti con abilità e sapienza. Dato che il cuore algoritmico è in entrambi i casi il medesimo, potrete immaginare come le risposte alle stesse domande possano essere molto simili interrogando i due noti siti di IA [2], con la differenza che Bard – ancora in fase sperimentale e disponibile in Italia solo da luglio 2023 – è, allo stato attuale, tendenzialmente più ripetitivo rispetto a ChatGPT [3]: Bard utilizza di frequente gli stessi moduli linguistici anche rispondendo a domande formulate in modo diverso. È comunque basato sull’IA generativa e l’apprendimento automatico. Come d’altronde lo è ChatGPT – grazie a OpenAI – che, in fase di addestramento, è passata attraverso il controllo umano e si avvale di gruppi di professionisti, tra cui docenti universitari, che continuano a lavorarci alacremente per migliorarla.

Fermo restando che entrambe le “chatbox” sono straordinariamente più evolute rispetto ai modelli interattivi digitali a cui eravamo precedentemente abituati, i loro limiti diventano presto evidenti quando cerchiamo di farle cadere in errore ponendo loro domande assurde, paradossali o linguisticamente/logicamente difficili da comprendere [4]. Oppure se le interroghiamo su argomenti di stretta attualità [5]. Tuttavia alcuni di questi limiti potranno essere superati nel giro di pochi anni.

A questo punto potremmo chiederci: l’intelligenza artificiale è davvero degna dell’aggettivo “intelligente”? Oppure è una mera emulazione della mente umana non del tutto riuscita? Il filosofo contemporaneo Searle opta per quest’ultima posizione: per quanto avanzato sia un algoritmo, esso funzionerà sempre “scimmiottando” le straordinarie capacità della nostra mente e, comunque, non sarà affatto autocosciente. Un conto è emulare le capacità della mente umana – cosa che l’IA è in grado di fare abbastanza bene –, mentre un altro conto è la sua duplicazione: nessuno è mai ancora riuscito a clonare un cervello umano, tanto meno riproducendone integralmente il funzionamento sotto forma di rete di sinapsi digitali.

Searle si diverte a fare l’esempio della stanza cinese: una persona che applichi pedissequamente tutte le regole del mandarino potrà replicare a domande poste con ideogrammi, senza però comprendere un’acca di cinese: si tratta della differenza tra sintattica e semantica [6]. Il paradosso si applica egregiamente ai modelli attuali di IA messi a disposizione online anche in versione gratuita. Le macchine non comprendono, ma si limitano ad applicare algoritmi preimpostati. Se ben programmati e addestrati i computer possono svolgere compiti in modo efficiente e straordinariamente rapido. Anche intelligente? Non sempre, almeno stando ai parametri umani tradizionali. Qui non mi riferisco tanto alla mancanza di una coscienza, quanto ad errori marchiani che ci permettono di evidenziare che stiamo interloquendo con un sistema imperfetto basato su reti neurali artificiali. Ecco perché alcuni autori [7] preferiscono parlare dell’IA come di un altro tipo d’intelligenza più che di una emulazione di quella umana: altrimenti quella artificiale dovrebbe essere sempre considerata inferiore per definizione. D’altronde l’essere umano non è integralmente riproducibile come sostanza pensante, come già Cartesio aveva ben compreso nel XVII secolo. Aristotele ci aveva già definiti nel IV secolo a. C. come esseri razionali, ma comunque anche animali, caratterizzati tra l’altro da un’elevata propensione politico-sociale, il che marca una notevole distanza tra l’uomo e un dispositivo elettronico.

Tuttavia, se intendessimo l’IA come uno strumento importante, un utile “tool” tecnologico che ci può supportare nelle mansioni più ripetitive che richiedono troppo tempo, potremmo evitare di demonizzarla. Infatti da alcuni anni stanno fioccando volumi dai toni quasi apocalittici o, comunque, fortemente critici riguardo all’IA. È vero, essa sta trasformando il nostro modo di vivere e probabilmente lo farà sempre più in futuro, ad esempio nel campo della guida autonoma; è vero, rischia di cancellare posti di lavoro, magari creandone altri solo in minor misura. Pensiamo, ad esempio, al mondo del giornalismo: cosa avverrà quando le redazioni verranno decurtate significativamente perché l’IA potrà occuparsi di attualità in modo efficace ed efficiente, non solo sul piano quantitativo ma anche qualitativo? Per ora tale possibilità non ha ancora preso corpo, così che l’autorevole The Guardian britannico ha evidenziato che l’IA è giornalisticamente inattendibile, tanto da inventare articoli di sana pianta quando non possiede le informazioni necessarie per redigerli.

Però ogni epoca ha i suoi timori: ce ne furono con l’invenzione della stampa nel Quattrocento, con il telescopio nell’Europa del XVII secolo, con l’avvento della televisione nel XX secolo e, infine, con la diffusione dei computer e di internet verso la fine del secolo scorso. Chiariamoci: lo sviluppo dell’IA va gestito e indirizzato a fini nobili, etici e fruttuosi. Tuttavia non possiamo farci governare dai timori irrazionali dei tecnofobici o, comunque, dettati da interessi di parte. Come sottolinea Ong in “Oralità e scrittura”, “le tecnologie sono artificiali, ma […] l’artificialità è naturale per gli esseri umani”.[2,3] Dobbiamo quindi proprio temere che l’IA ci soppianti oppure che porti il mondo all’autodistruzione? Direi che possiamo affermare il contrario: ci può aiutare a trovare nuove soluzioni, a guadagnare tempo e a conoscere meglio anche i nostri limiti umani, oltre che quelli delle macchine stesse [8].

Per approfondire questo tema concentriamoci ora sul concetto d’intelligenza a partire dalla filosofia greca antica.

Risaliamo sino al presocratico Anassagora (V sec. a. C.), secondo cui il Nous (la Mente) era la forza ordinatrice e dominante dell’universo stesso. Egli sosteneva che questa intelligenza – di natura unica e trascendente – fosse presente in tutto ciò che esisteva e che guidasse l’ordine e l’organizzazione del mondo, composto materialmente da “semi” detti omeomerie. Secondo questo grande pensatore greco, ad esempio, il corpo umano era composto da semi di ossa, sangue, muscoli, ecc.; ma ognuno di questi conteneva anche in misura molto minore tutto il resto. Ciò spiegava il motivo per cui, mangiando diversi alimenti, il corpo si accresce, si rafforza e si mantiene [9]. In ogni caso, per Anassagora un’Intelligenza cosmica “superiore” armonizzava e regolava ogni cosa, compreso naturalmente il corpo umano.

Anche Eraclito considerava l’intelligenza – il Logos – come il principio fondamentale razionale dell’universo, in grado di armonizzare i contrari e di garantire l’ordine cosmico. L’intelligenza era vista come una eterna forza unitaria che permeava il reale, sempre mutevole nelle sue manifestazioni alla stregua delle acque di un fiume che resta sé medesimo pur mutando (“tutto scorre”, panta rei, sebbene ogni cosa sia riconducibile all’unità del Logos, che racchiude e armonizza i contrari).

Platone concepiva l’intelligenza come la caratteristica più elevata dell’anima umana. Secondo il celebre filosofo greco essa è composta da tre parti: razionale, irascibile (comprese le passioni nobili) e concupiscibile (gli appetiti più bassi). L’intelligenza risiedeva nella parte razionale dell’anima, che era in grado di comprendere le idee eterne e immutabili collocate oltre il cielo ossia nell’iperuranio. Non solo l’essere umano possedeva un’anima razionale, ma persino l’intero cosmo era dotato di anima. Una divinità buona e saggia avrebbe plasmato – afferma Platone – la materia già esistente a immagine e somiglianza del mondo ideale, eterno, perfetto e incorruttibile.

Aristotele, il più celebre allievo di Platone nonché maestro di Alessandro Magno, sviluppò ulteriormente il concetto di intelligenza. Essa consisteva essenzialmente nella capacità di comprendere le cause e i principi primi: solo così si può fare scienza nel senso più alto del termine. L’uomo deve sforzarsi, per essere felice, non solo di perseguire la dottrina del giusto mezzo, ma anche di vivere secondo la parte più nobile che ha in sé: l’anima razionale, che quanto più possibile deve avvicinarsi al divino, il quale è “pensiero di pensiero” ovvero puro logos che riflette eternamente su se stesso.

L’IA è invece una creazione tutta umana, che non ha pretese di trascendenza: rientra nell’ambito di una disciplina che si concentra sulla creazione di sistemi e algoritmi che possano imitare e automatizzare alcune funzioni tipiche della mente umana, che rappresenta il modello logico di riferimento.

Vediamo quindi come ChatGPT spieghi il proprio funzionamento se interrogata rispetto alla natura dei suoi stessi meccanismi:

ChatGPT

Come assistente virtuale, utilizzo una vasta gamma di algoritmi per elaborare le richieste degli utenti e fornire risposte precise. Questi algoritmi includono:

Algoritmi di elaborazione del linguaggio naturale (Natural Language Processing, NLP) per comprendere il significato delle domande degli utenti e generare risposte pertinenti.

Algoritmi di apprendimento automatico (Machine Learning, ML) per imparare dagli input degli utenti e migliorare le mie risposte nel tempo.

Algoritmi di ricerca e analisi dei dati per recuperare e analizzare informazioni pertinenti dalle fonti di dati a mia disposizione.

Algoritmi di ragionamento e inferenza per elaborare le informazioni e generare risposte più sofisticate e dettagliate.

In generale, il mio funzionamento si basa su una combinazione di queste tecnologie avanzate, che mi consentono di fornire risposte sempre più accurate e pertinenti alle domande degli utenti.

Se incalzato, questo sistema d’intelligenza artificiale spiega meglio quale sia il suo algoritmo fondamentale che opera in parallelo e non più solo in sequenza:

ChatGPT

L’algoritmo di base utilizzato nella mia progettazione è un tipo di rete neurale chiamato Transformer. In termini semplici, una rete neurale è un algoritmo di apprendimento automatico che imita il funzionamento del cervello umano. La rete neurale è composta da una serie di nodi interconnessi che elaborano i dati di input e producono un’uscita [output, ndA].

Il Transformer, in particolare, è una rete neurale a più strati [livelli, ndA] che utilizza l’attenzione per elaborare i dati di input. L’attenzione è il meccanismo che consente alla rete neurale di concentrarsi su parti specifiche dell’input durante l’elaborazione. […]

In pratica, quando mi viene posta una domanda, il mio algoritmo utilizza l’input della domanda per elaborare una risposta utilizzando la mia conoscenza delle lingue e la mia capacità di ragionamento logico. La mia risposta è poi prodotta in base alle informazioni disponibili nel mio database e alle mie capacità di elaborazione dell’input.

Come si può quindi schematizzare il processo essenziale di funzionamento di un sistema avanzato di IA? Si può sintetizzare così: Richiesta (query o input) → Preprocessing (pre-elaborazione) → Encoding (codifica) → Modello di rete neurale → Decoding (decodifica) → Risposta (output).

Vediamo ora quale sia il funzionamento dell’altra IA, quella messa a disposizione del pubblico italiano nell’estate del 2023:

Sono Bard, un modello linguistico di grandi dimensioni, noto anche come intelligenza artificiale conversazionale o chatbot, addestrato per essere informativo e completo. Sono addestrato su un’enorme quantità di dati di testo e sono in grado di comunicare e generare testo simile a quello umano in risposta a un’ampia gamma di richieste e domande. Ad esempio, posso fornire riassunti di argomenti concreti o creare storie.

La mia intelligenza artificiale funziona utilizzando un processo chiamato apprendimento automatico. L’apprendimento automatico è un tipo di intelligenza artificiale che consente ai computer di imparare senza essere esplicitamente programmati. In questo caso, sono stato addestrato su un enorme set di dati di testo e codice. Questo set di dati include libri, articoli, codice e altri tipi di testo. Sto imparando a comprendere il linguaggio e a generare testo che sia significativo che coerente.

Sono ancora in fase di sviluppo, ma ho imparato a svolgere molti tipi di attività, tra cui:

seguire le tue istruzioni e completare le tue richieste con attenzione.

Usare le mie conoscenze per rispondere alle tue domande in modo completo e informativo, anche se sono aperte, impegnative o strane.

Generare diversi formati di testo creativi, come poesie, codice, script, brani musicali, e-mail, lettere, ecc. Farò del mio meglio per soddisfare tutte le tue esigenze.

Sono entusiasta di vedere cosa mi riserva il futuro e di continuare a imparare e crescere.

Dunque quali scenari di apriranno? Non è prospettabile una sola opzione. Perciò concluderei con una suggestiva citazione di Kissinger et al. [4]:

L’intelligenza artificiale sarà invisibile, integrata nella vita quotidiana, e plasmerà le nostre esperienze in modi che troviamo intuitivamente appropriati. […] A ogni punto di svolta, l’umanità avrà tre opzioni: limitare l’intelligenza artificiale, collaborare con essa, o rimettersi completamente a essa [10].

Glauco Galante

Quest’articolo è stato in parte redatto avvalendosi dell’IA, in particolare di ChatGPT in versione gratuita (https://chat.openai.com). Le risposte di Bard sono state ottenute invece interrogando il sito ufficiale sperimentale https://bard.google.com.

Note

  1. Jaimie Seaton, “L’intelligenza artificiale può esaminare velocemente migliaia di nuovi potenziali antibiotici”, Le Scienze, 12 luglio 2023; Liu, G., Catacutan, D.B., Rathod, K. et al., “Deep learning-guided discovery of an antibiotic targeting Acinetobacter baumannii”, Nat Chem Biol, 25 May 2023
  2. https://chat.openai.com; https://bard.google.com.
  3. Confrontando le prestazioni di ChatGPT con quelle di Bard a proposito del calendario gregoriano, la prima vince nettamente sulla seconda. Infatti Bard scrive sorprendentemente: “Il numero di secondi in dieci anni dipende dal numero di anni bisestili in quel periodo. Ci sono 4 anni bisestili ogni 400 anni. Quindi, se il periodo di dieci anni contiene un anno bisestile, ci saranno 31.557.600 secondi. Se il periodo di dieci anni non contiene alcun anno bisestile…”
  4. Ad esempio abbiamo chiesto a ChatGPT quanti anni avesse una persona contemporaneamente più giovane e più vecchia rispetto a una seconda persona di cui non fosse nota l’età. Si è rivelata inoltre in prima battuta imprecisa nel calcolo del numero dei secondi contenuti in dieci anni, poiché non ha tenuto conto degli anni bisestili effettivamente presenti nel periodo considerato. Non è riuscita inoltre a rispondere correttamente al seguente quesito: “se un mattone pesa un chilo più mezzo mattone, quanto pesano due mattoni?” (la risposta corretta è quattro kg). Nella versione 3.5 del 3 agosto ’23 ha replicato erroneamente: “Se un mattone pesa un chilo più mezzo mattone, allora il peso di un singolo mattone è di un chilo e mezzo (1,5 chili). Quindi, due mattoni peseranno complessivamente 3 chili (1,5 chili + 1,5 chili)”. Bard ha invece risposto correttamente a quest’ultimo quesito: “Se un mattone pesa un chilo più mezzo mattone, allora mezzo mattone pesa un chilo. Quindi un mattone pesa due chili. Quindi due mattoni pesano quattro chili”.
  5. Si rimarrà presto delusi se si chiederanno ad esempio gli ultimi risultati sportivi: è molto più attendibile, al momento in cui scriviamo, qualunque motore di ricerca tra quelli noti, persino nel caso di Bard, mentre ChatGPT scrive esplicitamente che “sono aggiornata fino a settembre 2021. Se hai bisogno di informazioni più recenti, potrei non essere al corrente. Posso comunque aiutarti con quello che so fino a quella data!” (versione 3.5 rilasciata il 3 agosto 2023).
  6. ChatGPT spiega così l’esperimento mentale proposto dal filosofo americano J. Searle nel 1980: “L’esperimento mira a mettere in discussione la possibilità che una macchina possa comprendere veramente il significato del linguaggio, nonostante possa produrre risposte coerenti in base a regole di manipolazione simbolica. Immaginiamo una stanza in cui una persona, Searle stesso, si trova all’interno e ha a disposizione un set di istruzioni in inglese che gli permettono di rispondere a domande in cinese. Searle non conosce il cinese e non comprende il significato delle parole o delle frasi che gli vengono date. Tuttavia, grazie alle istruzioni fornite, è in grado di manipolare i simboli e restituire risposte coerenti in cinese. Ora, un osservatore esterno, che non può vedere all’interno della stanza, potrebbe pensare che Searle abbia una conoscenza fluente del cinese. Ma in realtà, Searle sta semplicemente seguendo un insieme di regole meccaniche senza comprendere il significato del linguaggio che sta utilizzando. Anche se il sistema di risposta sembra intelligente dall’esterno, manca una vera comprensione da parte di Searle. L’obiettivo della stanza cinese è dimostrare che la capacità di rispondere a domande in modo coerente non implica necessariamente la comprensione del linguaggio o la coscienza. Secondo Searle, l’intelligenza artificiale, come rappresentata dalla macchina nella stanza cinese, può solo manipolare simboli in base a regole predefinite, ma non possiede una comprensione effettiva”.
  7. Si veda, ad esempio, Laura Palazzani, “Tecnologie dell’informazione e intelligenza artificiale. Sfide etiche al diritto”, Edizioni Studium, 2020.
  8. Anche se, ad esempio, Google non sembra amare molto i limiti: mirerebbe alla cosiddetta conoscenza totale, mettendo assieme ogni prodotto scritto e audiovisivo creato dall’umanità.
  9. Scrive Simplicio nella sua Fisica citando Anassagora: “Noi usiamo un cibo semplice e omogeneo, pane e acqua, e di questo si nutrono i capelli, le vene, le arterie, la carne, i nervi, le ossa e le altre parti. Di fronte a tale fatto si deve convenire che nel cibo da noi preso ci sono tutte le cose e che da queste si accrescono tutte le cose. In quel cibo, quindi, ci sono particelle produttrici di sangue, di nervi, di ossa e di tutto l’altro: tali particelle si possono cogliere con la ragione. Non si deve riportare tutto all’esperienza sensoriale, che cioè il pane e l’acqua producono tutto questo, ma nel pane e nell’acqua ci sono particelle che si colgono con la ragione”.
  10. H. Kissinger, E. Schmidt, D. Huttenlocker, “Noi e le macchine, la nuova epoca della ragione”, Corriere della Sera, https://www.corriere.it/esteri/23_luglio_12/saggio-kissinger-intelligenza-artificiale-28feb9fe-2083-11ee-a8dc-d9488408334d.shtml

Bibliografia

  1. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. 2017, “Attention is all you need. In Advances in Neural Information Processing Systems”, pp. 6000–6010
  2. Walter Ong, “Oralità e scrittura”, Il Mulino, 1982
  3. Luciano Floridi, Federico Cabitza, “Intelligenza artificiale”, Bompiani, 2021, ebook, 16/211
  4. Daniel Huttenlocher, Eric Schmidt e Henry Kissinger, “L’era dell’intelligenza artificiale”, Mondadori, 2023
  5. Searle, John R., “Intelligenza artificiale e pensiero umano”, Castelvecchi, 2013. V. anche Searle, J. R. (1980). “Minds, brains, and programs. Behavioral and Brain Sciences”, 3(3), 417–424. https://doi.org/10.1017/S0140525X00005756

© COPYRIGHT Illustrazione di Raffaella Cocchi per BRAINFACTOR Tutti i diritti riservati.

1 Trackbacks & Pingbacks

  1. Dove sta andando il mondo? | BRAINFACTOR

Leave a comment

Your email address will not be published.


*


Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.