Pensare/Internet. Il coraggio della filosofia

Ognuno di noi sta dove stanno tutti, nell’unico luogo che c’è, dentro la corrente della mutazione, dove ciò che ci è noto lo chiamiamo civiltà, e quel che ancora non ha nome, barbarie. A differenza di altri penso che sia un luogo magnifico. (Alessandro Baricco)

Già agli albori del pensiero occidentale, intorno alla metà del VI secolo a.C., l’ “ombroso” Eraclito di Efeso ci rivelava che l’unico principio al quale l’essere incessantemente obbedisce  è inequivocabilmente quello del mutamento. «Mutando sta fermo» (frammento 84 a): così Eraclito, in uno  tra i suoi frammenti più celebri.  Per il filosofo, in breve, nella continua tensione degli opposti si gioca l’armonia invisibile immanente al tutto. Il Logos che governa le cose è in realtà principio razionale comune a tutti gli uomini. Quelli che Eraclito chiama “i dormienti”, però, non riconoscono la voce della ragione, e, pertanto, rinunciano al logos cosmico, accedendo al quale soltanto, invece, è possibile comprendere la realtà nell’insieme, nella sua unità.

Anche questa, dunque, è una vecchia storia: l’intelletto intorpidito di molti uomini, tutt’altro che esclusi i sapienti, consegna la realtà a uno sguardo miope, che ne compromette una visione panoramica, idonea a comprendere la natura profonda delle cose, quale invece potrebbe rivelare una loro conoscenza filosofica, non limitata e particolare.

E, ancora una volta, la filosofia viene oggi chiamata a dare il proprio contributo, ad afferrare quel principio multiforme che di volta in volta governa la realtà, a parlare agli uomini dall’interno di quel logos che è l’unico mezzo per conoscere la verità, la quale non è accessibile a chi conosce molte cose, ma a chi invece sa fare buon uso dell’intelletto. Come diceva polemicamente Eraclito: «Sapere molte cose non insegna ad avere intelligenza» (frammento 40).

Lo sguardo filosofico deve essere pertanto indirizzato alla individuazione del senso immanente alla realtà nel suo insieme, nell’ambito di una ricerca interpretata come missione perpetua di vita. Recuperando questa sua vocazione originaria, può soccorrerci oggi mentre ci sorprende in uno di quei particolari momenti della storia in cui l’uomo, di fronte a una svolta epocale, annega nella sua insufficienza cognitiva, come dentro alle sabbie mobili in cui si è dissolta qualunque residua eco di senso.

Ripensare la condizione umana

In realtà, proprio all’alba del terzo millennio, l’uomo manifesta una eccezionale cecità intellettuale ereditata dalla cultura del XX secolo, che, con i suoi mirabolanti progressi tecno-scientifici, ha però veicolato – attraverso il metodo riduzionista[1], che insegna a decontestualizzare,  disgiungere e disarticolare i saperi, fino alla deriva dell’iper-specialismo[2]– una straordinaria insensibilità verso i problemi globali e complessi.

Secondo le parole di uno dei più stimolanti epistemologi dell’ultimo scorcio del Novecento, Edgar Morin, «il XX secolo ha vissuto sotto il regno di una razionalità che ha preteso di essere la sola razionalità, ma che ha atrofizzato la comprensione, la riflessione e la visione a lungo termine. La sua insufficienza nell’affrontare i problemi più gravi ha costituito uno dei problemi più seri per l’umanità»[3].

L’inadeguatezza degli strumenti cognitivi tradizionali emerge in tutta la sua portata di fronte all’esplosione dei fenomeni qualitativamente nuovi che hanno ridisegnato la geografia del mondo umano, con l’affacciarsi della prospettiva planetaria.

La tecnologia informatica ha infatti dischiuso un nuovo orizzonte gnoseologico per affrontare il quale ci troviamo del tutto disarmati, e l’attuale inadeguatezza, percorrendo la quale  rischiamo di precipitare  nella vertigine del non-senso, non può che aumentare esponenzialmente, sotto l’incalzare dall’accelerazione del mutamento introdotto da questa recente era tecnologica.

Costringere il nuovo mondo all’interno di un perimetro concettuale superato corrisponde a esorcizzare la paura dell’ignoto giudicandolo con parametri inadeguati, per poterlo condannare all’insegna di valori tratti da un’assiomatica di riferimento creata per rispondere alle domande di altri contesti.

Piuttosto che indulgere a questa ansia di coerenza, assecondando la quale  l’uomo non può che smarrirsi nell’allucinazione che egli stesso produce, disorientato da punti cardinali che non trovano ormai riscontro in nessuna mappa concettuale, è indispensabile imparare a ripensare la condizione umana. Per comprendere una realtà evolutiva occorre riconoscere l’avvento di un nuovo paradigma: «La posta in gioco è quella di delineare  mappe cognitive in grado di evolvere, che incarnino un’idea di sapere aperta alla discontinuità, alla sorpresa, all’incertezza, alle sfide della scoperta e dell’innovazione, alla consapevolezza dei mutamenti paradigmatici, alla capacità di riformulare le dimensioni della propria interrogazione»[4]. Restare aggrappati a mappe cognitive statiche, rigide e cristallizzate, come quelle che la scuola e l’università continuano a proporre, equivale a sottoscrivere la scelta della propria estinzione.

Se il nuovo mondo invoca comprensione, la filosofia, dunque, come “conoscenza della conoscenza”[5], deve impegnarsi a dargliela. Anzi, è il momento giusto per la sua entrata in scena… Infatti, se ciascun individuo è necessariamente figlio del suo tempo, è altrettanto vero, a voler citare  le autorevoli parole di Hegel, che «la filosofia è il proprio tempo appreso con il pensiero». Secondo l’illustre filosofo, «per dire ancora una parola a proposito del dare insegnamenti su come dev’essere il mondo, ebbene, per tali insegnamenti in ogni caso la filosofia giunge sempre troppo tardi. In quanto pensiero del mondo essa appare soltanto dopo che la realtà ha compiuto il suo processo di formazione e s’è bell’e assestata. Questo, che il concetto insegna, mostra necessario parimenti la storia, che soltanto nella maturità della realtà l’ideale appare di fronte al reale e che quell’ideale si costruisce il medesimo mondo, appreso nella sostanza di esso, dandogli la figura d’un regno intellettuale. Quando la filosofia dipinge il suo grigio su grigio, allora una figura della vita è invecchiata, e con grigio su grigio essa non si lascia ringiovanire, ma soltanto conoscere; la nottola di Minerva inizia il suo volo soltanto sul far del crepuscolo»[6].

E, a voler essere onesti, non ci è utile, in questo momento, decidere in che modo sarebbe dovuto cambiare il mondo, quanto, piuttosto, comprendere la nostra nuova condizione: perché di questo si tratta, imparare a ri-situarci all’interno dei  nuovi confini esistenziali. Per farlo, occorre accostarci alla realtà con l’intento di apprenderne il nuovo statuto, e non per tentare di ricomporre, indignati, l’ordine violato, censurando ogni devianza. La filosofia può allora guadagnarci quella “figura di un nuovo regno intellettuale”, dal cui agio muovere alla conquista di più idonee categorie cognitive.

La conoscenza della conoscenza

La conoscenza non può invero essere interpretata come un attrezzo ready made[7], uno schema, una garanzia che «esista una forma apriori per eliminare l’incertezza», quanto piuttosto come «uno strumento per generare una conoscenza il più pertinente possibile in relazione al contesto in cui si situa il soggetto»[8].

Il pensiero volto a una conoscenza complessa, quale è la realtà alla quale si indirizza, pertanto, non può identificarsi con un metodo[9] universale che, implicando l’idea della permanenza e della stabilità, ovvero una costante, si risolva  in un programma che trascenda il contesto[10]:  bisogna acquisire un diverso livello di consapevolezza, proprio  in quanto  la conoscenza non può essere considerata come una formula definitivamente acquisita, ma deve continuamente essere sottoposta ala vaglio della “conoscenza della conoscenza”. In realtà, come ha compreso ancora Edgar Morin, tra i maggiori esponenti e divulgatori del pensiero della Complessità, «la ragione è evolutiva», ma essa «porta in sé il suo peggior nemico», ovvero «la razionalizzazione, che rischia di soffocarla», e che consiste nel «delirio di coerenza che si sottrae al controllo della realtà empirica»[11].

Per l’uomo, che è l’essere tradizionalmente deputato al riconoscimento di un senso che al contempo proietta, che ha altresì inventato il pensiero critico[12] proprio per appagare la vocazione perpetua a collocarsi in un universo di senso significante, la conoscenza è piuttosto quell’atto di cui si può parlare «ogni volta che osserviamo un comportamento efficace (o adeguato) in un contesto preciso, cioè in un dominio che definiamo con una domanda (esplicita o implicita) che formuliamo come osservatori»[13].

Se non vogliamo snaturarci, rinunciando a quella conoscenza significante che da sempre connota l’essenza umana, allora, occorre abbandonare ogni inutile resistenza intellettuale, per lasciare che la nostra conoscenza-azione si riorganizzi automaticamente in moduli adeguatamente efficaci in quel nuovo dominio che andiamo ridisegnando contestualmente alle domande che incessantemente ne emergono.

Conoscenza e azione, infatti, si implicano reciprocamente in un processo circolare, nel senso eccellentemente illustrato da  Humberto Maturana[14] e Francisco Varela: essi qualificano  gli esseri viventi come “macchine autopoietiche”, in quanto esito di una costante interazione tra vivente e ambiente che ne determina una reciproca riconfigurazione, in una prospettiva evolutiva caratterizzata da  un dinamismo estremo, poiché  “vivere è conoscere” e “conoscere è agire”[15]. I neurofisiologi cileni Maturana e Varela comprendono appunto che niente esiste indipendentemente dal processo della cognizione, in quanto le interazioni di ogni sistema vivente con il suo ambiente sono interazioni cognitive, al punto che vivere equivale a conoscere.

L’uomo, quale realtà dinamica, deve essere in grado di rinnovare le proprie categorie, evolvendo insieme con le istanze culturali che egli stesso determina nel suo processo vitale, che, come si è detto,  è contemporaneamente un fare e un conoscere.  Diversamente, egli rischia di restare prigioniero delle sue stesse articolazioni esistenziali, man mano che esse scompaiono dal panorama reale. Diventa allora importante rispondere alla seguente a domanda: «Come posso accettarmi e rispettarmi se sono intrappolato nel mio fare (sapere), perché non ho imparato un fare (pensare) che mi permette di imparare qualsiasi altro fare, cambiando il mio mondo se cambia il mio vivere quotidiano?»[16]. In tale prospettiva, ogni sforzo cognitivo si configura allora come un atto di auto-formazione e contemporaneamente di ristrutturazione del mondo circostante, proprio in quanto tra organismo e ambiente si prospetta una relazione di accoppiamento strutturale[17]. Per questo motivo, «l’esperienza è una relazione attiva con i dati, con quanto ci è dato, non è solo un sentire»[18].

Una volta teorizzata l’inestricabile connessione fra conoscenza e azione sulla base dell’idea che la conoscenza è un fenomeno biologico, radicato nell’essere vivente preso nella sua totalità, – per cui vivere è agire efficacemente nel proprio dominio di esistenza, che è quello offerto alla propria esperienza gnoseologica e da essa stessa proiettato -,  il processo cognitivo appare infatti connesso con la struttura di colui che conosce, in quel rapporto di ineliminabile circolarità  tra conoscere e fare, e con l’ambiente: dall’interazione reciproca di questi fattori di volta in volta emerge la proiezione di un mondo. Scrive il filosofo e psicanalista Miguel Benasayag: «È chiaro che i cervelli e i corpi producono un mondo perché, in realtà, a partire dalle caratteristiche di ogni organismo e di ogni specie, si sviluppano i fenomeni di coevoluzione e di cofabbricazione dell’ambiente e della specie, in una serie di costruzioni mutue e dinamiche»[19].

Non si può più rimandare.

Dobbiamo emanciparci da un ragione ab-soluta dal contesto per attingere l’esperienza.

È necessario fare appello alle nostre risorse razionali per riconciliarsi con il logos che governa ogni cosa, e, secondo l’insegnamento di Eraclito, passare dal sonno alla veglia: in tal modo l’uomo può uscire dal torpore in cui precipita quando prevale in lui la cosiddetta “tentazione della certezza”, ovvero l’ambizione a situarsi in un universo rassicurante di verità precostituite e immutabili, che esorcizzi la condizione di precarietà ontologica immanente all’essere umano. Come spiegano bene Maturana e Varela: «Noi tendiamo a vivere in un mondo di certezza, di solidità percettiva priva di dubbi ove le nostre convinzioni ci portano a credere che le cose sono solo come noi le vediamo, e che ciò in cui noi crediamo non può avere alcuna alternativa. È la situazione in cui ci troviamo quotidianamente, la nostra condizione culturale, il nostro modo di essere uomini»[20]. Ma in alcuni momenti della storia diventa urgente risvegliarsi dal sonno dogmatico e recuperare la razionalità come principio universale di comprensione, capace di conciliare la logica con l’esperienza, per emanciparsi dall’immobilismo di una coerenza astratta che rende la ragione inerte e sterile, inidonea a penetrare l’essenza delle cose in divenire.

Per accedere dunque all’individualità storica dei singoli enti processuali, è indispensabile affrontare l’impegno di conciliare la permanenza col divenire: si tratta di un compito che Alfred North Whitehead, scienziato e filosofo di grande rilievo, attribuisce al pensiero filosofico, al quale ci stiamo adesso appellando per recuperare un superiore grado di consapevolezza. Secondo  Whitehead, la filosofia, se vuole penetrare l’essenza della realtà, che è adeguatamente  espressa solo dal continuo fluire di un processo, deve emanciparsi perlomeno da due gravi fallacie: l’assolutizzazione delle generalizzazioni astratte e quella delle certezze assolute prodotte dai procedimenti logici. Egli scrive: «L’errore consiste nel trascurare il grado di astrazione che è implicito quando si consideri una entità reale unicamente in quanto essa esemplifica certe categorie del pensiero. Ci sono aspetti dei fatti che sono semplicemente ignorati fintantoché noi limitiamo il pensiero a queste categorie. Bisogna, così, misurare il successo di una filosofia dal suo aver evitato, relativamente, questo errore, di limitare il pensiero entro le proprie categorie. L’altra forma di esagerazione consiste in una falsa stima del procedimento logico riguardo alla certezza e alle premesse. La filosofia è stata ossessionata dall’infelice opinione che il suo metodo consista nell’indicare dogmaticamente delle premesse che siano rispettivamente chiare, distinte e certe; e nell’erigere su queste premesse un sistema deduttivo di pensiero»[21]. Il pensiero, evidentemente,  preclude a se stesso l’accesso a verità diverse, finché pretende di costringerle all’interno di categorie precostituite, affidandosi a una logica che gravita ossessivamente sempre intorno a identiche premesse.

Un nuovo modo di abitare la Terra: l’era digitale

Se allora proviamo a riattivare quella pratica riflessiva che ci connota in quanto uomini, all’alba del XXI secolo ci risvegliamo affacciati su una realtà radicalmente trasformata: l’era digitale.

Occorre a questo punto profondere tutto il nostro impegno per affrontare quella realtà che andiamo insieme costruendo e conoscendo: dopo la galassia  Gutenberg, è ormai esplosa la galassia digitale[22]. Si tratta di una realtà ineluttabile, dal momento in cui internet è diventato la trama delle nostre esistenze.

La società informazionale è la nuova sfida da sostenere: essa invoca un supplemento di consapevolezza da parte di quei tanti che, aggrappandosi a categorie che si vanno dissolvendo in quella mappa in movimento che è la mente umana, si ostinano a non riconoscere ciò che stanno vivendo con la conoscenza e con l’azione: siamo immersi in un nuovo paradigma, in senso se possibile più radicale di quello in cui lo intende Thomas Kuhn[23], come pesci dentro l’acqua.

In verità, come si è detto, il paradigma riduzionista, che domina la scena intellettuale da quando la scienza moderna ha compiuto la sua ascesa, ha progressivamente atrofizzato ogni attitudine umana alla contestualizzazione, pertanto, l’epoca della mondializzazione[24], che ormai imperversa dalla fine del XX secolo, ci coglie  del tutto impreparati, e a tratti ostili, nei confronti dei nuovi comportamenti cognitivi: «Nell’epoca delle telecomunicazioni, dell’informazione, di Internet, siamo sommersi dalla complessità del mondo e le innumerevoli informazioni sul mondo soffocano le nostre possibilità di intelligibilità»[25].

Dall’inconsueta accelerazione del mutamento e della globalizzazione emergono dunque fenomeni diversi, che rischiano di diventare sempre più impraticabili agli strumenti cognitivi tradizionalmente proposti dal sistema educativo.

Le nuove tecnologie inaugurano oggi l’accesso a un diverso modo di abitare la Terra. I tradizionali confini spazio-temporali all’interno della cui geometria l’individuo è abituato a orientarsi perdono tutto il loro consueto significato. Adesso gli abitanti della Terra frequentano il ciberspazio: un ambiente di natura virtuale e interattiva, qualificato dalla comunicazione, non dalla territorialità. Si tratta di un ambiente disegnato dall’utilizzo del computer, con il quale si accendono contatti istantanei, si cancella ogni confine spazio-temporale per disorientarsi nella simultanea coesistenza di ogni cosa, emergente dalla dissolvenza del limite tra esterno e interno. Una nuova popolazione si accinge a invadere il Pianeta: all’uomo non  resta che rinnovare adeguatamente l’architettura della sua conoscenza.  Siamo dentro una rivoluzione cognitiva, e l’uomo, in quanto essere capace di una coscienza autoriflessiva, è chiamato ora a assumere consapevolezza di quanto sta facendo e di come va  modificandosi.

Cosa sta succedendo ancora?

«Tra il 1985 – anno della diffusione di massa dei PC a interfaccia grafica e dei sistemi operativi a finestre – e il 1996 – l’inizio della rivoluzione di Internet -, si è affermata rapidamente una nuova “versione 2.0” dell’ Homo sapiens: si tratta dei nativi digitali»[26]. Sono tutti coloro che sono nati dopo l’intervento di Internet. In verità, alla tecnologia digitale sono bastati appena trent’anni per scavare un abisso tra le generazioni, e in effetti i nativi digitali[27], sin dalla nascita, cominciano a sviluppare attitudini  a tal punto diverse che non  riescono più neanche a immaginare come si potesse vivere in precedenza. Pertanto, essi presentano tratti che non possono essere rintracciati nella generazione precedente: quelli che nel celebre articolo di Mark Prensky vengono definiti “immigrati digitali”, infatti, anche se imparano, a volte molto bene, ad adattarsi al nuovo ambiente, «in qualche misura mantengono sempre il loro “accento”, cioè un piede nel passato»[28].

Per scandire meglio le tappe della fenomenologia di questa “razza in via di apparizione”[29], è bene precisare che, in particolare, la cosiddetta Generazione 2.0 segna un elemento di  ulteriore e definitiva discontinuità, nella rivoluzione digitale già in corso, connesso all’emergere del Web 2.0:  il termine Web 2.0 viene introdotto nel 2004 da Tim O’Reilly, per descrivere una nuova generazione di servizi internet che, rispetto al cosiddetto Web 1.0,  enfatizzano la collaborazione e la condivisione tra utenti online tramite tutte quelle applicazioni come blog, forum, chat, sistemi quali Wikipedia, Youtube, Facebook. Il Web 1.0, infatti, diffuso fino agli anni Novanta, è composto prevalentemente da siti web statici, navigabili e consultabili  in modo tradizionale, senza alcuna possibilità di interazione con l’utente eccetto la normale navigazione tra le pagine, l’uso delle email e l’uso dei motori di ricerca.  Si tratta, evidentemente, non tanto e non prevalentemente di una miglioria tecnologica, quanto di un vero e proprio cambiamento di approccio alla rete, una nuova filosofia, appunto: l’utente assurge a protagonista indiscusso del web, non è più solo consumatore passivo di informazioni diffuse su Internet, ma diventa anche produttore, interagisce con il web: «Finisce l’era dei siti da consultare, inizia con il Web 2.0 l’era degli spazi condivisi da generare e alimentare con l’apporto di tutti»[30]. L’integrazione fra il ruolo di consumatore e quello di produttore d’informazioni, ome vedremo, incide profondamente anche sull’attitudine cognitiva dell’individuo, che si re-immette nel contesto da cui era evaso, per guadagnare  ancora un ruolo attivo.

Si parla dunque di Web 2.0, piuttosto che di Web 1.1, appunto per segnalare l’avvento di un vero e proprio salto quantico: i nativi digitali manifestano infatti quella che è stata definita una “discontinuità radicale”  rispetto alle generazioni precedenti. Essi sono oggi tutti “madrelingua”: parlano il linguaggio digitale di internet e dei computer[31].

Dal momento in cui la rete è diventata realmente globale, essa ha prodotto una generazione unica, diversa da quella precedente, che affronta la fatica della transizione, quanto da quella successiva, che abiterà un mondo già del tutto nuovo, condiviso con i genitori.

Si tratta di una generazione che rivela un’essenza digitale, dalla quale scaturisce una nuova logica. Tutto sta a comprenderla.

Il senso dei barbari

Se la peculiarità dell’uomo consiste nel proiettare significato, in quanto la sua essenza si esprime nella capacità di organizzare il suo sentire intorno a un universo di senso significante, allora, inevitabilmente, per comprendere la generazione emergente occorre parlare il suo stesso linguaggio, ovvero capire come essa produce e attinge il senso.

Come rammenta ancora Prensky[32], il nuovo habitat genera inevitabilmente cervelli diversi, in quanto  differenti tipi di esperienze comportano strutture cerebrali altrettanto diverse. Per questo motivo, i nativi digitali vanno modificando, oltre che i loro comportamenti sociali, anche i propri stili cognitivi. Internet è infatti un potente attivatore di cambiamenti, e la dieta mediale alimenta il mondo virtuale quale manifestazione della realtà stessa, non contrapposta all’ambiente reale, e trasforma il modo di accedere ai contenuti, di comunicare e di interagire: di vivere, in breve, e, quindi, di conoscere, nel senso in cui si è in precedenza osservato.

Pensare di ridurre il fenomeno al consueto scontro generazionale rappresenterebbe, questa volta, una tragica svista. Nel saggio I barbari, commenta a tal proposito Alessandro Baricco: «Potrebbe essere, me ne rendo conto, il normale duello fra generazioni, i vecchi che resistono all’invasione dei più giovani, il potere costituito che difende le sue posizioni accusando le forze emergenti di barbarie, e tutte quelle cose che sono sempre successe e abbiamo visto mille volte. Ma questa volta sembra diverso. È così profondo, il duello, da sembrare diverso. Di solito si lotta per controllare i nodi strategici della mappa. Ma qui, più radicalmente, sembra che gli aggressori facciano qualcosa di molto più profondo: stanno cambiando la mappa. Forse l’hanno perfino già cambiata. Dovette succedere così negli anni benedetti in cui, per esempio, nacque l’illuminismo, o nei giorni in cui il mondo tutto si scoprì, d’improvviso, romantico. Non erano spostamenti di truppe, e nemmeno figli che uccidevano padri. Erano dei mutanti, che sostituivano un paesaggio a un altro e lì fondavano il loro habitat»[33].

I barbari, dunque, sono una specie nuova, e, invero, il solco insormontabile con le generazioni precedenti si scava proprio nel modo di configurarsi dell’attitudine più peculiarmente umana: il modo di attingere il senso.

Perché i nuovi barbari, esattamente come ogni uomo, pensano il senso, ma lo fanno diversamente, disintegrando quel  totem della fatica  eretto quale vessillo della società borghese: essi infatti hanno inventato  l’uomo orizzontale, che viaggia in corsa sulla superficie del mondo, a caccia del senso disperso in superficie. Essi temono «la profondità come un crepaccio che non porterebbe a nulla se non all’annientamento del moto, e quindi della vita»[34], mentre, viceversa, oggi per loro incontrare il senso significa fare continuamente esperienza, per coglierlo «nel bagliore di una sequenza disegnata in velocità sulla superficie dell’esistente»[35]. Esperienza significa cogliere l’essenza delle cose: ma, se prima fare esperienza comportava dimorare a lungo in una cosa fino ad appropriarsene, oggi fare esperienza significa «abitare più zone possibili con un’attenzione abbastanza bassa»[36].  Per le nuove generazioni «il movimento è il valore supremo»[37]. Esse praticano l’esperienza in modo innovativo, così come introdotto dalla nuova tecnologia, facendo surf sulla pelle del mondo[38]: «Il mutante ha imparato un tempo, minimo e massimo, in cui dimorare nelle cose. E questo lo tiene inevitabilmente lontano dalla profondità, che per lui è ormai un’ingiustificata perdita di tempo, un’inutile impasse che spezza la fluidità del movimento. Lo fa allegramente perché non è lì, nella profondità, che trova il senso: è nel disegno. E il disegno è veloce, o non è nulla»[39]. E, in effetti, i nativi digitali non hanno più bisogno di immagazzinare nozioni che risultano sempre disponibili negli archivi tecnologici in cui si estroflette la loro conoscenza, pertanto privilegiano il compito di instaurare e individuare relazioni tra gli eventi. Il senso è disperso nella rete: occorre individuare i nodi e riallacciarli.

La nuova generazione non pratica una logica lineare nella quale si prefigge la ricerca di dati da confermare, ma è intenta a tessere la rete della conoscenza, a individuare relazioni[40].

In un certo modo, i barbari riconoscono nel concetto ottocentesco di fatica, quale passaggio impegnativo attraverso la profondità per la conquista dell’anima, il mito da abbattere per aumentare la porzione di senso conquistabile: «Sono convinti che il senso si sviluppi solo dove le cose si mettono in movimento, entrando in sequenza le une con le altre, per cui la categoria di origine  suona loro piuttosto insignificante. È quasi un luogo di immobile solitudine in cui il senso delle cose è ancora tutto da venire»[41].

In breve, per la generazione digitale è mutato il luogo dove il senso alberga. E, con esso, anche la modalità di accesso.

Una volta percepita la clamorosa sproporzione tra la fatica da profondere e la quantità di senso attingibile, i mutanti hanno infatti scelto di far fuori l’anima borghese[42]: «Gli sguardi smarriti dei ragazzi a scuola hanno bisogno di senso, di semplice senso della vita, e sono anche disposti ad ammettere che Dante glielo fornirebbe: ma se il cammino da fare è così lungo, e così faticoso, e così poco congeniale alle loro abilità, chi gli assicura che non moriranno per strada, senza mai arrivare alla meta, vittime di una presunzione che è nostra, non loro? Perché non dovrebbero cercarsi un sistema per trovare l’ossigeno prima e in modo a loro più congeniale?»[43] .

Occorre pertanto fare lo sforzo di comprendere la logica immanente al movimento di questi mutanti: «Se c’è una logica, nel movimento dei barbari, è solo leggibile a uno sguardo capace di assemblarne i diversi pezzi»[44].

Perché essi, certamente, hanno una logica, indirizzata, ancora una volta, all’individuazione di un senso all’interno del quale situarsi. La loro logica è tuttavia accessibile, come sempre, solo a uno sguardo d’insieme, che non si immobilizzi sulle singole mosse in atto, ma si allunghi fino a individuare l’animale in corsa: una mossa sola[45]. La mutazione in corso non è il sintomo di una patologia da curare, ma la spia dell’evoluzione: «Bisogna concedere ai barbari la chance di essere un animale, con una sua compiutezza e un suo senso, e non pezzi del nostro corpo colpiti da una malattia. Bisogna fare lo sforzo di supporre, alle loro spalle, una logica non suicida, un movimento lucido, e un sogno vero»[46].

Ma, prima di immettersi nel loro percorso, per fare magari un pezzo di strada insieme, possiamo provare a guadagnare un po’ di familiarità con l’animale in corsa, scandendo brevemente le tappe della sua evoluzione, secondo quella logica lineare che siamo stati abituati a praticare, la quale, seppur sotto certi versi superata, non va naturalmente rinnegata, quanto piuttosto integrata in un’intelligenza che va progressivamente articolando le sue sfumature.

Il peculiare processo evolutivo della specie umana

La frequenza assidua dell’agorà digitale, come si è visto, e per i motivi considerati, incide inesorabilmente e in forma sempre più massiccia sul modo di vedere, costruire e interpretare il mondo dei nativi digitali. Pertanto, se come ormai assodato dalle neuroscienze, il cervello è un organo plastico, non è certamente un’ipotesi peregrina che la tecnologia digitale abbia innescato nelle nuove generazioni un processo evolutivo del tutto nuovo e in parte ancora sconosciuto. La nuova tecnologia, infatti, incide sicuramente sui circuiti neuronali del cervello, e, anche se non si è per il momento in grado di apprezzare una vera e propria evoluzione biologica in senso stretto sotto questo punto di vista, la neuroplasticità testimonia a favore del fatto che qualsiasi esperienza prolungata scolpisce fisicamente le nostre connessioni neurali[47]. La natura del cervello, in realtà, quale organo che si auto-organizza, lo rende continuamente esposto all’influenza dell’esperienza, che può sollecitare l’attivazione di determinati circuiti neuronali, o, viceversa, spegnere la pratica di altri.

L’incertezza che ormai pervade ogni aspetto della conoscenza, da quando la rivoluzione scientifica[48] consumatasi nel corso del XX secolo ha frantumato una serie di verità cristallizzate, ha guadagnato una rappresentazione della natura in continuo movimento, che non ha risparmiato evidentemente neanche le neurosceinze. Oggi il cervello è visto infatti come un organo estremamente mutevole nella sua straordinaria complessità, capace di ripensarsi e riconfigurarsi in continuazione, attivando funzioni inutilizzate o indirizzate a scopi diversi: un organo dinamico in continua trasformazione, le cui funzioni non posso essere schematizzate in modo rigido, in quanto esposte all’ascendente di una rete mutevole di relazioni. Anche il cervello, in breve, come ogni cosa, è immerso nel movimento universale, il logos cosmico, che ne consente una continua ridefinizione delle funzioni.

Peraltro, la riflessione sull’attitudine del cervello a riprogrammarsi in conseguenza delle esperienze registrate non è una novità della nostra epoca, ma imperversa già da parecchi secoli. Famosa, per esempio, la cosiddetta quaestio di Molyneux, resa nota da John Locke nel Saggio sull’intelletto umano (1694), dove il filosofo empirista affronta il problema sollevato dallo scienziato William Molyneux, relativo alle capacità visive di un cieco nato, il quale, riacquistando la vista, debba ricominciare a conoscere il mondo: «Immagina un uomo adulto e cieco dalla nascita e che questi abbia imparato a distinguere un cubo da una sfera […] mediante il tatto. Supponi poi che […] il cieco recuperi la vista. La questione è se, servendosi della sola vista e prima di toccarli, egli saprebbe distinguere la sfera dal cubo»[49]. Questa riflessione rappresenta una fra le prime testimonianze dell’acceso dibattito sul ruolo del patrimonio genetico e dell’esperienza nello sviluppo delle dinamiche conoscitive e percettive.

Considerato che l’evoluzione biologica ha tempi molto lunghi, certamente, può destare perplessità una  accelerazione evolutiva  clamorosa come quella  innescata dalla tecnologia digitale. Già lo scienziato ambientalista Enzo Tiezzi[50], in un contesto diverso, volto a promuovere un’analisi che tenesse realisticamente conto dei lunghi tempi della natura ai fini della salvaguardia dell’equilibrio ambientale, si era trovato a riflettere sulla enorme asimmetria esistente fra tempi biologici e tempi storici, e, quindi, sulla impossibilità per la natura di assorbire impunemente l’accelerazione tecnologica impressa dall’uomo nella storia. Si tratta di considerazioni del tutto pertinenti, dalle quali non si può prescindere per una consapevole e corretta impostazione del rapporto dell’uomo con quella natura con la quale co-evolve.  Tuttavia non si può non tener conto anche del fatto che l’evoluzione umana è, in realtà, un fenomeno assai complesso, in cui natura e tecnologia si intrecciano: occorre prendere atto, anzi, che la specie umana è propriamente caratterizzata da quel particolare processo evolutivo che rivela una singolare contaminazione con il progresso tecnologico[51]. Pertanto se è vero che la tecnologia sembra oggi evolvere con straordinaria rapidità rispetto alla lenta evoluzione naturale dell’uomo, nondimeno è indispensabile fare un passo indietro per riflettere su una non trascurabile circostanza: il rapporto fra uomo e tecnologia va ripensato alla luce del fatto che la tecnologia è un prodotto dell’uomo, e quindi contribuisce alla evoluzione della sua essenza in un processo che, anche questa volta, non può che configurarsi come circolare e ricorsivo, secondo una logica di co-evoluzione. È innegabile infatti, che le tappe della storia dell’uomo, dalla sua comparsa, sono  scandite dal progressivo miglioramento nell’uso della tecnologia: egli nasce come homo habilis, appunto, in quanto essere predisposto straordinariamente all’agire tecnologico, un’eccezione rispetto alle altre specie, e, in quanto tale,  già costitutivamente homo technologicus.

In breve, l’uomo è naturalmente tecnologico. Pertanto, egli non può evadere la sua stessa natura, che diventa al contempo cultura: in ogni sua manifestazione esistenziale, l’uomo rappresenta infatti il suo peculiare modo di produrre conoscenza e azione, due attività che, nella loro inestricabile ricorsività, costituiscono, come si è detto, il suo modo di stare al mondo[52], l’unico possibile. Ma  l’uomo conosce e agisce tramite il suo corpo, che è espressione identitaria di pensiero e azione, e, in tal senso, respinge con la sua sessa esistenza  ogni cartesiana  separazione tra res cogitans e res extensa[53]. Se l’organo deputato tradizionalmente alla conoscenza è infatti il cervello, si tratta di un cervello situato, ovvero integrato con un corpo dal quale si avvia ogni conoscenza innescata dall’interazione con l’ambiente. La nostra conoscenza è l’esito di una integrazione dinamica tra corpo e cervello, infatti, come dice Benasayag, «il cervello seleziona e integra una pluralità di sensazioni che, a loro volta, lo modificano in continuazione. In questo meccanismo di modellamento del cervello sono fondamentali il movimento del corpo e le sue relazioni sensomotorie a vari livelli, sia corticali sia subcorticali […] Gli stimoli che arrivano al cervello dipendono in gran parte dal movimento del corpo, dove il cervello esiste»[54].

L’importanza di comprendere che il cervello funziona sempre in modo situato è determinante per chiarire che esso pensa sempre tramite un corpo, il che, come vedremo, rende l’intelligenza umana irriproducibile. Il computer, con la sua capacità computazionale, può tutt’al più essere un cervello sradicato: esso funziona in modo del tutto autoreferenziale, il che lo rende avulso dal contesto, ovvero privo anche della sola idea di limite, di conseguenza incapace di generare quel significato la cui produzione esprime sinteticamente  l’ intenzione umana di stare al mondo.

Appurato che esiste una differenza incolmabile tra organismo e macchina,  l’evoluzione dell’uomo passa in ogni caso per un’interazione con l’ambiente che non può prescindere dalla considerazione della tecnologia, poiché l’immedesimazione dell’individuo con i suoi strumenti è tale da potersi dire che la tecnologia è un’estensione del corpo umano. Considerato infatti che l’esistenza dell’uomo è condizionata dal modo di configurarsi del suo orizzonte percettivo, che si modifica contestualmente all’evoluzione che i suoi organi delineano man mano che vanno sintetizzandosi con le protesi tecnologiche, allora, evidentemente, la tecnologia non soltanto interferisce con l’epistemologia e l’ontologia stessa dell’uomo, ma scrive con lui la sua storia nel medesimo momento in cui condiziona  l’interazione fra uomo e ambiente.  Inoltre, modificando il rapporto fra uomo e ambiente attraverso l’ampliamento continuo del suo orizzonte percettivo, che comporta una continua revisione dell’idea di limite[55],  la tecnologia incide inevitabilmente su ogni interpretazione etica del nostro modo propriamente umano di stare al mondo e nel mondo. Infatti, come afferma Giuseppe O. Longo, epistemologo e teorico dell’informazione, «essa contribuisce a formare le categorie cognitive (e attive) dell’uomo, condizionandone lo sviluppo[…] La tecnologia concorre a formare l’essenza dell’uomo»[56].

In tal senso l’evoluzione dell’uomo subisce un’accelerazione contestualmente a quella che egli stesso imprime alla tecnologia. E, se l’evoluzione biologica è lenta, mentre quella culturale incalza, la separazione si rivela tuttavia artificiosa.  Scrive ancora Giuseppe Longo, «le due evoluzioni, dell’uomo e della tecnologia, si sono intimamente intrecciate in un’evoluzione “bioculturale” o “biotecnologica”, al cui centro sta una sorta di simbionte in via di formazione, l’homo technologicus, costituito da una componente umana e da una componente macchinica molto rilevante. Questo intreccio è conseguenza del mutamento subito negli ultimi tempi dalla tecnologia, che oggi non coinvolge più tanto o solo la materia e l’energia, quanto l’informazione: le “macchine” più tipiche della nostra epoca non sono le presse o le locomotive, bensì i calcolatori. Bisogna anche tener presente che nell’homo technologicus la componente artificiale si presenta sotto due forme: da una parte l’uomo è collegato al calcolatore e alle reti, dunque viene prolungato dalla tecnologia; dall’altra esso è invaso da una tecnologia informatico-protetica, spesso miniaturizzata se non addirittura nanometrica, che lo trasforma organo per organo rendendolo sempre più simile ai cyborg della fantascienza. Qui c’interessa forse più il primo aspetto, ma non è da trascurasi neppure il secondo, che si attua con l’introduzione nel corpo, in particolare nel cervello, di piastrine integrate capaci di supplire a funzioni importanti o di potenziare capacità naturali di movimento, sensibilità, memoria o elaborazione. Anche la seconda modalità opera dunque una trasformazione sia del corpo sia della mente»[57].

La storia ci racconta, insomma, che il cervello umano ha sviluppato, nel corso dell’evoluzione della vita, potenzialità che segnano una rottura radicale e irreversibile rispetto a tutte le altre specie viventi. Pertanto, se è vero che ogni specie coevolve con l’ambiente modificandolo mentre si modifica, la specie umana ha espresso una capacità di trasformazione che è  andata moltiplicandosi in maniera esponenziale nel tempo. Ora, invero, l’ibridazione uomo-natura-tecnologia è certamente un fatto la cui esistenza  non lascia margini al dubbio. Ciò che bisogna tuttavia comprendere, grazie anche all’irruzione del paradigma epistemologico della Complessità che ci introduce in una diversa ottica sistemica[58], è che l’insieme si modifica simultaneamente alle parti, in un contesto di coevoluzione, appunto. Pertanto, il cervello si auto-organizza riprogrammandosi insieme con un corpo situato a sua volta in un ecosistema, in un’istanza unitaria. L’esito complessivo di questi cambiamenti va dunque analizzato «cercando di comprendere i loro significati senza lasciarsi irretire da ciò che semplicemente “funziona”, né precipitare nella nostalgia di un passato illusorio in cui l’umano avrebbe regnato»[59]. Ovvero, prendendo atto dei cambiamenti avvenuti, bisogna cercare di iscriverli in un perimetro di senso che abbracci la dimensione della vita nella sua complessità, che in nessun animale, men che mai nell’uomo, assume la forma semplicistica e meccanica della sopravvivenza[60].

Nell’ibridazione uomo-tecnologia occorre dunque tener conto delle istanze della vita e della cultura che integrano la soggettività identitaria dell’uomo, le quali non rispondono a una logica meccanicisticamente utilitaristica, senza cedere alla tentazione, viceversa, di assumere una prospettiva mutilante, che procede per ritagli di realtà modellizzata, in base a un criterio meramente quantitativo.

La prospettiva della complessità appare quindi quella più adeguata per affrontare l’emergenza dell’essenza digitale. E proprio l’attività filosofica, come puro amore della conoscenza, ci può aiutare a prendere le distanze da noi stessi, quando, catturati dal flusso dei processi che abbiamo ingenerato, quali la digitalizzazione del cervello, rischiamo di restare intrappolati in meccanismi di semplificazione che potrebbero compromettere la nostra identità umana. 

L’essenza digitale

L’uso protesico delle nuove tecnologie incide dunque profondamente sulle attitudini cognitive come su ogni altra manifestazione vitale delle nuove generazioni. Si tratta di individui che vivono costantemente connessi, always on. Essi si affacciano ogni giorno  su uno schermo, dal quale vedono e costruiscono il mondo in modo differente, nel senso poc’anzi delineato: attraverso lo schermo appaiono, si esprimono, comunicano e, pertanto, stabiliscono relazioni  sociali e affettive. Come potrebbe tutto ciò non influire sul loro essenziale modo di essere? E infatti, se la tecnologia contribuisce a formare l’essenza dell’uomo, oggi emerge inevitabilmente un’essenza digitale.

Un’evidente dato di fatto, testimonianza che gli strumenti informatici hanno invaso la nostra mente in modo strutturale, fino a diventarne parte, integrandosi nei processi cognitivi con i quali costantemente accediamo a quella realtà che contribuiamo a generare, è l’estroflessione  della   memoria umana, tramite il  fenomeno della sua espansione nelle ormai ordinarie protesi mnemoniche.

Contemporaneamente all’evoluzione informatica della mente umana, gli eventi reali guadagnano la loro effettività dal punto di vista sociale solo mediante la loro rappresentazione informatica, a prescindere dalla quale rischiano di sparire dall’orizzonte cognitivo, e quindi dalla realtà.

L’ibridazione uomo-tecnologia, evidentemente, incide, vistosamente anche sulla fenomenologia della eventi stessi, che si modifica configurando nuovi sorprendenti scenari: l’uomo si ristruttura insieme con il mondo circostante, simbioticamente.

L’essenza digitale disegna pertanto un nuovo mondo, e per studiarne l’architettura occorre una nuova alfabetizzazione, che ci consenta di dialogare con l’uomo nuovo, colui che esprime questa essenza. Se occorre, dunque una presa di coscienza sulle potenzialità cerebrali di sviluppo, al di là di antiquate modalità di apprendimento e di obsoleti  dogmi cognitivi,  tuttavia, non va trascurata l’esigenza propriamente umana che, parallelamente all’intelligenza digitale, si sviluppi una saggezza digitale[61].

In realtà, l’avvento dell’intelligenza digitale è già certamente un fatto, e segna una vera e propria discontinuità generazionale: l’attitudine a ibridarsi con la nuova tecnologia è ciò che determina la differenza specifica.

«Il digitale “è qui per restare” e con lui dobbiamo convivere»[62], e, d’altra parte, è facile rintracciare le sue inequivocabili condizioni di esistenza: dalla dimostrazione euristica – che passa attraverso il riconoscimento dell’incidenza delle tecnologie digitali sulla configurazione cerebrale -; alla possibilità di individuarne una storia evolutiva – attraverso la considerazione del progresso nella funzione di attivazione di un processo, dalla suzione, alla gestione di una manovella, fino all’utilizzo del mouse per muoversi all’interno dell’ipermedia -; fino alla sua attitudine a interferire con altri tipi di intelligenza, come il possibile indebolimento della memoria a causa della sua esternalizzazione tecnologica[63].

A volersi soffermare solo brevemente sull’essenza digitale, per individuarne i caratteri propri, può essere utile avvalersi delle considerazioni di un suo fine osservatore, Federico Capeci, il quale si fa entusiasticamente interprete della nuova generazione. Egli premette che, anche se quest’ultima non vive “solo” on-line, «è – tuttavia – l’essenza “2.0” ad aver pervaso, per questa generazione, gli ambiti di vita reale: il web li ha indotti a interpretare ogni esperienza con logiche differenti, quelle del Web 2.0, appunto. Non è la vita “reale” a essere quantitativamente diminuita a favore di quella “virtuale”, ma è quest’ultima che ha plasmato la vita delle relazioni, anche quelle non mediate da un computer o da un telefonino. I Gener 2.0 hanno acquisito una “web forma mentis”: per loro ogni cosa si può ottenere subito, le informazioni sono sempre disponibili, si può comunicare con tutti e in ogni momento, si può diffondere un video anche senza essere registi, si può valutare un prodotto anche se non si è degli esperti,  si può commentare una pubblicità anche se non si è creativi, si può scrivere un blog e parlare a decine di migliaia di utenti senza essere una celebrità. Perché se tutto ciò vale sul web non può valere anche “fuori”? La verità è che questa domanda i giovani non se la pongono neanche»[64]. L’esposizione massiccia alla tecnologia digitale, in pratica, non esprime tanto la sua influenza riducendo quantitativamente lo spazio della vita reale, ma piuttosto imprime la sua logica anche a quest’ultima. In tal senso è possibile individuare nella nuova generazione un cambiamento qualitativo: essa manifesta un proprio originale carattere.

Capeci, impegnandosi in un’analisi libera da stereotipi, cercando di individuarne originalità e valori, ne definisce il singolare “S.T.I.LE.”, un acronimo che sta per: Socialità – in quanto sempre connessi, essi  vivono relazioni senza alcuna  mediazione o limitazione  introdotta da infrastrutture – ; Trasparenza – per i Gener 2.0, esprimere individualisticamente e narcisisticamente, in  totale libertà, la loro opinione è la regola, in un circuito che esige  però autenticità e coerenza, pena la smentita del popolo del web – ; Immediatezza –  essi sono la generazione del “tutto e subito”, perché  hanno la necessità di comprendere istantaneamente ciò che gli interessa e sono allenati a  formulare  giudizi immediati, vivono in velocità e sono impazienti, in quanto “il web si ferma solo con il clik di un’istantanea”- ; Libertà – per loro la libertà è una condizione ordinaria, un dato di fatto della quotidianità: “libertà di scelta, accessibilità, assenza di formalismi, evasione: sono le manifestazioni della libertà dei Gener 2.0” – ; Esperienza – essi vivono immersi nelle cose, autorappresntandosi in un atteggiamento, spesso ludico, di continua interazione[65].

E l’attitudine a esperire continuamente, come si è poc’anzi illustrato, rivoluziona profondamente tutti gli atteggiamenti cognitivi: la nuova generazione conosce entrando in interazione con le cose, esplorando, non cerca mai  le istruzioni, una spiegazione lineare che la introduca a una nuova esperienza:  infatti non a caso la nuova tecnologia fa sempre più spesso a meno di manuali introduttivi.

I nativi digitali hanno un approccio molto più pragmatico, essi conoscono per approssimazioni successive: imparano le cose facendole, secondo una logica che procede per ipotesi, enfatizzando piuttosto l’aspetto creativo e fallibile della conoscenza. Non utilizzano un metodo storico o logico sistematico. Hanno un atteggiamento multitsking, poiché sono abituati a frequentare simultaneamente più processi mentali, frastagliando l’attenzione, e un orientamento opensource, in cui l’idea di sapere condiviso passa attraverso la possibilità conferita agli utilizzatori di sviluppare il programma: è nata la cultura partecipativa.

Insomma, la generazione Web 2.0 rappresenta probabilmente il punto di non ritorno di una rivoluzione antropologica espressa dal passaggio dall’ Homo sapiens all’ uomo ad alta intensità tecnologica, il quale  interagisce quotidianamente in modo sempre più naturale con la tecnologia, al punto che le protesi digitali finiscono per delineare interamente il perimetro della sua possibile realtà e della sua azione[66].  Diventa pertanto inevitabile anche soffermarsi a riflettere sulla eventualità che nuove forme di apprendimento, puntando sulla plasticità cerebrale, possano aiutarci a superare il mito di una  formazione rigida, indirizzata prevalentemente a stabilizzare in modo ripetitivo i processi di memorizzazione a lungo termine, e introdurci a diversi modi di organizzare il mondo dal quale attingiamo il senso.

Dall’intelligenza digitale alla saggezza digitale

In ogni caso, che sia in atto un mutamento dei nostri circuiti cerebrali, conseguente al cambiamento dello stile cognitivo, è un fatto, a prescindere dal cauto entusiasmo o dalla  inquietudine che  esso può suscitare. Se, infatti, Marc Prensky, per esempio, riflette su come un utilizzo appropriato delle nuove tecnologie possa incrementare le potenzialità cerebrali[67], d’altra parte c’è chi, come Nicholas Carr, si preoccupa degli effetti negativi che l’assidua frequenza del web può comportare, dalla diminuzione della capacità di concentrazione e di immaginazione, all’indebolimento di alcune forme di memoria a causa dell’utilizzo massiccio dei supporti digitali, al sacrificio dell’attitudine umana al pensiero profondo e contemplativo[68].

Ancora una volta, non è realmente possibile rifugiarsi in semplificazioni apodittiche, bisogna rinunciare alle definizioni per affacciarsi sulla realtà con la curiosità di chi si abbevera instancabilmente alla fonte del senso, senza cercare di esorcizzare ogni ambiguità.

Occorre, insomma, «il coraggio dei filosofi, il coraggio di affrontare una realtà complessa, contraddittoria, sfuggente e in perenne metamorfosi, senza trincerarci dietro continui tentativi di semplificazione indebita e prematura»[69].

Riflettere consapevolmente sull’attuale evoluzione della realtà comporta comprendere, appunto, come affrontare il passaggio dall’intelligenza digitale, di cui abbiamo rilevato inequivocabilmente la recente apparizione, a quella saggezza digitale che ne decreterebbe l’integrazione nel circuito autoregolamentato della vita umana: ovvero, l’emergenza di un homo sapiens digitale.

Se l’uso protesico della tecnologia innesca moduli cognitivi differenti; avvia un nuovo percorso nella conoscenza, creativo invece che lineare; incide sulla riorganizzazione dei circuiti cerebrali fino a provocare una riprogrammazione del cervello; non resta che affrontare una seria riflessione sul cambiamento in atto, con quella capacità di comprensione che solo un’analisi svincolata da posizioni precostituite può liberare, a partire dall’ampiezza dello sguardo filosofico, che da sempre meglio interpreta l’attitudine umana a penetrare il senso delle cose.

In tale prospettiva, umanizzare il digitale significa praticarlo con saggezza.

Peraltro, la peculiare attenzione alle dinamiche profonde innescate dal progresso nella storia umana è da sempre oggetto privilegiato dell’attenzione della filosofia. Non a caso, troviamo già  in Platone un’attenta riflessione sull’ambiguità dell’uso della rivoluzionaria invenzione della scrittura, che sembra, tra l’altro, straordinariamente calzante nel contesto di una riflessione sull’esplosione della nuova era tecnologica, e trova rinnovata attualità proprio in considerazione dell’avvento di internet e delle nuove protesi mnemoniche.

Nel Fedro, tra i suoi dialoghi più noti, Platone espone, attraverso Socrate, il suo famoso mito sull’invenzione della scrittura, la più grande innovazione tecnologica nell’ambito delle comunicazioni.  Il dio egiziano Theuth spiega al faraone Thamus i vantaggi della scrittura, che, non a caso, viene definita da lui  phàrmakon, “una medicina  per la sapienza e la memoria”: si tratta di una parola  evidentemente carica di ambivalenza, poiché il  termine phàrmakon contiene in sé sia l’accezione di medicina sia quella di veleno.  E, infatti,  nel Fedro, la scrittura viene definita un phàrmakon in quanto capace di produrre anche l’effetto spregevole di attribuire a un oggetto esterno, come un libro,  il ruolo di supplemento dell’anima, accorciando il tal modo le distanze tra spirito e  materia. L’effetto velenoso di cui la scrittura si fa veicolo è dunque quello di ingenerare oblio nelle anime, in quanto mette a disposizione nozioni acquisite dall’esterno, e non maturate nell’animo, di cui pertanto non è possibile disporre criticamente, come risulta dalla risposta del faraone, che dice: «O ingegnosissimo Theuth, una cosa è la potenza creatrice di arti nuove, altra cosa è giudicare qual grado di danno e di utilità esse posseggano per coloro che le useranno. E così ora tu, per benevolenza verso l’alfabeto di cui sei  inventore, hai esposto il contrario del suo vero effetto. Perché esso ingenererà oblio nelle anime di chi lo imparerà: essi cesseranno di esercitarsi la memoria perché fidandosi dello scritto richiameranno le cose alla mente non più dall’interno di se stessi, ma dal di fuori, attraverso segni estranei: ciò che tu hai trovato non è una ricetta per la memoria ma per richiamare alla mente. Né tu offri vera sapienza ai tuoi scolari, ma ne dai solo l’apparenza perché essi, grazie a te, potendo avere notizie di molte cose senza insegnamento, si crederanno d’essere dottissimi, mentre per la maggior parte non sapranno nulla; con loro sarà  una sofferenza discorrere, imbottiti di opinioni invece che sapienti»[70]. Il pensiero scorporato dall’autore, secondo Platone,  diventa infatti  inerte, incapace di dialogo: non è più pensiero vivo, ma lettera morta. In breve, la scrittura produce dimenticanza, oblio, in chi le consegna il proprio pensiero, pertanto essa è foriera di una parvenza di sapere, non di sapere in sé.

Similmente, quindi,   un evento quale l’esplosione della rivoluzione digitale invoca una seria riflessione sulla sua portata in termini di significato, alla quale appunto non può sottrarsi per prima la filosofia.

La capillare invasione della tecnologia in tutti gli ambiti più propriamente umani, dalla comunicazione all’informazione, non può che incidere anche sulla sfera pratica, considerato ancora che abbiamo acquisito il concetto di ricorsività reciproca tra conoscenza e azione umana, fenomenologicamente espressa dal dato della vita in sé. Pertanto, preso atto di quello che, sotto un determinato profilo, può essere qualificato come un potenziamento digitale nell’ambito della sfera cognitiva, nel senso in precedenza descritto, è indispensabile che tale evoluzione sia adeguatamente tradotta anche nella sfera della saggezza pratica, per consentire la manifestazione di «una qualità dell’uomo che può emergere grazie al potenziamento che le naturali capacità umane ricevono dall’utilizzazione appropriata e creativa delle tecnologie digitali»[71].

La saggezza digitale non implica affatto, tuttavia, una semplice destrezza nell’uso della tecnologia digitale, che permette un’ampia manipolazione della tecnologia a scopo anche distruttivo e che, invero, può ben manifestarsi in evidenti forme di stupidità digitale, dalla negligenza nel citare fonti e contenuti al tentativo di danneggiare gli altri, ma comporta, piuttosto, la «capacità di prendere decisioni più sagge in quanto potenziate dalla tecnologia. Quindi, il saggio digitale individua i casi in cui la tecnologia rafforza il pensiero e la comprensione»[72]. Si tratta, per esempio, della possibilità di assumere decisioni accedendo a una maggiore quantità di dati, sulla base di analisi più approfondite, di capacità di formulare previsioni e stabilire priorità che sono il risultato della sinergia tra intelligenza umana e simulazione digitale, ma restano del tutto impraticabili a un cervello non potenziato. Pertanto, dice Prensky, «l’Homo sapiens digitale si distingue dall’essere umano odierno sotto due aspetti fondamentali: accetta il potenziamento come fattore integrante dell’esperienza umana, ed è digitalmente saggio, sia nel modo in cui accede al potenziamento digitale per integrare le proprie capacità innate, sia nel modo in cui usa quel potenziamento per attuare un processo decisionale più saggio»[73]. In tal senso Prensky, nel popolare saggio La mente aumentata. Dai nativi digitali alla saggezza digitale[74], argomenta a favore di un uso etico dell’intelligenza digitale, che possa rappresentare un reciproco potenziamento fra cervello umano e tecnologia, e preparare l’uomo ad affrontare le nuove sfide cognitive.

E tuttavia, la saggezza digitale, ancora, è anche esattamente quella qualità umana che ci può consentire di prendere le distanze da noi stessi quando, travolti dal meccanismo del potenziamento cerebrale tramite la digitalizzazione, ci esponiamo al rischio di dimenticare che un cervello aumentato non può e non deve significare un uomo diminuito, come ammonisce Benasayag  nel suo rigoroso studio intitolato Il cervello aumentato. L’uomo diminuito[75]. In questo saggio, preso atto della costante ibridazione tecnologia-natura-cultura, l’autore riflette sull’opportunità di vigilare sempre per non consentire alla macchina tecnologica di colonizzare il cervello, travolti dall’illusione di una potenza illimitata, incompatibile con i circuiti della vita e con la stessa identità umana. Ovvero, l’aumento di quantità non può essere immesso nella vita umana fino ad alterarne irrimediabilmente l’essenza: il che avviene quanto si pensa di potersi emancipare da ogni istanza di autoregolazione, compromettendo la qualità e il senso, esiti specifici della peculiare limitatezza umana, della sua complessità.

Tecnologia e buon senso: la memoria del corpo

Proprio l’attitudine tipicamente umana a praticare il buon senso, quale istanza irriducibile a qualunque formula matematica o quantitativa, ci impone la necessità di respingere ogni riduzionismo che, dissolvendo l’identità umana in una astratta razionalità, che la epuri dalla sua storicità, la emancipi dal contesto conferendole quell’illusione di onnipotente auotoreferenzialità che apre il varco a un suo possibile assedio da parte della tecnica. Viceversa, «il buon senso esprime un profondo adattamento coevolutivo fra uomo e ambiente e un’armoniosa integrazione tra individuo e contesto e, a ben guardare, dipende  essenzialmente dal corpo. Il corpo, quasi sempre considerato nella tradizione filosofica occidentale mero supporto e contenitore della nobile intelligenza della mente, specie della sua parte razionale, si rivela, proprio alla luce delle difficoltà incontrate dall’IA[76] simbolica e funzionalistica, il tramite indispensabile mediante il quale l’intelligenza umana non solo si manifesta, ma si costituisce e si evolve. Mentre l’IA vuole creare una mente astratta, immateriale e isolata da ogni perturbazione, la mente umana vive e si sviluppa nell’interazione spesso caotica con l’ambiente, rispondendo in modo adattativo ed evolutivo alle sollecitazioni esterne tramite l’interfaccia omeostatica del corpo. Non si dimentichi che, storicamente, il cervello biologico è nato come organo di controllo e regolazione di un corpo preesistente, mentre l’IA, rovesciando la storia, è partita dall’intenzione primaria se non esclusiva di costruire un cervello disincarnato e privo di un analogo del corpo»[77]. E, invero, contro ogni rigido funzionalismo, l’organismo vivente manifesta un’evidente specificità irriducibile a fattori meccanici e computazionali che smentisce il riduzionismo materialista.

Ripensare la condizione umana per situarci nel mondo, alla luce dei nuovi confini esistenziali che si vanno precisando, si rivela evidentemente una straordinaria opportunità  anche per una più consapevole riflessione sullo statuto della razionalità umana. Possiamo forse dire che oggi è giunto al suo tramonto il mito dell’assolutezza di una  ragione astratta, scorporata dal mondo, alimentato dall’ambizione, coltivata dal pensiero occidentale sin dalle sue origini, di fornire una spiegazione onnicomprensiva della realtà,  addomesticandola all’interno di uno schema semplificato. E con esso volge al fine anche la parabola della scienza occidentale, fisica e meccanicistica, che con i suoi audaci disegni teorici di questo sogno ha rappresentato sicuramente la più brillante e compiuta  interpretazione. Essa, spogliata  di ogni sacralità e universalità,  finalmente rivela la sua reale natura: non l’unica via di accesso alla verità, bensì un episodio della storia della conoscenza umana. La conoscenza umana è infatti un processo inestinguibile, pertanto è la sua stessa natura che la rende un’istanza nostalgica, in quanto ontologicamente carente. Essa non può mai compiersi: «Per il cervello la conoscenza non è mai uno stadio passivo su cui il mondo imprime i suoi segni. Al contrario, è sempre un’attività del cervello nel processo di produzione di tale interfaccia fra colui che conosce e la cosa ciò che viene prodotto dalla conoscenza. Forse è per questo che possiamo parlare di una nostalgia della conoscenza, poiché desiderando l’unione con la cosa non si ottiene nel processo niente di più dell’interfaccia della conoscenza. Tale “nostalgia”, però, non è dovuta a un errore o a una mancanza nell’attività del conoscere. Al contrario, la conoscenza non si vede deprivata di una parte nascosta ma, se non può giungere alla totalità, di cui magari sente la mancanza, ciò dipende dal fatto che si trova sempre in un processo di coproduzione: si tratta sempre di un fenomeno e non del disvelamento di ciò che è nascosto»[78].

In breve, la complessificazione della conoscenza, con l’irrompere dell’incertezza e del disordine all’interno della scienza stessa, ha infranto il sogno  a lungo coltivato di poter conseguire i una completa razionalizzazione della realtà, scaturito dalla arrogante valorizzazione di un unico aspetto dell’uomo, quello dell’attitudine al pensiero astratto e simbolico. Si è compreso che la scienza occidentale è un fenomeno singolare della storia dell’uomo, un brillante episodio con una sua specifica individualità, non una conquista definitiva dell’umanità.

L’uomo può oggi rientrare da quell’esilio al quale si era condannato scegliendo di abbandonare il mondo per poterlo reificare e conoscere meglio. La razionalità astratta lascia la scena a una razionalità storico-pratica, attraverso la quale l’uomo, incarnandosi nella storia, la conosce facendola.

Praticare l’attitudine evolutiva con saggezza, peraltro, può aiutarci anche a interpretare l’esigenza di smantellare la cultura della separazione, in qualche modo emergente dalla svolta paradigmatica in atto, che promuove nuovi moduli cognitivi e modalità più dinamiche di accesso al senso, emancipandosi dalla censura dei dogmi propugnati da una razionalità ormai prigioniera di se stessa:  esigenza che  appare più che mai legittima di fronte al sospetto che la spiritualità borghese, che nell’alveo di tale razionalità si è sviluppata,  abbia perlomeno consentito il susseguirsi dei disastri esibiti dal secolo scorso, dalle guerre mondiali alla tragedia del nucleare, a fronte dei  quali la civiltà della profondità non sembra sia stata capace di proporre alcun antidoto. E forse, comprendere che il senso va inseguito dinamicamente, nella rete in cui si dipana, senza lasciare che resti intrappolato in quei nodi che gli conferiscono lo statuto dell’assolutezza, stigmatizzando verità idolatrate, può rappresentare una ragionevole, sia pure irriflessa e istintiva, strategia per fuggire quella che si è rivelata una pericolosa profondità[79].

In questo perimetro concettuale si inscrive anche quel fenomeno che vede la tecnologia prendere le distanze dalla scienza, che non riesce più a fornire spiegazioni teoriche esplicite e compiute alle domande incalzanti che emergono dalle sempre più complesse e repentine applicazioni pratiche.

Infatti, mentre la conoscenza scientifica, con il suo metodo logico-formale, il suo procedimento lineare e il suo alto grado di astrazione simbolica, è un fenomeno con una sua specifica singolarità storica, l’atteggiamento tecnologico è profondamente radicato nella stessa natura dell’uomo, fa parte della sua essenza sin dalle sue origini. Del resto, diversamente dalla conoscenza razionale esplicita e consapevole, mediata dalla mente,  che è una conquista successiva nell’evoluzione della specie umana, la conoscenza tacita, inconsapevole e immediata, veicolata dal corpo, appartiene da sempre all’uomo, che la pratica mediante il suo primo naturale strumento tecnologico: il corpo. Per questo motivo, mentre la conoscenza razionale richiede impegno, quella corporea è automatica e a tratti ludica, e resta sempre attuale. Così, se la scienza entra in crisi, la tecnologia, persino nella sofisticata versione digitale, resta sempre espressione della innata conoscenza corporea, e può emanciparsi dalle artificiose costruzioni teoriche della scienza, perché l’uomo può praticarla a prescindere dal suo inquadramento scientifico e da ogni spiegazione teorica. Anzi, essa rappresenta sempre un filtro di conoscenza della realtà, quindi interferisce con l’orizzonte percettivo dell’uomo, e, di conseguenza, con la sua stessa configurazione epistemologica e ontologica. In tal senso la tecnologia rivela una flessibilità inconsueta rispetto alla tradizionale immagine di rigidità e automatismo che se ne mostra ordinariamente. Scrive a tal proposito Giuseppe Longo: «Questa visione “organica”, dinamica e integrata della tecnologia offre prospettive concettuali interessanti sul rapporto tra l’uomo e l’ambiente  mediato dai suoi strumenti: suggerisce la profonda unità di mente e corpo, l’immersione di questa unità in una storia radicata nel mondo, una storia prima fisica, poi anche biologica e infine, oggi, anche  culturale e tecnologica. In questa visione, l’avvento del simbionte uomo-macchina, cioè dell’homo technologicus, non si configurerebbe forse come uno snaturamento dell’uomo, bensì come un suo completamento emergente di tipo auto-organizzativo, attraverso un circolo coimplicativo analogo a quelli che hanno complessificato la nostra visione dell’uomo-nel-mondo»[80].

L’ homo technologicus, forse nel momento della sua piena maturità,  potrebbe  appunto interpretare  questa svolta paradigmatica, poiché abita il suo corpo come istanza privilegiata di conoscenza, non solo intellettuale, in quanto articolazione di una struttura identitaria al contempo materiale e razionale, ma anche sensoriale, emotiva, etica ed estetica. Il corpo è da sempre depositario di una conoscenza primordiale: «Le profonde modifiche che la tecnologia impone alla nostra epistemologia e alla nostra ontologia riportano in primo piano l’importanza del corpo. Per molti secoli l’intelligenza astratta che dimostra un teorema o costruisce una metafisica è stata considerata superiore all’intelligenza che ci permette di attraversare una strada o di nutrirci ogni giorno, ma oggi si comprende che la prima intelligenza ha bisogno, per sostenersi, manifestarsi e svilupparsi, della seconda. Il corpo ha una sua profonda conoscenza “cablata”, cioè incarnata ed espressa nella sua stessa struttura. La storia della scienza occidentale si può interpretare come un lungo tentativo di portare via via a livelli di consapevolezza questa conoscenza corporea mediante un processo di astrazione, di formalizzazione e di riflessione rigorosa. Oggi la conoscenza del corpo è rivalutata. In particolare, le limitazioni incontrate dall’impostazione simbolica, astratta e riduzionistica dell’intelligenza artificiale funzionalistica – che prescinde dal corpo e dal legame corpo-ambiente – hanno dimostrato l’essenzialità di questo legame per ogni forma accettabile d’intelligenza e di azione nel mondo. Se la fisica, e con essa altre discipline, hanno trovato nel riduzionismo la strada maestra per conseguire i loro risultati, nel mondo della comunicazione, quindi nel mondo degli esseri umani il riduzionismo non fornisce alcuna descrizione (o spiegazione) sensata. Essenziale, in questo universo della comunicazione, è il contesto. La comunicazione si svolge sempre in un contesto e in una storia che coinvolgono le parti in comunicazione»[81].

Probabilmente oggi l’uomo ha guadagnato il coraggio per riaccostarsi a una prospettiva complessa, ed è pronto a restituire l’intelligenza al corpo, e un corpo al cervello, se è vero che ha compreso che il procedimento di pensiero tipicamente umano è quello che produce significato. Infatti, è proprio la condizione del cervello, il suo essere situato e avvertirne i limiti, che gli consente di produrre significato. Appunto il suo essere situato in un corpo limitato, il suo abitare un contesto spazio-temporale definito,  il suo essere portatore di una storia singolare, cui contribuisce la memoria del corpo, consente al cervello di tradurre la conoscenza in significato[82]: la soggettività identitaria di corpo e cervello manifesta un’intenzionalità propria, come organismo, nella necessità di produrre comprensione dettata dall’esistenza del limite, che esige interpretazione[83]. Questo è il motivo per cui non si può pensare al cervello come  a un’entità autonoma, di cui si possa riprodurre l’intenzione trasferendolo su una memoria esterna, come si illude di fare in qualche modo l’attuale riduzionismo fisicalista: esso pretende di ricondurre i diversi registri in cui si auto-organizza la realtà all’unico livello fisico-chimico, come se esistesse una reversibilità fra le diverse dimensioni della vita, e l’universo morale o emotivo dell’uomo potessero essere spiegati in termini di corretto funzionamento del cervello[84].

Isolando il cervello dalla situazione se ne perderebbe, viceversa, l’essenza: assieme al corpo, l’uomo rinuncerebbe alla sua complessità.  Se non si perde di vista la complessità umana, pertanto, è facile comprendere perché evidentemente non è possibile riprodurre nella macchina l’attitudine del cervello umano: il cervello produce senso, il computer no. Quando il cervello pensa, il corpo si intromette, interferisce continuamente con le sensazioni nel procedimento logico-formale, lineare[85]. I cervelli esistono in corpi e in ecosistemi: isolati non riescono a esprimere la loro intenzione, non producono senso, proprio perché non è il cervello a pensare. Pensa tutto il corpo[86]. È qui che scatta il solco invalicabile tra l’uomo e la macchina.

Nel perimetro del significato la fragilità dell’uomo dà il suo scacco definitivo alla potenza della macchina. Si tratta di una fragilità che non può essere riprodotta, proprio in quanto resta annullata dalla assenza di limite e di regola espressa dalla macchina.  Il computer, infatti, non è situato, non è un organismo che esprima una sua propria intenzionalità, è una macchina a-storica: esso  funziona, non comprende, in quanto non conosce limiti né autoregolazione, non procede dialetticamente incontrando e integrando negatività, poiché la tecnologia esprime, al contrario, assenza di limite; la sua essenza è piuttosto praticare ogni possibilità, all’insegna del “tutto è possibile”. Ma, «se tutto è possibile, niente è reale»[87]: è questa  la condizione espressa da uno scientismo del tutto abbandonato dalla razionalità, che descrive un processo di derealizzazione[88] della vita. Un’intelligenza scarnificata non può pensare come un organismo vivente, poiché la produzione di significato è generata dal fatto che la vita ha il proprio fine in sé; la sua identità è la sua storia: pensano e agiscono solo gli organismi situati, in quanto la comprensione è dettata dall’interazione con un ambiente. Infatti, solo il legame all’ambiente genera comprensione: il senso deriva dall’incontro con il limite, che apre l’opportunità dell’interpretazione, invocando il senso.

Nel saggio Il vincolo e la possibilità, il filosofo della scienza Mauro Ceruti individua proprio nel concetto di limite la possibilità che l’uomo, come sistema vivente, sviluppi la sua autonomia, la quale è appunto generata  dalla  sua naturale  dipendenza dal vincolo ecologico e culturale: in tal modo il limite si traduce per l’organismo in opportunità, l’unica che apre lo spettro dei suoi possibili. Rinunciare al meta-punto di vista è pertanto l’unico modo per comprendere la realtà umana: «L’osservatore sa di portare con sé “il peccato originale”  della sua limitatezza. Ma immergersi in essa è l’unico strumento per raggiungere l’intersoggettività»[89].

Pensare dunque di ridurre il ragionamento a calcolo, e, pertanto, di assimilare l’intelligenza computazionale del computer all’intelligenza significante dell’uomo, come sistema situato che vive nel limite la sua opportunità,  è una forma di inaccettabile riduzionismo, proprio perché i numeri sono un’evidente astrazione che, trascurando la qualità, rinuncia a buona parte dell’informazione, dissimulando la complessità umana a vantaggio dell’economia cognitiva.

Per questo motivo, la tecnologia può esprimere macchine che raggiungono elevati gradi di complessità, ma non diventano mai organismi, poiché il loro funzionamento resta dettato da meccanismi semplici a partire da elementi di base semplici.

La complessità appartiene solo al vivente.

Inernet come esperienza creativa: il ritorno del soggetto nella conoscenza

Se la tecnologia è dunque il complesso degli strumenti, a partire dal proprio corpo, con cui l’uomo si interfaccia al mondo, lo conosce e agisce in esso, l’esplosione della tecnologia informatica non può che  cambiare significativamente il filtro tra l’uomo e l’ambiente, incidendo rivoluzionariamente sulla sua stessa profonda identità. Essa, infatti, sull’onda dello slancio acquisito, supera in corsa la scienza, impastoiata nelle sue creazioni teoriche, per richiamare l’uomo alla pratica di istintivi moduli cognitivi originari, in cui il corpo riconosce il suo ruolo di protagonista.

L’esperienza offerta dalla nuova tecnologia digitale sembra proprio configurarsi come una sollecitazione in direzione del recupero di un punto di vista trascurato da secoli di conoscenza oggettivante e, al contempo, una risposta all’esigenza, che emerge inevitabilmente dall’insufficienza cognitiva del paradigma dominante, di una reintegrazione del soggetto nella conoscenza. L’illusione di una conoscenza garantita da una prospettiva oggettivante deve essere abbandonata di fronte all’inevitabile riconoscimento che, la nostra, non può che essere una conoscenza soggettiva, filtrata dai parametri umani, orientata dal significato all’interno del quale  riorganizziamo le nostre percezioni, inevitabilmente.  Come ha osservato il filosofo e scienziato Gregory Bateson, questa è in effetti la condizione di tutti gli organismi, essere immersi inestricabilmente nella realtà che si rappresentano, l’unica che possono comunicare: «Tra noi e “le cose come sono” c’è sempre un filtro creativo. I nostri organi di senso non ammettono nessuna cosa e riferiscono solo ciò che ha senso. Come il comandante di un esercito moderno, “noi” leggiamo solo rapporti dei servizi segreti già manipolati da agenti che in parte sanno che cosa vogliamo leggere. E del pari sono manipolate le nostre uscite: le uscite devono essere in armonia. Il filtro creativo tra noi e il mondo è presente sempre e comunque. Ciò equivale a essere creatura e insieme creatore. E questo il poeta lo sa molto meglio del biologo»[90].

Proprio in ossequio al mito dell’onniscienza, di uno schema semplificato nel quale incastonare l’intera realtà sciogliendola in formule dogmatiche, l’uomo si era garantito una posizione di astratta separazione dal contesto: è questa  l’origine della moderna dissociazione tra soggetto e oggetto, conoscente e conosciuto. Sempre Edgar Morin descrive efficacemente questo fenomeno: «La scienza occidentale si è fondata sull’eliminazione positivista del soggetto sulla base dell’idea che gli oggetti, esistendo indipendentemente dal soggetto, potessero essere osservati e spiegati in quanto tali. L’idea di un universo di fatti oggettivi, depurati da ogni giudizio di valore, da ogni deformazione soggettiva, grazie al metodo sperimentale e alle procedure di verifica, ha consentito lo sviluppo prodigioso della scienza moderna», il cui esito è quel desolante quadro in cui «il soggetto è vuoi il “rumore”, cioè la perturbazione, la deformazione, l’errore che occorre eliminare per raggiungere la conoscenza oggettiva, vuoi lo specchio, semplice riflesso dell’universo oggettivo»[91].

In realtà, la storicità ontologica dell’uomo, come essere evolutivo, si inscrive nelle condizioni di possibilità di ogni sua conoscenza, che passano propriamente attraverso le potenzialità percettive e sensoriali dell’individuo, ovvero attraverso il suo corredo biologico e il modo in cui esso si è sviluppato  e  si sviluppa interagendo con l’ambiente in cui è situato. Pertanto, «è ragionevole supporre che l’orizzonte percettivo di ogni essere vivente, e di ogni specie, sia molto particolare e condizioni la sua concezione globale del mondo. Se ne può indurre che la natura degli esseri umani è condizionata, a tutti i livelli e in maniera essenziale, dalle caratteristiche e dalle limitazioni dei processi sensoriali. Ora, se la tecnologia è un’estensione del corpo, anch’essa si trascrive nelle categorie a priori e contribuisce a determinarle poiché, al pari del corpo, contribuisce a conoscere e modificare l’ambiente, noi stessi e la nostra interazione col mondo. Se questa visione è corretta, le categorie a priori non sono date una volta per tutte, ma, come la fisiologia e la tecnologia, sono un prodotto della storia e sono suscettibili di modificazioni evolutive proprio perché sono in un rapporto d’interazione con gli strumenti “tecnologici” ereditati o costruiti dall’uomo»[92].

In tale prospettiva si può parlare di unidualità[93] dell’uomo, come essere pienamente biologico quanto culturale, ovvero inestricabilmente complesso. L’uomo intero[94], quale emerge nel pensiero di Morin, in quanto entità  al contempo biologica e culturale, è infatti capace di accedere a una conoscenza complessa, articolata in sfumature sia quantitative sia qualitative, che resta viceversa impenetrabile al pensiero astratto e riduzionista, strutturalmente semplificante.

Se adesso pratichiamo una breve incursione nel quadro antropologico dipinto dall’avvento della tecnologia digitale, che, come sempre, incide profondamente sull’essenza dell’uomo, possiamo facilmente annoverare l’emergere di una serie di nuovi atteggiamenti cognitivi, che ridisegnano i suoi confini esistenziali e sembrano muoversi in una precisa direzione. È come se la tecnologia, riemergendo quale manifestazione primitiva e inconsapevole, irriflessa, della conoscenza umana, conferisse nuova dignità al corpo che ne è strumento originario, oltre che manifestazione identitaria della complessità bio-culturale dell’uomo.

I Nativi digitali abitano il web in modo naturale: essi qui realizzano la quotidiana esperienza del prosumer[95], hanno accesso a una conoscenza-esperienza che al contempo elaborano e praticano attivamente.

La completa correlazione tra soggetto e oggetto dell’apprendimento innesca  una  nuova pratica cognitvo-esistenziale,  che offre l’opportunità di una visione integrata del cambiamento e dell’esperienza creativa dell’attribuzione di significato che esso ingenera nell’uomo.

In un certo qual modo, è come se l’uomo riguadagnasse quella posizione di attore, e non più solo spettatore della conoscenza[96], alla quale aveva abdicato con il trionfo della scienza moderna, volto alla conquista del privilegio di un punto di vista universale, dal quale soltanto sarebbe stato possibile formulare verità definitive e assolute su una realtà reificata.

Ed ecco che l’esplosione di Internet lo precipita nuovamente nella vertigine della creazione del sapere…

I nativi digitali vivono ogni giorno un’esperienza creativa, interpretano la rete come un libro da scrivere.

Reintrodurre il punto di vista dell’osservatore nel contesto cognitivo corrisponde a recuperare quella qualità dell’informazione che la prospettiva riduzionistica aveva espunto a vantaggio di criteri numerici puramente quantitativi, in quanto la qualità può essere generata solo dall’attribuzione di un valore, il quale emerge esclusivamente da un’osservazione intenzionale, orientata ai propri fini e interessi, quale può essere quella scaturita dall’uomo, come organismo vivente situato, e quindi capace di un pensiero significante. Reintrodurre il punto di vista dell’uomo, in quanto attore della conoscenza, significa dunque riconquistare il senso inghiottito dalle cesure impresse dalla formalizzazione numerica e disperso fra i parametri quantitativi.

In qualche modo, è come se riemergesse l’uomo come entità articolata, e non più come prevalente attitudine al pensiero matematizzante astratto.

Nello scenario che va dischiudendosi, non è quindi un caso assistere alla resurrezione di oggetti globali come il cosmo, la natura, l’uomo, disarticolati dalla conoscenza riduzionista fino alla disintegrazione, allo scopo di esorcizzare la loro provenienza da un sentimento prescientifico, neutralizzati in quanto espressione di una complessità inaccettabile per una razionalità che ambisce alla coerenza di uno schema nelle cui maglie resti, per sempre, intrappolato il senso di ogni cosa. Ma anche se il pensiero astratto riesce a immobilizzare, come fotografandole, le singole parti avulse dal contesto, invero la storia è dinamica e continua la sua corsa.

In conclusione

L’avvento della tecnologia informatica, ormai è chiaro, sta modificando profondamente e irreversibilmente l’interfaccia uomo-mondo.

L’entusiasmo per ciò che il progresso tecnologico ci fa guadagnare non ci esime in nessun caso dal vigilare su ciò che rischiamo di perdere.

E tuttavia, vigilare non significa resistere alla mutazione, ma praticarla con sapienza.

Non è sapienza arroccarsi su confini immaginari, né tantomeno abbandonarsi inconsapevoli alla corrente, quanto piuttosto applicarsi nel governarla, prendendosi cura di noi stessi, per «mettere in salvo ciò che ci è caro»[97]. Ma mettere in salvo qualcosa non significa tentare inutilmente di sottrarla al destino dell’evoluzione, praticando una resistenza che si traduce inevitabilmente in rottura, e, quindi, in perdita della mal custodita risorsa. Non significa «metterla in salvo dalla mutazione, ma sempre nella mutazione»[98].

E così, da una parte, occorre affrontare le sfide che la quotidianità ci sottopone:   innanzitutto, la cultura scritta sta cambiando forma e noi nativi Gutenberg dobbiamo assumerci la responsabilità di traghettare in digitale la memoria analogica della cultura dell’Homo sapiens.

Dall’altra parte, occorre una profonda riflessione affinché l’avvento dell’homo technologicus  non si trasformi nell’ultima propaggine di un riduzionismo estremo, ma rappresenti, viceversa, l’opportunità per il recupero di una prospettiva complessa a un superiore grado di consapevolezza.  Proprio per questo, «la sfida della nostra epoca si concentra sulla possibilità di articolare le nostre fantastiche conoscenze e la potenza della tecnologia con la conoscenza e il rispetto dei circuiti della vita»[99]. La tracotanza della scienza occidentale, infatti, per esorcizzare la finitezza epistemica dell’uomo, l’ha scomposto in moduli elementari pienamente penetrabili da spiegazioni meccanicistiche, alterandolo fino a farlo scomparire nella sua articolata identità soggettiva. Per questo è necessario invocare uno sguardo filosofico complesso, affinché l’uomo torni ad abitare se stesso, accettando di situarsi in quella complessità «che richiede una comprensione globale dei sistemi auto-organizzati»[100].

Se l’uomo non può rinnegare le proprie produzioni, fino all’estroflessione tecnologica di alcune attitudini cerebrali, egli non può neanche rinnegare la propria unità soggettivante, l’identità organica che ne caratterizza l’intenzione vitale. Deve, pertanto, riorganizzarsi costantemente, autopoieticamente, coordinando le sue molteplici istanze all’interno dei circuiti della vita,  che non possono essere spezzati da atteggiamenti riduzionisti  come quelli che pretendono di costringerla tutta entro parametri meccanicistici.

Egli non ha scelta: è un essere storico da sempre gettato nella corrente evolutiva, che ha segnato la differenza nel racconto della vita manifestando un’inconsueta capacità di accelerazione del mutamento, dettata dalle sue straordinarie potenzialità di trasformazione. La consapevolezza dell’ontologica aleatorietà della natura umana va costantemente alimentata da quello sguardo filosofico che, come una bussola, può soccorrerci nei momenti di maggiore disorientamento, quale coscienza riflessiva che riconduce a unità procedimenti cognitivi già avviati, qualificando l’uomo come l’unico essere consapevole della propria identità.

In tal senso, dunque, è possibile comprendere perché «ciò che si salverà non sarà mai quel che abbiamo tenuto al riparo dai tempi, ma ciò che abbiamo lasciato mutare perché ridiventasse se stesso in un tempo nuovo»[101].

Lo stesso Edgar Morin, trovandosi a riflettere sul progresso sinergico di coscienza intellettuale e coscienza morale, le cui produzioni rischiano di sclerotizzarsi se non si abbeverano costantemente alla loro fonte, ovvero l’uomo, come organismo vivente, dichiara esplicitamente: «Tutto ciò che non si rigenera degenera»[102].

Parafrasando ancora Eraclito: l’essere, immerso nel divenire, mutando resta.

Maria Laura Giacobello

Bibliografia

[1] Si tratta di quello specifico atteggiamento cognitivo celebrato dalla scienza moderna, galileiano-newtoniana, che, nella pretesa di intrappolare la realtà all’interno di uno schema intellegibile attraverso formule matematiche, rinuncia alla visione dell’insieme per promuovere la disarticolazione dei sistemi e considerarne solo le parti. Fra l’ampia letteratura sul tema, si veda E. Morin, La sfida della complessità [2002], a cura di A. Anselmo e G. Gembillo, traduzione di A. Anselmo,  Le Lettere, Firenze 2011; I. Prigogine e I. Stengers, La nuova alleanza. Metamorfosi della scienza [1979], a cura di P. D. Napolitani,  Einaudi, Torino 1999; F. Capra, La rete della vita [1996], trad. di C. Capararo, BUR, Milano 2006; G. Gembillo, Le polilogiche della complessità. Metamorfosi della Ragione da Aristotele a Morin, Le Lettere, Firenze 2008; G. Giordano, Da Einstein a Morin. Filosofia e scienza tra due paradigmi, Rubbettino, Soveria Mannelli 2006; G.  Bocchi  – M. Ceruti (a cura di), La sfida della complessità [1985], Mondadori, Milano 2007.

[2] Cfr., per esempio, E. Morin, La testa ben fatta – riforma dell’insegnamento e riforma del pensiero, trad. di S. Lazzari, Raffaello Cortina Editore, Milano 2000, dove l’autore argomenta a favore di una formazione non specialistica. Sul tema dello specialismo cfr. G. Giordano, La polemica contro lo specialismo. Tappe di un percorso verso la complessità da Ortega a Morin, in Id., Da Einstein a Morin, cit., pp.133-174.

[3] E. Morin,  I sette saperi necessari all’educazione del futuro [1999], Raffaello Cortina Editore, Milano 2001,  p. 46.

[4]  G. Bocchi-M. Ceruti, Educazione e globalizzazione, prefazione di E. Morin, Cortina, Milano 2004, p. 5.

[5] Questo tema è centrale nell’ambito del progetto metodologico di Morin. Esso viene affrontato direttamente in E. Morin,  Il metodo 3. La conoscenza della conoscenza [1986], trad. di A. Serra, Raffaello Cortina, Milano 2007.

[6] G. W. F. Hegel, Lineamenti di filosofia del diritto. Prefazione [1821], a cura di G. Marini, Laterza, Bari 1990, pp. 15-17.

[7]  Cfr. E. Morin, La testa ben fatta – riforma dell’insegnamento e riforma del pensiero, cit.,  p. 11.

[8]   E. Roger Ciurana, Introduzione alla filosofia delle scienze umane e sociali,  traduzione e introduzione di F. Gembillo,  Le Lettere, Firenze 2011,  p. 66.

[9] Sulla conoscenza come metodo si veda, per esempio, G. Giordano, Storie di concetti. Fatti Teorie Metodo Scienza, Le Lettere, Firenze 2012.

[10] Sull’esigenza di una conoscenza contestualizzata, segnalo tra gli altri M.L. Giacobello (2013), Edgar Morin. La riforma del pensiero per una conoscenza pertinente,  in AA.VV., “Complessità”2, 2012.

[11] E. Morin, Introduzione al pensiero complesso. Gli strumenti per affrontare la sfida della complessità [1990], trad. di M. Corbani, Sperling & Kupfer, Milano 1993, p. 119.

[12] Si veda, in proposito, la brillante ricostruzione di  E. Husserl, La crisi dell’umanità europea e la filosofia, in Id., La crisi delle scienze europee e la fenomenologia trascendentale [1959], prefazione di E. Paci, trad. di  E. Filippini,  Il Saggiatore, Milano 2008.

[13] H. Maturana – F. Varela, L’albero della conoscenza [1984], presentazione di M. Ceruti,  trad. di G. Melone, Garzanti, Milano 1999, p. 153.

[14] Sul pensiero di Humberto Maturana si veda L. Nucara, La filosofia di Humberto Maturana, Le Lettere, Firenze 2014.

[15] Si veda ancora l’appena citato H. Maturana – F. Varela, L’albero della conoscenza, e inoltre H. Maturana, Autocoscienza e realtà [1990], trad. di L. Formenti, Raffaello Cortina, Milano 1993.  Sul tema cfr. anche G. Gembillo, A.  Anselmo, G. Giordano, Complessità e formazione, ENEA, Roma 2008.

[16]  H. Maturana – X. Dàvila, Emozioni e linguaggio in educazione e politica [1990], trad. di L. Cortese, Elèuthera, Milano 2006, p. 36.

[17]  H. Maturana – F. Varela, L’albero della conoscenza, cit., p. 80.

[18] M. Benasayag, Il cervello aumentato. L’uomo diminuito [2015], prefazione e traduzione di R. Mazzeo, Erickson,  Trento 2016, p. 52.

[19] Ibidem.

[20]  H . Maturana – F. Varela, L’albero della conoscenza, cit., p. 37. Si veda anche  G. Gembillo e L. Nucara (a cura di), Conoscere è fare. Omaggio a Humberto Maturana, Armando Siciliano Editore, Messina 2009.

[21] A. W. Whitehead,  Il processo e la realtà. Saggio di cosmologia [1929], trad. e introduzione di N. Bosco, Valentino Bompiani, Milano 1965, p. 51.

[22] Su questo tema si veda P. Ferri, Nativi digitali, Bruno Mondadori, Milano 2011.

[23] T. S. Kuhn, La struttura delle rivoluzioni scientifiche [1962; 1970], trad. di A. Carugo [1969; 1978], Einaudi, Torino 1999. Secondo Kuhn, i paradigmi scientifico-culturali, intorno ai quali di volta in volta si organizza stabilmente la conoscenza di un’epoca, definiscono universi a sé,  adottano linguaggi singolari, nell’ambito dei quali  si danno risposte a problemi e modi di percepire diversi, che non possono essere tradotti  in altri linguaggi, decretando  una sorta di incommensurabilità fra  differenti culture. Si veda in proposito G. Giordano, Tra paradigmi e rivoluzioni. Thomas Kuhn, Rubbettino, Soveria Mannelli 1997.

[24]  Cfr. E. Morin,  I sette saperi necessari all’educazione del futuro, cit., p. 63.

[25]  Ivi, p. 64.

[26]  P. Ferri, Nativi digitali, cit., p. 1.

[27]  Fortunata definizione coniata da Mark Prensky in “Digital Natives, Digital Immigrants”, in On the Horizon (MCB University Press, Vol. 9 No. 5, October 2001).

[28] Cfr. ancora  M. Prensky,  “Digital Natives, Digital Immigrants”, cit.

[29]   P. Ferri, Nativi digitali, cit., p. 45.

[30] F. Capeci, Generazione 2.0. Chi sono, cosa vogliono, come dialogare con loro, FrancoAngeli, Milano 2014, p.16.

[31] Cfr. M. Prensky, “Digital Natives, Digital Immigrants”, cit.

[32] Cfr. Ivi.

[33] A. Baricco, I barbari. Saggio sulla mutazione, Feltrinelli, Torino 2006, pp. 8-9.

[34] Ivi, p.124.

[35] Ivi, p.113.

[36] Ivi, p. 98.

[37] Ivi, p. 103.

[38] Cfr. ivi, p. 125.

[39] Ivi, p. 96.

[40] Cfr. M. Prensky (2010), Homo Sapiens Digitale: dagli immigrati digitali e nativi digitali alla saggezza digitale. TD-Tecnologie Didattiche, 50.

[41] A. Baricco, I barbari. Saggio sulla mutazione, cit., p. 153.

[42] Cfr. ivi, p. 125.

[43] Ivi, pp. 123-124.

[44] Ivi, p. 45.

[45] Cfr. ivi, p. 80.

[46] Ivi, p. 47.

[47] Cfr. G. Brunetti,  Cervello Plastico Unico e Differente, 2013, www.neuroscienze.net.

[48]  Il XX secolo è infatti testimone di clamorose scoperte scientifiche, che  si spingono fino ad assumere le dimensioni di due rivoluzioni  vere e proprie: la prima fa irruzione in microfisica a partire dal 1900, la seconda comincia intorno al 1960 e ruota intorno all’idea di sistema, valorizzata dalla riflessione di Bertalannfy (cfr. L. von Bertalannfy, Teoria generale dei sistemi. Fondamenti, sviluppo, applicazioni [1967], trad. di E. Bellone, introduzione di G. Minati, Mondadori, Milano 2010). Si veda in proposito E. Morin, La sfida della complessità, a cura di A. Anselmo e G. Gembillo, Le Lettere, Firenze 2011,  cit., pp. 40 ss. Il mutamento in campo scientifico avvia la rivoluzione cognitiva espressa dal paradigma della Complessità.  Fra l’ampia letteratura sul tema si vedano per esempio oltre i  già citati G. Gembillo,  Le polilogiche della complessità. Metamorfosi della ragione da Aristotele a Morin, G. Giordano, Da Einstein a Morin. Filosofia e scienza tra due paradigmi,  F. Capra, La rete della vita, anche G. Gembillo, Da Einstein a Mandelbrot. La filosofia degli scienziati contemporanei, Le Lettere, Firenze 2009; G. Giordano, Tra Einstein ed Eddington. La filosofia degli scienziati contemporanei, Armando Siciliano, Messina 2000;  F. Capra, Il punto di svolta. Scienza, società e cultura emergente [1982], trad. di Libero Sosio, Feltrinelli, Milano 2008.

[49] J. Locke, Saggio sull’intelligenza umana (ed. del 1694),   trad. di C. Pellizzi, rev. di G. Farina, Laterza, Roma-Bari 1988, p. 147.

[50]  Si veda E. Tiezzi, Tempi storici e tempi biologici.  La Terra o la morte: i problemi della “nuova ecologia”1984], Donzelli, Milano 2001.

[51]  Anche Nicholas Georgescu-Roegen, grande intellettuale del XX secolo e padre della Bioeconomia, ha  compreso che l’innovazione tecnologica   interferisce con l’evoluzione biologica dell’uomo al punto da connotare la specie umana per il peculiare processo evolutivo: l’uomo in quanto specie è  infatti costretto a fare i conti con quegli strumenti tecnologici che incidono nella sua quotidianità a tal punto da integrare il suo corredo biologico.  Egli teorizza la stretta connessione fra biologia ed economia anche riflettendo sul fatto che, mentre tutti gli esseri viventi si evolvono solo grazie al miglioramento del loro corredo biologico, di cui sono dotati fin dalla nascita, alcune specie usano organi esosomatici, non appartenenti ai corpi individuali: l’uomo, specificamente, migliora il suo grado di adattamento all’ambiente anche attraverso l’utilizzo di strumenti di cui il suo corpo non è originariamente dotato, dal bastone al coltello, fino alla progettazione degli strumenti tecnologici più sofisticati. Pertanto, per questa particolare specie evolutiva, che si innova continuamente  insieme con la sua tecnologia, la sopravvivenza diventa  un’esperienza articolata,  un fenomeno non soltanto biologico,  ma bio-economico.   Si veda in particolare, per esempio, N. Georgescu-Roegen, Prospettive e orientamenti in economia [1966], in Id., Analisi economica e processo economico, trad. di M. Dardi, Sansoni, Firenze 1973 (parziale traduzione della raccolta Analitical Economics: issues and problems, Harvard University Press, Cambridge, Massachussetts 1966); Id., L’economia politica come estensione della biologia [1974], in Id., Bioeconomia.Verso un’altra economia ecologicamente e socialmente sostenibile, a cura di M. Bonaiuti, trad. di G. Ferrara degli Uberti, P.L. Cecioni,L. Maletti, G. Ricoveri, M. Messori, M. Bonaiuti, Bollati-Boringhieri,Torino 2003. Sull’argomento cfr. anche il mio M.L. Giacobello, L’economia della Complessità di Nicholas Georgescu-Roegen, Le Lettere, Firenze  2012.

[52] Si fa riferimento ancora al pensiero di Maturana e Varela.

[53] Cartesio in qualche modo fornisce il supporto filosofico al paradigma riduzionista della scienza classica – che pretende di conoscere semplificando, separando e oggettivando – articolando chiaramente la distinzione fra res cogitans e res exstensa, ovvero tra sostanza pensante e sostanza materiale, soggetto e oggetto, uomo e natura. Cfr. R. Descartes, Discorso sul metodo [1637], trad. di M. Garin, introduzione di T. Gregory, Editori Laterza, Roma-Bari 2009. Scrive in proposito Edgar Morin: «Noi viviamo sotto il dominio dei principi di disgiunzione, di riduzione e di astrazione, il cui insieme costituisce ciò che io chiamo “il paradigma di semplificazione”. Cartesio ha formulato questo paradigma principe dell’Occidente disgiungendo il soggetto pensante (ego cogitans) dalla cosa stessa (res extensa), ovvero la filosofia e la scienza, e ponendo come principio di verità le idee “chiare e distinte”, ovvero il pensiero disgiuntivo stesso. Questo paradigma, che controlla l’avventura del pensiero occidentale dal XVII secolo, ha indubbiamente consentito gli enormi progressi della conoscenza scientifica e della riflessione filosofica; le sue nocive conseguenze estreme incominciano a rilevarsi solo nel XX secolo» (E. Morin, Introduzione al pensiero complesso. Gli strumenti per affrontare la sfida della complessità, cit., p. 7).

[54] M. Benasayag, Il cervello aumentato. L’uomo diminuito, cit., p. 58.

[55] Il concetto di limite è attualmente oggetto privilegiato di riflessione su più fronti. Si veda per esempio R. Bodei, Limite, Il Mulino, Bologna 2026;  S. Latouche, Limite, trad. di F. Grillenzoni, Bollati-Boringhieri, Torino2012.

[56] G. O.  Longo, Homo technologicus,  Ledizioni, Milano  2001, p. 42.

[57] G.O. Longo, L’evoluzione dell’intelligenza dall’uomo a Internet, 1999,  http://istruzione.comune.modena.it/memo/allegati/Longo_doc99.pdf.  Si veda anche G. O. Longo, Homo Technologicus, Meltemi, Roma, 2001; G. Longo, UOMO E TECNOLOGIA, UNA SIMBIOSI PROBLEMATICA, 2005,  http://archivio-mondodigitale.aicanet.net/Rivista/05_numero_tre/Longo_p._5-18.pdf.

[58] Il pensiero sistemico considera ogni organismo come qualcosa di diverso dalla somma delle parti, che quindi restano mere astrazioni. Si tratta di un pensiero contestuale, un pensiero ambientale, in cui ogni fenomeno esibisce proprietà sistemiche, ovvero emergenti,  che scaturiscono dalle relazioni organizzanti, e che perciò, rinnovandosi nel passaggio da un livello precedente a uno successivo, sono tipiche di ogni particolare livello, in quanto non esistono nel livello precedente; si tratta infatti di qualità che non appartengono alla singole parti, ma scaturiscono da interazioni sempre diverse a seconda del contesto. Cfr. ancora L. von Bertalannfy, Teoria generale dei sistemi. Fondamenti, sviluppo, applicazioni, cit.

[59] M. Benasayag, Il cervello aumentato. L’uomo diminuito, cit., p. 28.

[60] Cfr. ivi, pp. 189 ss.

[61]  Su ciò, si veda infra, p.15.

[62] P. Ferri, Nativi digitali, cit., p. 81.

[63] Cfr. P. Ferri, Nativi digitali, cit., pp.75-91.

[64] F. Capeci, #Generazione 2.0, FrancoAngeli, Milano 2014, p. 89.

[65]  Cfr. ivi, pp. 88-125.

[66] Si veda P. Ferri, Nativi digitali,  cit., Parte quarta. Istruzioni per genitori e insegnanti.

[67]  Ci si riferisce ai lavori di M. Prensky, in particolare La mente aumentata Dai nativi digitali alla saggezza digitale [2012], trad. di R. Sardi,  Erikson, Trento 2013.

[68] Si veda, per esempio, N. Carr, che in Internet ci rende stupidi? Come la rete sta cambiando il nostro cervello [2010], trad. di S. Garassini, Raffaello Cortina, Milano 2011, formula una serie di significative riflessioni che hanno scatenato un acceso dibattito sul tema. Egli sottolinea, appellandosi a numerose quanto valide testimonianze  in merito,  il divario esistente fra la mente lineare, che consente  per esempio di seguire la trama complessa di un libro, modalità cognitiva prevalente negli ultimi secoli,  e la  mente non-lineare, che si alimenta diversamente, per scatti,  procedendo attraverso l’assunzione sconnessa e simultanea  di pacchetti di informazione.  Secondo lui la natura intrinsecamente frammentaria del web disperde e disarticola la nostra attenzione,  indebolendo i circuiti neuronali che presiedono ad alcune importanti funzioni.

[69] G. O.  Longo, Homo technologicus, cit., p. 124.

[70] Platone, Fedro, 274b-275c.

[71] Cfr. M. Prensky (2010), Homo Sapiens Digitale: dagli immigrati digitali e nativi digitali alla saggezza digitale, cit.

[72] Ivi, p. 23.

[73]  Ivi, p. 19.

[74]  Si veda il già citato M. Prensky, La mente aumentata. Dai nativi digitali alla saggezza digitale.

[75] M. Benasayag, Il cervello aumentato. L’uomo diminuito, cit.

[76] L’Intelligenza Artificiale nasce come disciplina intorno alla metà del XX secolo e si propone appunto l’indagine sulla riproducibilità dei processi mentali tramite il computer, nonché la possibilità di indagare sul funzionamento dell’intelligenza umana tramite la simulazione informatica.

[77] G. O. Longo, Homo technologicus, cit., pp. 89-90.

[78] M. Benasayag, Il cervello aumentato. L’uomo diminuito, cit., pp. 46-47.

[79] Su ciò, si veda ancora A. Baricco, I barbari. Saggio sulla mutazione, cit., in particolare il paragrafo intitolato  Guerra.

[80]  G. O. Longo, Homo technologicus,  cit., p. 19.

[81] G. O. Longo 24-02-2003,  Tecnologie e sapere: mutazioni e dinamiche, www.ecologiasociale.org.

[82]  M. Benasayag, Il cervello aumentato. L’uomo diminuito, cit., pp. 55 ss.

[83]  Cfr. ivi, pp. 76 ss.

[84]  Cfr. ivi, pp. 153 ss.

[85]  Cfr. ivi, p. 77.

[86] M. Benasayag, Il cervello aumentato. L’uomo diminuito, cit., p. 129.

[87] Ivi, p.166.

[88] Ibidem.

[89] M. Ceruti, Il vincolo e la possibilità, Raffaello Cortina, Milano 2009, p. 4.

[90] G. Bateson,  Una sacra unità [1991], trad. di G. O. Longo, Adelphi, Milano 1997, p. 398.

[91] E. Morin, Introduzione al pensiero complesso. Gli strumenti per affrontare la sfida della complessità, cit., p. 37.

[92]  G. O. Longo 24-02-2003,  Tecnologie e sapere: mutazioni e dinamiche, www.ecologiasociale.org.

[93] E. Morin,  I sette saperi necessari all’educazione del futuro, cit., p. 52.

[94] Sul concetto di uomo intero si veda ancora  G. Gembillo, A. Anselmo, G. Giordano, Complessità e formazione, cit.

[95]“Espressione coniata da Alvin Toffler nel libro The third wave [1980]: è una crasi dei termini producer e consumer che indica un consumatore che è a sua volta produttore o, nell’atto stesso che consuma, contribuisce alla produzione. Il termine nasce per descrivere il protagonismo dei consumatori in un’epoca che usciva dalla produzione seriale di massa per aderire alla molteplicità dei gusti e delle tendenze dei cittadini delle ricche società del primo mondo; un’epoca ancora totalmente analogica e nella quale la globalizzazione appariva soprattutto come un’opportunità di delocalizzare produzioni di beni in Paesi del terzo mondo dal basso costo del lavoro. Caduto quasi in desuetudine, il prosumer è tornato di attualità nell’era digitale e particolarmente dopo il 2001, quando Internet – reagendo allo shock dell’11 settembre – ha insistentemente cercato la collaborazione del cliente consumatore. Mentre tra il 1995 e il 2000 protagonisti di Internet sono i portali, attraverso i quali il navigatore viene indirizzato a siti specializzati (e largamente sponsorizzati) per ogni esigenza, nella fase successiva hanno vita prospera i siti che incorporano le reazioni del cliente: i motori di ricerca, in cui l’attività del visitatore è determinante per fissare il prezzo delle inserzioni pubblicitarie; il commercio elettronico, in cui la reputazione del venditore, o dell’articolo posto in vendita, è costruito sui giudizi dei precedenti utilizzatori; i blog; i siti pervasi da uno spirito wiki, cioè di collaborazione attiva delle comunità dei loro frequentatori. Anche la televisione, invitando gente comune a impersonare i reality show, ha cercato di abbassare la soglia che divide il pubblico da coloro che producono e interpretano lo spettacolo. Tuttavia gran parte di questa trasformazione è avvenuta in rete, attraverso i siti di social networking, in cui ciascun utente è invitato a creare la propria pagina e a offrire al giudizio degli altri i propri prodotti multimediali. Si determina così la nascita di un vero e proprio genere mediale, i contenuti generati dall’utente (UGC, User’s generated content)”. Enciclopedia_della_Scienza_e_della_Tecn. http://www.treccani.it/

[96] Il superamento del paradigma della scienza classica avviene anche mediante il contributo di quelle teorie scientifiche che   reintegrano  l’osservatore nel contesto rendendolo attore nella conoscenza (Cfr. N. Bohr, Biologia e fisica atomica [1935], in Id., Teoria dell’atomo e conoscenza umana,  trad. di P. Gulmanelli, Boringhieri, Torino 1961, p. 395).

[97] A. Baricco, I barbari, cit., p. 180.

[98] Ibidem.

[99] M. Benasayag, Il cervello aumentato. L’uomo diminuito, cit., p. 193.

[100] Ivi, p. 34.

[101] A. Baricco, I barbari. Saggio sulla mutazione, cit., p. 180.

[102] E. Morin, Il metodo 6. Etica [2004], trad. di S. Lazzari, Raffaello Cortina, Milano 2005, p. 202.

Image credits: Shutterstock

 

Be the first to comment on "Pensare/Internet. Il coraggio della filosofia"

Leave a comment

Your email address will not be published.


*