Blair e la manipolazione genetica degli embrioni umani

Nel frastuno delle tante notizie nazionali e internazionali di questi giorni è passata un pò in secondo piano la storica proposta di Blair di consentire in GB la manipolazione genetica degli embrioni umani. Più precisamente sarà consentito, a soli fini di ricerca, manipolare embrioni umani che verranno distrutti entro il quattordicesimo giorno di “vita”. E’ un passo fondamentale che, superando la precedente regolamentazione (Human Fertilisation and Embryology Act), ci avvicina sempre più a potenziali scenari di eugenetica. C’é chi lo ritiene un passaggio inevitabile, sottolineando come l’evoluzione biologica umana è destinata ad integrarsi con una evoluzione scientifica e tecnologica. Altri vedono solo ombre, rivendicando i confini dell’identità umana per quanto fragile. Io credo che ci siano ragioni da entrambe le prospettive ma quello che mi fa più riflettere è la netta differenza di velocità tra lo sviluppo delle conoscenze scientifiche-tecnologiche e lo sviluppo culturale, sociale e psicologico del uomo come singolo e come collettività. In un precedente post avevo segnalato il video del grande Mauro Ceruti che descriveva come, negli ultimi anni, la sua attenzione è indirizzata proprio a capire e affrontare questo divario, questo “squilibrio”. Potete vedere il video qui.Non credo che sia una questione di tabù ma di essere all’altezza delle possibilità e libertà che inseguiamo avidamente. Maggiore libertà non è solo rottura di vecchi vincoli e catene ma è anche una maggiore responsabilità verso se stessi e gli altri. La libertà è spesso anche solitudine. E’ bene capire quali sono le fantasie che ci muovono sotto la superficie di razionalità ed efficienza che le ricopre. Non è certo l’avidità che ci può dare nuove metafore, modelli e strumenti per gestire delle rivoluzioni. In un certo senso, da più versanti, la ricerca tecnica e scientifica ci spinge a guardarci dentro a mettere in atto un processo di sana introversione per trovare un senso. Infatti, oggi, incapaci di avere una rotta (perchè deve essere spesso complessa e non lineare) ci identifichiamo troppo spesso con l’agire, con l’azione che non distingue il “dentro” dal “fuori”, borderline. Il rischio è quello di fare come gli alchimisti che, proiettando la loro ricerca psicologica, interna, con la materia reale finivano per avvelenarsi col mercurio. Nella foto ho messo un bellissimo romanzo di fantascienza (per ora) che ipotizza uno dei possibili scenari che la sfida genetica ci può aprire tra qualche decennio.

KEVIN KELLY – The Next Fifty Years of Science

http://video.google.com/googleplayer.swf?docId=-6119231548215342323&hl=it
Google TechTalks
May 9, 2006Kevin Kelly

ABSTRACT
The scientific method which provides us with so many technological goodies does not resemble the science of 1600. Ever since Bacon, science has undergone a slow evolution.

Landmarks in the history of the scientific method are the invention of libraries, indexes, citations, controlled experiments, peer review, placebos, double blind experiments, randomization, and search among others. At the core of the scientific method is the structuring of information.

In the next 50 years, as the technologies of information and knowledge accelerate, the nature of the scientific process will change even more than it has in the last 400 years. We can’t predict what specific inventions will arise in the next 50 years, but based on long-term trends in epistemic tools, I believe we can speculate on how the scientific method itself — that is, how we know — will change in the next five decades.

Singolarità tecnologica

Il 16 Maggio di questo anno si è svolto alla Standford University il Singularity Summit.
Il concetto di singolarità è stato adottato, nell’ambito della futurologia, per descrivere un salto di qualità della conoscenza scientifica e tecnica talmente ampio e profondo da rivoluzionare in modo drastico e imprevedibile l’uomo e il mondo.

Il primo ad utilizzare il termine singolarità, in questo senso, è stato il matematico Vernor Vinge e probabilmente il più conosciuto teorico della singolarità è, attualmente, Raymond Kurzweil.
I singolaristi ci invitano a prendere atto che la diffusa idea di progresso lineare della tecnologia non rappresenta la reale curva di crescita. Sembrerebbe, infatti, che stia avvenendo un incremento esponenziale della tecnica. Se il trend rimane il medesimo viene ipotizzata una impressionante accelerazione, nei prossimi 50 anni, che pone all’orizzonte scenari difficili da immaginare.

L’idea di riferimento è una generalizzazione della Legge di Moore, secondo la quale i processori raddoppiano di potenza ogni 18 mesi. Bisogna ammettere che, per quanto riguarda l’interpretazione ristretta e specifica ai processori, la Legge di Moore si è effettivamente rivelata corretta sino ad oggi.

Kurzweil propone di guardare ai prossimi 30-50 anni secondo un’ottica di sviluppo esponenziale della tecnica in generale, in quanto lo sviluppo dei computer finirebbe, a suo parere, per innescare un effetto domino di feedback positivo anche sulle altre tecnologie e conoscenze scientifiche. Diversi singolaristi sono convinti che in un futuro non così lontano, attraverso vari stadi “evolutivi”, grazie allo sviluppo in campi tra cui le nanotecnologie, i super computer (in grado di simulare l’intero cervello) e le conoscenze scientifiche specifiche vi sarà una progressiva “ibridazione” tra uomo e tecnologia. Da questa accelerazione, dovrebbe sorgere la prima A.I. in grado di confrontarsi e integrarsi con quella umana e un giorno di superarla magari fondendosi ad essa.

Ora, tralasciando i sogni cyborg di Kurzweil e Co., ci tengo a chiarire che non condivido il transumanesimo “forte” che caratterizza molti promotori della singolarità ma ritengo un errore non considerare le intuizioni sul nostro futuro che emergono da questi filoni di pensiero. All’interno di molte ipotesi selvagge come quella delle super A.I. che si auto-organizzeranno-produrranno, soppiantando l’evoluzione biologica e modelli semplicistici come la riduzione dell’ipercomplesso sistema cervello-mente ad una banale stima di 10 alla sedicesima calcoli al secondo, vi sono spunti su cui è interessante riflettere.
Come avevo già scritto in “Tecnologie e scienze del vivente” la velocità di calcolo presa singolarmente è riduttiva, in realtà, già ai tempi del calcolatore a manovella di Pascal, l’uomo era superato nella velocità di calcolo da una macchina, il problema è allora di intendersi su cosa sia la cognizione, l’intelligenza, la vita, i sistemi emergenti e ipercomplessi. Io credo che lo stiamo iniziando a capire solo a desso ma riprenderò questo punto più avanti.

Credo che nessuno di noi possa negare la progressiva diffusione e “naturalizzazione” (nel senso di integrazione culturale ed emotiva) della tecnologia, è sotto gli occhi di tutti.

L’invenzione del computer ha permesso un’accelerazione impressionante della ricerca scientifica e la conoscenza in generale è in piena trasformazione con la diffusione di internet. La possibilità di rendere ancora più efficaci la gestione e produzione di conoscenza sono notevoli e difficili da immaginare.
Internet sta cambiando le tradizionali logiche di possesso, creazione e diffusione della conoscenza. Stanno iniziando a cambiare i media, i rapporti tra utente ed esperto (paziente-medico, cliente-produttore, cittadino-stato, studente-scuola). I network posso velocizzare la selezione e facilitare la produzione di idee innovative. Allo stesso tempo cresce la complessità, l’incertezza, la “knowledge and digital device” e la quantità di informazioni da gestire aumenta. Aumenta, quindi, la necessità di una cultura di Personal Knowledge Management più sofisticata e le nuove tecnologie vengono progettate secondo un Interaction Design sempre più competente del “sistema uomo”, grazie alle crescenti conoscenze scientifiche in ambito, cognitivo, psicologico e neurofisiologico.
Le ibridazioni tra uomo e tecnologia hollywoodiane alla Kurzweil dovranno attendere, ma è indiscutibile che l’interazione uomo macchina sta migliorando significativamente e diventa sempre più “naturale” concepire la propria conoscenza come un qualcosa di diffuso tra la nostra mente e le “macchine cognitive” che ci sono di supporto.

Si stanno costruendo computer sempre più potenti ma un calcolatore da solo non fa nulla. Sembra una contraddizione, prima infatti scrivevo che i computer sono serviti molto a migliorare la ricerca, ma la questione è quella di vedere il “sistema uomo-macchina” come una co-evoluzione, un circolo virtuoso dove prodotto e produttore si alternano. Lo sviluppo di una potente A.I., che oggi è ancora una chimera, passa attraverso una maggiore conoscenza dell’intelligenza biologica e psicologica che è ha la sua origine nell’organizzaione autopoietica, emergentista e neghentropica della vita.
A mio parere la visione dei singolaristi è spesso riduzionista e semplicistica ma penso sia necessario che qualcuno provi a lanciare in ipotesi fino ai limiti della nostra immaginazione. Le intuizioni hanno bisogno anche di questo atteggiamento.
E’ comunque in atto una rivoluzione in molti campi del sapere scientifico e tecnologico che intaccano tradizionali dicotomie su cui costruivamo la nostra identità, la nostra conoscenza.

Potete trovare questo mio articolo anche su Idearium.

Il gioco è una cosa seria: oltre la tastiera e il mouse

Spesso si tende a prendere poco sul serio il mondo dei videogiochi, essendo un intrattenimento tradizionalmento dedicato ai bambini. Nel mentre però questa realtà progressivamente conquista sempre più fruitori adulti attraverso la costante evoluzione tecnica e contenutistica dei prodotti. Non è solo una questione di “Atari Generation” divenuta ormai adulta, ma obbiettivamente il videogioco sta diventando una delle più importanti forme di intrattenimento. Questo settore industriale guadagna enormi fette di mercato influenzando sempre più il mondo del cinema, in un primo tempo con il dilagare della computer graphic e recentemente come esplicito concorrente in quanto crescente alternativa di intrattenimento.
La ricerca tecnologica attorno al mondo dei videogiochi rappresenta una importante avanguardia per l’interazione uomo macchina e le interfacce. Questo è dovuto al fatto che chi progetta videogiochi persegue una sempre più completa, multisensoriale ed emotiva immersione nel gioco. La crescente qualità e realismo di immagini e dinamiche rende l’esperienza di gioco sempre più intensa e non ho dubbi che da questo mondo nasceranno le prossime ispirazioni che influenzeranno il modo di interagire con l’ICT in generale, anche nel mondo del lavoro e della vita quotidiana.In questi giorni si sta svolgendo a Los Angeles l’E3 2006 (Electronic Entertainment Expo), si tratta di una della più importanti fiere per l’interactive entertainment industry. La Nintendo ha proposto in questo evento la sua innovativa tecnologia di interazione, Wii. Ecco un video esplicativo:



Trovo molto valida questa revisione del tradizionale pad, ma vediamo altre forme di interfaccia che passano sempre attraverso l’uso della mani. Interessante è la tecnologia touch screen proposta da Jefferson J. Han:

Da osservare anche la Mixed Reality Interface presentata al CeBIT 2006 di Hanover:

Tornando nel mondo dell’intrattenimento, il noto film Minority Report di Spielberg è noto per aver coinvolto esperti, anche dell’MIT, per rappresentare il più realisticamente possibile la tecnologia di un futuro prossimo. Tra questi esperti John Underkoffler è quello che ha proposto la tecnologia più famosa del film che corrispondeva a dei guanti che manipolavano a distanza su uno schermo immagini e filmati. Vi suggerisco di vedere, nei filmati presenti sul sito G-SPEAK (Gestural Interface Technology), a che stadio è oggi quella stessa tecnologia.La tecnologia di interazione diventa anno per anno sempre più precisa nel interfacciarsi efficacemente con qualsiasi stimolo mandato dal nostro corpo, come per esempio il movimento oculare (di cui c’è grande esperienza anche in Italia alla SR LABS) o gli stimoli vocali.

In fine, forse per alcuni un po’ inquietante, cresce lo sviluppo di Brain Interface Technology come possiamo vedere da questo video anch’esso del CeBIT di Hanover:

 

Credo che tra non molto questa tecnologia uscirà dallo specifico mondo dell’intrattenimento e dei laboratori di ricerca per modellare il nostro modo di interagire con l’ICT in generale, per questo ho ritenuto utile raccogliere e proporre questi stimolanti video che potete trovare senza eccessive difficoltà nella rete.

P.s. L’immagine all’inizio del post è una virtual keyboard che proietta da un cellulare, tramite un raggio di luce, una testiera per scrivere su qualsiasi superficie piatta.

Mauro Ceruti e la nuova sfida della complessità

Mauro Ceruti è uno dei più importanti rappresentanti italiani della sfida della complessità. Ho trovato sul sito della Trento School of Management un interessante video dove introduce i più recenti intenti della sua ricerca. Attualmente Ceruti è Direttore di CE.R.CO – Centro ricerca antropologia ed epistemologia della complessità, dell’Università di Bergamo. La recente ricerca di Ceruti è un importante conferma della necessità di convergenze tra saperi tradizionalmente distanti. Vi suggerisco di seguire gli sviluppi del progetto CE.R.CO. il quale ha di recente una newsletter alla quale potete iscrivervi. Non ho difficoltà a definire “ibrida” la riflessione proposta nel video. Buona visione.

Ibride riflessioni sulla complessità

Nel 2005 è stato pubblicato dalla Codice Edizioni l’interessante libro di Mark C. Taylor : “Il momento della complessità”.

Non è il classico testo di introduzione alle teorie della complessità, “Il momento della complessità” è invece un buon esempio di riflessione ibrida, in quanto propone una analisi estremamente transdisciplinare del paradigma della complessità come momento storico, culturale e scientifico.
Non è un libro semplice e a volte troppo sbrigativo, ma bisogna dare merito all’autore di aver proposto una riflessione vasta e stimolante. Può essere una sfida, per il lettore non abituato a gestire tanti e diversi saperi, ma spero che molti apprezzino il costante oscillare tra l’umanistico e lo scientifico (saperi ancora troppo spesso distanti) che il libro propone.
Non meno importante, per chi vuole approfondire determinati argomenti, la presenza di una valida bibliografia.

Vi suggerisco questo libro che vi farà ragionare sull’importanza della sfida della complessità attraverso l’opera di architetti come Mies van der Rohe, Robert Venturi, Frank Gehry, di filosofi come Kant, Hegel, Michel Foucault, Jacques Derrida e Jean Baudrillard e degli artisti Renè Magritte e Chuck Close.
Tra gli autori della complessità che Taylor cita trovo interessante il lavoro di J.A.S. Kelso che non conoscevo.

Tecnologia e scienze del vivente: un circolo virtuoso

Rodney Brooks (direttore dell’Artificial Intelligence Laboratory e docente presso la cattedra Fujitsu di informatica del MIT) scrive: “[…] la mia crisi scientifica di mezza età si è realizzata nel passare dallo studio dei robot umanoidi a quello di una semplicissima domanda su ciò che significa essere vivi: quali sono i principi organizzativi che funzionano nei sistemi viventi? Nel mio laboratorio presso il MIT stiamo cercando di costruire robot dotati di proprietà tipiche dei sistemi viventi che il robot del passato non avevano” (su “I nuovi umanisti”, di J. Brockman [ideatore di http://www.edge.org ], Garzanti, 2005).
Perché un grande esperto di robotica si interessa alle scienze del vivente? Per anni si è pensato che la potenza crescente dei computer avrebbe permesso di avvicinarsi velocemente al superamento delle prestazioni di un essere umano. In realtà già ai tempi del calcolatore seicentesco di Pascal, composto di ruote dentate, l’uomo era superato nella velocità di calcolo, il problema è allora di intendersi su quali processi cognitivi vogliamo confrontarci.
La velocità di calcolo presa singolarmente è riduttiva se il nostro fine non è solo vincere a scacchi. Qualche centinaia di neuroni producono percezioni più veloci e complete di centinaia di migliaia di computer messi assieme. Oggi, sia nella ricerca pura che in quella industriale, avanza la necessità di produrre tecnologia in grado di gestire compiti complessi non solo sul versante di calcolo ma per esempio sul piano “percettivo” e di “interazione” con il cotesto e l’utente. La sfida è sempre più quella di sviluppare programmi e processori in grado di “sopravvivere” a danni, errori e virus. Di “adattarsi” al variare dei contesti, di essere “attivi” davanti alla novità e all’imprevisto. Non basta più un calcolatore velocissimo ma fondamentalmente “stupido”.
Queste nuove necessità conoscitive e produttive hanno fatto sì che negli ultimi 20 anni circa sempre più laboratori di informatica, robotica, ecc. abbiano sentito l’esigenza di confrontarsi con la biologia, le scienze cognitive, la neurologia e la psicologia.Potete immaginare le difficoltà di comunicazione nel coniugare esperti così distanti e competenze così vaste. Per questo sono sempre più premiate figure e riflessioni trasversali. Ricercatori come Brooks hanno capito l’importanza che può avere in robotica (ma non solo) la comprensione dell’ordine complesso che sottende la vita. Cerchiamo di capire perché.
L’efficacia adattiva e cognitiva degli esseri viventi è un tutt’uno con la logica che sottende il vivente stesso. Infatti, si è capito nelle recente biologia, che la vita è cognizione e la cognizione è vita. Oggi, in laboratori come quelli del MIT, non si guarda più solamente alle prestazioni ma si vuole andare a capire cosa succede nella “scatola nera” e per fare ciò, per esempio, lo studio e la simulazione di una singola cellula è una grandissima sfida per lo sviluppo di tecnologia sempre più “intelligente”. Il punto cruciale è capire che le capacità cognitive della vita sono un tutt’uno con la sua organizzazione e autoproduzione (autopoiesi).
Non si è ancora riuscito a ricostruire tutto il quadro che ha dato origine alla nascita della vita sulla terra ma è ormai assodato che il vivente sia un sistema ipercomplesso non lineare, emerso da un brodo primordiale il cui stato fisico e chimico era al limite col caos. Infatti, solo in un uno stato sufficientemente agitato (quindi ricco di scambi) ma non troppo (altrimenti prevale il caos) può emergere e conservarsi la vita. Come dice H. Atlan, possiamo immaginare la vita come una realtà, uno stato, una organizzazione a metà tra il cristallo e il fumo.
Il premio Nobel I. Prigogine ha studiato come in questi stati limite emergano in modo spontaneo strutture organizzative neghentropiche (sistemi dissipativi) non riducibili alla natura fisica e chimica che le sottende (se si riesce a mantenere il sufficiente flusso di energia e materia).
La vita è un sistema sufficientemente chiuso per avere autonomia e sufficientemente aperto per sfruttare informazioni, materia ed energia dall’ambiente circostante. L’autonomia permette di creare una “bolla” neghentropica in un universo di entropia, che produce la caratteristica tendenza della vita a diventare sempre più complessa (come vedremo, ovviamente anche cognitivamente).
La tendenza ad accrescere complessità organizzativa ha prodotto un numero straordinario di grandi rivoluzioni biologiche, rafforzate o affossate nel tempo dalla selezione naturale.Questo lungo processo evolutivo, da cui sono emersi sistemi sempre più complessi, sottende tanto la natura delle membrane cellulari, del dna, del sistema immunitario, quanto quella della psiche umana. Non ha infatti senso la dicotomia cartesiana che separa il soma (riducendolo alla fisica e alla chimica) dalla psiche. Non perché la psiche sia riducibile al sistema nervoso (di cui invece ne è il sistema emergente) ma perché la vita, la biologia e quindi il soma sono di per se stesse già un sistema cognitivo primordiale.
Perché la vita è cognizione e la cognizione è vita? Non dobbiamo dimenticarci che l’ordine vivente non contraddice l’ordine fisico e chimico (non è un miracolo) ma però non è nemmeno riducibile ad esso (come ha creduto la scienza per secoli). Il sistema vivente, nel suo essere un processo auto-produttivo e auto-organizzativo materiale è allo stesso tempo un processo che produce informazione. L’informazione è una realtà priva di senso senza un sistema cognitivo che la produce.
Come dicono Maturana e Varela nel loro interessantissimo “L’albero della conoscenza”, il sistema autopoietico compie un accoppiamento strutturale con la realtà esterna e così facendo produce un mondo.
Il girasole, seguendo la rotazione del sole, compie un classico esempio di una delle numerosissime proto-cognizioni di cui è composta la vita (vedi DNA, membrana cellulare, ecc.), che lungo la sua evoluzione neghentropia è arrivata a sviluppare le cognizioni vere e proprie (come le si intende nel linguaggio comune), fino alla coscienza umana. All’interno di questo sistema autopoietico e il suo caratteristico equilibrio tra chiusura e apertura sistemica (tra identità e appartenenza) si produce cognizione, si produce un mondo, ha vita e senso parlare di informazione.
Queste, a mio parere, sono (dette in modo troppo sintetico e me ne scuso) le scoperte fondamentali che stanno influenzando anche ambiti disciplinari come la robotica, l’I.A., ecc..Gli esempi di convergenza tra scienze del vivente e tecnologia sono numerosi ed è difficile averne un quadro completo. Una ricerca che stavo leggendo ultimamente è quella del Progetto Embryonics al Logic Systems Laboratori del Ecole Polytechnique Fédérale de Lausanne (EPFFL).
Questa ricerca: “…vuole sviluppare una metodologia per la concezione di circuiti elettronici digitali ispirati dai processi ontogenetici che guidano lo sviluppo degli organismi multicellulari in natura. [..] La motivazione di un tale tentativo dovrebbe essere ovvia, considerando che gli organismi multicellulari sono esempi impressionanti di sistemi massivamente paralleli: le 6×10¹³ cellule di un corpo umano, elementi relativamente semplici, lavorano insieme per esibire comportamenti estremamente complessi (tra i quali il più impressionante è l’intelligenza). Se consideriamo la difficoltà di programmazione dei computer paralleli, l’ispirazione biologica potrebbe suggerire degli approcci per trattare il parallelismo massivo nell’elettronica. Inoltre, la sorprendente capacità degli organismi biologici di sopravvivere a danni considerevoli può essere di grande interesse nella concezione di circuiti digitali, la cui crescente complessità sta facendo emergere il problema della tolleranza ai difetti (l’abilità di funzionare nonostante la presenza di difetti nel subsubstrato di silicio di un circuito).” (di G. Tempesti, D. Mange, E. Petraglio A. Stauffer; su Systema Naturale, 2004, Vol. 6 pp. 153-190).
Cos’altro aggiungere se non che è un fenomeno interessantissimo e da alimentare questo “circolo virtuoso” in cui discipline tradizionalmente distanti (se non a volte aliene) producono reciproci e validi stimoli per nuove conoscenze.
Crescono il numero di “esperti con competenze ibride” che sono a mio parere espressione di una accresciuta qualità nel livello della transdisciplinarietà maturata in questi trent’anni di sfida della complessità. Personalmente credo che siamo arrivati ad una massa critica di conoscenze che prelude ad un salto di livello della sfida della complessità e su questi temi mi impegno da tempo in vari progetti di convergenza, informazione e ricerca.
Permettetemi una parentesi finale. Logiche sistemiche e autopoietiche sono fertili modelli trasversali tra tutte le scienze del vivente e permettono non solo di ispirare le ricerche di piccoli robot insetti, reti neurali, ecc. ma anche di influenzare lo sviluppo dell’architettura di software, di quotidiana utilità.
Ultimamente mi ha colpito il progetto YackPack, di cui ho letto in questo articolo .
In particolare mi ha richiamato alla mente un modello della organizzazione della Psiche multipolare su cui sto lavorando da diversi anni. Ora non voglio tediarvi con voli pindarici ma, in linea con quanto vi ho scritto fin’ora, riflettevo con Leandro Agrò sulla possibilità di sviluppare un programma di gestione che fosse in linea con l’organizzazione della mente.
Non solo per l’ipotesi che un isomorfismo tra l’organizzazione del programma e la mente dell’utente sia premiato da una maggiore funzionalità e intuibilità, ma anche perché, come ho cercato di raccontarvi, la strategia migliore è inscritta nella organizzazione del vivente e la psiche è espressione di questo ordine alla ennesima potenza.

ICT e Psiche

– Questo articolo è pubblicato anche su PKM 360°Numerosi sono gli studi su come il futuro prossimo dell’ICT
condizionerà il nostro stile di vita, il nostro modo di lavorare e sui modi che abbiamo di concepire la realtà, lo spazio, il tempo, la conoscenza, l’identità. Si è discusso a lungo sulla inadeguatezza di tradizionali dicotomie come reale-virtuale, naturale-artificiale ed i più recenti sviluppi tecnologici cominciano a farci esperire, in modo più o meno consapevole, queste trasformazioni. Vediamo ogni sei mesi superare soglie di definizione, qualità e realismo delle immagini digitali tali da poter accostarsi alla realtà. Pensiamo a come il digitale nel cinema, dai soli effetti speciali, si sia esteso sostituendo gli scenari e gli attori reali. Nei prossimi anni realizzare un film sarà come mettere sullo schermo un sogno, una fantasia, un’idea così com’è stata immaginata, in ogni particolare e con un realismo elevatissimo. La distanza tra video giochi e cinema si assottiglierà, questo darà vita a sempre maggiori possibilità esperenziali e di immersione nelle storie. Questa possibilità di comunicare, esprimersi ed esperire diventerà un tuffo nel mondo immaginale che non ha paragoni, è un salto paradigmatico. Nel passato abbiamo usufruito di ridotte capacità di memoria, espressione e condivisione di informazioni, non si tratta quindi di rendere più efficienti i supporti e i canali tradizionali ma letteralmente di una trasformazione.
Cos’è l’informazione? Non è di certo una proprietà dell’inchiostro o della carta di un libro, così come non è riducibile ai bit che scorrono in un microchip e non sono nemmeno le molecole in sé del DNA. L’informazione non è una “cosa” è un sistema complesso di interazioni, è una realtà emergente inseparabile dalla cognizione che la produce. La vita è cognizione e l’ ICT sono una dilatazione della nostra mente. In futuro comunicare sarà sempre più simile all’esperienza di immaginare, multisensoriale, multimediale e questa ricchezza di canali e linguaggi arricchirà la nostra identità, le relazioni e la cultura.
La nostra memoria, conoscenza, identità sarà dislocata, alimentata ed espressa nell’ICT con una crescente integrazione uomo tecnologia. Incominciamo a sperimentare solo ora le intuizioni degli scrittori di fantascienza (vedi anche la bodyart) che avevano mostrato come in realtà il nostro corpo, da sempre base “materiale” della nostra identità, è in realtà un limite valicabile. La possibilità di condividere informazioni fuori dalla azione verbale e gestuale diretta è cominciata con le prime pitture rupestri, con i primi segni con le forme di scrittura primordiali. Dov’è la conoscenza? Nei neuroni? Nelle menti? Nei libri? E’ un sistema di significati e relazioni, è una forma di ordine autonomo. Cosa significa poter rappresentare, immagini, suoni, fantasie, idee? Gli esempi di diffusione di conoscenza sono numerosi. Che impatto ha memorizzare informazioni in grande quantità, recuperarle velocemente, trasportarle su vari supporti? Quanta musica avete ascoltato da quanto siete nati grazie al vinile e poi ai CD? Che impatto ha poter registrare tutta la musica che possedete in un oggetto che sta nel palmo di una mano come un lettore mp3? E avere legato al collo (chiavette USB) una memoria con dentro i libri che amiamo, i film, le foto, i ricordi? Quanto ci rappresenta? Come amplifica la nostra identità e possibilità di condivisione?
L’attuale possibilità di costruire realtà virtuali sempre più complesse, realistiche e interattive crea un ponte con la “capacità immaginale”. La progressiva integrazione di diverse funzioni in un unico supporto (telefonini multifunzione, centri multimedia) non sono solo espressione di una logica funzionale ma della progressiva integrazione tra la nostra mente e la tecnologia. Fino a che punto il nostro Io, la nostra identità “sono” il nostro corpo, le nostre interazioni col mondo? Psichicamente fino a che punto noi siamo riducibili al nostro Io? Se vogliamo provare a lanciare uno sguardo al futuro, vedo uno scenario in cui il nostro Io dovrà aggiungere, oltre al non essere padrone in casa propria (come emerse dalla filosofia di fine ‘800 e poi con Freud), il non avere fissa dimora. Un’identità nomade, non stanziale, meno monolitica, più complessa, prodotta da più e varie componenti in rapporto dinamico tra loro. L’equilibrio tra coerenza e dilatazione sarà il metro delle nostre possibilità. Una armonia delle parti in equilibrio tra il rischio di annichilirsi per l’eccessivo prevalere di una parte sulle altre o tra la dissoluzione per impossibilità di mantenere un centro. Le più recenti teorie della personalità, concepiscono la mente come la concepiva Jung cioè complessa, multipolare con un Sé come simbolo della totalità psichica e secondo me l’ICT spinge verso una mente con questo genere di organizzazione.
Si sbaglia a sottovalutare il lato psicologico di questa trasformazione in atto, pensiamo infatti all’impatto che ha avuto la televisione, che infondo è uno strumento molto limitato, sulla cultura e sulle identità. Vedere e produrre immagini non è mai qualcosa di banale perché, anche se non ce ne rendiamo conto, l’inconscio (che come linguaggio più arcaico usa proprio immagini), raccoglie l’informazione in una dimensione dove tutto è in relazione. Abbiamo una realtà psichica inconscia che è profondamente affine e stimolata dalla potenza della nuova tecnologia. L’ICT sembra rappresentare su di un nuovo versante il rapporto che abbiamo dentro di noi con l’inconscio e le immagini che da esso scaturiscono. Internet sta assumendo le caratteristiche di un inconscio collettivo digitale dove spazio e tempo vengono meno, tutto è collegato e vi emergono fenomeni autonomi e imprevedibili.
Il mio invito è di accettare questa sfida e riconoscere la forza insita nella facilità di rappresentare l’autonomo e politeistico mondo immaginale. Non nascondiamoci dietro agli attuali e circoscritti utilizzi che facciamo di questa tecnologia, che non fanno altro che ricalcare (a volte in peggio) i tradizionali modi di interagire. Oggi trasformare un’idea in una immagine, in un filmato, in un suono è alla portata di tutti. Non c’è più bisogno di essere ne pittori, ne musicisti, ne particolarmente ricchi. Inoltre si può trasmettere la nostra idea in modi, luoghi e tempi che da un lato restringono la distanza tra l’atto di immaginare e l’azione concreta del comunicare, dall’altro ne moltiplicano le possibilità. In qualche modo tutto ciò che ci passa per la testa ha in potenza una crescente possibilità di essere tradotto in una realtà virtuale sempre più potente, veloce, fruibile, diffusa, dove i vecchi confini vengono meno. Come tutte le tecnologie di grosso impatto vi sono anche dei pericoli, se utilizzate in modo inappropriato, per esempio, in questo caso, per soggetti deboli come bambini o persone psicologicamente fragili. Per fare i conti con la virtualità del proprio Io bisogna prima averne sviluppato uno fino in fondo.