Cultura e tecnologia dell’informazione: 

un ipertesto di questo secolo

di Marcello Frixione

Gli autori di questo libro esordiscono affermando che l’opera ha un’anima umanistica e un’anima tecnico-scientifica. Personalmente, non posso che concordare con una impostazione di questo tipo. Anzi, da parte mia, premetto di non credere che esistano una cultura umanistica e una cultura scientifica come entità separate. O meglio, sono consapevole che di fatto questa distinzione è tuttora ben presente ed attiva nel modo in cui è organizzato, dal punto di vista sociologico, il nostro sapere. Ritengo tuttavia che ciò costituisca soltanto un accidente storico (abbastanza recente, peraltro, che può essere fatto risalire grosso modo alla cultura idealistico-romantica) privo di alcuna giustificazione profonda, se non la discutibile assunzione che l’uomo sia qualcosa di profondamente separato dal resto del mondo naturale in cui è situato. Ovviamente, i nostri saperi assumono, in vari contesti, forme molto differenti, e le regole del discorso scientifico (ma sarebbe meglio forse parlare delle regole dei diversi tipi di discorso scientifico) sono in parte diverse dalle regole che informano altri ambiti della cultura umana. Non mi sembra proficuo tuttavia istituire uno spartiacque netto che separi la conoscenza della natura (e la sua applicazione tecnologica) da altre forme di sapere. Da questo punto di vista, le tecnologie dell’informazione costituiscono probabilmente uno degli esempi migliori di come istanze provenienti da ambiti disciplinari molto diversi possano interagire nel generare fenomeni inediti, ed entrare in risonanza con settori apparentemente remoti della cultura. Tenterò di esemplificare questo assunto fornendo qualche rapido cenno ad alcuni elementi che costituiscono, in un certo senso, gli antecedenti storici dei temi trattati in questo libro. Se per un verso la sorprendente evoluzione dell’informatica è stata resa possibile dagli sviluppi delle tecnologie dell’hardware passate in rassegna nel capitolo 2, per altri versi tale evoluzione si basa su alcuni concetti apparentemente semplici ma straordinariamente potenti e ricchi di conseguenze, nati in un contesto completamente diverso da quello delle scienza dei calcolatori, e, da un punto di vista cronologico, antecedenti ad essa. Tali concetti sono stati elaborati nell’ambito della cosiddetta teoria della computabilità effettiva, ad opera di vari logici matematici; tra questi l’inglese Alan Turing riveste un ruolo di primo piano. Sempre nel cap. 2, si fa cenno al ruolo alle macchine di Turing, un modello astratto di calcolo algoritmico, come modelli teorici dei calcolatori digitali. Uno dei contributi di Turing che, in prospettiva, si sono rivelati più ricchi di implicazioni tecnologiche è stata la constatazione che, una volta che l’informazione è rappresentata in maniera digitale (codificata cioè sotto forma di numeri naturali), diventa possibile trattare i dati di un calcolo e le istruzioni che esprimono le operazioni da eseguire su di essi come entità sostanzialmente omogenee. E’ stata questa idea, ripresa nel modello di calcolatore proposto da John von Neumann, a consentire la straordinaria flessibilità degli attuali calcolatori. Nelle macchine di von Neumann dati e programmi sono rappresentati in un formato simile, e immagazzinati negli stessi supporti di memoria. Questo rende possibile, ad esempio, definire programmi che assumano come dati altri programmi e li elaborino, producendo a loro volta programmi come risultati. Si possono in questo modo definire "macchine astratte" puramente virtuali via via più remote dalla struttura fisica del calcolatore, costruendo così, strato su strato, dispositivi che consentano forme di interazione con il calcolatore stesso più vicine alle esigenze dell’utente. La facilità d’uso degli attuali personal computer, la loro capacità di elaborare dati di tipo multimediale (cap. 4) fino alla realtà virtuale, poggiano in ultima analisi su questa possibilità. Così come analoghe considerazioni sono alla base degli sviluppi telematici (cap. 5). Le prestazioni di Internet, ad esempio, si basano sul fatto che è possibile trasmettere in un formato sostanzialmente omogeneo sia programmi che dati di diverso tipo, assieme alle informazioni su come tali dati debbono essere interpretati e utilizzati (ad esempio, se si tratti di testo o di immagini, oppure di suoni). Ora, è interessante notare che le ricerche di Turing non erano motivate dalle loro possibili implicazioni tecnologiche (che peraltro allora, verso la metà degli anni trenta, non potevano essere neppure lontanamente immaginabili). Gli obiettivi di Turing si collocavano nell’ambito delle indagini sui fondamenti della matematica, un settore di ricerca ai confini fra logica formale, matematica e filosofia. Così come, su altri versanti, le sue ricerche sul concetto di calcolo sono risultate cruciali per il dibattito teorico in psicologia e in filosofia della mente. Tramite i risultati di Turing, le basi teoriche dell’informatica risultano d’altro canto intimamente collegate ai teoremi di incompletezza di Gödel. Ci troviamo quindi ad un crocevia tra i più vitali della cultura contemporanea, che, lungi dal costituire un ambito di specialismo tecnico, presenta vaste rispondenze in molteplici settori. Se poi si decide di tentare accostamenti più arditi, individuando suggestioni ed assonanze più intuitive e meno tecnicamente fondate, non si può che constatare che i temi e i concetti che qui entrano in gioco, come quelli di metalinguaggio e di autoriferimento, delle possibilità e dei limiti di linguaggi e di codici di parlare di loro stessi e di autorappresentarsi, costituiscono motivi ricorrenti di tutta la cultura del nostro secolo, che spaziano dalla linguistica alla filosofia, dalla critica letteraria alla psicanalisi, coinvolgendo correnti di pensiero come la filosofia analitica, lo strutturalismo, l’ermeneutica, ed emergendo in molte manifestazioni artistiche, dalla letteratura al teatro, dal cinema alle arti visive. Forse non è del tutto casuale che le possibilità di una strutturazione non lineare del testo propria dell’organizzazione ipertestuale della conoscenza, così come la commistione di forme diverse di rappresentazione tipica della multimedialità, siano stati largamente anticipate dalle varie correnti della sperimentazione artistica del novecento, da Joyce alle avanguardie pittoriche, prima ancora che diventasse possibile la loro realizzazione informatica. In questa prospettiva dunque, ciò che ha reso possibili gli straordinari esiti delle tecnologie dell’informazione affonda le proprie radici ed è strettamente correlato, in una fitta maglia ipertestuale, con la cultura del nostro secolo, con tutta la cultura del nostro secolo.

Marcello Frixione

Marcello Frixione ha conseguito un dottorato in Filosofia della Scienza presso l’Università di Genova, e svolge attività didattica e di ricerca presso l’Istituto Internazionale per gli Alti Studi Scientifici "E.R. Caianiello" di Vietri sul Mare (SA). I suoi interessi di ricerca si collocano nell’ambito delle scienze cognitive, un settore interdisciplinare di ricerca sulla mente che coinvolge, fra gli altri, psicologi, linguisti, filosofi, scienziati dei calcolatori e studiosi di neuroscienze.

RITORNA ALLA PRESENTAZIONE

RITORNA AL LIBRO