La rilevanza dell’informazione e delle tecniche volte alla sua rilevazione, memorizzazione, manipolazione e comunicazione.


 

Il presente lavoro viene articolato in tre scritti, rispettivamente volti a rilevare i fondamenti teorici del Cyberspace, la sua struttura e dinamica e, infine, l’influenza del Cyberspace sui fattori delle relazioni internazionali.
Questo primo scritto intende evidenziare, in primo luogo, la rilevanza dell’informazione e delle tecniche volte alla sua rilevazione, memorizzazione, manipolazione e comunicazione. In secondo luogo, vengono presi in considerazione i fondamenti teorici su cui poggiano le tecnologie ITC evidenziandone il carattere interdisciplinare che si ritiene permetta di qualificare il Cyberspace quale autonomo e complesso fattore di progresso della società oltre che come spazio di interazione tra attori.

The present work is articulated in three writings, respectively, aimed at detecting the theoretical foundations of Cyberspace, its structure and dynamics and, finally, the influence of Cyberspace on the factors of international relations. This first paper aims to highlight, first of all, the relevance of information and techniques aimed at its detection, storage, manipulation and communication. Secondly, the theoretical foundations on which ITC technologies are based are taken into consideration, highlighting their interdisciplinary character, which is considered to qualify Cyberspace as an autonomous and complex factor of progress of society as well as a space of interaction between actors.

Introduzione

Esiste un rapporto molto stretto tra fantascienza e scienza in ragione del quale la prima molto spesso “suggerisce idee alle diverse e situate comunità di scienziati, i quali possono proficuamente includerle nelle loro teorie, o stravolgerle a piacimento, mentre la scienza conia talvolta nozioni e individua fenomeni più strani di qualsiasi prodotto inventato dalla fantascienza”[1] .

Attraverso l’espressione artistica si muove “il carro inerte” [2] della società grazie a concetti, idee, visioni il cui contenuto potrà essere delineato in un momento successivo attraverso l’opera della politica e della scienza.

Da questo punto di vista, nonostante il cyberspace sia costituito da tecnologie la cui scienza poggia sulle ricerche dei primi del 900, a loro volta espressione di una nuova forma di conoscenza affermatasi con la diffusione dei testi scritti, la prima utilizzazione del termine la si ritrova in un romanzo del 1984, Neuromancer [3] di William Gibson, mentre è alla successiva elaborazione compiuta in ambito prevalentemente militare che si deve una più puntuale rappresentazione della sua struttura e dei suoi caratteri.

Quella che possiamo indicare come definizione artistica del CS non è tuttavia priva di interesse. Essa descrive una realtà che negli anni 80 iniziava a concretizzarsi e ne evidenzia i caratteri principali di cui oggi possiamo riconoscerne i segni nelle tecnologie dell’Internet of Things, dei Big Data, delle scienze analitiche, mediche, tecniche, urbanistiche e finanche nell’arte stessa e nell’editing genomico.

L’Autore ambienta il suo romanzo nel 2058 in un contesto urbano, le città di Chuba e Night City e lo Sprawl, un agglomerato urbano che si estende lungo le coste est degli Stati Uniti, iper-antropizzato, caotico, spesso violento. La storia si sviluppa seguendo il tentativo di un’Intelligenza Artificiale, chiamata “invernomuto”, di eliminare i “controlli di Turing” che gli impediscono di evolversi in un’intelligenza superiore. Tentativo che viene contrastato da un’altra Intelligenza Artificiale, “Neuromante”. Le dinamiche sociali sono dominate e orientate da valori prettamente economici e gli “affari sono un costante ronzio subliminale”. La città è qui vista come “un esperimento dissennato di darwinismo sociale, concepito da un ricercatore annoiato che tenesse un pollice in permanenza sul pulsante dell’avanti-veloce”.

L’elemento strutturale e al contempo dinamico che sorregge la società delineata nel romanzo è costituito dai dati e dal valore che essi acquisiscono tramite la Matrice, il Cyberspace.

Questa consiste in un infinito spazio elettronico a cui è possibile accedere per archiviare, scambiare, carpire dati e informazioni, descritto come “un’allucinazione vissuta consensualmente ogni giorno da miliardi di operatori legali, in ogni nazione […] Una rappresentazione grafica di dati ricavati dai banchi di ogni computer del sistema umano. Impensabile complessità, linee di luce allineate nel non-spazio della mente, ammassi e costellazioni di dati “.

La definizione “artistica” del cyberspace finora tratteggiata, seppur suggestiva e per molti tratti non distante dalla realtà che si sarebbe in seguito affermata, non permette di affrontare un’analisi del cyberspace volta a delinearne i caratteri essenziali.

A tal fine occorre anzitutto ricostruire il valore dell’informazione e l’origine del cyberspace attraverso le diverse scoperte scientifiche e tecniche che, pur muovendo da ambiti diversi e sviluppate per finalità differenti, determinarono i presupposti tecnici e teorici alla base dell’attuale stadio di sviluppo del cyberspace e informano nei suoi caratteri principali il progresso sociale.

Al mutato concetto di informazione è infatti legata la costruzione dell’odierna Società della Conoscenza che, sorretta dal progresso tecnologico, pone in discussione principi e valori finora riferimento della società elaborandone al contempo di nuovi le cui implicazioni appaiono al momento in larga parte indefinite.

In secondo luogo, occorre ricostruire la definizione di cyberspace che, incerta e discussa come ogni aspetto che riguardi le attuali tecnologie della telecomunicazione (ITC), è stata prevalentemente sviluppata in ambito militare.

A tale ambito, in ragione di evidenti interessi di sicurezza, va ricondotta, in terzo luogo, l’individuazione dei caratteri propri del cyberspace dai quali dipendono profondi mutamenti che investono tanto il dominio militare e securitario, quanto la dimensione sociale considerata nel suo complesso.

L’informazione 

La rilevanza acquisite all’interno delle relazioni internazionali dalle tematiche legate allo sviluppo delle ITC è espressione della capacità del cyberspace di attribuire un nuovo e più ampio valore alle informazioni.

L’informazione costituisce infatti l’elemento dinamico dei rapporti sociali poiché per suo tramite, nell’interagire delle sue molteplici forme, si determinano le idee e i comportamenti delle persone e delle masse. Entro gli attuali sviluppi della società globale, sempre più volta a fondare le proprie dinamiche su processi di valorizzazione della conoscenza, l’informazione non trova più il suo valore nell’essere funzionale al raggiungimento di un fine, diviene essa stessa la risorsa indispensabile per il progresso della società umana, per la stessa determinazione del fine da perseguire.

Il concetto di informazione trova la sua origine nel termine latino informatio il cui significato era quello di “nozione, idea, rappresentazione” e nella sua accezione classica derivata dal greco, indicava l’azione dell’informare, di dare forma ad un’idea[4].

Ad esso sono oggi attribuiti una pluralità di significati in ragione dei diversi domini[5] in cui l’informazione viene in considerazione così come delle finalità che per suo tramite è possibile perseguire. Come evidenziato da Claude Shannon, al cui lavoro si deve la teoria generale dell’informazione che sorregge l’edificazione del cyberspace, nonostante i diversi significati proposti da più autori rispetto alle diverse applicazioni dell’informazione, è difficile individuare un concetto unico di informazione che renda conto in modo soddisfacente delle sue numerose possibili applicazioni in questo ambito generale” [6].

Tuttavia, all’informazione corrisponde un’azione che ha uno scopo ben definito: “comunicare qualcosa a un recettore (individuo o massa) con l’intento di produrre effetti, anche difficilmente prevedibili, a livello sociale e comportamentale.”[7].

Ed è proprio nell’atto della comunicazione che l’informazione costituisce elemento dinamico del progresso umano.

Attraverso la comunicazione delle informazioni si sono affermate le conquiste del sapere, le scoperte scientifiche, la cultura, l’arte, le grandi opere. Attraverso essa si sono elaborate e diffuse le idee che hanno sorretto rivoluzioni politiche, economiche, scientifiche e tecniche.

La rilevanza storica dei processi di comunicazione deriva dalla natura stessa dell’uomo, essendone l’atto di comunicare la sua espressione più qualificante. Come è stato rilevato “vi sono altri animali, oltre l’uomo, che hanno attitudini sociali e che vivono in una costante relazione con i propri simili, ma per nessuno questo impulso alla comunicazione, o meglio questa necessità della comunicazione, costituisce il motivo determinante della intera esistenza”[8].

Istinto alla comunicazione che ha sorretto la definizione di schemi di linguaggio e di scrittura così come la realizzazione di supporti che permettessero la diffusione, la memorizzazione e l’uso delle informazioni, quali diretta espressione dell’attitudine a comunicare che informa l’uomo: “se la scrittura è il punto in cui avviene la modificazione del linguaggio, essa è molto evidentemente, inscindibile dalla parola e la Parola (Ha Dubar), per quanto lontano risalga l’esplorazione della nostra memoria, è l’uomo”[9].

Linguaggi e strumenti di comunicazione

Entro questa prospettiva è possibile tracciare una linea storica[10] lungo la quale si è sviluppato il rapporto tra l’uomo, i modelli logici del linguaggio e gli strumenti di comunicazione dell’informazione che nei diversi momenti hanno costituito i fattori principali per il progresso umano.

Un percorso che muove dalle prime manifestazioni di un pensiero speculativo dell’uomo, che trovarono nel grafismo uno strumento di comunicazione[11] dei meri dati della realtà naturale, e che giunge alla realizzazione delle odierne tecnologie di elaborazione in grado di estrarre dai dati della realtà un nuovo e diverso contenuto informativo determinando l’affermazione di nuove forme di conoscenza suscettibili di modificare la realtà stessa.

Successivamente alla fondazione delle prime città, all’intensificarsi quindi dei rapporti sociali, inizia il percorso di affermazione della scrittura. Un processo di elaborazione di un modello di comunicazione durato tre millenni animato dall’influenza delle diverse società che fiorirono dapprima nell’area mesopotamica e del mediterraneo orientale e da qui nel Mediterraneo di cultura greca per poi consolidarsi nel modello Latino.

La linea, il segno sul bastone, che risponde al bisogno di visualizzare e fissare le interpretazioni del mondo esterno, confluisce nel sistema consonantico, caratterizzato da un elevato grado di astrazione, opposto ai procedimenti ideografici tradizionali e alle corrispondenti forme di pensiero per la sua capacità di collegare direttamente lo scritto alla parola, rispondendo in tal modo alle necessità dei mercanti e favorendo l’elaborazione e la diffusione anzitutto della cultura religiosa.

Con l’affermarsi della società Greca si diffonde un sistema di scrittura alfabetico che tende alla separazione del discorso sulla base dei diversi suoni che compongono la parola. Si tratta di una scrittura analitica che ben riflette i caratteri del pensiero classico tendendo a tradurre il flusso del discorso parlato.

Tale sistema di scrittura troverà poi sistematizzazione e diffusione con l’affermazione della lingua dei Latini ad opera della civiltà romana. Così come la visione politica di Roma anche la scrittura alfabetica esprimeva un carattere universale improntato al criterio dell’efficienza, trovando la loro origine e la loro dinamica entro i variegati e mutevoli rapporti commerciali e culturali del Mediterraneo[12].

Il sistema di scrittura alfabetico, tuttavia, tende da una parte, a privilegiare il suono delle parole e non il loro significato e, dall’altra, ad omettere la separazione tra le parole e tra le frasi.

Sono caratteri che riflettono il rapporto tra comunicazione orale e scrittura. Un rapporto che è profondamente influenzato dal supporto per la scrittura stessa, ovvero, in termini più attuali, dalle tecnologie che permettono la manipolazione memorizzazione e diffusione delle informazioni[13]. Quest’ultime, tuttavia, sembrano riproporre i caratteri propri di una cultura orale. Come è stato osservato si delinea una “preistoria digitale” in ragione del fatto che “la nostra memoria digitale sembra tanto volatile quanto la nostra cultura orale, ma forse in modo ancora più instabile, poiché ci dà l’impressione opposta” [14].

L’evoluzione del supporto è stata mossa dall’esigenza di superare proprio le difficoltà pratiche legate alla memorizzazione e diffusione dei testi scritti e alla necessità di elaborare nuove forme di pensiero.

Nello sviluppo di tali strumenti si può misurare l’intensità con cui si manifesta l’attitudine alla comunicazione che caratterizza l’uomo.

È un bisogno di comunicazione che si autoalimenta, aumentando con l’acquisizione di nuove capacità di rilevazione, memorizzazione, manipolazione e diffusione delle informazioni che a loro volta determinano i mutamenti sociali, reinventandosi quando tali capacità non rispondono alle necessità di conoscenza dell’uomo.

In questa prospettiva è stato osservato come “la società antica [sia] debitrice del papiro come noi lo siamo dei microprocessori” [15].

Il papiro infatti è un supporto, differentemente da legno e tavolette di argilla, leggero, commerciabile, facile da imprimere con inchiostro e calamo. Ed è a partire dalla realizzazione di questo primo supporto che la scrittura divenne, soprattutto a Roma, elemento costituente delle principali operazioni e circostanze della vita cittadina[16].

Allo stesso modo il transistor presentato dai laboratori BELL nel 1948 con le sue dimensioni millesimali e la sua ampia funzionalità “ha dato il via alla rivoluzione dell’elettronica”[17] determinandone la miniaturizzazione e l’onnipresenza, elementi alla base delle attuali forme di comunicazione.

L’innovazione dei supporti alla comunicazione quale fattore di progresso.

Tra i due momenti di riferimento da ultimo indicati, si sviluppa il processo di affermazione del libro quale strumento di conoscenza grazie ad un’altra rivoluzione di tipo tecnologico quale è stata la carta[18].

Pur con i mutamenti intercorsi nelle tecniche tipografiche il libro per molto tempo ha costituito il supporto per la comunicazione di una conoscenza tradizionale destinata ad essere acquisita e trasmessa con l’esercizio delle “Arti della Memoria” [19].

La memoria e la retorica trovano tuttavia i loro limiti nella quantità e nella qualità di informazione che permettono di immagazzinare, elaborare e comunicare.

Fu un ulteriore progresso tecnico, la stampa di Gutenberg, a sopperire a tali limiti e innovare la funzione del libro aprendo ad una nuova dinamica di elaborazione e diffusione delle informazioni dalla quale scaturirono i fondamenti del pensiero scientifico e politico del XIX secolo.

Questi trovano nel Libro, nell’opuscolo, nelle riviste scientifiche, nelle diverse declinazioni in cui la carta si lascia modellare, il supporto ideale per la memorizzazione, diffusione ed elaborazione di un pensiero ormai slegato dalla dimensione orale e dalle tecniche oratorie.

Allo stesso tempo la diffusione della scrittura, non più confinata a promemoria della tradizione, si presta allo sviluppo di un pensiero articolato volto ad indagare la complessità della natura e dell’uomo stesso la cui diffusione è favorita dall’affermazione di una editoria commerciale che ne sostiene i processi di elaborazione e diffusione.

Si tratta di una rottura con la tradizione che sorregge i processi sociali ed economici della Riforma protestante allo stesso modo in cui permette la diffusione delle teorie scientifiche di Galileo Galilei, di Charles Darwin e delle nuove prospettive aperte nello studio delle leggi della natura e dei processi cognitivi proposte da Isaac Newton e Sigmund Froid.

Le innovazioni apportate dalle tecniche di stampa al processo di memorizzazione, manipolazione e diffusione delle informazioni sostiene, nel contesto della rivoluzione industriale del 1800, lo sviluppo di un nuovo pensiero scientifico e tecnico che troverà il suo apice nella società europea di inizio Novecento[20].

Una linea di progresso che trova la sua espressione nelle Esposizioni Universali e la sua sintesi nei simboli, tra gli altri, della Torre Eiffel e del Palazzo dell’Elettricità che caratterizzarono le manifestazioni parigine del 1898 e del 1900.

Ricerca scientifica e innovazioni tecnologiche costituiscono infatti le due direttrici di progresso che permisero l’affermazione di una “Mondialità europea”[21], in particolare nel periodo compreso tra la Conferenza di Berlino e la Prima guerra mondiale.

Questa apri una fase storica che si concluderà nel 1948 con l’affermazione di un nuovo ordine mondiale espressione di nuovi attori geopolitici la cui rilevanza venne sancita nel secondo conflitto bellico che determinò il declino dell’ordine internazionale elaborato a partire dalle relazioni tra gli Stati europei.

Stati Uniti e Unione Sovietica esprimevano visioni politiche di tipo universali che plasmarono tanto la costruzione del nuovo ordine internazionale quanto il confronto bipolare che avrebbe sancito la centralità dei primi nella definizione di una nuova linea di progresso umano. Gli Stati Uniti seppero infatti costruire un sistema economico a vocazione universale, garantito da una capacità militare globale, sorretto da una cultura improntata alla scienza e alla tecnica espressioni di universali valori di libertà del singolo.  Scienza e tecnica erano dunque chiamate a costruire gli strumenti atti a garantire tale proiezione universale del progresso umano che sarebbe poi confluita nella globalizzazione dei rapporti internazionali avviatasi negli anni 90 con l’implosione dell’Unione Sovietica e la caduta del Muro di Berlino.

L’interdisciplinarietà dei fondamenti del cyberspace

Il XIX secolo è stato teatro di notevoli cambiamenti sociali caratterizzati dall’affermarsi di un’idea di progresso che vedeva nella tendenza alla globalizzazione e nella fiducia nella scienza le sue linee guida.

In questo campo, in particolare, si realizzarono scoperte di primaria importanza nello studio dell’atomo e più in generale dell’infinitamente piccolo[22]. Studi che si svilupparono entro un più radicale mutamento dell’impostazione newtoniana fino ad allora dominante[23]: al determinismo ottocentesco segue l’indeterminismo dei nuovi metodi scientifici i quali vivranno nel XX secolo uno sviluppo che influenzerà le discipline più disparate e porterà alla realizzazione di applicazioni pressoché in tutti i campi.

L’interdisciplinarietà è, infatti, la cifra caratteristica di un’intera cultura scientifica che origina nell’Europa di inizio secolo[24], che realizza le sue prime applicazioni durante il conflitto mondiale e che successivamente troverà negli Stati Uniti una società votata al progresso che saprà farla propria dandole infine la dimensione universale che oggi conosciamo.

Il rapporto tra scienza e progresso che si instaura in questo momento rappresenta attualmente il fattore determinante lo sviluppo della società umana.

Le Information Communication Tecnology (ICT), frutto di questi primi studi, costituiscono da una parte utili strumenti per l’implementazione delle attività umane, dall’altra determinano profondi mutamenti dell’agire umano che possono porre in discussione il rispetto di interessi e valori primari su cui poggia la nostra idea di dignità dell’uomo.

A tal fine occorre osservare il percorso che ha portato alla realizzazione della rete Internet in ragione della capacità di quest’ultima di determinare l’unità strutturale del cyberspace dalla quale deriva il peculiare valore acquisito dei dati e dalle tecniche di elaborazione degli stessi che, comprese nel generale concetto di Intelligenza Artificiale, determinano l’unità funzionale del cyberspace.

La loro centralità all’interno del cyberspace deriva infatti dalla possibilità di far giungere alle macchine elaboratrici informazioni sul mondo circostante. Informazioni che rappresentano la principale risorsa da cui dipende lo sviluppo del cyberspace e, al contempo, il suo prodotto attraverso il quale la macchina agisce sul mondo circostante al fine di ottimizzarne il progresso secondo i parametri considerati e che essa stessa è potenzialmente in grado di determinare.

Nello sviluppo delle teorie poste alla base del funzionamento del cyberspace e dei primi computer un ruolo di particolare interesse è stato svolto dal comparto militare statunitense.

Questo costituisce un rilevante apparato burocratico composto di plurime agenzie che sviluppano progetti indipendenti che vengono in contatto in molti specifici settori.

Le diverse esigenze manifestate rappresentarono lo stimolo, anche finanziario, allo sviluppo tanto di ricerche di base quanto di prodotti specifici che contribuiranno alla realizzazione di applicazioni tecnologiche nei più diversi campi dell’attività umana.

Tali studi furono condotti in stretta collaborazione con istituti universitari e centri di ricerca privati così determinando un processo di osmosi per cui le tecnologie sviluppate in ambito militare poterono trovare nuove applicazioni e un proprio mercato anche in ambito civile.

Si tratta di un processo che si è sviluppato progressivamente influenzato dalle diverse contingenze storiche e che vede nell’affermarsi della globalizzazione un momento centrale del suo sviluppo.

La Cibernetica

I primi importanti studi si ebbero in particolare nell’ambito dei sistemi di controllo automatico[25] che, originariamente legati alla realizzazione di servomeccanismi nell’ambito dell’ingegneria meccanica, trovarono, con lo sviluppo della tecnologia elettronica[26], una propria autonomia scientifica.

Durante i due conflitti mondiali la necessità di sviluppare sistemi d’arma sempre più precisi fornì l’occasione per un ulteriore sviluppo volto a superare le problematiche fino ad allora esistenti.

A ciò contribuirono gli studi condotti nei laboratori del MIT e della BELL dal Prof. Wiener che portarono all’elaborazione dei concetti di feedback[27] e di trasmissione delle informazioni all’interno di una teoria che affrontava unitariamente tali problematiche[28].

In altri termini tali studi attribuivano alle macchine computazionali la capacità di apprendere attraverso un semplice processo di circolazione di informazioni sottoposte a elaborazione continua ponendosi, per tale ragione, alla base delle successive ricerche sull’Intelligenza Artificiale. Rispetto agli sviluppi attuali si può notare come le stesse qualificano il cyberspace, considerato nel complesso dei suoi elementi e della sua dinamica, come un fattore di progresso suscettibile di sviluppare una propria autonomia non solo rispetto al reperimento delle risorse necessarie al suo funzionamento ma, soprattutto, rispetto alla definizione di propri fini da perseguire[29].

Lo sviluppo di un’intelligenza cognitiva delle macchine, tuttavia, comportava la necessità di compiere calcoli estremamente complessi che non potevano essere svolti dalle macchine calcolatrici analogiche fino ad allora costruite[30].

Dal punto di vista tecnico i computer sviluppati in questo momento condividono l’architettura di base influenzata dai lavori di Newman e la tecnologia a schede pre-forate per la programmazione oltre che la tecnica costruttiva e le limitate capacità di calcolo.

Da qui lo sviluppo avviato dagli studi di Wienner di una nuova tecnologia di tipo digitale che permettesse di superare i problemi legati alla trasmissione delle informazioni. In ciò egli si richiamo ad alcune idee elaborate negli stessi anni all’interno dei laboratori BELL da Claude Shannon sul concetto di quantità di informazione e sulla loro trasmissione[31] dai quali origina la logica binaria digitale su cui si basano le moderne tecnologie di telecomunicazione.

Fondamentali alla realizzazione delle nuove macchine furono anche i lavori svolti nel campo della logica matematica da Alan Touring che delineavano un modello di macchina calcolatrice computazionale[32] e quelli di Warren McCulloch e Pitts, neurofisiologi dediti allo studio del funzionamento del cervello, le cui teorie dimostrarono la validità delle tesi sostenute dalla “macchina di Touring” e che il neurone costituiva l’unità logica del cervello[33]. Altrettanto rilevanti furono i lavori di Von Neumann che definirono l’architettura di una macchina calcolatrice[34]. Altri scienziati, come Gregory Bateson, condussero studi nei campi dell’antropologia, della sociologia, della linguistica che trovarono applicazione nello sviluppo delle macchine calcolatrici.

Entro questo quadro generale va posta la teoria dei messaggi estesa allo studio “del messaggio come strumento di controllo della macchina e della società, [al]lo sviluppo di macchine computazionali e altri tipi di automi, di alcune riflessioni sulla psicologia e sul sistema nervoso, e i tentativi di sviluppo di una nuova teoria del metodo scientifico” che tenesse conto della teoria probabilistica introdotta da Gibbs[35].

Questo “complesso di idee” ha preso il nome di Cibernetica che, nella definizione di Wiener che per primo delineò le basi di questo settore scientifico, consiste nella disciplina che studia i processi riguardanti “la comunicazione e il controllo nell’animale e nella macchina” o più in particolare “lo studio dei messaggi e particolarmente dei messaggi di controllo”[36] ovvero quei messaggi che modificano il comportamento del ricevente.

Dal punto di vista teorico la cibernetica parte dall’osservazione che ciò che caratterizza l’uomo è la sua attitudine alla comunicazione: “questo impulso alla comunicazione, o meglio questa necessità alla comunicazione, costituisce il motivo determinante della intera esistenza”[37] caratterizzando il comportamento umano. Questo si presenta “esattamente parallelo al comportamento delle più recenti macchine per le comunicazioni”[38] che al pari dell’uomo sono dotate di organi di recezione che agiscono come primo stadio del ciclo di funzionamento nel quale le informazioni vengono raccolte dal mondo esterno ed elaborate al fine di porre in essere, sia negli uomini che nelle macchine, un’azione effettiva sull’ambiente circostante[39].

Essa inoltre prende in considerazione il messaggio quale comunicazione inviata non solo da un essere umano all’altro ma anche i messaggi fra l’uomo e la macchina, fra le macchine e l’uomo e fra macchina e macchina. Il modo in cui Wiener esemplifica queste ulteriori forme di comunicazione è particolarmente interessante. Nelle parole dell’autore “se son pigro e la mattina, invece di alzarmi dal letto, schiaccio un bottone che apre i caloriferi, chiude la finestra e accende un fornello elettrico sotto la caffettiera, io invio un messaggio agli elementi di questi apparecchi. Se invece il bolliuova elettrico fischia dopo un certo numero di minuti, esso invia a me un suo messaggio. Se il termostato registra una temperatura eccessiva nella camera e chiude il calorifero si può dire che il messaggio funziona come sistema di comando del calorifero stesso” [40].

Questi esempi non sono in fondo molto distanti dalla realtà che oggi si va affermando: L’Internet of Things, e le sue applicazioni, come vedremo, non sono altro che lo sviluppo degli studi sulla comunicazione ed elaborazione delle informazioni sorretti dallo sviluppo delle tecnologie informatiche.

Il network quale supporto per la condivisione della conoscenza.

Successivamente alla Seconda guerra mondiale un nuovo stimolo agli studi indicati fu dato dal lancio dello Sputnik nel 1957 [41]. La sfida agli Stati Uniti che esso rappresentava, determino l’ampliamento del settore universitario statunitense e l’aumento dei fondi federali diretti alla ricerca e allo sviluppo[42] di applicazioni funzionali alle nuove esigenze di difesa poste dalle manifestate capacità tecniche e nucleari dell’Unione Sovietica[43].

Con particolare riferimento a questo aspetto il sistema di sicurezza statunitense presentava diverse problematiche alla cui definizione contribuì in misura rilevante l’attività di ricerca della RAND Corporation, ente nato nel 1946 con la stipula di un contratto tra la United States Air Force (USAF) e la Douglas Aircraft Company che divenne nel 1948 un’organizzazione indipendente non profit. Albert Wohlstetter, rilevante membro dell’organizzazione, analizzò tali problematiche in un articolo pubblicato sul Foreign Affairs in cui evidenziava due particolari aspetti[44].

Da una parte che il concetto di deterrenza implica la capacità “to strike back” ovvero di rispondere all’attacco nonostante si sia stati colpiti. Dall’altra chiarì come, a tal fine, la struttura difensiva dovesse essere in grado di sopravvivere all’attacco e soprattutto dovesse garantire la comunicazione tra i vari livelli decisionali che avrebbero dovuto ordinare la risposta nucleare. L’intero sistema di sicurezza statunitense poteva essere reso inoperante da “small, inaccurate Soviet nuclear weapon”[45] che avessero colpito centri e sistemi nevralgici come lo Strategic Air Command o il Ballistic Missile Early Warning System. Il problema si poneva essenzialmente in termini di resilienza delle strutture e dei canali di comunicazione tra i vari centri operativi e decisionali coinvolti al fine di garantire l’operatività delle infrastrutture di difesa nucleare. In altri termini occorreva costruire un’infrastruttura che garantisse il funzionamento di altre infrastrutture.

I tentativi di dare risposta a queste problematiche, compiuti da diversi enti di ricerca e grazie agli studi di scienziati attivi in ambiti a volte apparentemente distanti tra loro, portarono alla realizzazione, attraverso diverse fasi di sviluppo e in diversi contesti storici, della rete Internet.

La prima elaborazione di un network di comunicazione che rispondesse alle necessità evidenziate fu sviluppata da Paul Baran all’interno dalla RAND Corporation e presentata in undici memoranda[46]. In particolare, la terza soluzione che egli presentò si caratterizzava per l’elaborazione di un metodo di divisione dei dati in pacchetti di dimensioni standard inviati separatamente che ne favoriva la trasmissione sicura e veloce attraverso diversi nodi. L’utilizzo di questa tecnica permetteva da una parte, a più utenti di comunicare contemporaneamente e dall’altra di far viaggiare i pacchetti dati sempre attraverso il link effettivamente libero così velocizzando l’intero processo di comunicazione. Il sistema ideato da Baran venne proposto senza successo alla AT&T e la stessa RAND Corporation lo accolse con poco entusiasmo limitandosi a inviarlo al USAF nel 1965. Quest’ultima lo sottopose a sua volta alla MITRE Corporation che lo valutò positivamente. Tuttavia, il progetto non trovò in questo momento uno sviluppo applicativo sia per il clima di distensione e al contempo disordine che caratterizzava in questi anni il confronto tra USA e URSS[47], sia per l’inadeguatezza dei sistemi di calcolo dell’epoca[48].

Al di là del dato tecnico, che presenta comunque tutti gli elementi principali dell’attuale rete internet, ciò che appare di particolare interesse nei lavori di Baran è il loro richiamo agli studi scientifici condotti in precedenza e che abbiamo visto potersi ricondurre all’interno dell’ambito di ricerca della cibernetica.

In particolare, egli individua tre “foundation paper”. Il primo lavoro preso in considerazione è quello del neurofisiologo Warren McCulloch, che nel 1964 divenne il primo presidente dell’American Society of Cibernetics.  Affianco ad esso vi sono i lavori di Von Neumann e Ewuard F. Moore e Claude E. Shannon. Quest’ultimo in particolare aveva pubblicato nel 1949 la fondamentale teoria dell’informazione mentre i lavori di McCulloch condotti assieme a Pitt avevano aperto la strada ad un nuovo settore della ricerca scientifica che poneva la sua attenzione allo sviluppo di una Intelligenza Artificiale. I due scienziati avevano suggerito che il neurone non emettesse energia ma informazioni di natura logica (and-or-not) aprendo così lo studio delle similitudini tra la mente umana e i computer. MacCulluc e Pit a loro volta citano nelle loro opere i lavori di Alan Turing sulle quali si basano i moderni computer. Come è stato osservato “l’analisi di questo “network of cross-reference” illustra chiaramente lo stretto legame di interdipendenza tra neurofisiologia, information Technologies, teorie dell’informazione e successivamente, psicologia”[49].

L’influenza delle ricerche scientifiche condotte nelle università e negli enti privati statunitensi si rintraccia anche nei lavori dell’inglese Donald W. Davis il quale, seguendo un diverso e autonomo percorso di ricerca, sviluppò un network di computer in molti punti simile a quello di Baran elaborando inoltre soluzioni innovative che affrontavano specifiche problematiche tecniche, quali il problema del Time-Sharing[50]. La particolare attenzione che egli pose alla velocità di trasmissione dei dati era funzionale alla ricerca di una metodologia e di strumenti che potessero sostenere “a conversation between a computing (or information) system and a human user which can save the human effort” [51] tanto nelle attività finanziarie che nello sviluppo del sistema commerciale all’interno di un network esteso su grandi distanze.

Problema questo affrontato, da una prospettiva militare, anche dalle ricerche svolte all’interno dell’Advanced Research Projects Agency (ARPA) del Dipartimento della Difesa statunitense, ove l’interesse era rivolto alle “computer applications to war gaming, command systems studies and information processing related to command and control” [52]. Nel 1962 venne quindi creato all’interno dell’ARPA l’ufficio Information Processing Techniques Office (IPTO) il quale si occupò di sviluppare queste ricerche sotto la guida di Joseph Carl Robenett Licklider. Il contributo che questi diede alla ricerca fu di particolare importanza intrecciandosi con gli studi della cibernetica e con quelli sull’Intelligenza Artificiale[53].

Nel suo testo Man Computer Symbiosis propone di sviluppare i computer al fine di “to enable men and computers to cooperate in making decisions and controlling complex situations without inflexible dependence on predetermined programs”[54].

Ciò che proponeva era in altri termini un metodo di calcolo che non implicava di formulare in anticipo il problema da sottoporre alla macchina in tutta la sua complessità poiché i computer sarebbero stati in grado di rispondere alle variabili inserite di volta in volta. Il sistema non si basava sui tradizionali metodi di elaborazione analogici basati su schede pre-forate preparate da tecnici ma, piuttosto sullo sviluppo della tecnica del time-sharing che consente a molti utenti di accedere ad un grande mainframe di singoli terminali.

Licklinder, che aveva discusso con Wiener della creazione di una comunità scientifica diffusa, propose l’idea di vari “thinking centres”, corrispondenti alle varie aree scientifiche, equipaggiate con computer digitali e librerie contenenti libri e riviste “adattati per un rapido accesso alle informazioni” [55].

Ciò che egli proponeva non era una semplice relazione tra uomo e computer bensì una relazione tra uomo e the body of knowledge intesa come un “rapporto coordinato tra uomo e macchina” ove le librerie costituivano “precognitive system chich would promote and facilitate the acquisition, organization and the use of knowledge [56].

L’Intelligenza Artificiale.

Il contributo di Licklinder allo sviluppo della rete internet è stato principalmente di tipo teorico. Sul piano pratico forti erano i limiti della tecnologia allora esistente che egli riteneva potessero essere affrontati approfondendo lo studio di quei settori, allora indicati come Artificial Intelligence e self-organizing automata, che egli considerava legati.

Licklinder venne in contatto con scienziati, come Minsky e Shannon, che si occupavano di Intelligenza Artificiale, durante le Conferenze del Dartmouth College che si tennero a partire dal 1956.

Esse presero avvio da un seminario estivo di sei settimane finanziato dalla Rockefeller Foundation la quale propose uno studio sull’intelligenza artificiale da condursi “sulla base della congettura che, in linea di principio, ogni aspetto dell’apprendimento o qualsiasi altra caratteristica dell’intelligenza possa venir descritto in modo così preciso da far sì che una macchina possa simularlo. Si cercherà di scoprire come costruire macchine che usano il linguaggio, formulano astrazioni e concetti, risolvono tipi di problemi oggi riservati agli esseri umani e si migliorano da sole” [57].

Questo diverso filone di ricerca, che può essere ricondotto in termini generali entro la nozione di scienza cognitiva computazionale, si afferma parallelamente agli studi avviati da Weinner sulla cibernetica e alla ricerca che abbiamo visto sorreggere la costruzione dei primi network di comunicazione grazie dalla realizzazione delle prime macchine calcolatrici[58].

Questi sistemi vennero denominati “esperti” poiché capaci di memorizzare, conservare e organizzare “basi di conoscenza concernenti ambiti ben precisi e delimitati, e di individuare le soluzioni a problemi complessi fino a quel momento non gestibili con le tecnologie informatiche disponibili” [59].

Alla base di questo orientamento scientifico vi è l’analogia tra la mente umana e il computer per la quale la mente corrisponde alla componente software della macchina mentre il corpo umano alla componente hardware[60].

Entro questo paradigma trovano applicazione gli studi condotti a partire dagli anni ‘50 nell’ambito dell’Intelligenza Artificiale. Tali studi hanno l’obiettivo di automatizzare alcune attività intellettive, in particolare il ragionamento e il comportamento con l’obiettivo di renderle schematiche e applicabili a qualsiasi contesto del pensiero umano.

Il rinnovato interesse che si produsse attorno a questo filone scientifico è legato da una parte, ai lavori del matematico Alan Mathison Turing e alla “macchina di Touring” con la quale dimostro che l’intelligenza, indipendentemente dalla presenza di un corpo fisico “è un fatto esprimibile e riconoscibile mediante sequenze ben costruite di simboli”[61]. In altri termini Touring evidenzia l’indistinguibilità tra un dispositivo tecnologico e un essere umano aprendo così la strada alla ricerca scientifica volta alla costruzione di un’Intelligenza Artificiale. Dall’altra, il modello di neurone elaborato nel 1943 da McCulloch e Pitts che costituì la base per lo studio e lo sviluppo delle reti neurali che rappresentano il modello di base degli attuali sistemi di calcolo computazionale.

I primi risultati di questa nuova scienza furono volti soprattutto ad offrire una dimostrazione delle sue potenzialità realizzando macchine il cui scopo era dimostrare che era possibile svolgere un dato compito[62].

Questi sistemi, tuttavia, non giunsero all’elaborazione di una Intelligenza Artificiale che fosse non solo in grado di imparare dall’esperienza, ma anche in grado di interpretare sensazioni, motivazione, emozioni e stato d’animo.

Furono gli sviluppi successivi, in campo scientifico e tecnico, a determinare le condizioni perché si realizzassero progressi nei diversi settori e nella complessiva architettura e funzionalità del cyberspace.

 

Il Cyberspace quale spazio unitario.

 

Lo sviluppo degli studi sull’Intelligenza Artificiale presenta anch’esso il carattere della interdisciplinarità che abbiamo visto esser proprio della comunità scientifica del 900. I lavori dei singoli scienziati nei diversi campi si intrecciano nelle medesime università e centri ricerca e, anche se attendono alla risoluzione di problemi differenti, si influenzano a vicenda rispondendo a comuni interessi securitari. Allo stesso tempo, tuttavia, la consapevolezza da parte di questi uomini di far parte di una comunità di scienza amplia gli orizzonti in cui i loro lavori potevano trovare applicazioni concrete.

Viene così ad affermarsi un’idea di progresso che giunge oggi a manifestarsi nell’attuale società della conoscenza attraverso un percorso caratterizzato da diverse fasi di innovazione e, si potrebbe dire, di riflessione ora in un campo della scienza ora nell’altro.

Lo sviluppo e l’affermazione delle diverse tecnologie che sorreggono il cyberspace è durato un cinquantennio dipanandosi lungo tre fasi coerentemente volte verso l’implementazione dell’accessibilità alla tecnologia, dell’interattività tra i diversi elementi tecnologici e della diffusione delle fonti di origine dei dati. Parallelamente la ricerca scientifica traeva da ciò gli strumenti per nuove elaborazioni teoriche che a loro volta determinavano nuovi avanzamenti tecnologici.

Così, a partire dai diversi studi indicati, si giunse nel 1969 alla messa in funzione del network ARPANET che racchiudeva in se i frutti della teoria della comunicazione, dei concetti di feedback e di funzione dell’informazione oltre che dei modelli di elaborazione delle forme di integrazione tra uomo e macchina e dei modelli di comunicazione, sviluppati a partire dagli studi di Wiener, Licklinder e Taylor.

Soprattutto, al di là delle sue applicazioni militari, esso rispondeva da una parte, all’idea che l’informazione non costituisse un oggetto suscettibile di possesso ma piuttosto un processo, un flusso basato sulla condivisione comunitaria delle informazioni.

Dall’altra rispecchia la convinzione propria dei diversi scienziati di far parte di una comunità dedita alla conoscenza e che questa potesse essere accresciuta dallo sviluppo di processi di comunicazione e collaborazione tra i diversi centri di ricerca.

La rete ARPANET, che originariamente metteva in collegamento le quattro principali università statunitensi, rappresentava quindi lo strumento nel quale trovarono applicazione le diverse teorie scientifiche e attraverso il quale si realizzò un primo nucleo di quella che oggi viene definita società della conoscenza[63].

A partire da questo nucleo di base, e coerentemente con i suoi caratteri, sia la ricerca scientifica che le innovazioni tecniche, si svilupparono ad un ritmo costante che vede la complessità dei processori e quindi le potenzialità di calcolo e di ricerca, raddoppiare ogni due anni, secondo la nota legge di Moore[64].

Tuttavia, sono ancora le dinamiche di competizione esterne al mondo scientifico ad influenzare il progresso tecnologico. In particolare, negli anni ‘80 fu lo sviluppo economico del Giappone a sostenere la realizzazione di nuovi computer che diedero la spinta alla ricerca che delineerà i fondamenti delle moderne tecnologie[65].

Ciò porterà nella seconda metà degli anni 90 alla elaborazione di “agenti intelligenti inglobati in un sistema fisico artificiale” [66], ovvero robot dotati di capacità cognitive, rese possibili dallo sviluppo delle reti neurali, attraverso le quali interagiscono quotidianamente con il mondo circostante grazie alle informazioni che su di esso ricavano attraverso sensori sempre più sviluppati[67].

Gli sviluppi scientifici illustrati avevano portato nel loro complesso alla definizione di un nuovo linguaggio per l’astrazione delle informazioni dalla realtà, il codice binario, così come a nuovi strumenti di estrapolazione e manipolazione dei dati rilevati, le macchine computazionali. Allo stesso tempo erano state elaborate nuove forme di trasmissione e comunicazione delle comunicazioni, le reti internet.

A partire da essi si erano sviluppati numerosi network di dimensioni variabili, collegati a centri universitari o a corporation commerciali, che permettevano la trasmissione di informazione sulla base di protocolli differenti. 

Fu solo nel 1989 che si giunse alla definizione di una forma di scrittura, di un alfabeto comune che permettesse di superare i limiti delle nuove tecnologie, rappresentati dalla disomogeneità dei linguaggi informatici, dando loro al contempo un carattere universale.

Tim Berner Lee, informatico al CERN, diede unitarietà allo spazio cyber definendo i protocolli del World Wide Web che facilitarono l’indicizzazione delle informazioni, la loro trasmissione e soprattutto semplificarono la creazione di contenuti da parte degli utenti.

Basandosi anch’egli su ricerche, studi, idee elaborate in diversi momenti e contesti Tim Berner Lee aggiunse alla rete Internet, il supporto per la scrittura, memorizzazione e trasmissione della conoscenza, una scrittura universale, un alfabeto digitale utilizzabile facilmente e liberamente accessibile.

A partire da questo momento il cyberspace acquista una dimensione universale che, attraverso i successivi sviluppi, lo porterà a costituire l’infrastruttura per la società della conoscenza che nel secondo decennio informerà la società sulla base dei suoi intrinseci caratteri, primo fra tutti l’interdisciplinarietà che abbiamo visto caratterizzare la ricerca scientifica che ne è alla base.


Note

[1] Barbara Henry, Scientia ficta, umani e non nati/e da donna nell’immaginario globale: trame robotiche nella letteratura disegnata, Nuova corrente rivista di letteratura, 1/2017 p.159

[2] Wassily Kandinsky, Lo spirituale nell’arte, SE, Milano 2005, pag. 23

[3] William Gibson, Neuromante, Ace Book, 1986

[4] Vedi la voce Informazione su vocabolario Treccani, www.treccani.it

[5] Luciano Floridi, La rivoluzione dell’informazione, Codice edizioni, Torino, 2012

[6] Claude Elwood Shannon, Collected Papers, a cura di Neil Sloane e Aron Wyner, IEEE Press, New York 1993 citato in Luciano Floridi, La rivoluzione dell’informazione, Codice Edizione, Torino 2012, pag XIII

[7] Antonio Teti, Il potere delle informazioni. Comunicazione globale, Cyberspazio, Intelligenze della conoscenza, Gruppo 24 Ore, 2004, pag. 13

[8] Norbert Weiner, Introduzione alla cibernetica. L’uso umano degli esseri umani, Bollati Boringhieri, 2012 pag. 17

[9] Pierre Chaunu in Henri-Jean Martin, storia e potere della scrittura, Editori Laterza, Bari 2009, pag. X

[10] Henri-Jean Martin, storia e potere della scrittura, Editori Laterza, Bari 2009

[11] Ne sono espressione le prime sepolture che costituiscono un vero e proprio Linguaggio e “il rito funerario un trattato di metafisica” allo stesso modo in cui le incisioni rupestri di Lascaux e Altamira forniscono informazioni generali sul contesto naturale in un momento storico in cui “il dossier precede molto evidentemente la scrittura, e l’arte astratta il figurativo” (cfr. Henri-Jean Martin, storia e potere della scrittura, Editori Laterza, Bari 2009).

[12] Contrammiraglio Vannutelli. Il Mediterraneo fonte risorgente della civiltà mondiale, Cappelli, Bologna 1932; Braudel Fernand, Civiltà e imperi del Mediterraneo nell’età di Filippo II, Einaudi, 2010;  Broodbank Cyprian, Il Mediterraneo. Dalla preistoria alla nascita del mondo classico, Einaudi, 2015; Maria Silvia Codecasa, La rotta di Glauco. Viaggi per terra e per mare, Exorma edizioni, 2011; Horden Peregrine, Purcell Nicholas, The Corrupting Sea, Wiley-Blackwell, 2010.

[13] Un rapporto che, allo stesso tempo, influenza le strutture sociali definendone le gerarchie all’interno in funzione della padronanza delle Arti della Memoria a cui è legato l’esercizio dei poteri pubblici che tramite esse trovano espressione tanto nella giurisdizione quanto nella politica.

[14] Luciano Floridi, La quarta Rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina Editore, Milano 2017, pag.19

[15] Pierre Chaunu in Henri-Jean Martin, storia e potere della scrittura, Editori Laterza, Bari 2009, pag. XIII

[16] Claud Nicolet , Le métier de citoyen dans la Rome républicaine, Pari, 1976, citato in Henri-Jean Martin, storia e potere della scrittura, Editori Laterza, Bari 2009

[17] Jemes Gleick, L’informazione. Una storia. Una teoria. Un diluvio, Feltrinelli 2015, p 11

[18] Introdotta nell’amministrazione cinese della dinastia Han, 105 d.C. come sostituto della seta, la Carta si diffuse in Corea, nel Vietnam, in Giappone e nel mondo arabo, dove fin dall’VIII secolo i bizantini la usarono per la redazione degli atti della loro burocrazia. Una funzione strutturale dunque, che la Carta eserciterà nelle diverse epoche fino alla costruzione dello Stato Nazionale, favorendo da un lato il consolidamento delle strutture amministrative e, dall’altro, i processi di definizione delle diverse lingue e culture nazionali

[19] Paolo Rossi, Clavis universalis. Arti della memoria e logica combinatoria da Lullo a Leibniz, Il Mulino, 2000

[20] Lo scienziato britannico Alfred Russel Wallace in suo libro pubblicato nel 1898 osservava come la quantità e la qualità dei progressi compiuti giustificavano la definizione di “secolo meraviglioso” attribuito all’800. La ferrovia, la nave a vapore, il telegrafo elettrico, il telefono, la luce elettrica, la fotografia, il fonografo, i raggi x, l’analisi spettrale, la conservazione dell’energia, la misurazione diretta della velocità della luce e la dimostrazione sperimentale della rotazione terrestre, nuove cognizioni e differenziazioni della chimica, l’origine dell’uomo, la teoria organica dell’evoluzione, la teoria cellulare e l’embriologia, sono alcune delle innovazioni introdotte in questo secolo che determinarono da un lato, il consolidamento dei collegamenti e delle comunicazioni mondiali, dall’altro l’aumento della quantità e qualità delle informazioni rilevate ed elaborate. cfr. Russel Wallace, The wonderful century, Dodd, Mead and Company, New York, 1899 consultabile in archive.org all’indirizzo web https://archive.org/details/wonderfulcentury028485mbp/page/n8

[21] Emilio Gentile, Ascesa e declino dell’Europa nel mondo 1898-1918, Garzanti 2018

[22] Robert Jungk, Gli apprendisti stregoni, Einaudi Editore, 1958

[23] N. Weiner, Cybernetics or control and communication in the animal and machine, Cap. I, II° Ed., MIT, 1947

[24] Pietro Greco, La scienza e l’Europa. Il primo Novecento, L’Asino d’oro edizioni, Roma, 2018

[25] S. Bennet, A Brief history of Automatic control, IEEE Control System Society, June 1996; Neculai Andrei, Modern Control Theory – A historical perspective, Scieri Matematice, February 10, 2005 consultabile all’indirizzo web https://pdfs.semanticscholar.org/b9dc/706a8d092b1ecd0dc2b7d6a025ea22ebf507.pdf ; D. A. Mindell, Between human and machine – feedback, control and computing before Cybernetics, The Johns Hopkins University Press, 2002

[26] L. McColl, Fundamental Theory of Servomechanisms, D. Van Nostrand Company inc., 1945, citato più volte da Norbert Wiener in Cibernetica, il cui IV capitolo costituisce esso stesso una introduzione generale all’argomento

[27] Il principio della retroazione (feedback) si basa sull’assunto che un fenomeno è in grado di autoregolare il suo output. Pur trattandosi di un semplice processo circolare di informazioni sottoposte ad elaborazione continua in funzione del raggiungimento del risultato, esso troverà applicazione nei campi più disparati tra i quali la simulazione di alcuni meccanismi neurofisiologici rappresentando una “metodologia di sviluppo di un modello di intelligenza cognitiva che fino a quel tempo risultava completamente assente in tutti i sistemi progettati per eseguire autonomamente determinate funzioni” (cfr. Antonio Teti, PsycoTech. Il punto di non ritorno. La tecnologia che controlla la mente, Springer, Italia, 2011, pag 88)

[28] N. Wiener, The Extrapolation, Interpolation, and Smoothing of Stationary Time Series, Report of the Services 19, Research Project DIC-6037 MIT, February 1942; poi New York: Wiley, 1949. Risultati analoghi erano stati raggiunti indipendentemente, negli stessi anni, da Kolmogorov; v. Wiener 1948/1961, Introduzione

[29] Aspetti questi che oggi rientrano all’interno delle discussioni sull’idea di singolarità, sul suo affermarsi e sul suo funzionamento, cfr. Nick Bostrom, Superintelligenza. Tendenze, pericoli, strategie, Bollati Boringhieri, Torino, 2018; R. Kurzweil, The Singularity is Near: When Humans Trascend Biology, Viking, New York, 2005; Vernor Vinge, The Coming Technological Singularity: How to Survive in the Post-Human Era, in Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, 11-22, NASA Conference Publication 10129, NASA Lewis Research Center, consultabile all’indirizzo https://ntrs.nasa.gov/citations/19940022856 .

[30] Lo sviluppo di quest’ultime a partire dal 1945 può essere descritto come “la storia di persone che in momenti critici hanno ridefinito la natura della tecnologia stessa” [30](cfr. Paul E. Ceruzzi, A history of modern computing, The MIT Press, 2nd ed., 2003, pag. 14). È questo il caso di Eckert e Mauchly che disegnarono e costruirono, all’interno dell’Università della Pennsylvania, il calcolatore ENIA che, sviluppato per le esigenze di calcolo balistico dell’esercito americano, trovo in seguito applicazione nel settore privato. Rinominato “Universal Automatic Computer” ovvero una macchina calcolatrice in grado di risolvere problemi universali, cioè posti da scienziati come da ingegneri o da uomini d’affari, fu adottato da alcune compagnie private per la sua utilità nell’ambito della logistica e dell’attività aziendale in generale. L’IBM realizzò nel 1952 il computer “701” definito “electronic data processing machine” il quale trovò anch’esso ampio utilizzo nel settore privato dopo essere stato sviluppato in risposta ad esigenze militari. Provenivano da progetti di ricerca militari anche i fondatori della Engineering Research Associates, Inc, Howard Engstrom e William Norris, che svilupparono il calcolatore nominato 1103 che rappresento un diretto competitor dl modello 701 sviluppato dalla IBM. cfr. Achille Varzi, Storie di macchine, La Rivista dei Libri, 9:11, 1999, pp. 29–31

[31] Claude E. Shannon, A Mathematical Theory of Communication, Bell System Technical Journal, vol. 27, luglio e ottobre 1948

[32] A. M. Turing, a cura di Gabriele Lolli, Intelligenza Meccanica, Bollati Boringhieri, Torino,1994; A. M. Turing, On Computable Numbers, with an Application to the Entscheidungsproblem, Proceedings of the London Mathematical Society, Volume s2-42, Issue 1, 1937, Pages 230–265

[33] McCulloch, Pitts, On how we knok univwersal: the perception of auditory and visual forms, Bulletin of Mathematical Biophysics, 1947, 9:127-147

[34] John von NeumannFirst Draft of a Report on the EDVAC, 1945 consultabile all’indirizzo web http://web.mit.edu/STS.035/www/PDFs/edvac.pdf

[35] Norbert Weiner, The Human use of human beings: cybernetics and society, Free Association Books, London, 1989 (First published 1950), pag. 41

[36] Norbert Weiner Introduzione alla cibernetica. L’uso umano degli esseri umani, Bollati Boringhieri, Torino, 2012

[37] ID.

[38] ID.

[39]Da un punto di vista metodologico la cibernetica si basa sull’utilizzo di modelli a corrispondenza biunivoca ed in particolare fa riferimento a quei modelli che possono essere designati con il termine messaggio, quali, ad esempio, i modelli delle conversazioni telegrafiche e telefoniche. Quest’ultimi, infatti, si differenziano in ragione della funzione per cui sono impiegati ovvero trasmettere l’informazione il cui significato è legato alla scelta di comunicare un dato modello rispetto ad un altro.

[40] Norbert Weinner Introduzione alla cibernetica. L’uso umano degli esseri umani, Bollati Boringhieri, Torino, 2012

 

[41] Marta Wheeler George, The impact of Sputnik: Case study of American Pubblic Opinion at the Break of the space Age, October 4, 1957: NASA Historical note 22, NASA History Offices Archive.

[42] Nel 1958 venne istituito all’interno del Departement of Defence (DoD) il programma di ricerca Advanced Research Projects Agency (ARPA) con il compito di sviluppare un programma missilistico spaziale. Nei mesi successivi venne istituita la National Aereonautic Space Administration (NASA) che, inizialmente responsabile per gli aspetti civili dei vari progetti, fini con il divenire il centro nevralgico delle ricerche anche in campo militare ed in particolare sul sistema di difesa dai missili balistici sovietici.

[43] Raymond L. Garthoff, Robert A. Divine, The Sputnik Challenge. The American Historical Review, Volume 99, Issue 2, April 1994, New York, pp. 685–686

[44] Albert Wohlstetter, The delicate balance of terror, Foreign Affairs, January 1959, https://www.foreignaffairs.com/articles/1959-01-01/delicate-balance-terror

[45] Paul Bracken, the Command and Control of Nuclear Forces, New, Yale University Press, 1983, p. 186

[46] Paul Baran, On a Distribuited Command and control System Configuration”, USAF, Project RAND, Research Memorandum RM-2632, 31 December 1960, consultabile all’indirizzo web http//www.rand.org/pubs/research_memoranda/RM2632.html

[47] Un contesto creato dagli stessi progressi tecnologici che avevano aperto, tramite le immagini dei primi satelliti, una visione per la prima volta globale della Terra suscitando nuove idee politiche che valutavano diversamente e negativamente l’incessante corsa agli armamenti del confronto bipolare rispetto al quale nuovi e imprevisti fronti di antagonismo e conflitto si aprirono nelle aree asiatiche e mediorientali, allontanando in tal modo le preoccupazione di sicurezza nazionale che abbiamo visto esser alla base di molte ricerche scientifiche [47] (cfr. Federico Romeo, Storia della Guerra fredda. L’ultimo conflitto per l’Europa, Einaudi 2009, pag. 174 e seg.).

[48] Tali sistemi rappresentavano sostanzialmente un’evoluzione dei modelli precedenti rispetto ai quali erano dotati sì di capacità di calcolo superiori, ma ne condividevano la struttura sostanzialmente analogica che ne limitava la funzionalità rispetto alle esigenze legate allo sviluppo dei progetti di Baran.

[49] Tommaso Detti, Giuseppe Lauricella, The Origin Of Internet, Bruno Mondatori, Milano, 2013, p. 41

[50] Con questo termine si intende “a series of operations intended to give multipler user simultaneous access to one of the machines through interactive terminals, in order to share its calculating power. In this way every user had the impression of having the computer entirely  at their disposal, whitin the limits of its ability” [50]( cfr. Tommaso Detti, Giuseppe Lauricella, The Origin Of Internet, Bruno Mondatori, Milano, 2013, p. 41).

[51] Tommaso Detti, Giuseppe Lauricella, The Origin Of Internet, Bruno Mondatori, Milano, 2013, pag 44; Questo aspetto tuttavia, è espressione di un diverso orientamento finalistico che caratterizza la ricerca scientifica inglese in ragione della diversa concezione di sicurezza fondata sull’elemento economico piuttosto che su quello della forza militare. La differenza di prospettiva che caratterizza la visione statunitense da quella inglese è espressione, oltre che di dinamiche storiche, anche della duplice natura del cyberspace, le cui applicazioni hanno al contempo rilevanza in termini di sicurezza e di sviluppo economico così che la misura del progresso diviene essa stessa un fattore di interesse securitario. In altri termini non è possibile scindere, nel considerare i diversi aspetti del cyberspace, i suoi risvolti positivi da quelli negativi essendo essi interdipendenti

[52] Tommaso Detti, Giuseppe Lauricella, The Origin Of Internet, Bruno Mondatori, Milano, 2013, pag. 56

[53] Da una parte con i suoi studi sulla psyco-acustica evidenzio il rapporto tra due network di comunicazione connessi attraverso l’apparato uditivo: l’uno composto da più persone che comunicano attraverso la voce e l’udito, l’altro formato dal sistema nervoso. Ciò permetteva di affrontare il problema della configurazione di un network composto da un numero elevato di elementi posti in dialogo tra essi.

[54] Joseph C. R. Lickinder, Man Computer Symbiosis, Cornell University, 1960, consultabbile all’indirizzo web https://fermatslibrary.com/s/man-computer-symbiosis

[55] cfr. Joseph C. R. Lickinder, The Truly Sage System or Toward a Man-Machine System for Thinking, 20 August 1957, 1-2, in Licklinder Paper, citato in Detti, Lauricella, The origin of Internet, cit.

[56] Joseph C. R. Lickinder, Lybrary of the future, pagg. 6-21, citato in Detti, Lauricella, The origin of Internet, cit.

[57] Grace Solomonof, Ray Solomonoff and the Dartmouth Summer Research Project in Artificial Intelligence, 1956, consultabile all’indirizzo web http://raysolomonoff.com/dartmouth/dartray.pdf

[58] Nel 1951 presso l’università di Princeton venne realizzato il primo computer basato su reti neurali. Nel 1956 due ricercatori della Carniege Tech presentarono un programma in grado di ragionare, ovvero di pensare in modo non numerico e in grado di risolvere il problema della simulazione del rapporto mente-corpo. Ancora nel 1958 venne presentato un ulteriore programma in grado di elaborare la conoscenza per identificare la soluzione ai problemi.

[59] Antonio Teti, PsychoTech, citato, pag. 38

[60] Da questa distinzione deriva poi la separazione tra scienze della mente e neuroscienze. Mentre quest’ultime attengono allo studio del cervello quale componente hardware, lo studio della mente, del software, rientra nell’ambito della psicologia. A partire da questo modo di intendere il rapporto mente-macchina si è sviluppato il collegamento tra psicologia e informatica e di conseguenza la scienza cognitiva computazionale. Successivamente gli studi di Noam Chomsky sulla linguistica generativa e sulla teoria della grammatica hanno fornito nuovi contributi per la comprensione dell’utilizzo del computer come elemento di simulazione delle caratteristiche dell’uomo.

[61] Antonio Teti, PsychoTech, citato, pag. 29

[62] Appartengono a questo periodo il sistema Logic Theorist capace di dimostrare alcuni teoremi di matematica. Il programma General Problem Solver che era in grado in linea di principio di risolvere problemi posti in modo formale. Il robot Shakey che dimostrò la possibilità di integrare il ragionamento logico e con la percezione riuscendo così a indirizzare e controllare l’attività fisica.

[63] Francesco Vespasiano, La società della conoscenza come metafora dello sviluppo, Franco Angeli editore, 2005

[64] Gli anni ‘70 e ‘80 furono caratterizzati dalla realizzazione di nuove invenzioni volte ad affrontare problemi legati da un lato alle forme e agli strumenti di interazione uomo-macchina e, dall’altro ai linguaggi di programmazione. Ciò permise lo sviluppo di personal computer dotati di sistemi operativi general purpose che ne favorì l’utilizzo nei più vari campi, dalla gestione delle prenotazioni dei voli ai videogiochi fino ai mercati finanziari e all’uso domestico. In questo momento le tecnologie dell’informazione iniziano ad acquisire quella dimensione globale e pervasiva che le caratterizza tuttora.

[65] Appartengono a questi anni l’elaborazione delle tecnologie di data mining, i modelli per la comprensione del linguaggio parlato che troveranno applicazione nei sintetizzatori vocali ad uso medico, le reti baynesiane e i c.d. sistemi esperti in grado di agire razionalmente di cui il principale esempio è il sistema operativo Microsoft Windows. Allo stesso tempo sul piano filosofico si sostiene che l’auto-consapevolezza umana è semplicemente il risultato di sistemi seriali implementati da un hardware fornito dall’evoluzione.

[66] Nick Bostroom, Superintelligenza, Bollati Boringhieri, Torino 2018

[67] È questo l’ambito proprio della scienza cognitiva neurale la quale si basa sull’osservazione che “la mente umana non è solo intelletto e capacità cognitive, ma è qualcosa di molto più complesso in funzione delle molteplici “antenne” ricettive di cui dispone e che influiscono, in qualche modo, sull’elaborazione mentale dell’individuo”. Da qui lo sviluppo di nuovi modelli per lo studio delle scienze umane. La psicologia statunitense elaboro questo modello a partire dagli studi delle reti neurali come modello per l’analisi e la decifrazione di esempi comportamentali basandosi sull’assunto che “le informazioni all’interno della rete neurale, indipendentemente dal fatto che sia biologica o artificiale, sono distribuite nei molteplici “nodi” della rete e non in un unico contenitore”[67] (Antonio Teti, PsychoTech, citato pag. 70 e ss.). Si delinea in tal modo un paradigma teorico attraverso il quale individuare la struttura della mente umana tramite lo studio del suo cervello, del suo hardware, che non si limiti ad elaborare informazioni ma che sia in grado di interpretare tutte le informazioni generali dell’individuo.


Foto copertina:Immagine web