L’articolo prende in considerazione la struttura e la dinamica del Cyberspace. La prima parte delinea i livelli fisico, logico e sintattico in cui viene ricostruita la struttura del Cyberspace.
La seconda parte prende in considerazione i caratteri peculiari del Cyberspace al fine di evidenziarne la dinamica di rilevazione e valorizzazione dell’informazione.


 

La struttura del Cyberspace.

L’affermazione del cyberspace quale spazio unitario e universale resa possibile dalla realizzazione dei protocolli del World Wide Web ha posto la necessità di comprenderne tanto la struttura quanto i caratteri qualificanti di tale nuova dimensione delle relazioni sociali.
I primi studi condotti negli anni 90 del secolo scorso ne hanno delineato la struttura multilivello, logico e regionale, per cui il cyberspace consisterebbe in un “intangible place between computers where information momentarily exist on its route from one and the global network to the other … the ethereal reality, an infinity of electron spending down … [but also] think of cyberspace as being divided into groups of logical or regional cyberspace – hundreds and millions of smaller cyberspaces all over the word”[1]. In altri termini il cyberspace sarebbe costituito da “dinstict entities, whit clearly defined electronic borders … Small-C cyberspace consist of personal, corporate or organizational space…Big –C cyberspace is the National Information Infrastructure … add [coth] and then tie it all up with threads of connectivity and you have all of cyberspace”[2].
Un rilevante passo in avanti nella comprensione dei caratteri qualificanti il cyberspace è stato compiuto a partire dalle elaborazioni, di natura scientifica, che si sono susseguite tra la fine degli anni Novanta e i primi anni del nuovo secolo. Nel 1998 Edward Waltz chiarì che “The cyberspace dimension refers to the middle layer – the information infrastructures – of the three realms of the information warfare battlespace. These three realms are the physical (facilities, nodes), the information infrastructure, and the percentual”[3].
Altre definizioni considerano il cyberspace come “the environment created by the confluence of cooperative networks of computer, information system, and telecommunication infrastructure commonly referred to as the internet and the world wide web”[4]. O, ancora, come “The information space consisting of the sum total of all computer network”[5].

Infine nel 2001 Gregory Rotray descrive il CS come “A physical domain resulting from the creation of information systems and network that enable electronic interaction to take place … cyberspace is a man-made environment for the creation in a variety of formats … CS consist of electronically powerd hardaware, networks, operating system and transmission standard”[6].

Un ruolo di particolare importanza nella costruzione e nella definizione dei caratteri del cyberspace è stato svolto dal comparto militare statunitense. Gli stretti rapporti con il mondo accademico e con centri di ricerca altamente specializzati che caratterizzano le forze armate statunitensi sono alla base della costruzione del cyberspace e della ricerca volta ad individuarne i caratteri principali.

Rispetto al problema definitorio qui affrontato, di particolare interesse è il lavoro svolto dal Center of Tecnology and National Security della National Defence University[7]. L’attività di tale centro studi della Difesa statunitense ha permesso una prima opera sistematica dei diversi aspetti caratterizzanti il cyberspace.

Lo studio parte dall’osservazione che le diverse definizioni indicate suggeriscono tutte che il cyberspace sia qualcosa in più che semplici computer e informazioni digitali. Pur contenendo gli elementi già individuati la definizione proposta ne offre una diversa lettura volta ad evidenziarne la natura globale, la centralità dello spettro elettromagnetico, l’interazione tra le tecnologie dell’informazione e la sua funzionalità rispetto alle attività di rilevazione, comunicazione, elaborazione dei dati.

In questa prospettiva il cyberspace viene descritto come “a global domain within the information environment whose distinctive and unique character is framed by the use of electronics and the electromagnetic spectrum to create, store, modify, exchange, and exploit information via interdipendent and interconnected networks using information – communication technologies”[8].

La sua natura globale è determinata da una componente naturale quale lo spettro elettromagnetico che sorregge il funzionamento e lo sviluppo delle infrastrutture e delle tecnologie delle telecomunicazioni sostanzialmente senza vincoli territoriali mentre l’interazione tra tali tecnologie permette l’operatività all’interno dello spazio cyber al fine di creare, archiviare, modificare estrarre e sfruttare le informazioni.

Gli elementi costitutivi del cyberspace rilevati in queste prime definizioni troveranno corretta sistemazione nelle analisi sviluppate nella seconda metà degli anni 2000 le quali, utilizzando i metodi della stratigrafia, hanno permesso la ricostruzione della struttura del cyberspace e dei rapporti tra i suoi elementi costitutivi. Il cyberspace viene in questo momento descritto come uno spazio sviluppato su tre livelli: fisico logico e sintattico.

Il livello fisico.

Lo strato fisico rappresenta le fondamenta dell’architettura complessiva delle tecnologie ITC. Esso è costituito da tutte le infrastrutture e i dispositivi fisici necessari all’elaborazione, memorizzazione e trasmissione digitale dei dati. Include inoltre il segnale che viaggia attraverso questi hardware così come risorse naturali e apparati: alimentazione elettrica, infrastrutture, materiali rari, componenti industriali, circuiti elettronici, protocolli e linguaggi dedicati, sofisticate tecnologie di installazione, stazioni che ospitano i dispositivi di raccolta, smistamento ed immagazzinamento dei dati.

Questo primo strato può essere suddiviso in tre macroaree costituite: a) dai mezzi di comunicazione ottici/rame (cavi sottomarini e terrestri); b) dai sistemi di comunicazione radio-terrestre (ponti radio, standard di telefonia cellulare, wi-fi, WiMax, ecc.); c) dai mezzi di comunicazione satellitare (satelliti geostazionari ecc.)
Accanto a queste strutture di base si possono collocare, in ragione della loro funzione rispetto al funzionamento del CS, le attrezzature ubicate negli Internet Exchange Hub Points che smistano il traffico dati.

Il livello logico.

Il secondo livello è costituito dallo strato logico ovvero l’insieme delle connessioni informatiche che esistono tra i vari “nodi” di una rete. Il modo in cui queste connessioni sono state progettate determina la natura del CS al punto che è stato rilevato che “it would been possible to build a very different Internet within the constraints of the same physics” [9].

Nel dettaglio il livello sintattico contiene i programmi e i protocolli attraverso i quali le informazioni sono formattate e controllate attraverso i diversi sistemi (come computer e network). Il livello logico, inoltre, governa la connettività fisica (ad esempio il protocollo di funzionamento della fibra ottica); il corretto trasferimento dei bit attraverso determinati protocolli (ad esempio i protocolli TCP/IP); i parametri della qualità del servizio; la formattazione dei messaggi e gli schemi dei database.

Su tali componenti di base, attraverso la loro combinazione logica, vengono determinati servizi sempre più complessi a cui è possibile accedere, ad esempio, attraverso la rete Internet. Il livello base include quindi i programmi di esecuzione dell’ambiente informatico di riferimento, i meccanismi per la trasmissione dati e gli standard per la formattazione dei dati[10]. Su di essi sono costruite le applicazioni quali i programmi di scrittura i database o il Web. Combinando i diversi elementi si possono creare servizi più complessi. Ad esempio, combinando database e Web si ottengono strumenti, quali le “App” che usiamo sui cellulari, in grado di generare contenuti in maniera più dinamica[11]

Il livello sintattico.

Il livello sintattico rielabora i dati contenuti nelle macchine. Quest’ultimi possono essere distinti in dati costituenti il cyberspace e in dati immessi dagli utenti nel cyberspace.
I primi sono l’insieme di regole, protocolli e standard che vanno a costituire le regole di funzionamento del cyberspazio. I dati costituenti trovano la loro importanza nella capacità di incidere su forma e funzionamento del cyberspace determinandone il carattere intrinsecamente mutevole che lo differenzia dai domini interamente naturali.
I secondi sono costituiti dai dati immessi dagli utenti e dalle macchine stesse nel loro interagire quotidiano attraverso le tecnologie dell’informazione.
La produzione, l’immagazzinamento, la diffusione dei dati sono i motivi principali che spingono allo sviluppo del cyberspace. Ed in tale percorso di sviluppo i dati stessi hanno cambiato quantità e qualità. Dal codice morse siamo arrivati alla gestione e elaborazione di Big Data, ovvero pacchetti di dati di dimensioni eccezionali di diversa qualità. Dati ricavati dalle macchine autonomamente.

I caratteri strutturali e dinamici del Cyberspace.

Il cyberspace costituisce dunque uno spazio operativo che attraverso l’uso della tecnologia elettronica e delle proprietà dello spettro elettromagnetico permette di operare sulle informazioni attraverso la connessione di reti tecnologiche interdipendenti e interconnesse.
Si tratta di uno spazio determinato a partire da una base naturale, lo spettro elettromagnetico, ma che è definito dall’opera dell’uomo così che sono le tecnologie che esso sviluppa a determinare oltre la struttura anche i suoi peculiari caratteri e le problematiche che da questi derivano.

Da questa prospettiva il cyberspace si presenta anzitutto come uno spazio integrato, in quanto costituito dall’interazione tra le diverse tecnologie dell’informazione, e pervasivo, data la rilevanza di esse in pressoché tutti gli ambiti della vita sociale.

Allo stesso tempo è uno spazio aperto, facilmente accessibile da chiunque in ragione dei bassi costi in termini di competenze e di risorse necessarie per operare attraverso le tecnologie ITC.

Da quest’ultime lo spazio informatico trae il suo carattere dual-use dal quale dipende la rilevanza al contempo civile e militare, tanto delle tecnologie quanto del loro utilizzo. Il cyberspace si presenta infine come uno spazio anarchico in quanto privo di una disciplina che ne garantisca la sicurezza e ne informi le azioni che i diversi attori pongono in essere al suo interno.

Integrazione e pervasività.

I caratteri dell’integrazione e della pervasività definiscono il cyberspace quale infrastruttura di infrastrutture la cui rilevanza cresce all’aumentare dei rapporti politici, commerciali ed economici tra i vari attori favoriti dallo stesso sviluppo delle tecnologie informatiche. La crescente interdipendenza economica tra paesi, realizzata attraverso l’aumento del volume e delle varietà di beni e servizi scambiati internazionalmente, oltre che attraverso la crescita dei flussi internazionali di capitali, è stata infatti sorretta dallo sviluppo delle tecnologie ITC che hanno permesso l’abbattimento dei costi di comunicazione e l’implementazione delle capacità di elaborazione dell’informazione.
A sua volta ciò a favorito la movimentazione di capitali a più breve termine che, assieme alla riduzione delle barriere informative ha creato le condizioni per lo sviluppo di investimenti esteri contribuendo all’estensione dei mercati su scala globale.
La diffusione dell’accesso alle tecnologie ITC ha favorito, in particolare, il trasporto delle idee rendendo più facile e immediata la condivisione di ricerche, studi progetti di ingegneria, rispetto a quanto permesso dai tradizionali sistemi di comunicazione, incidendo profondamente sulla produzione internazionale di beni miniaturizzati ad alto livello tecnologico o di carattere immateriale.

È questo il contesto in cui si sviluppano le tecnologie dell’Internet of Things[12] che, quale implementazione del web, attualmente costituiscono “un’infrastruttura globale per la società dell’informazione, che consente servizi avanzati collegando le cose (fisiche e virtuali) basate su tecnologie di informazione e di comunicazione interoperabili esistenti e in evoluzione”[13].

Attraverso tali tecnologie si determina da una parte, il passaggio dalla connessione in qualsiasi momento e luogo, alla connessione di ogni cosa evidenziando, nella realizzazione di “a new dynamic network of networks – an Internet of Thnings”[14] il carattere integrato del cyberspace; dall’altro si concretizza la nozione di Cyber-Physical System con la quale si fa riferimento alla “next generation of embedded ICT system where computation and networking are integrated whit physical process and they control and manage their dynamics and make them more efficient, reliable, adaptable and secure”[15], evidenziando in ciò la pervasività delle tecnologie analitiche.

Le diverse applicazioni di questa tecnologia possono essere raggruppate entro tre domini principali.

In primo luogo, il dominio industriale, dove si pongono alla base dei processi di Industry 4.0 trovando applicazione nella logistica, nella manifattura, nel controllo dei sistemi produttivi, nel trasporto permettendo il monitoraggio dell’intero ciclo di vita e di utilizzo degli oggetti[16].

Trovano applicazione nell’ambito delle c.d. smart suistinable city[17] (SSC), ovvero, nella definizione proposta dall’ITU, “an innovative city that uses information and communication technologies (ICTs) and other means to improve quality of life, efficiency of urban operation and service and competitiviness, while ensuring that it meets the needs of present and future generations with respect to economic, social, enviromental, as well as cultural aspects” [18] dove assumono un ruolo centrale nella gestione delle risorse e dei servizi in contesti di forte urbanizzazione[19].

Infine, trovano applicazione nel dominio medico ove il loro utilizzo permette la realizzazione di servizi medici specifici per la singola persona così come l’attività di rilevazione di dati la cui quantità e qualità è alla base dei più avanzati progressi medici.

Lo sviluppo delle tecnologie IoT evidenzia, inoltre, la pervasività dello spazio cyber che con esse diviene elemento strutturale delle attività umane. In questo senso il cyberspace costituisce un’infrastruttura di infrastrutture poiché a partire da esso è possibile costruire e amministrare tanto infrastrutture di carattere pubblico e di rilevanza essenziale per gli stati quanto sviluppare reti di supply chain per i più vari servizi commerciali tanto globali quanto locali e quotidiani.

Big Data.

Il carattere integrato delle tecnologie ITC viene alla luce osservando lo sviluppo dei dati elaborati all’interno del cyberspace. Rispetto ad essi le tecnologie IoT, tra le altre, contribuiscono in maniera determinante all’incremento esponenziale della quantità e qualità di dati prodotti, immagazzinati ed elaborati nel cyberspace[20]

Si tratta infatti di un fenomeno, quello dei Big Data, legato all’aumento delle fonti di rilevazione e immissione dei dati e alla diminuzione dei costi per la loro conservazione e, dall’altro, allo sviluppo di particolari metodologie per la loro elaborazione al fine di trarre da essi un nuovo contenuto informazionale.

La quantità di dati prodotti dal cyberspazio pone quindi il problema qualitativo di come “utilizzare questo immenso oceano di dati per attività di ricerca, analisi ed elaborazioni finalizzate alla produzione di una “conoscenza” specifica per tematiche diverse”[21].
Da questo punto di vista il termine Big Data sta quindi ad indicare “il complesso di attività di elaborazione e gestione dei dati finalizzate alla loro trasformazione in un elemento di valore” [22].

Tuttavia, il fenomeno dei Big Data, come gli altri aspetti del cyberspace che sono stati finora osservati, non ha una definizione condivisa, in ragione del carattere mutevole sia dello stesso cyberspace sia del rapporto tra questo e la realtà fisica.
Entrambi, infatti, sono soggetti agli sviluppi della tecnologia e della capacità di trarre da essa nuovo valore in funzione dell’impatto sociale che genera.

Entro una prospettiva ampia, al significato di Big Data possono dunque ricondursi “le cose che si possono fare su larga scala, per estrapolare nuove indicazioni o creare nuove forme di valore, con modalità che vengono a modificare i mercati, le organizzazioni, le relazioni tra cittadini e governi, e altro ancora”[23].

Tecnicamente i big Data sono costituiti da raccolte di dati non omogenee, distribuite, accessibili in rete, non strutturate, le cui principali caratteristiche sono Volume Velocità Varietà Veridicità.

Tuttavia, la loro peculiarità risiede nelle metodologie e negli strumenti fondati su architetture di elaborazioni specifiche, volte “all’analisi di dati su larga scala per estrapolare nuove indicazioni e nuove forme di valore” [24]  in grado di implementare la loro caratteristica “fruibilità per elaborazioni massive anche in contesti caratterizzati da alta velocità di aggiornamento” [25].

Tali metodologie di calcolo permettono di individuare associazioni, regolarità nascoste tra i dati, sulle quali costruire un modello informativo, di tipo descrittivo o predittivo, a supporto dell’attività di decisione[26] .

Il loro tratto caratteristico consiste nella capacità di apprendere dall’osservazione di esempi diversi che si verificano nel mondo osservato senza dover determinare le relazioni esistenti attraverso “l’applicazione della matematica a enormi quantità di dati per desumerne delle probabilità” [27].

Le più avanzate di tali metodologie, di conseguenza, non vengono programmate bensì addestrate mediante algoritmi di apprendimento in grado di modificarne il funzionamento così che esse sono in grado di generalizzare, ovvero di fornire valori di output accettabili anche per input diversi da quelli inizialmente definiti

Il Deep Learning consiste infatti in “un’insieme di pattern architetturali per reti neurali che permettono l’analisi di problemi complessi mediante la scomposizione in sotto-problemi più semplici”[28]. In questo modo, sostanzialmente, la macchina apprende automaticamente i concetti più complessi lavorando sulla base di concetti più semplici elaborando dati che già gli sono stati forniti o che essa stessa ha raccolto dal mondo esterno tramite plurimi sensori.

È evidente in tale attività l’interazione tra le diverse teorie che abbiamo visto esser state elaborate dagli studi sulla cibernetica, il concetto di feedback elaborato da Weinner, e sull’intelligenza artificiale, a partire dalla definizione del neurone come unità logica condotti da Pitt.

Il design di tali metodologie di elaborazione di elaborazioni dati determina profondi mutamenti nel modo in cui vengono ricavate e utilizzate le informazioni la cui centralità nei processi decisionali determina a sua volta profondi mutamenti nella società.

In primo luogo, è ora possibile analizzare una quantità di dati elevata e, in molti casi è possibile processare tutti i dati relativi ad un determinato fenomeno[29]. L’utilizzo dei Big Data permette dunque di osservare i dettagli dei fenomeni fornendone una visione particolarmente chiara della loro struttura granulare. Inoltre, alla enorme quantità di informazioni da processare, è legato il corretto funzionamento dei sistemi di Big Data Analatycs l’attendibilità delle cui analisi previsionali cresce all’aumento della base di dati da analizzare. Occorre evidenziare come la stessa attività di analisi produca ulteriori dati che vengono registrati e utilizzati dai sistemi di analisi per automigliorarsi nel tempo attraverso la registrazione automatica dei sistemi dei segnali e degli andamenti più rilevanti che vengono costantemente monitorati. Entro questa prospettiva si può osservare da una parte, come il cyberspace trovi la sua risorsa essenziale nei dati e dall’altra, che esso produce ormai autonomamente i dati che gli sono necessari per il suo sviluppo.

In secondo luogo, all’aumento della dimensione della base dei dati da analizzare aumenta anche il numero delle imprecisioni che l’analisi può presentare.

In un contesto di Big Data, tuttavia, la precisione diviene un valore secondario rispetto alla possibilità di poter osservare i trend generali di un determinato fenomeno. Sul piano decisionale ciò comporta l’accettazione di un livello di rischio sostanzialmente definito dalla macchina in grado, tuttavia, di incidere sulla dimensione sociale essendo le informazioni così elaborate la base per l’adozione di decisioni che, a vari livelli, modificano l’ambiente reale.

Infine, l’utilizzo dei Big Data determina il venir meno della centralità del rapporto di causalità. Come è stato osservato “i big Data riguardano il cosa accade non il perché”[30].

L’affermarsi dei sistemi di analisi basati su Big Data determina dunque la crisi di alcuni assunti fondamentali che hanno finora sorretto la società umana.

Da una parte viene posta in crisi la convinzione che le decisioni umane si fondino su informazioni limitate ma esatte e rispondenti ad un principio di causalità. È questa la principale conseguenza del passaggio da una lettura del mondo basata su idee di stampo newtoniano ad una di stampo, in senso lato, probabilistico.

Dall’altra, e di conseguenza, l’enorme quantità di dati da analizzare per prendere una decisione, determina la sostituzione delle macchine all’uomo nella stessa attività decisionale.

In questo senso i Big Data costituiscono dunque l’elemento alla base dello sviluppo delle capacità decisionali della macchina quale meta finale degli studi sull’Intelligenza Artificiale, avviati nell’estate del 1956 con il Dartmouth Summer Project in Artificial Intelligence[31].

Viene qui in rilievo l’ultimo elemento di integrazione e pervasività delle tecnologie ITC, l’Intelligenza Artificiale, che, al contempo, ne determina l’unità qualificando il cyberspace non solo come uno spazio d’azione entro il quale interagiscono diversi attori, ma anche come un fattore autonomo di progresso dell’uomo la cui dinamica di sviluppo può porre in discussione caratteri essenziali delle nostre società e della stessa idea di Umano.

Da questa prospettiva è importate rilevare un aspetto che costituisce il carattere centrale della dinamica di funzionamento del cyberspace.

I tradizionali sistemi GOFAI si basavano su regole a loro volta basate sul rigido uso della logica il cui limite era l’instabilità rispetto alle analisi combinatorie più complesse[32].
Diversamente, i nuovi sistemi modellati sul funzionamento della mente umana pongono al centro delle loro analisi le connessioni tra i dati rilevate attraverso l’elaborazione simbolica.

La ricerca scientifica nei vari settori che contribuiscono allo sviluppo dell’Intelligenza Artificiale si orientano quindi verso un modello semantico piuttosto che logico matematico. Viene così ad affermarsi l’idea di un connessionismo che, differentemente dal cognitivismo basato sull’analogia tra mente e computer software e considera la mente come una manipolazione di simboli, rifiuta l’analogia mente/computer e interpreta il comportamento e le abilità cognitive utilizzando modelli teorici che sono direttamente ispirati alla struttura fisica e al modo di funzionare del sistema nervoso.

Reti neurali e algoritmi genetici sono metodi la cui introduzione negli anni 90 suscitò nuovo interesse scientifico attorno all’Intelligenza artificiale[33].

Gli studi che in seguito si svilupparono misero in evidenza come “tecniche all’apparenza disparate si possano interpretare come casi speciali di un’unica struttura matematica”[34] il cui modello ideale è quello dell’agente baynesiano perfetto in grado di far un uso probabilisticamente ottimo dei dati di cui dispone combinandole al fine di prendere una decisione orientata alla massima utilità attesa.

Sono frutto di questa impostazione, tra gli altri, i modelli di Data Mining più avanzati, gli algoritmi di Deep Learning e Machine Learning, che abbiamo visto esser utilizzati nella Big Data Analytics.

Si tratta di algoritmi che seppur differiscono per aspetti tecnici quali il tempo di elaborazione e lo spazio di memoria richiesta, ai bias induttivi che presuppongono, alla facilità di recepire contenuti dall’esterno e alla trasparenza del loro funzionamento rispetto all’operatore, condividono un carattere intrinsecamente probabilistico.

L’attualità delle tematiche connesse allo sviluppo tecnologico è data, diversamente dal passato, dalle potenzialità economiche che l’applicazione dell’IA riesce a generare nei diversi domini in cui viene applicata, con l’ulteriore caratteristica che la sua stessa applicazione genera nuovi domini entro cui operare: dagli assistenti virtuali alle automobili a guida autonoma; dal riconoscimento vocale alla traduzione automatica fino ai programmi di sintesi vocale e all’aggregazione automatica di notizie su cui si basano le operazioni finanziarie automatiche [35].

Apertura.

Le attuali applicazioni dell’intelligenza Artificiale sono innumerevoli e pervadono gli aspetti quotidiani della vite delle persone per il tramite delle tecnologie ITC che, in misura sempre maggiore sono utilizzate dagli individui, o che con essi interagiscono direttamente o indirettamente.

Il numero di sensori che circondano l’individuo nella sua quotidianità, riconducibili entro il generale concetto di IoT, viene calcolato in termini di migliaia di sensori ed aumenta esponenzialmente[36].

Ciò da una parte favorisce le persone nelle loro varie attività, dall’altra, nella misura in cui l’individuo viene in rilievo nella sua dimensione datizzata, le trasforma nella principale risorsa di sviluppo del cyberspace legato, come visto, alla quantità e qualità di dati che le macchine computazionali possono elaborare.

In altri termini l’individuo è posto al centro della dinamica di sviluppo del Cyberspace, complessivamente considerato, con il duplice ruolo di fruitori della tecnologia e risorsa datizzata che sorregge lo sviluppo delle tecnologie stesse.

La posizione dell’individuo nel cyberspace è determinata dal carattere aperto dello stesso spazio informatico. La facilità di accesso alle tecnologie digitali e alla rete internet, in ragione dell’esiguità delle risorse economiche e di conoscenza tecnica richieste per accedervi, ha favorito l’accesso ad un numero sempre maggiore di persone al cyberspace.

Ciò pone problemi di duplice natura.
Da un punto di vista securitario le principali problematiche riguardano le azioni malevole che i diversi attori, i singoli utenti della rete, possono porre in essere. Si tratta di uno spettro di azioni molto ampio che va da azioni di terrorismo ad azioni meramente criminali e illecite che possono coinvolgere singoli utenti più deboli così come soggetti economici di grande rilevanza. Particolarmente interessanti sono inoltre le forme di attivismo orientato da finalità politiche che possono incidere sull’attività delle istituzioni pubbliche.

Allo stesso tempo gli aspetti positivi legati all’utilizzo delle tecnologie ITC pongono problemi legati al digital divide e alla libertà di accesso alla rete internet. Libertà che viene posta in discussione tanto rispetto all’azione di controllo che la tecnologia permette ai poteri pubblici quanto rispetto ai rapporti tra utenti e grandi fruitori di servizi on line. Problemi questi che costituiscono aspetti diversi della più ampia questione della tutela della privacy delle persone. Tale problematica richiede di comprendere in che modo la pervasività delle tecnologie nella vita delle persone può portare alla realizzazione di strumenti tecnici suscettibili di determinare dall’esterno la libertà dell’individuo trasformandolo in un mero strumento per il perseguimento di fini determinati da grandi attori politici o economici.

Dual-Use.

La duplicità dei problemi legati alla tutela delle persone nel cyberspace è una caratteristica che può essere estesa anche alle infrastrutture e alle supply chain che basano il loro funzionamento sulle tecnologie ITC. L’ulteriore carattere di tali tecnologie è infatti il loro essere intrinsecamente dual use. Le tecnologie ITC, data la loro integrazione e pervasività, sorreggono azioni volte al perseguimento dei fini più disparati rispetto ai quali è spesso difficile il confine tra ciò che è lecito e ciò che non lo è indipendentemente dagli effetti diretti che esse determinano.

È questo un carattere che rispecchia l’interdisciplinarietà che abbiamo visto esser la cifra di una cultura scientifica e più in generale di un’idea di progresso dell’uomo sviluppatasi a partire dai conflitti mondiali del secolo scorso e che con l’affermarsi del processo di globalizzazione a acquisito un carattere universale.

Entro questa prospettiva si pone dunque il problema di delineare il limes dello sviluppo tecnologico determinando principi e valori in base ai quali orientare e governare lo sviluppo di tali tecnologie e dunque il progresso umano.

Il problema si pone, come evidenziato da Weiner ai cui studi si deve la fondazione della disciplina della cibernetica alla base della costruzione del cyberspace, in termini di “uso umano dell’essere umano”[37].

Anarchia. 

In termini giuridici tale problematica attiene all’individuazione di principi e valori che possano delineare i confini degli interessi perseguiti attraverso l’utilizzo della informazione così come favorito dalle tecnologie ITC e di analisi e manipolazione dei dati.
La disciplina giuridica del cyberspace, tuttavia, risente dei caratteri precedentemente visti.
L’integrazione delle diverse tecnologie non permette la definizione di una disciplina giuridica unitaria favorendo viceversa la frammentazione dei soggetti regolatori e delle regole. Allo stesso tempo la pervasività e il carattere dual use delle tecnologie possono determinare l’esistenza di più regimi giuridici per una stessa fattispecie.

In questo contesto emerge l’ultima caratteristica del cyberspace, il suo essere uno spazio di interazione e un fattore di progresso rispetto al quale, tanto la dinamica degli attori che vi agiscono quanto il suo stesso sviluppo, avvengono in contesto sostanzialmente anarchico.

Sono gli stessi caratteri del cyberspace così come l’idea di progresso che vi sottende a determinare da un lato la difficolta a definire un quadro normativo unitario e dall’altro far emergere nuovi punti di frizione tra gli attori internazionali rispetto all’interpretazione di questo novo fenomeno e di conseguenza rispetto alla sua regolamentazione.


Note

[1] Winn Schwartau, Information Warfare: Chaos on the Electronic Superhigway, Thunder’s Mouth, New York, 1994

[2] Winn Schwartau, Information Warfare: Chaos on the Electronic Superhigway, Thunder’s Mouth Press, 2° Ed., 1996

[3] Edward Waltz, Information Warfare: Principle and Operations, Artech House, Inc. Norwood, MA, USA, 1998

[4] Walter Gary Sharp, Cyber Space and the Use of Force, Aegis Research Corporation, USA, 1999

[5] Dorothy Denning, Information Warfare and Security, Addison-Wesley Longman Ltd. Essex, UK, 1999

[6] Gregory Rattray, Strategic Warfare in Cyberspace, MIT Press, Cambridge, MA, 2001

[7] Franklin D. Kramer, Stuart H. Starr, and Larry K. Wentz, Cyber power and National Security, Center for technology and national security policy, National Defense University, Washington D.C., University of Nebraska Press; 1 edition, 2009

[8] Daniel T. Kuel, From Cyberspace to Cyberpower: Defining the Problem, in Franklin D. Kramer, Stuart H. Starr, and Larry K. Wentz, Cyberpower and National Security, citato, pag. 28 e ss.

[9] David Clark, Characterizing the cyberspce: past, present and future, MIT CSAIL Version 1.2 of March 12, 2010

[10] M. C. Libinky, Conquest in Cyberspace. National Security and Information Warfare, Cambrige University Press, 2007

[11] David Clark, Characterizing the cyberspce: past, present and future, citato

[12] Le tecnologie Internet of Things (IoT) possono essere descritte, in termini generali, come “the many uses and process that result from giving a network address to a thing and fitting it with sensors” [12] (Mercedes Bunz, Graham Meikle, The internet of things, Polity Press, Cambridge UK, 2018). Esse assumono anzitutto i caratteri di“emerging global internet based information architecture facilitating the exchange of goods and service in global supply chain network” [12](Colf H. Weber, Internet of Things – New security and privacy challenges, Computer Law & Security Review 26 (2010) 23-30;  per una panoramica generale sull’argomento, dello stesso Autore, Iternet of Things – Need for a New Legal Enviroment, Computer Law & Security Review n. 25 (2009)). Il loro impatto economico si stima possa essere, a partire dal 2025, di 11,1 trilioni di dollari all’anno[12] (McKinsey Global Institute analysis, How we can recognize the real power of the Internet of Things?,, consultabile all’indirizzo web https://www.mckinsey.com/business-functions/digital-mckinsey/our-insights/how-can-we-recognize-the-real-power-of-the-internet-of-things), a fronte di un numero di dispositivi di circa 50 miliardi, corrispondente a oltre 6 dispositivi per persona [12](Dave Evans, Cisco Internet Business Solutions Group, The Internet of Things. How the next evolution changing everything, Aprile 2011, https://www.cisco.com/c/dam/en_us/about/ac79/docs/innov/IoT_IBSG_0411FINAL.pdf ) che salgono a 1000 considerando i sensori che sono posti nelle infrastrutture e negli spazi pubblici (A. Sangiovanni-Vincentelli, Let’s get physical: adding physical dimensions to cyber systems, in: Internet of Everything Summit, Roma, July 201). Altrettanto vaste sono le aree in cui le tecnologie IoT possono trovare applicazione grazie alla loro duplice capacità di rilevare dati (relativi ad esempio a fenomeni naturali, parametri medici e altro) e di fornire, sulla loro base, nuovi servizi.

[13] ITU, Recommendation ITU-T Y.2060, 06/2012, Overview of the Internet of Things

[14] ITU, Recommendation ITU-T Y.2060, 06/2012, Overview of the Internet of Things

[15] Eleonora Borgia, The Internet of Things vision: Key features, application and open issues, Computer Communications 54 (2014), p. 1-31

[16] Favoriscono, al contempo, l’adozione di nuovi sistemi di sicurezza ad esempio durante il trasporto, dove permettono di effettuare in tempo reale la diagnostica dei veicoli e dei carichi trasportati e l’intervento precauzionale dell’uomo[16] (P. Hank, S. Müller, O. Vermesan, J. Van Den Keybus, Automotive ethernet: invehicle networking and smart mobility, in: Proceedings of the Conference on Design, Automation and Test in Europe (DATE’13), 2013, pp. 1735–1739). Allo stesso modo può essere monitorata l’attività e la salute del bestiame così come il ciclo di crescita delle piantagioni all’interno di aziende agricole che, sulla base delle informazioni ricavate dall’elaborazione dei dati rilevati, possono garantire una maggiore sicurezza alimentare e offrire nuovi servizi ai consumatori[16] (A.S. Voulodimos, C.Z. Patrikakis, A.B. Sideridis, V.A. Ntafis, E.M. Xylouri, A complete farm management system based on animal identification using RFID technology, Comp. Electron. Agricult. 70 (2) (2010) 380–388. ; J. Ma, X. Zhou, S. Li, Z. Lio, Connecting agriculture to the internet of things through sensor networks, in: Proceedings of Internet of Things (iThings/CPSCom), 2011, pp. 184–187; D. Yan-e, Design of intelligent agriculture management information system based on IoT, in: Proceedings of International Conference on Intelligent Computation Technology and Automation (ICICTA), 2011, pp. 1045– 1049; S. Li, S. Peng, W. Chen, X. Lu, Income: practical land monitoring in precision agriculture with sensor networks, Comp. Commun. 36 (4) (2013) 459–467.; J. Chun Zhao, J. Feng Zhang, Y. Feng, J. Xin Guo, The study and application of the IOT technology in agriculture, in: Proceedings of 3rd IEEE Computer Science and Information Technology (ICCSIT), 2010, 2010, pp. 462–465).

[17] H. Samih, Smart cities and internet of things, Journal of Information Technology Case and Application Research, 21:1, 3-12, https://doi.org/10.1080/15228053.2019.1587572; Ilias O. Pappas, Patrick Mikalef, Yogesh K. Dwivedi, Letizia Jaccheri, John Krogstie, Matti Mäntymäki (Eds.) Digital Transformation for a Sustainable Society in the 21st Century. 18th IFIP WG 6.11 Conference on e-Business, e-Services, and e-Society, I3E 2019 Trondheim, Norway, September 18–20, 2019, Springer.

[18] ITU-T Y-series Recommendations – Supplement 33, 01/2016.

[19] La centralità di questo dominio è legata al ruolo che la città assume all’interno del più ampio fenomeno della globalizzazione a partire dalla seconda metà del XX° e l’inizio del XXI° secolo. Nel 2014 vi erano 28 mega città nelle quali viveva circa il 54% della popolazione mondiale che si stima sarà il 66% nel 2050.  Tali agglomerati urbani devono confrontarsi con fenomeni di rapida urbanizzazione, inquinamento, migrazioni, da cui insorgono problematiche legate alla disponibilità di risorse naturali quali l’acqua, la terra, le fonti energetiche. Altre problematiche sono legate alle infrastrutture per i trasporti, all’accesso all’educazione, alla sicurezza dei cittadini così come alla gestione di un adeguato servizio sanitario

[20] Il modello di riferimento delle tecnologie IoT è costituito da quattro livelli ad ogni uno dei quali sono associate competenze di management e di sicurezza. Il primo livello (device layer) ha funzionalità legate ai singoli dispositivi tra le quali, quelle che permettono l’interazione diretta o indiretta con il network di comunicazione; la creazione di ad hoc network; “sleeping and waking-up” per il risparmio energetico.  Altre funzionalità sono legate alla gestione della connettività attraverso diverse tecnologie e protocolli di comunicazione. Il secondo livello (network layer) svolge due tipi di funzioni. La prima consiste nel controllo della funzionalità della connettività del network; la seconda attiene al trasporto delle informazioni necessarie al funzionamento delle applicazioni. Il successivo livello (Service support and application support layer) offre competenze generiche nell’elaborazione e memorizzazione dei dati. Queste sono poi alla base di competenze specifiche in grado di fornire supporto alle diverse applicazioni della tecnologia Iot. Il quarto livello (application layer) è costituito semplicemente dalle applicazioni che possono essere create attraverso la tecnologia IoT.  Entro questi tre livelli si svolgono le tre fasi di raccolta, trasmissione, elaborazione e utilizzazione dei dati raccolti dai device IoT sull’ambiente a loro circostante, ogni una supportata da tecnologie il cui steso utilizzo determina la direzione del suo sviluppo rispondendo più ad una logica di casualità anziché di progettazione. Da questo punto di vista, acquisiscono, per le ragioni che vedremo più avanti, una particolare importanza le tecnologie utilizzate nella fase di elaborazione dei dati raccolti e che attengono all’elaborazione e utilizzo di Big Data. Cfr. ITU, Recommendation ITU-T Y.2060, 06/2012, Overview of the Internet of Things

[21] Antonio Teti, Lavorare con i Big Data. La guida completa per il Data Scientist, pag. XXI Tecniche nuove, 2017

[22] ID.

[23] Viktor Mayer-Schonmerger, Kenneth Cokier, Big Data, Garzanti, 2017, p. 16.

[24] Antonio Teti, Lavorare con i Big Data. La guida completa per il Data Scientist, pag. XXI Tecniche nuove, 2017.

[25] Cosimo Comella, Origine dei Big Data”, GNOSIS, 2/2017, pag. 132

[26] Lo sviluppo di nuove metodologie di calcolo prese avvio nei primi anni 90 quando, attorno ai concetti di Data Mining e Knowledge discovery in database (KDD), si creò un movimento scientifico interdisciplinare che portò allo sviluppo di modelli, metodi e algoritmi per l’analisi dei dati quali: database e data mining, machine learning, support vector machine, random forest, deep learning e intelligenza artificiale, sistemi complessi e network science, statistica e fisica statistica, information retrieval e text mining, elaborazione del linguaggio naturale, matematica applicati. In particolare, il KDD può essere descritto come “the non trivial process of identifyng valid, novel, potentially useful, and ultimatelly understandable patterns in data”. Secondo altra definizione esso consiste in “a knowledge-intensive task consisting of complex interactions, protracted over time, between a human and a (large) database, possibly supported by a heterogeneous sute of tool”. In entrambi i casi viene in evidenza un processo costituito da un insieme di attività complesse per la manipolazione di dati al fine di estrarre informazioni precedentemente sconosciute e potenzialmente utili, in altri termini conoscenza. Tale processo è composto di sei fasi di cui il Data Mining è la più importante. Quest’ultima consiste nell’estrazione di conoscenza implicita, sconosciuta e potenzialmente utile da grandi quantità di dai.  La sua principale funzione è quella di individuare associazioni, regolarità nascoste tra i dati, sulle quali costruire un modello informativo, di tipo descrittivo o predittivo, a supporto dell’attività di decisione. Diverse sono le tecniche sviluppate per questa attività, in particolare: gli alberi decisionali, il clustering, l’association rule learning e, infine le reti neurali. Quest’ultime in particolare permettono da un lato di evidenziare la continuità della ricerca scientifica nel tempo, dall’altra rappresentano il punto di partenza degli sviluppi legati all’Intelligenza Artificiale. Cfr Dino Pedreschi, Data Science. La parola ai pionieri; GNOSIS, 2/2017

[27] Viktor Mayer-Schonberger, Kenneth Cukier, Big Data, Garzanti, 2017, pag. 23

[28] Antonio Teti, Lavorare con i Big Data. La guida completa per il Data Scientist, cit., p. 358

[29] L’area di applicabilità delle tecniche di Big Data Analytics è infatti definita dalla combinazione di dimensione dei dati e dei relativi tempi per elaborarli. Di conseguenza, l’analisi di molteplici Terabyte nell’ordine di pochi minuti rientra nelle attività di Big Data, diversamente, si fa riferimento a tecniche tradizionali di Data Warehouse e Data Mining se lo stesso risultato lo si può ottenere nell’arco di qualche giorno. (Michele Colajanni, Il ruolo dei Big Data Analytics e Machine Learning nella sicurezza, GNOSIS 2/2017, p. 79)

[30] Viktor Mayer-Schonmerger, Kenneth Cokier, Big Data, Garzanti, 2017, p. 26

[31] Nonostante la diretta indicazione dell’oggetto delle discussioni, in cosa effettivamente esso consistesse non era stato ancora chiarito. Nei primi anni 50 si delineava una nuova scienza, caratterizzata dalla ricerca tecnologica e dalla sua interdisciplinarità, alla quale alcuni si riferivano in termini di cibernetica, altri la riconducevano alla teoria dell’automazione, altri ancora alla teoria della comunicazione, infine, in termini generali si parlava thinking machine o Machine that Thinking. Il termine Intelligenza Artificiale fu utilizzato nel 1955 da John McMcarty, un giovane Professore di Matematica dell’Università di Dartmouth, per la sua neutralità rispetto alle più assertive teorie dell’automazione e della cibernetica. Le diverse posizioni scientifiche ruotavano attorno al fondamento matematico o semantico dei modelli sulla cui base sviluppare le capacità cognitive delle macchine. Il Seminario di Dartmouth viene considerato come il momento di avvio della ricerca sull’Intelligenza Artificiale. Un inizio dalle grandi e confuse aspettative a cui segui un sessantennio caratterizzato da periodi di grande interesse e sviluppo e da altri in cui non si realizza alcun progresso. Nick Bostrom, SuperIntelligenza Tendenze, pericoli, strategie, Bollati Boringhieri, pag 27

[32] Le potenzialità dei primi computer realizzati in quegli anni permisero lo sviluppo di sistemi semplici volti a dare una dimostrazione del concetto mostrando che un dato compito in linea di principio poteva essere eseguito da una macchina. Tuttavia, all’aumentare della complessità del compito da eseguire si registrava un aumento delle operazioni computazionali da svolgere. Si trattava di un’esplosione combinatoria che gli algoritmi disponibili non erano in grado di analizzare.  Nuovi progressi si registrarono negli anni 80 grazie alla ricerca scientifica portata avanti dal Giappone. La crescita economica registrata nel periodo postbellico sorresse la realizzazione di un partenariato pubblico privato per lo sviluppo dei computer della quinta generazione. Un’architettura tecnica che si immaginava sarebbe servita da piattaforma per l’intelligenza artificiale. È in questo momento che vengono elaborati i cd sistemi esperti basati su un paradigma logicistico e concentrati sulla manipolazione di simboli ad alto livello. Sistemi tuttavia che presentavano ancora un carattere instabile che ne limita l’utilizzo e conseguentemente lo sviluppo. Negli anni Novanta lo sviluppo delle reti neurali e degli algoritmi genetici sembravano superare tali limiti presentando rilevanti capacità di resilienza e di addestramento grazie all’introduzione dell’algoritmo di propagazione all’indietro che permise la funzionalità di reti neurali multistrato. Nick Bostrom, SuperIntelligenza Tendenze, pericoli, strategie, Bollati Boringhieri, pag 29

[33] Le reti neurali artificiali, o più comunemente reti neurali, possono essere descritte come strutture computazionali il cui funzionamento è ispirato ai processi elaborativi che avvengono all’interno del cervello. Come abbiamo visto trattando dei fondamenti della cibernetica, la possibilità di utilizzare reti di unità logiche costruite sul modello della rete di neuroni del cervello umano, prende le mosse dagli studi di W.S. McCulloch e W.H. Pitts.  Il loro tratto caratteristico consiste nella capacità di apprendere dall’osservazione di esempi diversi che si verificano nel mondo osservato senza dover determinare le relazioni matematiche esistenti. Di conseguenza le reti neurali non vengono programmate bensì addestrate mediante un algoritmo di apprendimento in grado di modificarne il funzionamento così che esse sono in grado di generalizzare, ovvero di fornire valori di output accettabili anche per input diversi da quelli inizialmente definiti. Nonostante le loro elevate capacità di calcolo gli algoritmi comunemente usati nel Data Mining non erano stati progettati per gestire la quantità di dati attualmente rilevata. Soprattutto non erano in grado di utilizzare adeguatamente dati che fossero dislocati in più database. Per superare i limiti del Data Mining e delle reti neurali classiche, negli ultimi anni si stanno sviluppando metodologie di elaborazione dati denominate Deep Learning. Si tratta di un insieme di pattern architetturali per reti neurali che permettono l’analisi di problemi complessi mediante la scomposizione in sotto-problemi più semplici. In questo modo la macchina apprende automaticamente i concetti più complessi lavorando sulla base di concetti più semplici. lo sviluppo di algoritmi per l’analisi dei dati ha contributo, al pari dell’aumento delle capacità di calcolo, all’emergere del fenomeno dei Big Data

[34] Nick Bostrom, SuperIntelligenza Tendenze, pericoli, strategie, Bollati Boringhieri, pag. 32

[35] Tra i settori in cui già oggi l’IA determina importanti innovazioni rientrano anzitutto l’ambito medico. In questo settore lo sviluppo di strumenti IoT di rilevazione dello stato di salute del paziente offre ai sanitari dati in tempo reale che permettono di implementare l’efficacia delle cure apprestate ai pazienti così come nuove tecniche di manipolazione delle strutture biologiche del corpo umano. Il progetto “InnerEye” della Microsoft utilizza la tecnologia IA sviluppata per i videogiochi per l’analisi di immagini di risonanza magnetica al fine di fornire agli oncologi informazioni precise e dettagliate sulle problematiche del paziente, l’utilizzo dei robot permette di effettuare operazioni particolarmente complesse. Un’importante area di applicazione delle tecnologie IA in campo medico riguarda lo sviluppo di applicazioni in grado di migliorare la qualità della vita di persone affette da disabilità. Un esempio è qui offerto da una semplice applicazione per cellulari realizzata da Microsoft e denominata “Seeing AI” che permette a persone non vedenti di interagire con la realtà in cui si trovano fornendo una descrizione audio dell’ambiente circostante e di ciò che vi accade. Di particolare importanza sono gli strumenti di analisi basati su Big Data e Intelligenza Artificiale che permettono il monitoraggio di fenomeni pandemici. Nel 2009 in occasione della diffusione del virus influenzale H1N1 i ricercatori di Google pubblicarono sulla rivista Nature un importante studio in cui spiegavano come Google fosse in grado di prevedere la diffusione dell’influenza invernale negli Stati Uniti sia a livello nazionale che regionale e locale. Ciò sulla base delle domande post dagli utenti al motore di ricerca. Un progetto simile, denominato “Project Premonition” è sviluppato da Microsoft per il contrasto alle epidemie di malattie quali Zika, Ebola, la febbre Dengue, trasmesse da animali e insetti attraverso l’utilizzo di avanzati droni capaci di viaggiare all’interno di ambienti complessi e identificare possibili fonti di contagio.

[36] Phillippa Biggs (ITU), John Garrity (Cisco), Connie LaSalle (Cisco) and Anna Polomska (ITU), under the supervision of Dr. Robert Pepper (Cisco), Harnessing the Internet of Things for Global Development, Report presentato alla ITU/ UNESCO Broadband Commission for Sustainable Development, consultabile all’indirizzo https://www.itu.int/en/action/broadband/Documents/Harnessing-IoT-Global-Development.pdf

[37] N. Wiener, Cybernetics, or control and communication in the animal and the machine, prima edizione: The MIT Press, Cambridge (MA), 1948; seconda edizione: Wiley, New York, 1961 (trad. italiana: La Cibernetica – Controllo e Comunicazione nell’animale e nella macchina, Il Saggiatore, Milano, 1968)


Foto copertina: Immagine Web