Lungo il fiume Columbia, tra Portland e Pandleton, nello Stato del l'Oregon sorge The Dalles, una cittadina che passerà alla storia per aver ospitato la prima e forse più grande centrale informatica del mondo. Su una superficie di quaranta ettari all'interno di un edificio di quattro piani Google tre anni fa progettò, senza dire nulla a nessuno, progettò un centro di calcolo diverso da tutti gli altri nel quale nessuno ancora oggi sa con esattezza quanti computer dentro siano stipati. A tre anni di distanza sempre lungo il fiume Columbia sono sorti dozzine di data center. A Quincy nello Stato di Washington Microsoft ne ha uno di sei piani che occupa 140mila metri quadrati. Là dentro, stipati come polli da batteria, tonnellate di hard disk e microchip sono destinati a ospitare il Cloud computing, quella che Nicholas Carr, ex direttore dell'Harvard Business Review, non esita a definire come la nuova era dell'informatica. «Se la dinamo elettrica fu la macchina che diede forma alla società del XX secolo – scrive Carr nel libro "The Big Switch" – la dinamo informatica è la macchina che darà la forma alla nuova società del XXI secolo».
Già, ma che forma avrà questa società? Quella di una squadrata cattedrale imbottita di computer che fornirà informatica al mondo? Qualcuno è convinto di sì. Perché cloud computing significa esattamente questo: distribuire attraverso internet risorse informatiche, ovvero applicazioni software, storage, potenza di calcolo come se fossero energia elettrica. In altre parole, trasformare l'informatica in un servizio di pubblica utilità accessibile (a pagamento) come la rete telefonica.
Nulla di nuovo anzi, il cloud è un sogno antico che ha percorso la storia del computing dall'epoca dei mainframe – quando a metà degli anni sessanta noleggiare un computer Ibm costava decine di migliaia di dollari al mese – fino al paradigma client-server, quello attuale dove computer "piccoli" come i pc si connettono a server condividendo applicazioni e risorse. Un modello complesso ma soprattutto inefficiente. Grazie a questo tipo di sistema di distribuzione dell'informatica, le aziende insieme ai fornitori di tecnologia si sono dovute dotare di pc, di server, di software, di consulenti, di specialisti che regolano l'accesso e la distribuzione dei programmi, che decidono le politiche di sicurezza. Nelle aziende l'informatica ha assunto la forma di software residente in server posti all'interno delle aziende o caricati direttamente sui pc per cui si paga la licenza e i costi di manutenzione. Chi fornisce applicazioni software fino a oggi ha fatto soldi così vendendo programmi e occupandosi poi dell'aggiornamento e della manutenzione. Fino ad oggi, appunto. Questo modello sembra essere messo fortemente in discussione. Non solo nei convegni e nelle aule universitarie, ma anche sul mercato. A cambiare le carte in tavola è intervenuta la banda larga e la diffusione della fibra ottica che hanno reso internet una piattaforma sufficientemente veloce e potente per distribuire applicazioni. Non ultimo i software di virtualizzazione, ovvero la tecnologia che trasforma in software il funzionamento di una macchina, erano ancoro poco sviluppati.
Questi tre fattori (fibra ottica nelle aziende, diffusione della banda larga e virtualizzazione) sono giunti a maturazione solo nell'ultimo decennio dando sostanza a questo nuovo paradigma del l'informatica. I chilometri di fibra ottica che attraversano il nostro pianeta hanno così tolto il velo al web. Internet ha smesso di diventare un insieme di pagine consultabili, trasformandosi in una piattaforma di distribuzione programmabile dall'utente come se fosse un computer. Quando cambia la modalità di fornitura di una risorsa appare evidente il legame tra tecnologia e società, scrive Carr. Ecco perché sta cambiando la geografia dell'informatica. Ed ecco perché i laboratori dove stanno prendendo forma le nuvole sono in costruzione lungo i fiumi o addirittura su piattaforme in mezzo al mare. Ovvero nei luoghi dove l'energia elettrica per raffreddare server è più a buon mercato.
Se questo è davvero il futuro quali sono le conseguenze per le aziende? Analisti e tecnologi non hanno dubbi: per il business il cloud computing rappresenta una rivoluzione pari all'introduzione della corrente alternata. Cento anni fa le aziende smisero di produrre al proprio interno energia elettrica, rifornendosi alla nuova rete energetica. Allo stesso modo, raccontano i sacerdoti della nuvola, le aziende potranno decidere di comprare informatica a consumo senza dover pianificare anche solo l'acquisto di un server. Questo naturalmente in teoria. Più realisticamente, soprattutto le grandi aziende con importanti dotazioni informatiche viaggeranno ancora con il vecchio paradigma decidendo di volta in volta cosa dare in outsourcing sulla nuvola e cosa mantenere internamente. Quel che è certo è che un numero sempre maggiore di attività di elaborazione verrà svolto lontano da noi e gestito da grandi centri dati situati su internet. Già oggi sta avvenendo: negli Stati Uniti sette americani su dieci dichiarano di utilizzare applicazioni e servizi direttamente su internet. Già oggi pubblichiamo online le nostre foto, i nostri pensieri attraverso i blog e i video con YouTube senza aver speso un soldo per acquistare questi programmi.
Tutto grazie al web che sta diventando completamente programmabile, un World Wide Computer, come scrive Carr. Da qui forse l'aspetto più delicato di questo nuovo modello: il controllo dell'informazione. Le nostre identità digitali già oggi girano su server lontani da noi, fuori dal nostro hard disk, dal nostro pc. Cosa succederebbe se qualcuno spegnesse queste macchine? Se un attacco radesse al suolo il centro di calcolo di The Dalles? Quali garanzie ha una azienda in termini di sicurezza, di privacy che decide di dare in outsourcing interi pezzi del proprio business dalla gestione delle buste paga ad applicazioni di business intelligence? Accedere ai server potrebbe significare conoscere i dati sensibili di una società, in questo caso quali garanzie verranno offerte?
CONTINUA ...»