Pulse 2010: verso un pianeta più intelligente

233

Note dalla terza edizione della manifestazione organizzata da Big Blue a Las Vegas per promuovere l’uso delle tecnologie a salvaguardia del nostro pianeta

Sotto l’occhio vigile del leone dorato della Metro Goldwin Mayer, 5000 professionisti e analisti IT provenienti da tutto il mondo si sono ritrovati presso l’hotel MGM Grand di Las Vegas a fine febbraio alla manifestazione Pulse 2010 per discutere le nuove applicazioni integrate rese possibili dai prodotti IBM della famiglia Tivoli, anche grazie a una fitta rete di accordi e di alleanze con operatori attivi in vari campi.  La manifestazione è arrivata alla terza edizione. Nel 2008, il tema era Industrializzazione delle operazioni IT, nel 2009 Estensione del servizio in tutta l’azienda, infine nel 2010 Integrated service management. Introdotto dall’ex vice presidente degli Stati Uniti e premio Nobel Al Gore, l’evento ha fornito una panoramica completa e aggiornata sulle capacità delle piattaforme di gestione dei servizi Tivoli e sulla Dynamic Infrastructure che consente di integrare le infrastrutture di business in infrastrutture IT flessibili, sicure e completamente gestite. Oltre 300 sessioni hanno evidenziato che l’utilizzo dei sistemi di gestione integrati dei servizi è un driver importante per l’innovazione, assicura una corretta gestione delle strutture IT, riduzione dei rischi, incremento delle disponibilità degli asset e generale incremento delle performance aziendali. Inoltre, l’utilizzo in chiave strategica di questi sistemi può aiutare ad affrontare su una base più razionale le grandi crisi in atto, a dominare la complessità e a realizzare nuovi sistemi di grande respiro, impensabili fino a pochi anni fa, come il controllo di grandi complessi edilizi e di città complete.

 

Affrontare le crisi
Nel suo discorso di apertura, Al Gore ha affermato: “Questo è uno straordinario momento di svolta nella storia dell’umanità, in cui si deciderà se si autodistruggerà o riuscirà a sopravvivere e a progredire grazie a un profondo processo di rinnovamento e riorganizzazione delle aziende, dei governi e degli individui. Questo dipende anche dalla capacità di controllare sistemi estremamente complessi. Cent’anni fa, accaddero contemporaneamente due cose emblematiche: John Tyndall dimostrò sperimentalmente l’esistenza dell’effetto serra, dando origine alla moderna scienza del clima, mentre il colonnello Drake trivellava il primo pozzo di petrolio in Pennsylvania, iniziando lo sfruttamento della principale fonte di energia della rivoluzione industriale, che ha cambiato il modo di vivere e accelerato lo sviluppo dell’umanità, tanto che il numero degli abitanti del pianeta è quadruplicato in meno di 100 anni. Ora siamo 6,8 miliardi e raggiungeremo presto i 9 miliardi. L’aumento della popolazione, unito alla rivoluzione industriale, tecnologica e scientifica, ha amplificato l’impatto sull’ecosfera del pianeta. Ogni 24 ore vengono immesse 90 milioni di tonnellate di anidride carbonica nell’atmosfera. L’effetto serra aumenta la temperatura dell’acqua degli oceani, scioglie i ghiacci, aumenta il livello dei mari, provoca cambiamenti del clima, uragani, scarsità d’acqua, cambiamento delle stagioni. La crisi del clima è interconnessa alle altre due crisi che stiamo affrontando: crisi economica e crisi della sicurezza. Con l’aumentare della richiesta di petrolio di Cina e India, i prezzi aumentano e le scorte diminuiscono. Tutti gli anni gli Stati Uniti spendono centinaia di milioni di dollari per il petrolio e questo impatta sull’ecosfera, sull’economia e sulla sicurezza.  E’ indispensabile ridurre le emissioni di carbonio, usare fonti alternative e aumentare l’efficienza energetica. Siamo di fronte a una delle più grandi opportunità di diventare molto più efficienti ed eliminare contemporaneamente sprechi e inquinamento, creare nuovi posti di lavoro, aumentare la sicurezza e i profitti delle aziende e iniziare a risolvere la crisi del clima.  L’aumento dell’efficienza è la migliore strategia poiché il livello di spreco che deriva dalle attuali tecnologie è enorme. La percentuale di energia contenuta in un litro di benzina che si trasforma in energia meccanica per spostare un’auto è di circa il 10%, mentre la percentuale di energia spesa per spostare le persone nell’auto è solo dell’1%.  L’utilizzo dell’energia è caratterizzato da bassi rendimenti anche negli edifici e nelle città. Tutte le attuali tecnologie sono state sviluppate quando il costo dell’energia era basso e quindi non valeva la pena di investire per sviluppare tecnologie più efficienti. Per giustificare economicamente gli investimenti necessari per adottare le nuove tecnologie più efficienti, è necessario mettere sul tavolo informazioni precise sui risparmi ottenibili, in modo che si possano prendere decisioni informate.  Attualmente è difficile affrontare a livello politico e industriale i problemi dei consumi energetici e dell’anidride carbonica nell’aria, poiché questi fenomeni non si riflettono sui bilanci e non c’è modo di tenerne conto a livello contabile. Quindi gli investitori e le autorità pubbliche, a prescindere dalla carbon tax, non hanno i termini per valutare la convenienza delle fonti energetiche alternative e delle tecnologie più efficienti.  Per creare corretti criteri di valutazione, è indispensabile migliorare il flusso delle informazioni utilizzando strumenti di analisi come Tivoli, che permettono di raccogliere e analizzare tutti i dati, prendere decisioni basate sulla realtà dei fatti e calcolare il ritorno sugli investimenti nelle moderne tecnologie”.

 

Dominare la complessità
Il mondo sta diventando sempre più intelligente (smarter planet) poiché è sempre più popolato da miliardi di oggetti intelligenti (contatori intelligenti, reti di sensori, tag RFID), edifici, infrastrutture e soluzioni intelligenti, servizi evoluti auto-adattativi. Le singole persone, le società, le organizzazioni, le città, le nazioni e le grandi reti di trasporto e distribuzione sono sempre più dotate di tecnologie, interconnesse e intelligenti.  Ogni anno i dati aumentano del 50% e aumenta del 54% la capacità globale dei dispositivi di storage venduti. I dati digitali aumenteranno di 10 volte dal 2007 al 2011, inoltre l’80% dei dati saranno non strutturati e richiederanno notevoli risorse per comprenderli e analizzarli. Nel 2011 saranno connessi a Internet 1000 miliardi (1012) di dispositivi, mentre il traffico su Internet nel 2013 sarà di 500 Petabyte (50.000 Terabyte).  Un’enorme quantità di questi dati riguardano ambiti al di fuori dei tradizionali ambienti IT, tanto che l’80% dell’innovazione è contenuta nel software embedded nei dispositivi più disparati.  Per esempio, una moderna automobile è un “data center su ruote” che contiene mediamente 30 computer, programmati con qualcosa come 100 milioni di linee di codice. Per il solo iPhone sono state sviluppate 140.000 applicazioni.  Molti dati sono prodotti anche da dispositivi e sensori intelligenti, come contatori di elettricità e sensori per il controllo ambientale.  Nell’ambito IT, la virtualizzazione aggiunge complessità alla gestione di server, storage e rete. Inoltre è necessario gestire nuovi modelli di elaborazione e di business come cloud computing, telelavoro e outsourcing, che estendono il sistema informativo al di là dei confini fisici e organizzativi dell’organizzazione.  La complessità è in aumento a causa della proliferazione dei dispositivi e richiede sistemi in grado di dominare fenomeni complessi in modo veloce e affrontare in modo sicuro nuovi rischi (difesa di dati, privacy e identità negli ambienti virtuali e cloud).  Il data center sta diventando il centro di comando delle organizzazioni, che devono fronteggiare problemi IT e di business di complessità sempre maggiore e una crescita esplosiva dei dati digitali. I confini del data center si espandono al di là dei tradizionali asset IT e includono gli asset fisici dotati di tecnologie intelligenti come gli edifici intelligenti, le macchine da ufficio, gli impianti e le reti di distribuzione di energia elettrica, acqua e gas. I data center non sono più semplici sistemi di calcolo ma costituiscono il cervello del pianeta intelligente.  Questo aumento repentino della complessità e dei rischi, mette a dura prova le attuali infrastrutture IT, che non sono state costruite per fronteggiare questa esplosione di richieste, e richiede il ripensamento di diversi processi operativi e l’integrazione di sviluppo software, gestione e servizi agli utenti.  E’ anche necessario disporre di nuovi software e servizi per superare la divisione tra le informazioni, gli asset digitali e gli altri asset fisici, per aumentare visibilità, controllo e automazione, migliorare l’esercizio, incrementare le prestazioni e ridurre i costi.  Al Zollar, general manager di IBM Tivoli Software, ha affermato: “L’attuale modello di sviluppo e gestione del software è un fattore frenante, poiché il 70% del budget IT è assorbito dalla manutenzione, il 50% delle applicazioni devono essere modificate prima di essere accettate dagli utenti, il 30% del costo dei progetti è assorbito dalle modifiche, l’85% della capacità di calcolo non è sfruttata. Per aumentare l’efficienza, è necessario integrare la progettazione, lo sviluppo, l’esercizio e la gestione dei sistemi”.  L’offerta Tivoli comprende quattro famiglie di soluzioni: Automazione (monitoraggio, gestione lavori e gestione infrastruttura), Storage Management (soluzioni per gestire i dati), Security (gestione dell’identità, gestione degli accessi, compliance) e Asset Management (gestione degli asset IT e non IT) tramite i prodotti della famiglia “Maximo”. Per i principali settori applicativi sono disponibili Industry Framework specifici che contengono modelli personalizzabili dei principali processi caratteristici dei mercati verticali.  La gestione integrata dei servizi consente di ottimizzare il carico di lavoro dei sistemi per erogare prestazioni di calcolo in modo flessibile, grazie a una completa virtualizzazione dell’infrastruttura tecnologica che consente di consolidare, gestire in modo automatico e ottimizzare l’utilizzo delle risorse.  L’integrazione consente anche di gestire in modo coordinato tutti gli aspetti della sicurezza: infrastruttura fisica; server, rete e punti terminali; applicazioni e processi; dati e informazioni; persone e identità.  I servizi integrati per i Data Center consentono di ridurre i costi, migliorare i servizi e gestire i rischi. Tivoli permette di raccogliere log file da tutti i tipi di dispositivi eterogenei e di creare cruscotti di controllo unificati. Questi concetti si estendono al di fuori delle singole organizzazioni per gestire reti di distribuzione elettriche e idriche, sanità, produzione, trasporti, intelligent building.  I sistemi di gestione integrata sono utilizzati anche da nuove categorie di utenti, come Operational Manager, Security Manager, Infrastructure Manager, Enterprise Architect. Esistono già decine di migliaia di organizzazioni che utilizzano i servizi di gestione integrati.

 

Edifici e città intelligenti
Gli oggetti fisici non-IT che possono essere gestiti sono molteplici: impianti di climatizzazione, sistemi antincendio, sistemi di sicurezza e videosorveglianza, impianti elettrici e idraulici, ascensori, chiusure di porte, macchine per ufficio.  Gli edifici intelligenti operano in modo più efficiente se si integrano su un unico schermo le informazioni di tutti i sistemi. Una città è un sistema di sistemi, che possono interagire per ottimizzare il funzionamento totale.  Con una gestione unificata delle reti elettriche, idriche e del gas si possono ottenere notevoli benefici in termini sia di economie di scala che di livello di servizio e sicurezza.  Le mappe spaziali consentono di visualizzare le relazioni tra gli asset della città, integrando sistemi GIS come ESRI ArcGIS e sistemi di asset management come Maximo spatial, e tramite opportuni modelli di simulazione è possibile prevedere l’evoluzione degli eventi e generare segnalazioni per prevenire i problemi (predictive alert). Per esempio, se un unico sistema controlla l’acquedotto, la rete elettrica e le reti TLC di una città, quando si verifica una perdita d’acqua può determinare se c’è pericolo di inondazione per le cabine elettriche e le centrali telefoniche della zona e generare allarmi preventivi per evitare il blocco di tutte le reti. I sistemi per il controllo urbano integrato possono anche prevenire gli ingorghi nel traffico (predictive traffic), ottimizzare l’illuminazione urbana, e molto altro.

Partnership
Per realizzare sistemi così complessi, spesso non sono sufficienti le risorse e le competenze di una sola azienda, e per questa ragione sono stati realizzati vari accodi di partnership, per esempio con Juniper Networks per la gestione delle reti telematiche, con Ricoh per la gestione delle stampanti, con Johnson Controls per la gestione degli edifici.  Nel 2009, IBM ha creato l’alleanza industriale Green Sigma Coalition con alcuni protagonisti nel campo delle misure dei consumi, monitoraggio, automazione, comunicazione dati e software (tra cui Johnson Controls, Honeywell, ABB, Eaton, Cisco, Siemens, Schneider Electric e SAP) per fornire soluzioni intelligenti per gestire energia, acquedotti, acque reflue e gas. Green Sigma applica i principi e le pratiche della metodologia Six Sigma a energia, acqua, emissioni di gas serra in tutte le attività delle aziende: sistemi di trasporto, data center e sistemi IT, produzione e distribuzione, uffici, centri commerciali, ecc., combinando misure e monitoraggio in real-time con strumenti analitici avanzati e dashboard che permettono di prendere migliori decisioni, aumentano l’efficienza, diminuiscono i costi e riducono l’impatto ambientale.