In occasione dell’ultimo Q-day organizzato da QlikView Italy, Carlo Vercellis del Politecnico di Milano e Paolo Pasini della SDA Bocconi School of Management, si sono confrontati per valutare la diffusione degli strumenti di BI all’interno delle imprese italiane

La fase congiunturale che stiamo attraversando sta spingendo la maggior parte delle imprese a rafforzare l’impiego dei sistemi di Business Intelligence per aumentare l’efficienza e tagliare i costi di gestione. Accanto a questo uso sempre più intensivo, la BI sta registrando anche una forte spinta nella direzione del realtime o, almeno, del near realtime, fornendo supporto a processi decisionali collettivi in una prospettiva di Business Intelligence 2.0. Per stabilire la reale pervasività di questi strumenti all’interno delle imprese italiane e verificare l’impatto sui processi di una Business Intelligence di tipo user driven, Carlo Vercellis, professore ordinario BI e direttore dell’Osservatorio BI del Politecnico di Milano, e Paolo Pasini, professore Sistemi Informativi e direttore Osservatorio BI SDA Bocconi School of Management, si sono recentemente confrontati in occasione dell’ultimo Q-day organizzato da QlikView Italy.

 

 

Punto di partenza per entrambi è stato il tema della regia centrale. “La Business Intelligence è un poliedro dalle tante sfaccettature – ha esordito Vercellis –.Sicuramente nell’ambito di quella componente di BI costituita dai sistemi di misura delle prestazioni, di accesso tempestivo, flessibile e interattivo ai dati, la componente user driven è dominante. Esistono, però, anche ambiti meno riconducibili a questo aspetto, come la Business Analytics e i componenti di analisi predittiva, per i quali l’analisi non può essere zero wait, dal momento che richiede particolari riflessioni e ragionamenti”.Ma anche limitandosi alla prima tipologia di sistemi, il professore del Politecnico sente il dovere di dare alcune precisazioni. “È vero che la tecnologia permette di accedere velocemente ai dati, ma la qualità dei dati, il significato dei dati, la loro documentazione attraverso metadata rappresenta un serio ostacolo che va al di là delle capability tecnologiche. Spesso ci si trova davanti a data warehouse che hanno le integrità referenziali troncate, i sistemi e i dati non sono coerenti, la documentazione non è sufficiente. All’utente, quindi, manca ben altro che uno strumento agile e flessibile. Serve, innanzitutto, la garanzia di un presidio centralizzato che offra tutta quella coerenza senza cui la flessibilità nell’accesso e il concetto di self service BI restano sogni”. Il tema dell’IT Governance e IT Performance, prima ancora del data management, rappresenta una sfida con cui anche Pasini si confronta tutti i giorni all’interno delle aziende. “Quando si parla di regia centrale della BI – ha sottolineato il professore – si deve affrontare anche il tema dell’istituzione di un competence center, un concetto organizzativo, un tempo chiamato infocenter e oggi arricchito di responsabilità e compiti, che può essere progettato solo se c’è un certo livello medio di competenza degli utenti, altrimenti rischia di rimanere solo un giochino degli specialisti”.
 

Ottimizzare il business
Ma come deve procedere un’azienda di fronte a uno straripare di dati di cui non ha certezza in merito a coerenza e qualità, per perseguire l’obbiettivo di un’ottimizzazione del proprio business?
“La politica dei piccoli passi è sicuramente la migliore – non ha dubbi Vercellis –. Non è pensabile ipotizzare di avviare implementazioni di sistemi di BI solo dopo aver sistemato tutti i dati con un enorme progetto di data cleansing. Questa è una linea troppo inflessibile. Molto meglio procedere a zig zag, convergendo sull’obbiettivo finale attraverso correzioni infrastrutturali successive”. Sostanzialmente d’accordo Pasini, tanto da ritenere che quando nei progetti di BI si incontrano dati incompleti, i costi di una loro eventuale ‘pulizia’ debbano essere tenuti fuori dal momento che appartengono a una ‘dovuta diligenza’. “Il costo del data quality management non può essere imputato a un progetto di BI: fa parte della data governace – ha sottolineato il professore della Bocconi –, un ambito i cui confini stanno andando ampliandosi per un uso sempre più allargato di dati non strutturati, provenienti in prevalenza dal Web (messaggi su forum, blog, ecc – ndr). In sostanza non si ha più a che fare con dati economici-finanziari provenienti da sistemi contabili gestionali, ma con dati che si portano dietro un concetto nuovo di autocertificazione. Oggi ci sono analisi semantiche in grado di contestualizzare un post su Internet, capirne l’attendibilità e quindi la sua qualità. Ma qui, oggettivamente, siamo lontani anni luce dal concetto di certificazione del dato cui siamo da sempre abituati, quando ci si muoveva all’interno dei sistemi ERP”.
Nella nuova dimensione della Business Intelligence, un ruolo centrale viene poi giocato dall’utente nella condizione di intervenire anche a livello di definizione dei processi. “Oggi la conduzione dei progetti di BI è cambiata in modo radicale – ha sottolineato Pasini –. Nelle applicazioni più decisionali, che creano ambienti in cui le persone ragionano su scenari e simulazioni, l’utente definisce le specifiche, interagendo nello sviluppo del modello. Sono, in pratica, user test continui che ancora una volta sottolineano quanto siamo lontani dalle vecchie analisi generalizzate”.
“Fino a qualche tempo fa – ha aggiunto Vercellis – gli indicatori di prestazione erano prevalentemente di carattere finanziario. Oggi ci troviamo in una fase di transizione, in cui stanno comparendo sempre più KPI legati a processi definiti dall’utente in modo interattivo, senza che sia richiesto un cambio di applicazione a monte, ma facendolo procedere con pochi clic all’interno del browser per la visualizzazione dei report. Tutti elementi che portano a ridurre il tempo dell’analisi interattiva, per arrivare alla cosiddetta zero wait analysis”.


Ma gli utenti sono davvero così curiosi da dover essere messi nella condizione di poter accedere a una molteplicità di fonti eterogenne in lassi di tempi tendenti allo zero?
“Girando tra le aziende la situazione non è esattamente così – ha precisato Pasini –. Se si osserva il livello di maturità delle aziende sotto i 200 dipendenti si nota che oggi in Italia il 20% delle imprese approcciando la BI per la prima volta, il 50% si sta ponendo il problema di ampliare gli strumenti di BI a disposizione, mentre solo il 30% intende ottenere ancora più valore da queste applicazioni dopo averci speso tanti soldi per anni”.
“Il riferimento al maturity model ha un suo valore – ha concluso Vercellis –. In base alla maturità dell’azienda è, infatti, possibile capire quanto è pronta a cambiare i propri processi e trarre vantaggi dalla conoscenza estraibile. C’è, poi, un importante warning da lanciare sull’eccesso d’ottimismo che riguarda gli utenti finali: un eccesso di informazioni, sia di fonti sia di tipologie informative, è destabilizzante. Molto meglio limitarne l’accesso e fornire i dati in modo sintetico. Infine, una considerazione sui processi e il loro ridisegno. Nei sistemi di BI la fase di design o analisi può aiutare le aziende a fare una sorta di reverse engineering dei processi che non funzionano. Lo stesso dato sporco può rivelare un processo sbagliato, che, quindi, in tanti casi, è portato in evidenza dal discovery che il sistema di BI permette di compiere”.