Come Gestire i Big Data in Azienda

Una Guida per Capire e Orientarsi


La gestione integrata di dati, tecnologie e organizzazione aziendale è la chiave per affrontare senza traumi il passaggio dalle Business Intelligence ai Big Data, grazie ai quali le aziende stanno diventando delle sofisticate “start up” di laboratori di analisi dati.

Alle aziende non servono i Big Data o le Analytics in quanto tali, ma in quanto strumenti efficaci per rappresentare, comprendere e prevedere una realtà aziendale divenuta molto incerta e dinamica. Per fare questo, è necessario lavorare su tre fronti specifici: dati, tecnologie ed organizzazione (competenze, ruoli, ecc.).

Dati

La curva di esperienza delle aziende nell’impiego dei dati segue alcune tipiche fasi di Maturity con diverse velocità. Nel complesso sono state individuate quattro fasi che riflettono le tipologie di dati che le aziende hanno utilizzato nel tempo:
  • Prima fase: dati financial, dati ufficiali e strutturati all'interno dei sistemi gestionali dell’azienda, aventi però livelli di sofisticazione e di velocità dei risultati comunque diversi, come ad esempio la redditività del cliente.
  • Seconda fase: dati non financial, meno ufficiali e meno strutturati che si sono aggiunti ai dati financial per avere un quadro più completo delle dinamiche aziendali. Il passaggio del trattamento dei dati “Financial” ai “non Financial” è fondamentale, ma è ancora faticoso (si vedano i casi di BalancedScorecards, Value-BasedMgmt, KPI non financial, ecc.) Inoltre tutti i processi decisionali “complessi” utilizzano in modo più o meno esplicito dati e informazioni “Hard” (prospetti finanziari, statistiche, informazioni da archivi storici, ecc.) e “Soft” (opinioni, sensazioni e idee oggi raccolte e filtrate dai social network), sia interne che esterne all’azienda. Le differenze tra questi tipi di informazioni stanno nel grado di oggettività, certificabilità, condivisione del significato e della semantica (tassonomie, classificazioni) e strutturazione del contenuto (in prevalenza all’origine).
  • Terza fase: focus sui dati non strutturati. Generare abitudine e capacità nel trattamento di dati qualitativi, “Soft” e in forma non numerica (testuale, grafica, video, audio, ecc.), generati da fonti interne (email, documenti dematerializzati, ecc.) ed esterne (web log, social data, web content, ecc.) è ancora una sfida attuale per ogni tipologia di impresa.
  • Quarta fase: dati con mix crescenti di Volumi, Velocità, (di generazione, raccolta, elaborazione e fruizione) e Varietà (fonti e formati) corrispondenti al fenomeno attuale dei Big Data. 
Le fonti dei Big Data si ampliano e arricchiscono i dati transazionali interni all’azienda con i dati derivanti da:
  • Documenti cartacei digitalizzati, email 
  • Social network e social media (come ad esempio Twitter, Facebook, blog, forum, ecc.)
  • Clickstream – Web Log
  • Registrazioni audio e video
  • Immagini
  • Dati di geo-posizionamento (GPS)
  • Dati generati da trasmettitori e sensori (cellulari, wifi, bluetooth, RFID, NFC, ecc.) o misuratori digitali (digital meters)
  • M2M (Machine to Machine) data – Internet of Things
  • Automazione processi produttivi
  • Software di gestione per il magazzino e la produzione, particolari programmi che gesticono le entrate dei materiali, la gestione dello stoccaggio e le spedizioni,
  • Digitalizzazione dei processi di R&D (ad esempio: nella bioinformatice e biogenetica, chimica, climatologia, ecc.) 
lettore portatile RFID - immagine lcsgroup.it

Tecnologie

Non basta avere le tecnologie di raccolta, archiviazione, analisi e presentazione dei dati per la gestione dei Big Data. Negli ultimi anni infatti sono sorte nuove tecnologie, come i database a colonne, i motori noSQL, i modelli di memorizzazione di Hadoop, l’InMemory Computing, le Social Analytics, in grado di gestire dati non strutturati. La Business Intelligence (intelligenza, ricerca di informazioni aziendali, analisi di business) non è un’innovazione prettamente tecnologica, ma riguarda tutto ciò che agevola la ricerca di informazioni a livello aziendale.

All’inizio degli anni novanta, si parlava di Business Intelligence Tools, ossia di strumenti software per la creazione di sistemi di query, di analisi multidimensionale, di cruscottistica, ecc.; col nuovo millennio si è passati all’area delle applicazioni, con le Analytics Applications, che contengono logiche applicative e modelli statistici avanzati, fino all’Advanced Analytics; infine, nel 2012 si è iniziato ad utilizzare sempre più il termine Big Data, fenomeno che porta con sé nuove tecnologie e nuove strategie analitiche partendo proprio dalla maggior varietà e velocità dei dati disponibili.
Il passaggio dai BI Tools alle Analytics è segnato da una serie di tecnologie software caratterizzate sempre più da un aumento del grado di sofisticazione e di stratificazione tecnologica, dalla necessità di cultura e competenze analitiche e dal valore crescente del sistema di Business Intelligence.

Su questo fronte esiste un problema di unità organizzative, servono dei Competence Center all’interno dell’azienda. Ci sono poi dei ruoli da ricoprire, come il Data Scientist, i BI Manager, o i Chief Data Officer, questi ultimi considerati come i “creativi dei dati” o semplicemente i “garanti dei dati”. Per essere efficace, il loro lavoro deve essere coltivato in aziende che abbiano maturato una cultura “fact-based” e delle competenze analitiche, in organizzazioni dove sia possibile fare dei “big brain storming” (mettendo insieme persone del marketing, operation, IT, ecc.), fondendo insieme in un mix “armonico” skill su processi decisionali aziendali e problem solving, BI Tools, data modelling, statistica avanzata e ricerca operativa, analisi del rischio e così via.

I Big Data rappresentano le nuove frontiere della conoscenza aziendale e della cultura manageriale, che aiutano a risolvere nuovi problemi aziendali, con nuove insight e conoscenze, che dal mondo fisico-scientifico e della R&D (medico-farma, clima-eventi naturali, geologia, smartgrid, ecc.) si trasferiscono al mondo del management aziendale (strategie future, ottimizzazione dei processi core, insight di mercato e clienti, ecc.).

Grazie ai Big Data, le aziende stanno diventando delle sofisticate “start up” di laboratori di analisi dati. È necessario però riflettere nuovamente sui dati (interni ed esterni) come risorsa aziendale, come asset informativo, per arrivare a capire che il valore dei dati stessi risiede nelle informazioni e nella conoscenza di Business che consentono di produrre, cioè nello sviluppo di capacità cognitive che abilitano processi decisionali più efficaci rispetto a prima (più veloci, più ampi e profondi, con migliore qualità dei dati, ecc.). Gli ostacoli che si presentano su questa strada dell’innovazione digitale sono gli stessi di sempre, comunemente definiti dalle “3 C”: Costi, Competenze e Cambiamento.

Alcuni casi pioneristici sui Big Data

1. Un caso di approccio del tipo “Start with question” o “Business Requirements-based” con una forte varietà e velocità (di analisi) dei dati (per ambiti, settori e risultati).
Vestas Wind System, azienda danese fondata nel 1979, è specializzata nella fornitura e installazione di turbine per la produzione di energia eolica. Ad oggi ha installato più di 43.000 turbine eoliche in 66 paesi e 6 continenti. Per sfruttare l’investimento fatto in una turbina eolica fondamentale è la sua localizzazione. Infatti, le turbine sono costruite per operare in condizioni climatiche particolari e solo se sono rispettati certi parametri climatici la turbina è ottimizzata e non incorre in malfunzionamenti e problemi tecnici. Per questo motivo, parte integrante dell’attività di Vestas è la definizione del posizionamento migliore delle turbine per conto dei propri clienti e il supporto a questi ultimi nel calcolo del ritorno dell’investimento.

Questa attività è particolarmente critica perché un errore di valutazione genera immediati costi di manutenzione e la perdita del cliente che, a seguito di questo errore, non riesce a ottenere il ritorno desiderato dall’investimento fatto. Per svolgere questa attività. Vestas ha costruito nel temp la c.d. “Wind Library” che raccoglie dati sul sistema meteorologico globale tramite le turbine già installate e 35.000 stazioni meteorologiche dislocate in tutto il mondo.

La criticità delle previsioni e stime sui flussi dei venti ha però portato Vestas a investire in una nuova applicazione che permettesse di raggiungere un livello di granularità maggiore spingendosi a suddividere l’analisi del territorio in aree di soli 10 m2 di analisi anziché di 27 km2. La soluzione sviluppata, inoltre, è in grado di prevedere i flussi dei venti in modo estremamente veloce e accurato basandosi su 178 parametri (temperatura, pressione barometrica, umidità, precipitazioni, direzione e velocità del vento, ecc.).

Attraverso l’uso di questi dati, Vestas è in grado di ottimizzare il posizionamento delle turbine, massimizzando l’energia prodotta e la longevità dell’impianto.
Risultati ottenuti:
  • Aumento della precisione nella definizione della localizzazione delle turbine grazie alla possibilità di analizzare più dati e con un maggior dettaglio.
  • Diminuzione del costo dell’energia per Kilowatt ora e conseguente increento del ritorno dell’investimento per i clienti.
  • Riduzione dei tempi di risposta nelle attività di simulazione e previsione di circa il 97%.
2. Un caso di approccio del tipo “Start with collecting data” o “Mining-based”.
Hertz è il più grande Brand di autonoleggio aeroportuale, con oltre 8.300 sedi in 146 paesi. Hertz continuamente richiede e riceve feedback dai propri clienti mediante sondaggi web, email e messaggi di testo. Tutti i dati non strutturati così raccolti rappresentano una fonte molto preziosa per misurare il grado di soddisfazione dei propri clienti e capire quali sono i limiti del servizio erogato che possono generare insoddisfazione nella clientela. Per sfruttare appieno questo potenziale informativo, Hertz ha avviato l’implementazione di un sistema per raccogliere i dati non strutturati elaborarli ed estrarre le informazioni rilevanti per il business e renderle disponibili al management per analisi volte a identificare trend, criticità/opportunità, e modificare conseguentemente il servizio offerto in termini di contenuto e qualità per renderlo coerente con le richieste dei clienti.

L’analisi di questi dati permette, inoltre, di comprendere i punti di forza e di debolezza dei processi aziendali (di noleggio, consegna e ritiro) e intraprendere le necessarie azioni correttive. La soluzione di Big Data implementata, in particolare, permette di classificare automaticamente i dati non strutturati raccolti mediante l’utilizzo di regole linguistiche restituendo report facilmente interpretabili e analizzabili dal management.

Risultati ottenuti:

  • Riduzione dei tempi necessari per la raccolta multicanale e per il trattamento/preparazione dei dati non strutturati e conseguente incremento del tempo disponibile per le loro analisi.
  • Maggior conoscenza dell’opinione dei clienti e delle determinanti della loro soddisfazione o insoddisfazione.
  • Maggior controllo sui processi aziendali definiti “core” (noleggio, consegna e ritiro).

Previous
Next Post »