Il Chief Data Officer e il suo Ecosistema

Il Chief Data Officer è sicuramente insieme ai datascientist una figura emergente all’interno delle organizzazioni. Per provare a fare luce su questa figura partirò da una sua definizione abbastanza condivisa per poi provare a descrivere, facendo riferimento agli studi recenti più autorevoli, il suo ecosistema cioè le aree aziendali che gestisce o con cui ha una relazione molto forte.

definzione

Secondo la definizione della voce inglese di Wikipedia il CDO (Chief Data Officer) ha in carico sia la governance dello strato dei dati (inteso come asset o valore aziendale) che la definizione strategica delle priorità in questa area cercando di spingersi a identificare nuove opportunità di business. In questo senso mi piace sottolineare, usando una terminologia più vicina al mondo agile, come il Chief Data Officer sia da una parte un  facilitatore e dall’altra un “disegnatore” di strategie aziendale. In questa ottica il ruolo viene proiettato nella parte più moderna dell’ambito manageriale dove plasmando il suo ecosistema il Chief Data Officer entra nel cuore delle decisioni aziendali sempre più guidate dall’analisi dei dati.

Tra i molti studi su questo delicato ruolo sicuramente quello che meglio descrive la molteplicità delle sue dimensioni è “A Cubic Framework for the Chief Data Officer: Succeeding in a World of Big Data” della Sloan School of Management – MIT Boston 2014. Nel lavoro sono descritte le tre direttrici principali in cui si muove il Chief Data Officer e cioè:

3dimensionicdo

1) La direzione collaborativa: più orientata verso l’interno dell’organizzazione piuttosto che verso l’esterno andando a braccetto con il business.
2) La direzione di impatto di valore che può essere più tattica focalizzata sul miglioramento dei servizi esistenti o più strategica orientata ad allargare il mercato dell’organizzazione.3) La direzione della tipologia dei dati e tecnologie: più focalizzata sull’uso dei dati tradizionali o, in maniera un poco più visionaria, spingersi più nell’area “Big data”

In questo spazio tridimensionale il posizionamento del CDO in una delle otto porzioni porta, secondo questo studio del MIT, a differenti categorizzazioni.
8cdo

Le otto tipologie che potete vedere nella figura sopra sono di fatto una differente interpretazione del ruolo del Chief Data Officer che è molto funzione sia del contesto organizzativo in cui si inserisce sia della caratteristiche personali. Pur non scendendo del dettaglio descrittivo delle otto tipologie, che potete trovare in dettaglio nel paper, bisogna comunque evidendenziare che si va da un ruolo più legato alla facilitazione e alla governance (Coordinatore) ad uno più ambizioso e strategico (Sperimentatore).

Passando a valutare l’ecosistema che sta attorno al Chief Data Officer occorre sicuramente far riferimento a questo ottimo articolo di Experian “The Chief Data Officer: Bridging the gap between data and decision-making”.
experiandataquality

Come si vede nella figura sopra, Experian nel suo studio  evidenzia quelle che sono le figure chiave del villaggio del Chief Data Officer. E’ sicuramente da sottolineare la graduale “traslazione” di queste figure dai Data owners che sono le persone responsabili di ogni singolo dataset presente in azienda fino ai Data analysts che cercano di usare i dati in ottica strettamente business. Oltre e tra queste due figure in organizzazioni ad alta complessità e dove il dato è un asset molto strategico possono o meglio dovrebbero esistere le altre figure di questo sempre più ampio villaggio.

Per provare a dare una vista il più possibile olistica di questo ruolo e per non dimenticare alcuni aspetti che spesso possono non emergere (l’aspetto legal in primis) ho provato a sintetizzare in questa figura quale potrebbe essere un suo buon ecosistema.

mycdoofficial

Nella sua sfera di competenza o comunque in stretta relazione con il suo operato ci deve essere:

1) L’aspetto legale perchè l’utilizzo di dati interni ed esterni all’azienda è sempre più influenzato da normative legate alla Privacy e al Copyright con una data protection law europea che porterà a breve uno tsunami in questa area.

2) La cura della qualità del dato. L’utilizzo di dati provenienti anche da fonti esterni spesso non strutturate aumenta sempre di più l’importanza di questo aspetto.

3) La governance del dato. In organizzazioni sempre più complesse con un livello di skill diversificato all’interno dei dipartimenti la gestione della distribuzione del dato e della sua conoscenza è un fattore strategico per poter sfuttare in maniera massiva il valore del petrolio del XXI secolo.

4) La tecnologia in ambito dati. L’esplosione cambriana delle tecnologie di gestione e dell’analisi dei dati fornisce sempre maggiore importanza strategica a questo aspetto: se il  poliglottismo è un valore certo questo va inquadrato comunque in una vista strategica.

5) L’innovazione. In un mondo sempre più data-driven  il dato si incrocia in maniera molto sinergica ed esponenziale con l’innovazione all’interno di qualunque organizzazione.

6) La datascience. Come più volte evidenziato la datascience si pone all’incrocio tra tecnologia (computer science), statistica e conoscenza del dominio dei dati: l’interazione con il villaggio del Chief Data Officer non può che essere fortissimo.

La definizione del ruolo e del dominio di influenza di questa nuova figura all’interno delle organizzazione è, ancora più di altre figure, liquida ma probabilmente con una crescita della sua componente strategica all’interno delle organizzazioni che vorranno diventare vere data-driven company di successo.

 

Annunci
Il Chief Data Officer e il suo Ecosistema

Perchè le API sono necessarie in un mondo “big data” che cerca di decentralizzarsi

Come avevo scritto qualche settimana fa  la decentralizzazione è il cuore pulsante dei big data o meglio di quel fenomeno che a partire dagli anni ’90 attraverso la nascita del web ha accelerato la creazione di quello che in un eccellente libro , Stefano Quintarelli ha definito il nostro “futuro immateriale”.
Quasi quattro anni (Agosto 2012) sono passati da quando Forbes in un celebre articolo dal titolo “Welcome to the API economy” annunciava la sempre più forte centralità di questo paradigma che si stava affermando  non solo dal punto di vista tecnologico ma anche da quello economico, culturale e sociale.

Api
Ma partiamo dalla definizione di Wikipedia che descrive le API come un “insieme di procedure disponibili al programmatore, di solito raggruppate a formare un set di strumenti specifici per l’espletamento di un determinato compito all’interno di un certo programma”: nulla di nuovo rispetto a quello che succedeva anche qualche decennio fa in campo informatico. Ma quello che è cambiato negli ultimi 15 anni e che ne ha fatto crescere l’importanza in maniera progressiva sono stati queste “piccole” evoluzioni tecnologiche:
l’utilizzo del procollo http che ha portato le api a poter sfruttare la rete per interconnettere applicazioni e sistemi distribuiti sulla rete internet (Web service)
l’evoluzione del fenomeno mobile che ha moltiplicato i sistemi distribuiti in rete (smartphone e ora anche Internet of Things) che necessitano di scambiarsi dati in modo resiliente e veloce. Da qui l’evoluzione delle API verso il paradigma REST e dal formato XML a quello Json, più leggero e meglio gestibile dalle applicazioni.
la crescita enorme di dati generati e quindi disponibili (fenomeno Big data) che ha reso fortemente economico gestire il relativo scambio senza flussi massivi ma con veloci e leggere interfacce e transazioni quando gli utenti (uomini o macchine) ne hanno bisogno e questi sono disponibili in qualunque server in giro per il mondo.

APIFramework

Questa evoluzione tecnologica delle API ha facilitato da una lato il superamento di una serie di problematiche funzionali e di business e dall’altro ha consentito di creare nuovi mercati dove nel giro di poco tempo aziende da piccole start-up si sono trasformate in colossi economici mondiali. Di seguito proviamo ad elencare i 7 principali benefici e casi d’uso che afferiscono al paradigma della API economy:

1) Sicuramente la monetizzazione di asset strategici e immateriali quali dati, informazioni e algoritmi ha avuto dalla diffusione di uso delle API un’accelerazione enorme. Questo ha portato dall’inizio degli anni 2000 alla creazione di aziende che hanno fondato una parte considerevole del loro business su questo tipologia di transazioni. E’ il caso per esempio di Twitter che ha in questo tipo di business una delle componenti più importanti del suo fatturato. Ma anche Google e Facebook hanno ulteriormente accelerato in questa direzione recentemente creando prodotti sulla base di algoritmi creati per realizzare prodotti per i propri clienti: il caso del recente lancio delle Vision Api di Google ne è un caso emblematico. Ma anche aziende più tradizionali, che non nascono con il Web, come il New York Times stanno spingendo molto nel creare piattaforme API che facilitino l’integrazione e l’uso dei propri asset. Data e information provider in giro per il mondo traggono ovviamente grossi benefici da questa evoluzione tecnologica che facilita la diffusione dei propri asset in maniera liquida: il portale API di Dun & Bradstreet ne è un ottimo esempio perchè evidenzia la capacità di integrare in un marketplace anche dati esterni (di altri data-provider) concretizzando quello che mi piace definire come il “dato aumentato”.

2) La distribuzione e conseguente decentralizzazione che il paradigma API ha portato è stato sicuramente abilitante alla sempre più forte diffusione del Cloud nelle sue diverse forme comprese quella ibrida. Poter integrare facilmente diverse API nelle proprie soluzioni permette di cogliere tutti i benefici di scalabilità del Cloud quando per specifiche API si evidenza necessità di performance molto variabili nel tempo. Sulla facilità di integrazione proprio delle API, semplificando la complessità architetturale sottostante, ha creato la sua posizione dominante la soluzione cloud di Amazon che ha non a caso il nome Amazon Web Services. Bluemix di IBM è un altro esempio dove API Economy e Cloud si fondono per dar vita ad un tentativo di facilitare l’innovazione facendo incontrare in maniera virtuosa domanda e offerta.

3) La capacità di integrare API di terze parti costruendo un’esperienza di valore per segmenti di utenti/mercati è un’altra tendenza abilitata dalla API economy. Molte aziende stanno creando o espandendo i propri business sfruttando questo paradigma. Forse il caso più recente ed ecclatante è quello di Slack, una piattaforma di team collaboration orientata al mondo tech, che ha fatto dell’integrazione con altri servizi  e con la possibilità addirittura di crearli ex-novo la forse primaria ragione di successo portandolo ad una diffusione veloce  (2.7 milioni di uenti attivi al giorno, inclusi 800.000 utenti a pagamento) e di conseguenza ad una valutazione elevatissima di circa 3,8 miliardi di dollari. Ma anche Uber ha per esempio aperto una piattaforma API per consentire a terze parti di sfruttare la sua flotta per le consegne, un uso creativo e innovativo del proprio asset immateriale.

4) L’utilizzo di framework API anche all’interno di organizzazioni strutturate e dove il tempo ha costruito, soprattutto a livello dati, silos molto difficili da superare è una altra direzione di applicazione molto interessante. Nei casi in cui non è necessaria una integrazione diretta a livello di sistema di persistenza del dato le API consentono di far dialogare diversi sistemi dipartimentali evitando costosi progetti di integrazione rendendo tra l’altro possibile la reingegnerizzazione di sistemi legacy per fasi successive. SalesForce ha creato una straordinaria storia di successo sulla base del superamento attarverso la propria applicazioni di silos dati aziendali che confluiscono nella sua soluzione automatizzando tutta la parte di gestione delle reti commerciali. E lo ha fatto integrando nella sua piattaforma, spesso via API,  dati sia dai silos aziendali sia da servizi di altri fornitori.

5) Il fenomeno OpenData trova nella forma di utilizzo via API la forma migliore per garantire l’utilizzo del dato in real time (non fattibile utilizzando forme batch come i file csv) e per l’interoperabilità in applicazioni di facile uso da parte degli utenti, come più volte evidenziato da Alfonso Fuggetta. In area anglosassone i portali api sono ormai ampiamenti diffusi nelle pubbliche amministrazioni sia locali che nazionali. Ne sono uno splendido esempio quello della città e dello stato di New York. Anche in Italia qualcosa si sta muovendo a traino dei casi più interessanti come quello dei dati relativi ai fondi strutturali erogati dalla Unione Europea ed esposti dal sito  Open Coesione.

6) Per favorire uno sviluppo di applicazioni in modo agile, incrementale e modulare le API sono un ottimo strumento che consente di definire in itinere il Minimum Viable Product (MVP) permettendo di integrare nelle applicazione i servizi più a valore e testando con i Clienti direttamente sul campo il loro utilizzo. L’integrazione di API rest oltre a disaccoppiare i sistemi consente una modalità più semplice di gestire l’interattività tra team diversi di sviluppo magari localizzati in aree diverse del globo. Le API sono un facilitatore del paradigma agile consentendo un time to market più veloce al business.

7) Si stanno anche creando anche marketplace specifici, con propri modeli di business, che aggregano API di terze parte consentendo a sviluppatori, accedendo ad un solo ambiente di trovare diverse soluzioni per differenti problemi. Oltre al caso già citato di Bluemix un esempio eccellente di origine italiana ma trapiantato in Silicon Valley è quello di Mashape che oltre ad offrire l’infrastruttura per pubblicare API private (come per esempio anche Apigee) fornisce anche un “mercato” dove si possono pubblicare API per vendita diretta di dati e servizi. Ad oggi ce ne sono più di 1350 pubblicate in questa forma

Insomma i motivi per entrare nella API economy sono tanti: l’interoperabilità tra sistemi, aziende e team di sviluppo è sicuramente il più importante ma non è facile  trarne beneficio perchè non è solo una questione tecnologica ma di cultura e di visione di business. Insomma come recita un famoso aforisma di W.Gibson “il futuro è già qui, solo che non è distribuito in maniera uniforme”.

 

 

Perchè le API sono necessarie in un mondo “big data” che cerca di decentralizzarsi

Limiti & innovazione, dati & tecnologia

La recente lettura di due piccoli ma intensi saggi sul concetto di limite e innovazione mi permette di fare qualche osservazione su queste due tematiche e su come si intreccino sempre di più, nella civiltà moderna, con i dati e la tecnologia.

Partiamo dal primo: il piccolo saggio “limite” di Remo Bodei, filosofo dell’università di Pisa e della Università della California a Los Angeles.
LimiteRemoBodeiNel libro Bodei, raccontando come nella storia dell’uomo il concetto di limite abbia avuto differenti interpretazioni, arriva a riflettere su come il suo superamento sia diventato, in moltissime discipline, una caratteristica della società moderna. Ma non è sempre stato così: a lungo le innovazioni tecnologiche e la creatività sono state viste con sospetto o considerate nocive. Si parte nel mondo greco-romano dalla frase “Niente di troppo” sul muro esterno del tempio di Apollo a Delfi, al mito di Icaro per passare all’artigiano che sotto Tiberio inventò il vetro infrangibile ma che fu decapitato per la paura che il suo uso facesse deprezzare l’oro. Ma forse il caso più “attuale” fu quello di Vespasiano che premiò l’inventore di una macchina per spostare grandi pesi in campo edilizio, ma che ne vietò la diffusione per non togliere lavoro alla sua plebicula. Riuscite forse ad immaginare qualcosa di simile oggi? Per esempio la proibizione dell’uso di algoritmi, di intelligenza artificiale o della robotica per difendere l’occupazione degli strati meno istruiti della popolazione mondiale?
Mi verrebbe da rispondere che questo non è possibile perchè oggi il superamento dei limiti, in campo tecnologico e economico, è chiamato innovazione ed è considerato un valore su cui si fonda il progresso e la società capitalistica in particolare.

E qui entra in campo l’altro saggio di cui parlavo e cioè “Per un pugno di idee” di Massimiano Bucchi che racconta in maniera leggera, quella leggerezza tanto cara a Italo Calvino, storie di innovazione che hanno cambiato la nostra vita (dalla tastiera all’iPod passando per il Walkman arrivando fino al genoma da 1000 dollari).
InnovazioneBucchi

Dalle storie del libro e  dalla sua introduzione emergono idee e considerazioni  importanti che mi permetto, aggiungendo alcuni atomi di storia personale, di parafrasare in cinque piccoli punti e cioè che l’innovazione:
1)«È un processo complesso e non lineare in cui entrano in gioco numerosi
elementi , processi e attori»
2) È qualcosa di più di una nuova tecnologia anche se nel mondo attuale spesso la tecnologia è un elemento fortemente abilitante
3) È spesso un «momento di cambiamento concettuale, sociale e culturale»
4) Non è fatta di «Venture capital, start-up e spin-off»: questi  sono strumenti che possono facilitarla, ma non sono l’innovazione stessa.
5)  Non è in una persona o in un team ma deve permeare le organizzazioni.

Ma cosa c’entrano i dati e la tecnologia con il concetto di limite e di innovazione in concreto? Diciamo che oggi, forse con una accelerazione fortissima negli ultimi 15 anni, l’innovazione, in tutte le discipline, si è nutrita e si nutre di dati e di tecnologia relativa al processo degli stessi per produrre risultati importantissimi. Dal bosone di Higgs alle onde gravitazionali, dalla mappatura del genoma al riconoscimento delle immagini nei social network e non solo, tutto passa attraverso la capacità di processare grosse moli di dati. Questo sia per realizzare algoritmi sia per utilizzarli real time: le driverless car sono un esempio concreto. Ma anche recentissime forme di intelligenza artificiale, forse le prime degne della definizione più canonica, passano proprio da nuove forme di apprendimento di grosse moli di dati, come ha dimostrato il recente super-algoritmo di Google, che sfruttando algoritmi deep-learning ha battuto il campione mondiale di Go.

Ma in questo contesto ha ancora senso parlare di limiti? La domanda è lecita proprio per l’aumentata rapidità con cui l’uomo riesce a superarli.
In questo caso la mia risposta è affermativa perchè il senso del riflettere sta soprattutto nel provare a capire cosa oggi non abbia funzionato a dovere  in questa corsa sfrenata dell’innovazione moderna e cioè per esempio:
1) i necessari limiti relativi alla privacy e alla gestione dei dati personali non ancora gestiti al meglio e in maniera disomogenea a livello mondiale
2) il limite del sistema economico attuale che non è riuscito a distribuire in maniera omogenea i miglioramenti economici e sociali che il progresso ci ha regalato. E l’aumento dell’indice di Gini relativo alla distribuzione dei redditi a livello mondiale è il migliore indicatore di questo limite
3) il limite, espresso dalla legge di Martec, dovuto al fatto che la tecnologia progredisce esponenzialmente mentre le organizzazioni secondo una curva logaritmica e forse la mente umana cambia con una velocità ancora più bassa adattandosi molto lentamente ai processi dell’innovazione

MartecsLaw

Proprio sulla base di questi limiti , senza proporre provvedimenti alla Vespasiano, penso sia fondamentale portare al centro dei processi di cambiamento, nelle organizzazioni e nella società, l’uomo: ma l’innovazione ce ne darà il tempo? Forse questo sta diventando un’emergenza per la nostra specie …

Limiti & innovazione, dati & tecnologia