Limiti & innovazione, dati & tecnologia

La recente lettura di due piccoli ma intensi saggi sul concetto di limite e innovazione mi permette di fare qualche osservazione su queste due tematiche e su come si intreccino sempre di più, nella civiltà moderna, con i dati e la tecnologia.

Partiamo dal primo: il piccolo saggio “limite” di Remo Bodei, filosofo dell’università di Pisa e della Università della California a Los Angeles.
LimiteRemoBodeiNel libro Bodei, raccontando come nella storia dell’uomo il concetto di limite abbia avuto differenti interpretazioni, arriva a riflettere su come il suo superamento sia diventato, in moltissime discipline, una caratteristica della società moderna. Ma non è sempre stato così: a lungo le innovazioni tecnologiche e la creatività sono state viste con sospetto o considerate nocive. Si parte nel mondo greco-romano dalla frase “Niente di troppo” sul muro esterno del tempio di Apollo a Delfi, al mito di Icaro per passare all’artigiano che sotto Tiberio inventò il vetro infrangibile ma che fu decapitato per la paura che il suo uso facesse deprezzare l’oro. Ma forse il caso più “attuale” fu quello di Vespasiano che premiò l’inventore di una macchina per spostare grandi pesi in campo edilizio, ma che ne vietò la diffusione per non togliere lavoro alla sua plebicula. Riuscite forse ad immaginare qualcosa di simile oggi? Per esempio la proibizione dell’uso di algoritmi, di intelligenza artificiale o della robotica per difendere l’occupazione degli strati meno istruiti della popolazione mondiale?
Mi verrebbe da rispondere che questo non è possibile perchè oggi il superamento dei limiti, in campo tecnologico e economico, è chiamato innovazione ed è considerato un valore su cui si fonda il progresso e la società capitalistica in particolare.

E qui entra in campo l’altro saggio di cui parlavo e cioè “Per un pugno di idee” di Massimiano Bucchi che racconta in maniera leggera, quella leggerezza tanto cara a Italo Calvino, storie di innovazione che hanno cambiato la nostra vita (dalla tastiera all’iPod passando per il Walkman arrivando fino al genoma da 1000 dollari).
InnovazioneBucchi

Dalle storie del libro e  dalla sua introduzione emergono idee e considerazioni  importanti che mi permetto, aggiungendo alcuni atomi di storia personale, di parafrasare in cinque piccoli punti e cioè che l’innovazione:
1)«È un processo complesso e non lineare in cui entrano in gioco numerosi
elementi , processi e attori»
2) È qualcosa di più di una nuova tecnologia anche se nel mondo attuale spesso la tecnologia è un elemento fortemente abilitante
3) È spesso un «momento di cambiamento concettuale, sociale e culturale»
4) Non è fatta di «Venture capital, start-up e spin-off»: questi  sono strumenti che possono facilitarla, ma non sono l’innovazione stessa.
5)  Non è in una persona o in un team ma deve permeare le organizzazioni.

Ma cosa c’entrano i dati e la tecnologia con il concetto di limite e di innovazione in concreto? Diciamo che oggi, forse con una accelerazione fortissima negli ultimi 15 anni, l’innovazione, in tutte le discipline, si è nutrita e si nutre di dati e di tecnologia relativa al processo degli stessi per produrre risultati importantissimi. Dal bosone di Higgs alle onde gravitazionali, dalla mappatura del genoma al riconoscimento delle immagini nei social network e non solo, tutto passa attraverso la capacità di processare grosse moli di dati. Questo sia per realizzare algoritmi sia per utilizzarli real time: le driverless car sono un esempio concreto. Ma anche recentissime forme di intelligenza artificiale, forse le prime degne della definizione più canonica, passano proprio da nuove forme di apprendimento di grosse moli di dati, come ha dimostrato il recente super-algoritmo di Google, che sfruttando algoritmi deep-learning ha battuto il campione mondiale di Go.

Ma in questo contesto ha ancora senso parlare di limiti? La domanda è lecita proprio per l’aumentata rapidità con cui l’uomo riesce a superarli.
In questo caso la mia risposta è affermativa perchè il senso del riflettere sta soprattutto nel provare a capire cosa oggi non abbia funzionato a dovere  in questa corsa sfrenata dell’innovazione moderna e cioè per esempio:
1) i necessari limiti relativi alla privacy e alla gestione dei dati personali non ancora gestiti al meglio e in maniera disomogenea a livello mondiale
2) il limite del sistema economico attuale che non è riuscito a distribuire in maniera omogenea i miglioramenti economici e sociali che il progresso ci ha regalato. E l’aumento dell’indice di Gini relativo alla distribuzione dei redditi a livello mondiale è il migliore indicatore di questo limite
3) il limite, espresso dalla legge di Martec, dovuto al fatto che la tecnologia progredisce esponenzialmente mentre le organizzazioni secondo una curva logaritmica e forse la mente umana cambia con una velocità ancora più bassa adattandosi molto lentamente ai processi dell’innovazione

MartecsLaw

Proprio sulla base di questi limiti , senza proporre provvedimenti alla Vespasiano, penso sia fondamentale portare al centro dei processi di cambiamento, nelle organizzazioni e nella società, l’uomo: ma l’innovazione ce ne darà il tempo? Forse questo sta diventando un’emergenza per la nostra specie …

Limiti & innovazione, dati & tecnologia

Data value per il Cliente prima della data monetization

Appare sempre forte in tutte le organizzazioni che hanno come asset i dati o che si stanno accorgendo di avere dati nei loro asset  quella che io chiamo “l’ansia da data-monetization”. Il fenomeno “Big data”, che ho cercato di inquadrare in questo blog nel giusto contesto, ha contribuito ad accrescere la consapevolezza, all’interno di aziende di qualsiasi settore, che la crescita del volume dei dati e la tecnologia possano creare nuovi asset di valore. Ma dalla consapevolezza o dall’idea all’effettiva creazione di valore esiste una distanza siderale che la maggior parte delle organizzazioni non sa colmare in maniera corretta per la mancanza di fattori umani e strategici sui quali l’innovazione procede molto lenta.
RicercaBigDataOsservatoriCome avevo già scritto, infatti, capire il problema che viene risolto con specifici dataset, algoritmi o framework tecnologici è l’aspetto più complesso della datascience, perchè significa avere consapevolezza contemporaneamente della semantica dei dati e dei bisogni del Cliente. Questa difficoltà porta ad anteporre troppo spesso la creazione di prodotti che siano vendibili sul mercato all’analisi delle reali esigenze dei Clienti che useranno i prodotti stessi. Questa è, a mio giudizio, una delle tre principali cause del fallimento dei progetti Big Data a livello mondiale.
La seconda causa nasce spesso dall’approccio organizzativo di questi progetti: anzichè usare approcci lean e agile, che si adatterebbero molto bene alla complessità del contesto, si usano più frequentemente approcci waterfall tradizionali con la creazione di molti “strati” decisionali e operativi che rallentano i primi rilasci e allontano il team di progetto dal Cliente. Proprio in questa ottica di diminuire la distanza con il Cliente il numero 3 è già un numero imperfetto! Infatti oltre al Product owner, che secondo la migliore definizione di Pichler deve avere un piede nel team e uno nel mercato, solo una figura di Product Manager che conosca in maniera approfondita Clienti e mercato è a mio giudizio accettabile. Ma in molte start-up di successo questa figura collide. In aggiunta l’approccio agile e la sua logica di Minimum Valuable Product portano a capire molto presto con il Cliente eventuali errori di progettazione o di analisi che possono essere corretti in maniera iterativa in tempi rapidi. Solo in questo modo, accorciando la distanza tra il progetto e chi lo usa, si riesce a fare in modo che il data value non sia sacrificato troppo presto sull’altare di ricavi e profitti che invece sul medio periodo, non tanto paradossalmente, vengono penalizzati proprio da questa miope strategia.
La terza causa è probabilmente dovuta all’evoluzione che questo tipo di progetti ha avuto negli ultimi 10 anni e che ha di fatto fornito molta più centralità, rispetto al passato, ai datascientist, o comunque a figure che conoscono dati e tecnologia e che invece hanno poca centralità nei processi decisionali dei progetti stessi. E questo diminuisce ulteriormente la capacità di capire il valore che si sta creando ai Clienti.

Sono sempre più convinto che se la maggior parte delle aziende non risolverà queste tre problematiche, cioè non metterà al centro dei progetti “data-driven” l’analisi delle esigenze del Cliente, l’approccio agile e le figure che meglio conoscono i dati, “l’ansia da data-monetization” diventerà presto “nevrosi da data-monetization” a vantaggio di quelle realtà, spesso geograficamente posizionate in area anglofona, che lo hanno capito.

Insomma tra big data e big profit la via non è breve e scontata e passa sempre attraverso il valore che si crea al Cliente. Le modalità per provare a percorla al meglio sono e saranno oggetto di discussione di questo blog senza presunzione di dare risposte definitive!

Data value per il Cliente prima della data monetization