Limiti & innovazione, dati & tecnologia

La recente lettura di due piccoli ma intensi saggi sul concetto di limite e innovazione mi permette di fare qualche osservazione su queste due tematiche e su come si intreccino sempre di più, nella civiltà moderna, con i dati e la tecnologia.

Partiamo dal primo: il piccolo saggio “limite” di Remo Bodei, filosofo dell’università di Pisa e della Università della California a Los Angeles.
LimiteRemoBodeiNel libro Bodei, raccontando come nella storia dell’uomo il concetto di limite abbia avuto differenti interpretazioni, arriva a riflettere su come il suo superamento sia diventato, in moltissime discipline, una caratteristica della società moderna. Ma non è sempre stato così: a lungo le innovazioni tecnologiche e la creatività sono state viste con sospetto o considerate nocive. Si parte nel mondo greco-romano dalla frase “Niente di troppo” sul muro esterno del tempio di Apollo a Delfi, al mito di Icaro per passare all’artigiano che sotto Tiberio inventò il vetro infrangibile ma che fu decapitato per la paura che il suo uso facesse deprezzare l’oro. Ma forse il caso più “attuale” fu quello di Vespasiano che premiò l’inventore di una macchina per spostare grandi pesi in campo edilizio, ma che ne vietò la diffusione per non togliere lavoro alla sua plebicula. Riuscite forse ad immaginare qualcosa di simile oggi? Per esempio la proibizione dell’uso di algoritmi, di intelligenza artificiale o della robotica per difendere l’occupazione degli strati meno istruiti della popolazione mondiale?
Mi verrebbe da rispondere che questo non è possibile perchè oggi il superamento dei limiti, in campo tecnologico e economico, è chiamato innovazione ed è considerato un valore su cui si fonda il progresso e la società capitalistica in particolare.

E qui entra in campo l’altro saggio di cui parlavo e cioè “Per un pugno di idee” di Massimiano Bucchi che racconta in maniera leggera, quella leggerezza tanto cara a Italo Calvino, storie di innovazione che hanno cambiato la nostra vita (dalla tastiera all’iPod passando per il Walkman arrivando fino al genoma da 1000 dollari).
InnovazioneBucchi

Dalle storie del libro e  dalla sua introduzione emergono idee e considerazioni  importanti che mi permetto, aggiungendo alcuni atomi di storia personale, di parafrasare in cinque piccoli punti e cioè che l’innovazione:
1)«È un processo complesso e non lineare in cui entrano in gioco numerosi
elementi , processi e attori»
2) È qualcosa di più di una nuova tecnologia anche se nel mondo attuale spesso la tecnologia è un elemento fortemente abilitante
3) È spesso un «momento di cambiamento concettuale, sociale e culturale»
4) Non è fatta di «Venture capital, start-up e spin-off»: questi  sono strumenti che possono facilitarla, ma non sono l’innovazione stessa.
5)  Non è in una persona o in un team ma deve permeare le organizzazioni.

Ma cosa c’entrano i dati e la tecnologia con il concetto di limite e di innovazione in concreto? Diciamo che oggi, forse con una accelerazione fortissima negli ultimi 15 anni, l’innovazione, in tutte le discipline, si è nutrita e si nutre di dati e di tecnologia relativa al processo degli stessi per produrre risultati importantissimi. Dal bosone di Higgs alle onde gravitazionali, dalla mappatura del genoma al riconoscimento delle immagini nei social network e non solo, tutto passa attraverso la capacità di processare grosse moli di dati. Questo sia per realizzare algoritmi sia per utilizzarli real time: le driverless car sono un esempio concreto. Ma anche recentissime forme di intelligenza artificiale, forse le prime degne della definizione più canonica, passano proprio da nuove forme di apprendimento di grosse moli di dati, come ha dimostrato il recente super-algoritmo di Google, che sfruttando algoritmi deep-learning ha battuto il campione mondiale di Go.

Ma in questo contesto ha ancora senso parlare di limiti? La domanda è lecita proprio per l’aumentata rapidità con cui l’uomo riesce a superarli.
In questo caso la mia risposta è affermativa perchè il senso del riflettere sta soprattutto nel provare a capire cosa oggi non abbia funzionato a dovere  in questa corsa sfrenata dell’innovazione moderna e cioè per esempio:
1) i necessari limiti relativi alla privacy e alla gestione dei dati personali non ancora gestiti al meglio e in maniera disomogenea a livello mondiale
2) il limite del sistema economico attuale che non è riuscito a distribuire in maniera omogenea i miglioramenti economici e sociali che il progresso ci ha regalato. E l’aumento dell’indice di Gini relativo alla distribuzione dei redditi a livello mondiale è il migliore indicatore di questo limite
3) il limite, espresso dalla legge di Martec, dovuto al fatto che la tecnologia progredisce esponenzialmente mentre le organizzazioni secondo una curva logaritmica e forse la mente umana cambia con una velocità ancora più bassa adattandosi molto lentamente ai processi dell’innovazione

MartecsLaw

Proprio sulla base di questi limiti , senza proporre provvedimenti alla Vespasiano, penso sia fondamentale portare al centro dei processi di cambiamento, nelle organizzazioni e nella società, l’uomo: ma l’innovazione ce ne darà il tempo? Forse questo sta diventando un’emergenza per la nostra specie …

Annunci
Limiti & innovazione, dati & tecnologia

Popper, Datascience & Lego: “Tutta la vita è risolvere problemi”

Ho sempre amato Popper, uno dei più importante filosofi della scienza, sia per il celebre principio di falsificabilità che è alla base della distinzione tra scienze e pseudoscienze, sia per la critica all’induzionismo estremo. Sintetizzando questo concetto egli sostiene che non basta osservare ma bisogna sapere cosa osservare. In questo senso la deduzione, che si nutre anche dell’osservazione non passiva della realtà, svolge un ruolo fondamentale nella creazione di teorie scientifiche e nella risoluzione di problemi. Questo processo è stato reso particolarmente evidente in due recenti e mediatiche scoperte scientifiche quali quelle del bosone di Higgs e delle onde gravitazionali, in cui la deduzione (fisica teorica) è stata confermata dalla induzione (fisica sperimentale) a distanza di molto tempo. E in questi processi di verifica induttiva la datascience ha avuto un’importanza fondamentale visto che tecnologia, algoritmi e specialisti di analisi dati la fanno ormai da padroni in questi grandi esperimenti. Anche nei processi deduttivi l’osservazione dei dati, soprattutto se guidata da una conoscenza del contesto e del problema che si vuole risolvere, porta un supporto importante nella realizzazione di quegli schemi mentali creativi necessari alla definizione di ogni teoria scientifica falsificabile.
Ma la citazione di Popper nel titolo del post fa riferimento anche ad un aspetto specifico e critico nell’utilizzo della datascience e in particolare alla domanda, che mi capita sempre meno spesso di sentire, su quale sia il punto di partenza di qualsiasi progetto relativo ai dati e in particolare quelli per i quali “sprechiamo” l’attributo Big Data.
Non ho alcun dubbio nell’indicare che sia fondamentale partire da un problema implicito o esplicito (chiarirò più avanti il concetto) degli stakeholder del progetto: il Cliente nei progetti di business o i Decision maker e la Comunità stessa in progetti non commerciali.

Sicuramente estremamente errato è partire dalla infrastruttura tecnologica. Cito a questo proposito un bellissimo post “Put data Science before Data Infrastructure” di  David Johnston, datascientist di Thoughworks che evidenzia come una qualità fondamentale per ogni analisi dei dati è sapere cosa osservare e perchè osservarlo.

DataScience1

Certamente molte tecnologie “Big Data”, cito l’ecosistema Hadoop per esempio, sono abilitanti ma non bisogna dimenticare che sono solo un mezzo, una condizione in alcuni casi necessaria ma mai sufficiente al buon risultato finale.

Talvolta è certamente possibile partire dai dati, soprattutto quando una vera domanda da parte degli stakeholder non esiste o meglio è implicita perchè questi ultimi non sono in grado di identificarne l’esistenza. Sicuramente la crescita esponenziale della disponibilità di dati può aumentare queste situazioni ma come punto di partenza diventa molto rischioso soprattutto in ottica business per gli investimenti correlati a questi progetti che possono non trovare un mercato. Questa è la via intrapresa da Linkedin nei suoi primi anni di vita quando, trovatosi grandissime moli di dati relativi a professionisti di tutto il mondo, ha lasciato che i datascientist interni realizzassero prodotti basati sui dati (soprattutto in ambito soluzioni per Human Resources) che il marketing tradizionale e i potenziali Clienti non riuscivano neppure ad immaginare. Certamente quando si riescono a creare prodotti (risolvere problemi) vincenti in questo modo l’oceano blu che si apre nel mercato è veramente importante. Ma sono poche le aziende che, per cultura e per organizzazione, riescono a sfruttare queste situazioni.

In altri casi è possibile partire dagli algoritmi per capire se è possibile far emergere dai dati (anche i “soliti dati”) delle situazioni (pattern) che possano rispondere a problemi impliciti o espliciti di Clienti o di Decision maker. In questo celebre post il datascientist Brandon Roher prova ad incrociare domande/problemi generici ad algoritmi più o meno innovativi nel campo del machine learning. Partendo proprio dagli algoritmi il deep learning ha fornito convincenti risposte a problemi ancora irrisolti, per esempio nel riconoscimento di cose e persone nelle immagini . Ma anche in questo caso la strada verso risultati concreti è molto ardua e riservata ad un numero ancora limitato di datascientist-driven companies.

In questo senso la visione popperiana di mettere al centro il problema, applicato alla datascience, è sicuramente vincente. Come scrive Popper ” .. il metodo consiste nel proporre tentativi di soluzione del nostro problema, e nell’eliminare le soluzioni false come erronee. Questo metodo presuppone che noi lavoriamo con un gran numero di tentativi di soluzioni. Una soluzione dopo l’altra viene messa a prova ed eliminata.” E oggi questo metodo, figlio del galieiano metodo sceintifico, applicato alla Datascience trova nella tecnologia NoSQL, negli algoritmi “big data” e nei datascientist  un forte abilitatore nonchè un grande acceleratore.

In questa evoluzione conoscere il contesto in cui si muove il progetto/problema e definirlo al meglio rimane la parte più difficile. Oggi più di ieri perchè  su questo aspetto che tocca problematiche organizzative, culturali e sociali non abbiamo (soprattutto in Italia) fatto gli stessi passi avanti che siamo riusciti a realizzare negli altri aspetti, ahimè solo abilitanti (tecnologia, algoritmi, dati ecc.).

Sulla base delle considerazioni sopra descritte mi piace descrivere il flusso che coinvolge qualunque progetto di datascience in maniera modulare quasi fosse una costruzione “lego”. Sotto riporto una immagine che esemplifica questi concetti
LegoDataScience

Cercherò di fare alcune considerazioni in futuri post di ciascuno di questi livelli, di come si possano spesso compenetrare (soprattutto quelli centrali), di come lo spessore (l’importanza) di ciascuno di questi sia variabile funzione del progetto .
Vedremo anche come, a sua volta, questo pattern (ovvero singolo progetto), possa combinarsi con altri perchè spesso i due strati superiori (i problemi risolti e i relativi dati) costituiscono la base per altri progetti/programmi  più complessi o più complicati.
Credo che sia importante aver “fissato” (anche visualmente) la centralità della definzione del problema all’interno di qualunque progetto di datascience e quindi nell’ideale diagramma di Conway da cui siamo partito nel precedente post mi sento di sottolineare più che mai l’importanza del cerchio inferiore, cioè della conoscenza del contesto a 360°: dai dati agli stakeholder per essere in grado veramente  di “risolvere problemi tutta la vita”.

Popper, Datascience & Lego: “Tutta la vita è risolvere problemi”

Perchè agile big data?

 

Ho sempre ritenuto importante dare una spiegazione al nome delle cose. Senza addentrarmi nella filosofia del linguaggio e nella diatriba che coinvolge secoli di pensatori ritengo fondamentale partire proprio da qui.

Agile vuole far riferimento a quelle metodologie che, partite da un nuovo modo di sviluppare software alla fine degli anni ’90 e dal metodo Lean Toyota, si sono sviluppate in maniera “virale” fino ad avere uno spazio importante  all’interno dell’innovazione, del Project Management e anche del Management in generale.

Big Data è sicuramente diventato un termine usato e abusato in differenti contesti, spesso senza conoscerne: il significato, le sue dinamiche e i suoi possibili impatti positivi e negativi sulla vita lavorativa e non di ognuno di noi. E’ comunque innegabile che il valore dei dati è cresciuto esponenzialmente negli ultimi anni. Scopo di questo blog è raccontare, in viaggio, questo cambiamento in maniera non esaustiva ma puntuale e passionale.

Il punto di vista, o meglio le istantanee di questo viaggio saranno quelle di un data-lover,  che si racconta abbia pronunciato come prima parola un numero e che ha fatto di questa passione una ragione di vita lavorativa e non.

Provare a rendere possibile questo ossimoro (agile e big data) nella quotidianità è una sfida che vivo tutti i giorni e raccontare questa sfida è un modo per affrontarla al meglio!

Perchè agile big data?