A piccoli passi verso l’Algoritmo Definitivo

La lettura dello stupendo libro “l’Algoritmo Definitivo” di Pedro Domingos, professore e ricercatore presso l’università di Washington nell’area del machine learning e data-mining, mi fornisce lo spunto per riflettere sull’importanza esponenziale che gli algoritmi hanno sempre più nella vita di tutti i giorni e in sempre maggiori aree di business.

algoritmodefinitivo

La modalità con cui Domingos affronta il non semplice argomento è particolarmente gradevole perchè il testo è privo di quegli aspetti tecnici e matematici che rendono spesso molto elitarie queste letture. Nel libro si  preferisce una narrazione funzionale e filosofica del fenomeno riuscendo a tenere la lettura accessibile a un pubblico più vasto.
Questo fatto è tanto più apprezzabile proprio per l’importanza che gli algoritmi stanno assumendo in ogni aspetto socio-economico della vita rendendo necessario aprire e rendere accessibile il dibattito a un pubblico il più ampio possibile e comunque in generale rendere alto il livello di consapevolezza.
Particolarmente stimolante è l’approfondimento (a cui Domingos dedica un capitolo intero) sul “mondo che nascerà dal machine learning” perchè già oggi interagiamo con versioni embrionali dell’Algoritmo Definitivo e “noi abbiamo il compito di capirli e plasmarne la crescita perchè ci aiutino sempre di più”.
Di fatto già oggi utilizziamo versioni “verticali” di algoritmi che, alimentati e “allenati dai nostri dati”, ci forniscono informazioni che aumentano la nostra conoscenza e supportano le nostre decisioni. E’ così per esempio per l’algoritmo di ricerca di Google che, funzione del nostro profilo e delle nostre ricerche, ci facilità l’accesso alla conoscenza ma anche gli algoritmi di Linkedin che ci suggeriscono, funzione dei dati che abbiamo nel nostro profilo, opportunità di lavoro che possono cambiare la nostra vita professionale. Ma la lista di queste interazioni con algoritmi machine learning sta aumentando esponenzialmente e questo nostro “specchio digitale” per usare le parole di Domingos cresce ogni giorno la sua importanza e il relativo sfruttamento è e sarà sempre più determinante per la nostra vita sociale e lavorativa. In questo senso  piattaforme sicure dove, senza delegare a una singola Corporation, conserviamo i nostri digital footprint mantenendone il controllo diventa un fattore sempre più importante. Così anche ecosistemi di algoritmi machine learning open-source usabili da una molteplicità di organizzazioni sono punti fondamentali che, in linea con quello che Domingos auspica, potranno delineare un sviluppo democratico e positivo della relazione tra uomo e macchina o meglio tra “io fisico” e “io digitale” anche perchè questo “io digitale” sta diventando il nostro più rapido estrattore di conoscenza.

knowledge2

Del resto, ma questo non è oggetto del libro, lo sviluppo in parallello delle nanotecnologie o meglio della nanoinformatica potrebbe portare a nuove interazioni tra io fisico e io digitale, evocate peraltro anche da Kurzweil nei sui scritti sulla singolarità. Quello che può stupire, in questo caso, è la scala temporale  di questa evoluzione perchè la nostra interazione con altri organismi esiste fin dalle nostre origini vista la presenza all’interno del nostro corpo di circa l’1-3% (in termini di massa) di microrganismi simbiotici.

Ma sicuramente altrettanto affascinante a queste riflessioni sul futuro è la prima parte del libro dove Domingos fotografa l’attuale stato dell’arte del machine learning suddividendolo in cinque tribù, come descritto da una sua slide tratta da questo suo intervento a “Talk at Google”, in cui si rappresentano i cinque approcci diversi  dal punto di vista filosofico della estrazione di conoscenza dai dati.

5-tribes-machine-learning

Ognuno di questi approcci ha tassi di successo diversi nei differenti campi di applicazione scientifici e di business. La corsa verso un “learner universale”, molto vicino al concetto stretto di intelligenza artificiale, è ormai più che aperta e lo stesso team di Domingos ne propone una versione molto prototipale (se volete dare un’occhiata o provarla visto che il progetto è open source lo trovate qui http://alchemy.cs.washington.edu/). Il concetto su cui molti, non solo Domingos, stanno cercando di convergere è di trovare punti di analogia tra le cinque famiglie e, semplificando un poco, riuscire a programmare un learner che utilizza la migliore strategia in funzione del contesto.

La corsa verso il sacro Graal del machine learning è aperta e giornalmente contribuiamo al suo raggiungimento con il nostro piccolo contributo di dati che, in maniera non sempre consapevole, condividiamo. Esserne consapevoli è già un primo passo per minimizzare anche gli aspetti negativi che inevitabilmente ogni innovazione porta con sè.

A piccoli passi verso l’Algoritmo Definitivo

Limiti & innovazione, dati & tecnologia

La recente lettura di due piccoli ma intensi saggi sul concetto di limite e innovazione mi permette di fare qualche osservazione su queste due tematiche e su come si intreccino sempre di più, nella civiltà moderna, con i dati e la tecnologia.

Partiamo dal primo: il piccolo saggio “limite” di Remo Bodei, filosofo dell’università di Pisa e della Università della California a Los Angeles.
LimiteRemoBodeiNel libro Bodei, raccontando come nella storia dell’uomo il concetto di limite abbia avuto differenti interpretazioni, arriva a riflettere su come il suo superamento sia diventato, in moltissime discipline, una caratteristica della società moderna. Ma non è sempre stato così: a lungo le innovazioni tecnologiche e la creatività sono state viste con sospetto o considerate nocive. Si parte nel mondo greco-romano dalla frase “Niente di troppo” sul muro esterno del tempio di Apollo a Delfi, al mito di Icaro per passare all’artigiano che sotto Tiberio inventò il vetro infrangibile ma che fu decapitato per la paura che il suo uso facesse deprezzare l’oro. Ma forse il caso più “attuale” fu quello di Vespasiano che premiò l’inventore di una macchina per spostare grandi pesi in campo edilizio, ma che ne vietò la diffusione per non togliere lavoro alla sua plebicula. Riuscite forse ad immaginare qualcosa di simile oggi? Per esempio la proibizione dell’uso di algoritmi, di intelligenza artificiale o della robotica per difendere l’occupazione degli strati meno istruiti della popolazione mondiale?
Mi verrebbe da rispondere che questo non è possibile perchè oggi il superamento dei limiti, in campo tecnologico e economico, è chiamato innovazione ed è considerato un valore su cui si fonda il progresso e la società capitalistica in particolare.

E qui entra in campo l’altro saggio di cui parlavo e cioè “Per un pugno di idee” di Massimiano Bucchi che racconta in maniera leggera, quella leggerezza tanto cara a Italo Calvino, storie di innovazione che hanno cambiato la nostra vita (dalla tastiera all’iPod passando per il Walkman arrivando fino al genoma da 1000 dollari).
InnovazioneBucchi

Dalle storie del libro e  dalla sua introduzione emergono idee e considerazioni  importanti che mi permetto, aggiungendo alcuni atomi di storia personale, di parafrasare in cinque piccoli punti e cioè che l’innovazione:
1)«È un processo complesso e non lineare in cui entrano in gioco numerosi
elementi , processi e attori»
2) È qualcosa di più di una nuova tecnologia anche se nel mondo attuale spesso la tecnologia è un elemento fortemente abilitante
3) È spesso un «momento di cambiamento concettuale, sociale e culturale»
4) Non è fatta di «Venture capital, start-up e spin-off»: questi  sono strumenti che possono facilitarla, ma non sono l’innovazione stessa.
5)  Non è in una persona o in un team ma deve permeare le organizzazioni.

Ma cosa c’entrano i dati e la tecnologia con il concetto di limite e di innovazione in concreto? Diciamo che oggi, forse con una accelerazione fortissima negli ultimi 15 anni, l’innovazione, in tutte le discipline, si è nutrita e si nutre di dati e di tecnologia relativa al processo degli stessi per produrre risultati importantissimi. Dal bosone di Higgs alle onde gravitazionali, dalla mappatura del genoma al riconoscimento delle immagini nei social network e non solo, tutto passa attraverso la capacità di processare grosse moli di dati. Questo sia per realizzare algoritmi sia per utilizzarli real time: le driverless car sono un esempio concreto. Ma anche recentissime forme di intelligenza artificiale, forse le prime degne della definizione più canonica, passano proprio da nuove forme di apprendimento di grosse moli di dati, come ha dimostrato il recente super-algoritmo di Google, che sfruttando algoritmi deep-learning ha battuto il campione mondiale di Go.

Ma in questo contesto ha ancora senso parlare di limiti? La domanda è lecita proprio per l’aumentata rapidità con cui l’uomo riesce a superarli.
In questo caso la mia risposta è affermativa perchè il senso del riflettere sta soprattutto nel provare a capire cosa oggi non abbia funzionato a dovere  in questa corsa sfrenata dell’innovazione moderna e cioè per esempio:
1) i necessari limiti relativi alla privacy e alla gestione dei dati personali non ancora gestiti al meglio e in maniera disomogenea a livello mondiale
2) il limite del sistema economico attuale che non è riuscito a distribuire in maniera omogenea i miglioramenti economici e sociali che il progresso ci ha regalato. E l’aumento dell’indice di Gini relativo alla distribuzione dei redditi a livello mondiale è il migliore indicatore di questo limite
3) il limite, espresso dalla legge di Martec, dovuto al fatto che la tecnologia progredisce esponenzialmente mentre le organizzazioni secondo una curva logaritmica e forse la mente umana cambia con una velocità ancora più bassa adattandosi molto lentamente ai processi dell’innovazione

MartecsLaw

Proprio sulla base di questi limiti , senza proporre provvedimenti alla Vespasiano, penso sia fondamentale portare al centro dei processi di cambiamento, nelle organizzazioni e nella società, l’uomo: ma l’innovazione ce ne darà il tempo? Forse questo sta diventando un’emergenza per la nostra specie …

Limiti & innovazione, dati & tecnologia

L’importanza degli algoritmi nel futuro della datascience

In uno dei post precedenti avevo evidenziato le 4 principali “forze” grazie alle quali si sta  sviluppando il fenomeno “big data” e cioè: la crescita della disponibilità dei dati, l’evoluzione della tecnologia di gestione dei dati, lo sviluppo e il miglioramento degli algoritmi e le nuove figure professionali, i datascientist, che sono i protagonisti umani di questa rivoluzione in corso. Oggi mi vorrei soffermare a considerare la diversa velocità di queste forze e cosa serve, probabilmente, in questo momento storico per uniformarle il più possibile, rendendo il tutto a maggior valore per gli utilizzatori.

CrescitaDati
Da un lato infatti abbiamo due forze: quella della crescita dei dati e della relativa  tecnologia che in maniera virtuosa si accelerano in maniera esponenziale. Negli ultimi 2 anni sono stati generati il 90% dei dati attualmente disponibili su scala planetaria e contestualmente tutta la filiera tecnologica legata ai dati, dalla memoria alla capacità elaborativa, è migliorata in qualità (robustezza e disponibilità) e diminuita in costo ($/byte e $/capacità computazionale) grazie al cloud e ai nuovi paradigmi di calcolo distribuito (per esempio l’ecosistema Hadoop).

A fronte di questo miglioramento non c’è stato una equivalente crescita in termini numerici di esperti di dati (sia datascientist che manager) e la capacità di utilizzo dei dati stessi non è cresciuta nelle linee di business e nei decisori delle organizzazioni.
Ancora in questi giorni è stato pubblicato un studio McKinsey molto importante sui fattori strategici che portano valore ai progetti “big data” nelle aziende dove si individua proprio nella capacità di “scalare” nei data-analytics skills il fattore più critico di successo. Ma la scarsità di competenze in questo settore è un trend mondiale su cui nessuno ha dubbi ed è anche misurato dalla grande crescita salariale di queste professioni negli ultimissimi anni.

PostAlgoritmo
Di conseguenza gli algoritmi, che si posizionano tra questi due poli (dati e tecnologia da un lato e fattore umano dall’altro) rivestono a mio parere un ruolo fondamentale per la capacità di semplificazione e sintesi che possono rivestire rendendo di valore reale e attuale quella grande massa di dati che oggi la tecnologia ci mette a disposizione. In aggiunta sono la componente che può mitigare la scarsità di persone capaci di analizzare i dati in azienda, accelerando e semplificando le analisi stesse e  democratizzandole di conseguenza.PostAlgoritmi6
Non è un caso che Evagelous Simoudis, uno dei più importanti investitori di lungo corso in Silicon Valley nel settore dei dati e degli analytics, qualche giorno fa in un popolare post uscito sul sito della O’Relley scrive a chiare lettere che “per sostenere il fenomeno big data e migliorare l’uso delle informazioni, abbiamo bisogno di applicazioni che velocemente ed in maniera poco costosa estraggano correlazioni associando le intuizioni ad azioni concrete di business”.
PostAlgortimi3
Del resto la stessa Gartner, nell’ultimo Symposium 2015 a Orlando, aveva evidenziato la prossima  evoluzione della “Data Economy” nella “Algorithmic Economy perchè non sono importanti i “big data” in sè ma quello che si riesce a fare con essi.

LegoVerdeAlgoritmi
Il nostro mattoncino “verde” è quindi fondamentale per riuscire a realizzare costruzioni “lego” big data sempre più grandi e utili: ne parleremo e lo analizzeremo in concreto in prossimi post.

 

 

L’importanza degli algoritmi nel futuro della datascience