L’importanza degli algoritmi nel futuro della datascience

In uno dei post precedenti avevo evidenziato le 4 principali “forze” grazie alle quali si sta  sviluppando il fenomeno “big data” e cioè: la crescita della disponibilità dei dati, l’evoluzione della tecnologia di gestione dei dati, lo sviluppo e il miglioramento degli algoritmi e le nuove figure professionali, i datascientist, che sono i protagonisti umani di questa rivoluzione in corso. Oggi mi vorrei soffermare a considerare la diversa velocità di queste forze e cosa serve, probabilmente, in questo momento storico per uniformarle il più possibile, rendendo il tutto a maggior valore per gli utilizzatori.

CrescitaDati
Da un lato infatti abbiamo due forze: quella della crescita dei dati e della relativa  tecnologia che in maniera virtuosa si accelerano in maniera esponenziale. Negli ultimi 2 anni sono stati generati il 90% dei dati attualmente disponibili su scala planetaria e contestualmente tutta la filiera tecnologica legata ai dati, dalla memoria alla capacità elaborativa, è migliorata in qualità (robustezza e disponibilità) e diminuita in costo ($/byte e $/capacità computazionale) grazie al cloud e ai nuovi paradigmi di calcolo distribuito (per esempio l’ecosistema Hadoop).

A fronte di questo miglioramento non c’è stato una equivalente crescita in termini numerici di esperti di dati (sia datascientist che manager) e la capacità di utilizzo dei dati stessi non è cresciuta nelle linee di business e nei decisori delle organizzazioni.
Ancora in questi giorni è stato pubblicato un studio McKinsey molto importante sui fattori strategici che portano valore ai progetti “big data” nelle aziende dove si individua proprio nella capacità di “scalare” nei data-analytics skills il fattore più critico di successo. Ma la scarsità di competenze in questo settore è un trend mondiale su cui nessuno ha dubbi ed è anche misurato dalla grande crescita salariale di queste professioni negli ultimissimi anni.

PostAlgoritmo
Di conseguenza gli algoritmi, che si posizionano tra questi due poli (dati e tecnologia da un lato e fattore umano dall’altro) rivestono a mio parere un ruolo fondamentale per la capacità di semplificazione e sintesi che possono rivestire rendendo di valore reale e attuale quella grande massa di dati che oggi la tecnologia ci mette a disposizione. In aggiunta sono la componente che può mitigare la scarsità di persone capaci di analizzare i dati in azienda, accelerando e semplificando le analisi stesse e  democratizzandole di conseguenza.PostAlgoritmi6
Non è un caso che Evagelous Simoudis, uno dei più importanti investitori di lungo corso in Silicon Valley nel settore dei dati e degli analytics, qualche giorno fa in un popolare post uscito sul sito della O’Relley scrive a chiare lettere che “per sostenere il fenomeno big data e migliorare l’uso delle informazioni, abbiamo bisogno di applicazioni che velocemente ed in maniera poco costosa estraggano correlazioni associando le intuizioni ad azioni concrete di business”.
PostAlgortimi3
Del resto la stessa Gartner, nell’ultimo Symposium 2015 a Orlando, aveva evidenziato la prossima  evoluzione della “Data Economy” nella “Algorithmic Economy perchè non sono importanti i “big data” in sè ma quello che si riesce a fare con essi.

LegoVerdeAlgoritmi
Il nostro mattoncino “verde” è quindi fondamentale per riuscire a realizzare costruzioni “lego” big data sempre più grandi e utili: ne parleremo e lo analizzeremo in concreto in prossimi post.

 

 

Annunci
L’importanza degli algoritmi nel futuro della datascience

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...