l 90% dei dati del mondo è stato creato negli ultimi due anni. Scopriamo i sistemi per analizzare queste informazioni e impedirci di essere sommersi da un diluvio di dati digitali
In una scena del film Sneakers del 1992, Ben Kingsley e Robert Redford sono due hactivisti che discutono il concetto del potere.
“Non si tratta di chi ha il maggior numero di colpi”, afferma Kingsley, “ma di chi controlla le informazioni. Quello che noi vediamo e sentiamo, come lavoriamo, cosa pensiamo… è tutto nelle informazioni”.
“Non si tratta di chi ha il maggior numero di colpi”, afferma Kingsley, “ma di chi controlla le informazioni. Quello che noi vediamo e sentiamo, come lavoriamo, cosa pensiamo… è tutto nelle informazioni”.
Sono passati 20 anni e quelle parole sono più vere che mai. Il potere non scaturisce dalla semplice acquisizione delle informazioni, ma consiste nella capacità di utilizzare validi schemi all’interno di esse.
Secondo IBM, noi creiamo lo sconcertante volume di 2,5 quintilioni di byte di dati ogni giorno
Gli analisti lavorano su questo principio da anni, ma l’uso in continua espansione di Internet e il volume puro e semplice dei dati creati, richiede un approccio nuovo, noto come Big Data. Secondo IBM, noi creiamo lo sconcertante volume di 2,5 quintilioni di byte di dati ogni giorno, ossia l’equivalente, più o meno, di mezzo miliardo di download di film in HD.
Queste informazioni sono generate da una grande varietà di fonti, inclusi social media, fotografie e video digitali, transazioni online, ed anche il GPS incorporato negli smartphone e nei tablet. IBM sostiene che il 90% dei dati disponibili nel mondo oggi è stato creato negli ultimi due anni.
Sovraccarico di dati
Sfruttare questa enorme massa di informazioni non è una cosa facile. Richiede computer superveloci in grado di elaborare colossali quantità di dati e produrre risultati in tempi, fino a poco tempo fa, inimmaginabili. E il modo in cui questi dati sono archiviati è molto lontano dai classici database usati in passato.
Ma il potenziale ritorno è così grande che la ricerca nel campo dei Big Data sta diventando una corsa all’oro digitale. “Big Data segna l’inizio di una grande trasformazione”, scrivono Kenneth Cukier e Viktor Mayer- Schonberger nel loro libro The Big Data. “Così come il telescopio ci aiutò a comprendere l’universo, e il microscopio ci permise di capire i germi, le nuove tecniche per raccogliere e analizzare grandi quantità di dati ci aiuteranno a capire il nostro mondo in un modo che solo ora cominciamo ad apprezzare”.
Istituzioni finanziarie pagano cifre importanti per analisi che permettono loro di predire i futuri movimenti dei mercati, le società di assicurazione le usano per determinare i rischi potenziali di ogni contraente. La professione medica sta scoprendo come un esame accurato di grandi insiemi di dati può aiutare la diagnosi di malattie come il cancro al seno; anche l’ordine pubblico inizia ad avvalersi del potere profetico che l’analisi dei grandi dati permette. Il sistema PredPol, del Professor Jeff Brantingham, sta aiutando ad abbassare il crimine nei distretti di Los Angeles.
Il software analitico sviluppato dalla sua squadra, ha usato un record di crimini storici e correnti, incrociandoli con dati allargati per le aree in questione. Ha quindi prodotto un elenco di predizioni su dove e quando era molto probabile che accadessero dei crimini, e come dislocare strategicamente le forze di polizia.
Dopo una prova di sei mesi, la polizia ha confermato che i furti con scasso erano scesi del 27%
Dopo una prova di sei mesi, la polizia ha confermato che i furti con scasso erano scesi del 27% e c’era, in generale, un calo del 13% dei delitti. “Il nostro comportamento è così regolare e legato a modelli standard, che spaventa noi stessi”, ha detto Brantingham. “I criminali non sono diversi: fanno esattamente le stesse cose più e più volte, e i modelli criminali emergono da questa regolarità di comportamento”. PredPol ha avuto così successo da essere stato utilizzato da molte divisioni della Polizia di Los Angeles, ed ha varcato i confini americani giungendo fino alle spiagge del Kent, nel Regno Unito, dove è attualmente in fase di sperimentazione.
FONTE: http://www.pcworld.it
In buona sostanza, cosa significa BIG DATA?
2 commenti:
Col termine "Big Data" o, anche spesso si legge "Big Data Analytics", penso si intenda un lavoro di analisi, di quantità enorme e, a volte eterogeneo, volto a ottenere informazioni funzionali a diversi scopi come per esempio l'inserto relativo alle indagini riguardo i crimini, svolte dalla polizia, ma anche indagini di mercato, marketing..
B.Brivio mat. 4201884
E' davvero un tema complesso, relativo a molti ambiti, dove ormai i dati sono in crescita esponenziale e indispensabili.
Si dice che ogni giorno due miliardi e mezzo di persone si connettono alla rete producendo una mole di dati pari a 2,5 quintalioni di byte.
A causa della crescita repentina di questi dati, è nato il neologismo Big Data. Si tratta della raccolta in grandissimi data set (insiemi di dati su un relativo argomento) di tutte le informazioni che vengono emesse nella rete e che si sviluppano su tre dimensioni: velocità, volume e varietà.
Posta un commento