Questo articolo fa parte di una serie di mie riflessioni sull’innovazione technology-driven, cominciata qui.
(Articolo originale di Gil Press, apparso su Forbes, il 5 settembre del 2013, qui liberamente tradotto)
I Big Data non sono un concetto nuovo, se ne parla già – per vari aspetti – dagli anni sessanta.
È del ‘67 il primo algoritmo di compressione dei dati, è del ‘75 l’introduzione della misura «numero di parole» per calcolare le dimensioni di un flussi informativo. Già dagli anni ‘80 cominciarono ad emergere i potenziali problemi di spazio e memoria da destinare ai dati che venivano creati.
Queste le tappe fondamentali:
- 1961: D. Price, in «Science since Babylon», ha teorizzato che la dimensione delle informazioni scientifiche prodotte sarebbe raddoppiata ogni 15 anni
- 1967: B.A. Marron e P.A.D de Maine svilupparono il primo algoritmo di compressione dei dati
- 1975: in Giappone il Ministero delle Poste e Telecomunicazioni realizzò il primo censimento del flusso informativo nazionale, introducendo la misura di «numero di parole» (citato qui)
- 1980: I.A. Tjomsland dichiarò, a proposito della necessità di memoria, che «data expands to fill the space available»
- 1986: H.B. Becker pubblicò su Data Communication un articolo dal titolo «Can users really absorb data at today’s rates? Tomorrow’s?»
- 1998: J. R Masey pubblicò un articolo dal titolo «Big Data … and the next wave of Infrastress», in cui introdusse il termine «Big Data» e teorizzò che essi sarebbero stati il prossimo elemento di stress delle infrastrutture informatiche (dopo l’internet).
Nello stesso anno cominciarono ad emergere gli studi sui tassi di crescita di internet e dati correlati. Nel ‘99 qualcuno cominciò a studiare come esplorare, con tecniche grafiche, una grande mole di dati e nel 2001 Laney identificò per la prima volta le tre dimensioni che ormai sono generalmente accettate come elementi necessari a definire i Big Data, le tre V: Volume dei dati, Varietà dei dati e Velocità di cattura e utilizzo.
- 1998: K.G. Coffman e A. Odlyzko pubblicarono «The size and growth rate of internet»
- 1999: S. Bryson, D. Knewright, M. Cox, D. Ellesworth e R. Haimes pubblicarono «Visually exploring gigabytes datasets in realtime»
- 2001: in febbraio D. Laney pubblicò una ricerca intitolata «3D data management: controlling Volume, Velocity and Variety»
Circa 10 anni più tardi le «3V» erano generalmente accettate come le tre dimensioni necessarie a definire i Big Data.