Viele mögen den Begriff „Big Data“ intuitiv gleichsetzen mit riesigen Datenmengen, die analysiert werden. Es ist zweifellos richtig, dass die absolute Menge an Daten in der Welt in den zurückliegenden Jahrzehnten dramatisch zugenommen hat. Die beste verfügbare Einschätzung geht davon aus, dass sich die gesamte Datenmenge in den zwei Jahrzehnten von 1987 bis 2007 verhundertfacht hat.

Die Menge allein macht es nicht
Zum Vergleich: Die Historikerin Elisabeth Eisenstein schreibt, dass sich in den ersten fünf Jahrzehnten nach Erfindung des Buchdrucks mit beweglichen Lettern durch Johannes Gutenberg die Menge der Bücher in der Welt in etwa verdoppelte. Und die Zunahme an Daten lässt nicht nach; derzeit soll sich die Datenmenge in der Welt spätestens alle zwei Jahre jeweils verdoppeln.
Eine verbreitete Vorstellung ist, dass die Zunahme der Quantität an Daten irgendwann zu einer neuen Qualität führt. Dass aber allein die Datenvermehrung Big Data als Phänomen, das unsere Wirtschaft und unsere Gesellschaft tief greifend verändern soll, ausreichend beschreibt, erscheint zweifelhaft. Der alleinige Fokus auf das absolute Mehr an Daten wird dem Phänomen nicht gerecht.
Auch Tempo und Vielfalt entscheiden
Um Big Data zu charakterisieren, wurden von vielen Medien häufig die drei „Vs“ herangezogen: Diese stehen für die englischen Begriffe volume, velocity und variety. Auch dabei wird auf die absolute Menge abgestellt, aber dazu noch auf die Geschwindigkeit und die Vielfalt verwiesen. Einsichten schnell aus Daten gewinnen zu können, ist sicherlich von großem Vorteil. Was nützt etwa eine auf großen Datenmengen basierende Vorhersage, wenn die Auswertung so lange dauert, dass sie zu spät kommt?