Huge Data

Big Data war gestern

28. Oktober 2015
Harald Weiss ist Fachjournalist in New York und Mitglied bei New York Reporters.
Die Datenmengen und damit die Probleme steigen explosionsrtig. Schon sprechen erste Experten nicht mehr von Big Data sondern Huge Data und fordern Mut zum Löschen.
Immer mehr Experten warnen vor den entstehenden Datenmenge - statt von Big Data wird bereits von Huge Data gesprochen.
Immer mehr Experten warnen vor den entstehenden Datenmenge - statt von Big Data wird bereits von Huge Data gesprochen.
Foto: Sergey Nivens - shutterstock.com

Wer glaubt, dass mit Hadoop, schnelleren Rechnern, neuen Analyse-Tools sowie einem differenzierten Storage-Konzept die Big-Data-Probleme vom Tisch sind, irrt sich gewaltig. Die Datenmengen steigen weiterhin explosionsartig an und die Management-Tools stagnieren. Viele Experten glauben inzwischen, dass man umdenken muss. Deren neue Vorgabe lautet: Mut zum Löschen.

"Big DataBig Data war eine harmlose Epoche, die echten Daten-Herausforderungen kommen erst jetzt in Form von Huge Data", warnte der Technologie-Stratege Kevin Coleman jüngst auf einer IT-Veranstaltung der UN. Damit meint er, dass der Begriff und die Diskussion um Big Data zu einer Zeit aufkamen, als Kameras und Handys immer mehr hochauflösende Bilder und Videos produzierten und die unstrukturierten Daten auf den Social-Media-Seiten das Interesse der Marketing-Manager weckten. Alles zu Big Data auf CIO.de

In einer IDC-Studie aus dem Jahr 2007 steht, dass "70 Prozent des zukünftigen Datenvolumens auf Enduser-Geräten generiert werden wird, doch dass 85 Prozent dieser Daten auf professionellen Systemen gespeichert und bearbeitet werden wird". Letzteres bezieht sich auf Cloud-Dienste, Social-Media, Webhostings sowie die Anlagen bei E-Mails oder Chats. Damals prognostizierte IDC, dass sich das gesamte digitale Universum von 173 Milliarden Gigabyte im Jahr 2006 bis 2011 auf 1.773 Milliarden Gigabyte (1,773 Zettabyte) verzehnfachen wird. Im vorigen Jahr waren es dann laut IDC bereits sechs Zettabytes, und bis 2020 soll das Volumen auf 44 Zettabyte anschwellen.

Cisco spricht inzwischen vom Zettabyte-Zeitalter. Über 100 Milliarden Emails wurden 2014 verschickt - das Fünfzigfache gegenüber 2006. Das interessante an diesen Zahlen ist, dass laut den Marktforschern von Aureus Analytics rund 90 Prozent aller weltweit gespeicherten Daten erst in den letzten zwei Jahren generiert wurde.

Neue Anwendungen treiben das Datenvolumen

Gerade das Internet der Dinge drägt zur Explosion des Datenvolumens bei.
Gerade das Internet der Dinge drägt zur Explosion des Datenvolumens bei.
Foto: BMW

Damit wird klar, dass der weiterhin rasante Zuwachs nur noch teilweise auf Bilder, Videos und Social-Media zurückzuführen ist. Die größten Datenzuwächse entstammen heute den neuen industriellen Sensoren und den Internet-fähigen Wearables - Markt-Segmente also, die es vor wenigen Jahren zum größten Teil noch gar nicht gab. "Die Business-Erwartungen an die neuen IT-Bereiche, wie Internet of Things (IoT), vernetzte Consumer-Gadgets und neue Analytics sind immens", schildert Aureus-Analyst Ketan Pandit. Hinzu kommen neue datenintensive Anwendungen, wie Machine-Learning, Deep-Learning, intelligente Roboter, semi-autonome Autos sowie eine intensive Cloud-Nutzung, bei der komplette ERP-Anwendungen inklusive Daten weltweit hin-und-her geschoben werden.

Zur Startseite