Verwendung von Cookies

Cookies helfen uns bei der Bereitstellung unserer Dienste. Durch die Nutzung unserer Dienste erklären Sie sich damit einverstanden, dass wir Cookies setzen.

Teaserbild
Interview

Big Data

Interview mit David Kriesel: Großen Datenmengen Sinn geben

Mit dem Schlagwort Big Data ist mittlerweile nicht nur Experten vor Augen geführt worden: Richtig wertvoll werden diese Informationen erst dann, wenn sie zielführend verknüpft und analysiert werden, um weitergehende Erkenntnisse zu gewinnen.

Der Begriff ist überall zu hören und zu lesen und wird als Heilsbringer der Datenverarbeitung und des digital gestützten Erkenntnisgewinns gefeiert: Big Data. Wie ist Ihre Wahrnehmung: Wird der Terminus „Big Data" in der aktuellen, vor allem medialen Diskussion richtig verwendet – oder sollte sich der eine oder andere doch noch einmal näher mit dessen Wesen befassen? 

Bei vielen Themen, die Gegenstand medialer Diskussionen sind, drängt sich mir der Verdacht auf, dass die Vertreter der diskutierenden Medien sich besser zunächst etwas mit dem jeweiligen Thema hätten befassen sollen. Das gilt oft auch für Big Data. Ich persönlich sehe die modernen Methoden der Massendatenverarbeitung wie die Nuklearenergie. Die Nuklearenergie selbst ist nicht gut oder schlecht, aber man kann Gutes oder Schlechtes damit anstellen. Mit der Nuklearenergie kann man Energie produzieren, aber auch Landstriche verseuchen. Genauso ist es mit der Verarbeitung von Massendaten auch. Wir werden Krankheiten heilen und in Sekundenschnelle komplett an den Patienten angepasste Therapien berechnen können. Umgekehrt werden wir aber auch gläsern werden.

In China wird gerade ein Programm ausgerollt, das mit den heute möglichen Methoden die Bürger komplett überwacht und Punktzahlen für „gute Lebensführung“ verteilt wobei „gut“ natürlich kein objektives Maß ist (das ließe sich auch nicht finden), sondern „gut“ ist, was die Administration gutheißt. Das System soll eine weithin vorhandene Infrastruktur aus Kameras nutzen, mit denen Bürger im öffentlichen Raum kontinuierlich zugeordnet und überwacht werden können. Sie gucken Pornos? Punktabzug. Sie kaufen gesunde Babynahrung? Bonuspunkte. Wer mehr Punkte hat, kriegt bessere Jobs, Kredite und Studienplätze. Natürlich kann Ihr Arbeitgeber Ihre Punktzahl auch sehen. Mehr Big Brother geht nicht. 

Gerade in der Wohnungswirtschaft verarbeiten Unternehmen bei Geschäftsprozessen im Kontakt mit vielen tausend Mietern täglich eine Datenmenge, die man auf den ersten Blick dem Feld Big Data zuschreiben müsste. Ist es wirklich die schiere Menge an Daten, die uns davon sprechen lässt – oder geht es eher um die sinnvolle Aggregierung und Interpretation der Daten mit einem gezielten Erkenntnisinteresse?

Meine Erfahrung ist, dass relativ schnell von „Big Data“ geredet wird, ganz unabhängig von der Datengröße. 40 Megabyte sind eine aus Sicht heutiger Benutzer winzige Datenmenge. Jedes Handy speichert das Tausendfache davon. Dennoch: 40 Megabyte sind 10 Millionen Zahlen! Stellen Sie sich mal vor, Sie erfassen für jeden einzelnen Tag die Information, wieviel Watt Strom jede Ihrer Wohnungen verbraucht. Jeder Verbrauchswert eine Zahl. Dann würden die 40 Megabyte genügen, zehn Jahre tägliche Stromverbrauchswerte von knapp 3.000 Wohnungen zu speichern.

Wir sehen: Auch in ein paar Megabyte Daten kann eine Informationsfülle stecken, mit der Sie Informatiker lange beschäftigen können. Nicht die Menge macht den Nutzen, sondern die Methodik. Ich habe viele Kunden, die mich für einen „Big Data“-Auftrag anfragen, und am Ende stellt sich heraus, die haben zwanzigtausend Excel®-Dateien, mit denen sie nicht mehr klarkommen. Es geht also immer um zwei Dinge: Eine sinnvolle Aggregierung zu finden, um Nutzen aus den Daten zu ziehen, und darum, Datenmengen miteinander zu verknüpfen, die eigentlich nie dafür gedacht waren. Diese Aufgaben dauern für große Datenmengen etwas länger als für kleine, aber die Aufgaben selbst bleiben gleich.

Was raten Sie Unternehmen insbesondere Immobilienwirtschaft, was die ersten zentralen Schritte sein sollten, sich in das Thema einzufinden? Geht es eher um die Auswahl des richtigen Dienstleisters, das Vorhalten ausreichender IT-technischer Kapazitäten oder um den Kompetenzausbau bei Entscheidern?

Ich denke, es geht um zwei Dinge:

Zum einen, das ist ganz wichtig, muss man überhaupt erst Phantasie erschaffen, was für Fragen mit den neuen Technologien gestellt werden können, und zwar ebenenübergreifend, nicht nur bei den Entscheidern. Ein Manager kann nur Aufträge vergeben, wenn er die Macht der Werkzeuge kennt. Wenn Sie eine Big-Data-Infrastruktur anschaffen, und darauf nur die Prozesse und Reports weiterführen, die Sie schon hatten, haben Sie wenig gewonnen.

Das zweite ist, einen zentralisierten Datenspeicher zu schaffen, der Analysen überhaupt möglich macht, ohne dass man für jede neue Fragestellung Wochen an Arbeit investieren muss. Beide Prozesse sollten nebeneinander herlaufen und sich gegenseitig inspirieren.

Was war Ihr größter persönlicher Big-Data-Analyse-Fail – und wie kam es dazu? Welche Lessons Learned würden Sie uns davon mit auf den Weg geben wollen?

„Größter“ Fail weiß ich gar nicht – aber ich gebe mal einen ganz alltäglichen mit auf den Weg. Ich habe mal bei einer Livedatenerfassung wegen eines Bugs in einem selbstgeschriebenen Script einige Tage Daten verloren. Lessons Learned: Nicht nur ein Script zur Datenerfassung schreiben, sondern auch noch ein zweites, unabhängiges, was regelmäßig prüft, ob auch Daten eintrudeln, und sonst Alarm schlägt. Hätte ich das gehabt, wäre mir der Defekt nach ein paar Minuten aufgefallen.


Andere Leser schauten sich folgende Artikel an

Neue Artikel aus unserem Magazin