Diese Aussage machte Volker Markl, Professor an der TU Berlin und Direktor des Berliner Big Data Centers (BBDC).
Was war in der Steinzeit los?
Während die Steinzeit tausende Jahre anhielt, war die Bronzezeit nur noch Jahrhunderte, das Industriezeitalter ein Jahrhundert, das Atomzeitalter ein paar Jahrzehnte und das Informationszeitalter nur einige Zehn+X Jahre alt.
Doch warum haben die vorherigen Entwicklungsschritte länger gedauert je älter sie waren? Waren wir Menschen zu dumm? Oder zu verschlossen für Neuerungen, sodass es tausende Jahre dauert bis sich das Rad durchsetzte?
Professor Markl machte eine Andeutung, die wohl der Schlüssel zur Frage ist: Liegt es vielleicht an den Werkzeugen?
Ein Werk ist nur so gut wie die Werkzege
Wir kennen es aus der Metall-Branche: Wenn die CNC-Maschine zu viel Spiel hat, wird das Werkstück schlecht. Erfindungen wie Vakuumtechnik wurden erst möglich, als es den Menschen möglich wurde, einigermaßen luftdichte Behältnisse zu fertigen. Moderne Computerchips kann man nur produzieren, wenn man ausgefeilte Mikroskoptechnik zur Verfügung hat.
Was den Steinzeit-Menschen also fehlte waren die Werkzeuge, um das herzustellen, was sie vorwärts gebracht hätte. Und an so einer Situation befinden wir uns momentan in der Datenverarbeitungstechnik. Firmen machen keine Erkenntnis-Fortschritte, da sie die vielen Daten, die sich angesammelt haben, nicht analysieren können.
Die Schere zwischen Anwender und Entwickler klafft immer weiter auseinander
Als in den 1990er Jahren jeder Computer-User auch Programmierer seines Computers war, war es selbstverständlich, für ein Problem ein Programm zu entwickeln, das dieses löst. Heute haben die Anwender andere Berufe als der IT-Fachmann. Jede Softwareentwicklung ist mit einem aufwendigen Wissenstransfer verbunden.
Ein Fach-Experte, der viele Daten sammelt, ist mitnichten in der Lage, diese auch zu analysieren. Selbst wenn er das mathematische Wissen zur Datenanalyse mitbringt, fehlt ihm noch der Ingeneurteil des Datenmanagements. Das Berufsbild des Big-Data-Analysten kommt dieser Anforderung schon näher. Er kennt die mathematischen Grundlagen und kann auch Großrechner programmieren. Jedoch fehlt ihm das Domänenwissen des Daten-Experten.
Big Data Tools noch in der Konzeptfindungsphase
Ansätze wie SQL oder Hadoop bilden nur einen Teil der Anforderungen ab. Während SQL-Datenbanken noch nicht zu stark Big-Data-fähig sind (No-SQL lässt grüßen), hat Hadoop ein Problem mit dem großen Overhead und ist viel zu sehr auf die Datentransport-Abläufe fokussiert. Generell kann man sagen, dass der heilige Gral zur statistischen Datenverarbeitung noch nicht gefunden ist.
Einen Ansatz bietet die TU Dresden mit dem ERIS-Projekt. Dieses Forschungsprojekt will mit desktiptiven Sprachen intuitiv Zugriff auf eine Big-Data-Berechnungs-Plattform geben.
Die Big-Data-Landschaft besteht momentan noch nicht aus Werkzeugen, sondern aus Einzellösungen
Die Ägypter waren eine hervorragende Hochkultur. Was sie architektonisch erreicht haben, war unbestritten phänomenal für die damalige Zeit. Doch das große Bauen war nur den Pharaonen vorbehalten. Es hat Zeit gebunden, tausende Bauern für den Bau von Pyramiden heranzuziehen. Heute kann jeder, der einigermaßen Geld hat, große Tempel bauen lassen. Werkzeuge wie Betonmischer machen es möglich.
Große Firmen können sich heute schon gute Big-Data-Analysen leisten. Doch der Würstchenbude von nebenan bleibt es noch verwehrt, zu berechnen, zu welcher Tageszeit die Öffnungszeiten am Umsatz-idealsten sind. Hier gibt es noch viel Arbeit an Software-Werkzeugen, aber auch Cloud-Plattformen, die Daten-Analysen noch extrem vereinfachen müssen.
Comments are closed