No Theory and a Lot of Data

Im Goldrausch der Daten versuchen Unternehmen ihre Prozesse zu optimieren und die Wüsche ihrer Kunden vorherzusagen, die deutsche Polizei erwägt Software zu Vorhersage von Verbrechenswahrscheinlichkeiten einzusetzen, die Wissenschaft hat längst das menschliche Genom entschlüsselt und schickt sich nun an, menschliches Verhalten und soziale Dynamiken statistisch zu beschreiben und vorherzusagen. Die großen Daten wissen viel, so scheint es.

“Petabytes allow us to say: „Correlation is enough.“ We can stop looking for models.” verkündete der Editor in Chief von ‚Wired‘ Chris Anderson vor sechs Jahren. Ohne Modelle sind Daten doch nur Rauschen, entgegnen manche entrüstet. Eine Aufwertung der Korrelation gegenüber der Kausalität stellt das Wissen vor große Herausforderungen, könnte man meinen. Warum ein Anstieg der Storchenpopulation nun tatsächlich mit einem Anstieg der Geburtenrate korreliert, ist der Stadtentwicklung oder Immobilienfirma jedoch unter Umständen recht egal, so lange sie die zukünftige Lage einzuschätzen und einzusetzen weiß. Die gesammelten und computergestützt in Beziehung gesetzten Daten überschreiten zudem alle Formen klassischer Interpretation, logischen Verständnisses und guter, zureichender Gründe: ein grundloses, aber wirkmächtiges Wissen hebt an, dass klassische Vorstellungen von Ursache und Wirkung hinter sich lässt und neue Wissensformen und Darstellungsweisen aufruft.

Welche Reichweite ein solches Wissen haben kann, ob wir es noch verstehen können oder einfach glauben müssen, ob wir vielleicht sogar an der Schwelle zu einem Zeitalter digitalem Aberglaubens stehen und Gefahr laufen Feuerwehrautos zu verbieten, um die Waldbrände zu verhindern oder schlicht auf dem berühmten Gipfel der überzogenen Erwartungen eines Hype Cycles stehen und alles halb so wild wird – darum soll es in diesem Panel gehen. Der Kulturwissenschaftler und Senior Consultant Alexander Firyn spricht über “Big Data in Industrie und Wirtschaft”, der Designer Steffen Fielder über die Visualisierung von Daten, die zu groß zum Verstehen sind ,der Kulturwissenschaftler Christoph Engemann schließlich versucht sich an einer Theorie der Transaktion und der ‚Dirty Data‘.

Speaker:

Christoph Engemann  Eventuell Konsistent - Big Data und die Medien unsicheren Wissens
Consistency bezeichnet in Datenbanken deren Widerspruchsfreiheit. Von einem Konto kann z.B. nicht die selbe Summe zwei Mal abgebucht werden. Konsistenzgarantien kosten Rechenzeit, Zeit in der die Datenbank nicht zur Aufzeichnung einströmender Daten zur Verfügung steht. Die Datenbanken die Big Data in der ersten Dekade des neuen Jahrhunderts ermöglicht haben, verzichteten auf Konsistenz und nahmen „Dirty Data“ in Kauf. Denn hier zählte nicht die Widerspruchsfreiheit der Daten sondern deren Masse. Solche Datenbanken unsicheren Wissens mussten allerdings erst gebaut werden, denn die existierenden Datenbanksysteme stammten aus Banking- und Unternehmensorganisationskontexten wo Widerspruchsfreiheit ökonomisch zwingend war. Wie solche Medien des unsicheren Wissens entstanden sind und funktionieren wird dieser Beitrag nachzeichnen.
Stephan Thiel  

Steffen Fiedler  

Alexander Firyn  Smart Data – Big Business