Dataismus: Neues Weltbild aus dem Datenmeer

Wachsende Rechenkapazitäten und neue, smarte Analysemethoden schaffen, was der Psychologie nie gelungen ist: Menschen berechenbar zu machen.

Quelle: TREND UPDATE 10/2011

JumalaSika / Fotolia

1916 formierte sich in Zürich, dann europaweit die Bewegung des Dadaismus. Künstler wie Hugo Ball, Tristan Tzara, Emmy Hennings und Kurt Schwitters reagierten auf die beschleunigte Lebensweise der industriellen Moderne, indem sie die Inflation der Zeichen auf die Spitze trieben und ihnen jeden Sinn nahmen. Die radikale Sinnverweigerung des Dada-Nonsens war das künstlerische Fanal eines Weltbilds des fundamentalen Zweifelns an der Rationalität der Moderne und den Heilsversprechen der Aufklärung. Heute, knapp ein Jahrhundert später, stehen wir erneut vor einem fundamentalen Wandel des Weltbildes, diesmal in die andere Richtung. Im Dataismus lässt sich aus der enormen Datenmenge, die wir auf Schritt und Tritt generieren, neuer Sinn gewinnen. Wie der Film einer zerspringenden Kaffeetasse, der rückwärts läuft, führt die Explosion der Information nicht mehr zur Sinnzertrümmerung Die schiere Quantität an Daten schlägt um in eine neue Qualität der Weltbeschreibung in Echtzeit – es entstehen neue Sinnzusammenhänge, die näher ans aufklärerische Ideal einer „objektiven“, das heißt belastbaren und statistisch validen Wahrheit heranreichen als jemals zuvor. Die schiere Quantität an Daten schlägt um in eine neue Qualität der Weltbeschreibung in Echtzeit. So stehen wir vor dem epochalen Schritt, die letzten Welträtsel des Sozialen, die Geheimnisse des menschlichen Verhaltens und der Alltagsintelligenz mittels blanker Rechenpower und smarter Algorithmen zu knacken.

Super Crunchers

Wir hatten uns daran gewöhnt, dass Schachprogramme Großmeister besiegen. Der erste Triumph einer Maschine über den Menschen auf diesem abgezirkelten Gebiet fand allerdings schon 1796 statt (auch wenn im „Mechanischen Türken“ damals ein kleinwüchsiges Schachgenie steckte). Ein neuer Weckruf kam im Februar 2011, als der IBM-Großrechner Watson in der US-amerikanischen TV- Quiz-Sendung „Jeopardy!“ die amtierenden Champions plattmachte, indem er vertrackt formulierte Alltagsfragen aller Wissensfelder ingeniös beantwortete. Danach war klar: Die Künstliche Intelligenz hat den Science-Fiction-Film verlassen und klopft an die Haustür. Der US-Technikautor John Markoff bringt den Watson-Schock auf den Punkt: „Eine Folge hat dieser technologische Meilenstein mit Sicherheit. Wir werden schon bald fest davon überzeugt sein, dass es Computer geben wird, die uns verstehen und mit uns interagieren. Sie werden wissenschaftliche Literatur, juristische Dokumente und Gedichte studieren,es werden Computer im Stil von Star Trek entstehen. Sie werden eine Synthese aus Google und ausgezeichnetem Berater sein, sie werden sich über Smartphone mit uns unterhalten. Sie werden uns bei der Navigation helfen, mit Einkaufs-, Restaurant- und Filmtipps versorgen und eines Tages selbstverständliche Begleiter sein.“

Bemerkenswert ist daran: Die Computerentwickler erreichten diesen Durchbruch nicht so, wie es die Künstliche-Intelligenz-Forschung seit Jahrzehnten versucht, nämlich Schaltungen des Gehirns quasi eins zu eins nachzubauen, sondern auf Umwegen: „Intelligence augmentation“, auf Deutsch etwa „erweiterte Intelligenz“, lautete der Schlüssel. Die von IBM entwickelte Technik dahinter hört auf den Namen „Info Sphere Big Insights“ und basiert auf massiver paralleler Verarbeitung (MPP) und Data-Mining-Gittern. Im Kern geht es um das dezentrale Anzapfen großer Datenbestände mittels statistischer Analysemethoden. In der Praxis wird die Watson-Technologie an den medizinischen Fakultäten der US-Universitäten Columbia (New York) und Maryland sowie dem Krebsforschungszentrum in Heidelberg genutzt, um optimierte Diagnosen zu stellen. Dazu werden medizinische Daten des Patienten mit Krankheitsverläufen anderer Patienten, wissenschaftlichen Aufsätzen und Studien verknüpft.

„Super Crunchers“ nennt der US-Autor Ian Ayres die neuartige Kombination geballter Rechenpower und riesiger Datenbasis – und erklärt im gleichnamigen Buch von 2007, wie man mit vermeintlich trockener Statistikmethodik nicht nur Qualitäten kommender Weinjahrgänge vorhersagen, sondern auch das Online-Dating revolutionieren, Diagnosen präzisieren und die Preisentwicklung von Flugtickets prognostizieren kann. Kurz: Überall, wo man bislang auf Intuition angewiesen war, lässt sich durch zahlenbasierte Methoden der bessere Schnitt machen. Statistik als Allheilmittel der Entscheidungsfindung – auch wenn die Romantik auf der Strecke bleibt. Was, laut Ayres, selbst Önologen und Partnersuchern nur solange zu schaffen macht, bis auch sie vom Sieg der Zahlen überzeugt werden.

Die gravierendsten Folgen dürfte der Watson-Schock für die Arbeitswelt haben – etwa wenn man bedenkt, dass die Anwendung der Watson-Technologie im Bereich der öffentlichen Verwaltung bereits geplant wird. Denkbar ist hier ein automatisierter Bürgerservice, der dem Ratsuchenden in allen Fragen der Bürokratie, etwa Gesetzes-, Verwaltungs- und Steuerfragen, zur Seite steht und dabei auf eine riesige Datenbank mit Vorschriften und Gesetzen zugreifen kann. Im Klartext: Es steht ein neuer Rationalisierungsschub – diesmal nicht in der Fertigung, sondern im Dienstleistungssektor – bevor, wie John Markoff schreibt:

„Watson kündigt nun eine neue Automatisierungswelle an, die Kultur und Weltwirtschaft in einem noch gar nicht abzusehenden Maße verändern wird. Denken wir etwa an die Auslagerungswelle, in der zahllose Arbeitsplätze in Callcenter auf den Philippinen oder in Indien verlegt wurden. Inzwischen kehren einige dieser Arbeitsplätze nach Amerika zurück, in Gestalt der Auslagerung von Software-Anwendungen in Datencenter.“ Selbst anspruchsvollere Jobs mit akademischer Qualifikation in Verwaltung, Wissensdienstleistung und mittlerem Management könnten auf die Abschussliste geraten. Der Geist in der Maschine wird zum Mittelklasse-Jobkiller – gleichzeitig eröffnet er Gesellschaft und Unternehmen ungeahnte Fortschrittschancen.

Big Data

Das Mooresche Gesetz besagt, dass sich die Dichte der Schaltkreise auf Computerchips – und damit die verfügbare Speicherkapazität – alle zwei Jahre verdoppelt. Auch wenn der Erfinder Gordon Moore heute ein absehbares Ende in 10 bis 15 Jahren voraussagt, ist die Wachstumskurve seit den frühen 70er Jahren stabil und wurde von der realen Speicher-Inflation teilweise überholt. Für 2010 wurde der gesamte Informationsgehalt des Internets auf 1,2 Zettabyte, also 1,2 Billionen Gigabyte, taxiert. Diese enorme Inflation des Datenrohmaterials ist die Ausgangsbasis des Dataismus-Trends, der in der IT-Branche unter dem Schlagwort „Big Data“ firmiert.

Damit werden, je nach Definition, Datenmengen von mehreren Terabyte (entspricht 1012 Byte), Petabyte (1015 Byte), Exabyte (1018 Byte) bzw. Zettabyte (1021 Byte) bezeichnet, die das Management herkömmlicher Datenbanken vor Probleme stellen. Für Werner Vogels, Vize-Präsident von Amazon, ist es das kommende Schlüsselthema der Unternehmen: „Big Data verschafft dem Unternehmen einen Wettbewerbsvorteil gegenüber anderen. Sie können durch die Analyse der Daten den Service für ihre Kunden verbessern. Das ist der Ansatz, den Amazon seit 15 Jahren verfolgt.“ Umgekehrt drohe ohne passende „Big Data“-Strategie die „Datenparalyse“ – Schiffbruch im Datenmeer.

Eine Studie des McKinsey Global Institutes aus dem Mai 2011 befindet: „Wäh-end das Thema früher nur ein paar Data-Geeks beschäftigt haben mag, ist Big Data heute quer durch alle Güter- und Dienstleistungsektoren führungsrelevant. (...) Tatsächlich zeigen unsere Ergebnisse, dass wir uns am Scheitelpunkt einer gigantischen Welle von Innovationen, Produktivität und Wachstum sowie neuer Wettbewerbs- und Wertschöpfungsmodi befinden.“ Den Mehrwert, den Konsumenten aus der Anwendung von Big-Data- Technologien ziehen können, beziffert die Studie auf 600 Milliarden US-Dollar, die möglichen jährlichen Effizienzsteigerungen im US-Gesundheitssystem allein auf 300 Milliarden Dollar. Allerdings brauche es, um das Potenzial vollends auszuschöpfen, 140.000 bis 190.000 Experten und 1,5 Millionen Manager, die das Wissen praktisch implementieren – Big Data vernichtet nicht nur Arbeitsplätze, sondern schafft auch neue.

Mustererkennung

Eher unproblematisch scheint die Auswertung unternehmenseigener Daten, die im direkten Kundenkontakt (Kaufverhalten, Kundenfeedback etc.) erhoben werden, oft durch SAP in der Vertriebsabteilung und von vornherein für die Analyse bestimmt. Doch auch hier kommt es darauf an, zu wissen, was man mit den Daten will, die richtigen Fragen zu stellen. Ohne passenden Fokus und den richtigen Anfangsverdacht liefert der stärkste Superrechner nur Datenmüll nach der Formel: „Bullshit in, bullshit out“. Technisch komplexer jedoch ist die Analyse „unstrukturierter Daten“, die beiläufig entstehen: Twitterfeeds zu beliebten Produkten, Posts auf Facebook, Signalwörter in Kundengesprächen mit Callcentern – also von Menschen generierte Daten, die Computer bisher nicht allein auswerten bzw. „verstehen“ konnten.

Die Smarte Analysetools können semantische Muster erkennen und sinnvolle Bezüge herstellen „Smartness“ in der Programmierung der Analysetools besteht darin, sie – biologischen Gehirnen ähnlich – semantische Muster im kommunikativen Rauschen erkennen und sinnvolle Bezüge herstellen zu lassen. Das Open-Source-Framework Hadoop der Apache Software Foundation etwa ermöglicht intensive Analyseprozesse großer Datenmengen und wird bereits von Unternehmen wie Facebook, Amazon oder IBM im Hintergrund eingesetzt: zum Sortieren von E- Mails, zum Generieren von Kaufvorschlägen oder Freundes-Empfehlungen.

Die Software DAS („Datameer Analytics Solution“) des aus Halle an der Saale stammenden Stefan Groschupf, der auch an der der Entwicklung von „Hadoop“ beteiligt war, macht diese Technologie erstmals für jedes Unternehmen problemlos und universell anwendbar – und wird von kalifornischen Venture Capitalists mit mehrstelligen Millionenbeträgen überschüttet. Mit DAS ist nun nicht nur die Auswertung unstrukturierter Daten möglich, sondern auch die Verknüpfung mit herkömmlichen Daten. Was für den IT-Laien unspektakulär klingen mag, könnte nicht nur das Marketing grundlegend verändern. Menschliche Interaktionen werden nachvollziehbar, Daten intelligent interpretierbar. Durch bessere Beherrschung immer größerer Datenmengen können immer feinere Instrumente zu Marketingzwecken eingesetzt werden. Schon jetzt wird die Anwendung benutzt, um Muster in Aktienmärkten zu erkennen und Fehler in der Software von Smartphones zu lokalisieren. Zur Klientel von „Datameer“ gehören Finanzdienstleister, Einzelhändler, Telekommunikationsbetreiber sowie Regierungsbehörden, Betreiber sozialer Netzwerke und Online-Games. Denkbar ist nach Angaben der Firma die Anwendung zudem bei Banken, Investmentfonds und Versicherungen, die ihre Daten in valide Informationen transformieren wollen, um Gesetze und Richtlinien zu erfüllen, Risiken zu managen, ihre Erträge zu maximieren, Betrugsversuche zu identifizieren und generell ihre Effizienz zu steigern.

Mächtige Crunch-Software wie Hadoop und DAS ist als Motor des Dataismus-Trends eine Vorstufe dessen, was unter dem Schlagwort „semantisches Web“ als nächste Entwicklungsstufe des World Wide Web prognostiziert wird: Das Internet wird intelligent. Zum Datengrundstock, der zur Mustererkennung herangezogen werden kann, gehören neben Texten und Zahlen ebenso digitalisierte Sprachaufnahmen oder Bilddateien.

Wer auf Facebook Fotos mit erkennbaren Personen hochlädt, bekommt neuerdings den automatisierten Vorschlag, Personen aus der Freundesliste, die der Facebook-Algorithmus identifiziert hat (oder identifiziert zu haben glaubt), zu taggen. Der technische Hintergrund der Anwendung wird schon länger von Fotobearbeitungsprogrammen wie Apples iPhoto genutzt. Neu ist die Verlagerung der Gesichtserkennung ins Netz, was – in Deutschland zumindest – auf heftige Widerstände hinsichtlich der Privacy stieß.

Google spart wegen Datenschutzbedenken in seiner Bilderkennungs-App „Google Goggles“ deshalb die Gesichtserkennung noch aus. Wer damit auf dem Smartphone Sehenswürdigkeiten fotografiert, kann sofort den dazugehörigen Wikipedia-Artikel lesen, beim abfotografierten Text die automatische Übersetzung erhalten, vom Buchcover-Foto zum Onlineshop weitergeleitet werden – erhält also automatisch passende Informationen zum Bildmotiv. Im Fotobearbeitungsprogramm Picasa zeigt Google schon länger, was bei der automatischen Gesichtserkennung möglich ist, dementiert aber, „Goggles“ bzw. jegliche mobile Anwendung um dieses Feature erweitern zu wollen – mit dem Zusatz: „solange hierfür nicht maßgebliche Datenschutzmaßnahmen zur Verfügung stehen.“

Reality Mining

Der Witz der smarten Datenanalyse besteht nicht allein darin, dass Maschinen immer besser in der Lage sind, menschliche Kommunikation und Interaktion zu verstehen. Darüber hinaus birgt die Mustererkennung das Potenzial, mehr über Menschen – die Regel- und Unregelmäßigkeiten menschlichen Verhaltens – zu wissen als sie selbst, aus der sozialen Materie überraschende Schlüsse zu ziehen und Prognosen abzuleiten. So bastelt das US-Militär an einem Programm namens „Insight“, das Informationen aus dem Internet mit Aufnahmen von Überwachungs- und Wärmebildkameras, Satelliten- und Telefonverbindungsdaten etc. zu einem analytischen Frühwarnsystem verbinden soll. Es soll etwa Zusammenschlüsse von Aufständischen in Krisenregionen frühzeitig erkennen und aus ihren Bewegungsmustern Rückschlüsse auf ihre Absichten ziehen. Steven Spielbergs „Minority Report“ lässt grüßen.

Tritt beim Data Mining die Echtzeitkomponente hinzu, spricht man von „Reality Mining“, auf Deutsch: Anzapfen der Realität. Beim „Reality Mining“-Projekt des Massachusetts Institute of Technology (MIT) geht es darum, die Erkenntnisse aus der Sammlung von Umweltdaten via Smartphone in Bezug zu menschlichem Sozialverhalten zu setzen, mit dem Ziel: „Technologie und Algorithmen zu entwickeln, um das menschliche Verhalten zu erspüren, modellieren und zu verändern“. In einer großen, von Nokia gesponserten Studie wurden 350.000 Stunden (rund 40 Jahre) an Daten über menschliches Verhalten gesammelt. Wissenschaftler und Unternehmen erwarten sich davon Antworten auf Fragen wie: Wie vorhersagbar ist das menschliche Leben? Wie verändern sich soziale Netzwerke? Wie fließen Informationen? Aber auch ganz profanen Nutzen, wie eine einfachere Lokalisierung von Schlaglöchern – wenn die Bewegungssensoren der Smartphones alle an derselben Stelle Erschütterungen melden. Alex „Sandy“ Pentland, der mit seiner Firma „Sense Networks“ Reality Mining aus dem Forschungslaboren holt und es in praktische Anwendungen wie „Citysense“, „CabSense“ und „Macrosense“ übersetzt, erläutert die Ambitionen der Branche: „Beim Data Mining geht es darum, Muster in digitalem Zeug zu finden. Ich interessiere mich aber mehr dafür, Muster in Menschen zu finden. Ich nehme Data Mining mit in die reale Welt. (...) Wie bringt man die Leute dazu, mit dem Rauchen aufzuhören oder ein verschwundenes Kind zu finden? Man benutzt die sozialen Netzwerke. Wir haben das menschliche Verhalten lange untersucht; jetzt lernen wir, es zu gestalten.“

„CabSense “ dient dazu, in New York City Plätze zu lokalisieren, an denen man am wahrscheinlichsten ein Taxi bekommt. Mit „Citysense“ lässt sich das Nachtleben am Aufenthaltsort live entdecken und verfolgen, wo sich Freunde (und Nutzer der Anwendung) bewegen. „Macrosense“ wiederum dient als Plattform für Firmen, die das Verhalten ihrer Kunden verstehen und antizipieren wollen. Aus Smartphonedaten werden personalisierte Empfehlungen generiert, die den Absatz steigern und Verkaufstrends vorhersagbarer und steuerbarer machen sollen.

Anwendungschancen bieten sich nicht nur im Marketing: So dient die „Reality Mining“-Technologie in nicht konsumorientierten Kontexten, um Wachstum und Veränderung afrikanischer Slums in Folge von Naturkatastrophen vorherzusagen oder die Verbreitung von Malaria- und Grippeviren. Dank der hohen Verbreitung von Mobiltelefonen bietet sich diese Option auch in infrastrukturell schwachen Gebieten an.

Neues Weltbild

Schon 2005 vermisste „Wired“-Gründer Kevin Kelly mehr andächtiges Staunen angesichts der Menschheitsleistung der digitalen Revolution und des Internets: „Dieses bemerkenswerte Ergebnis hatte wohl niemand in seinem Zehnjahresplan stehen. Warum sind wir nicht erstaunter über diesen Reichtum? Früher wären Könige für eine solche Machtfülle in den Krieg gezogen. Nur kleine Kinder hätten sich träumen lassen, dass so ein magisches Fenster jemals real sein könnte.“ Wenn wir heute in das magische Fenster blicken, kommen wir teilweise aus dem Staunen gar nicht mehr heraus – und erfahren Dinge über uns, unser Sozial- und Konsumverhalten, die wir selbst noch nicht auf dem Schirm hatten.

In Zukunft wird der magische Spiegel des Internets uns besser verstehen und ausdeuten können. Damit werden auch Ängste vor Überwachung und Manipulation wachsen. Die geheimen Verführer haben ein neues, machtvolles Spielzeug, mit dem sie diesmal wirklich Zugriff auf die Struktur unseres Unbewussten erhalten. Dieses Machtpotenzial sozialverträglich zu kanalisieren stellt neue Anforderungen an Gesetzgeber und die Selbstbindung von Unternehmen. Das Vertrauen im Umgang mit dem privaten Datenschatz der Kunden wird zu einem Schlüssel-Asset in der Wettbewerbslandschaft von morgen, insbesondere dadurch, dass immer mehr private und sensible Daten nicht mehr auf lokalen Rechnern und Servern gespeichert sind, sondern in die Cloud abwandern. Hackerangriffe auf Unternehmen wie Sony und die Datenlecks bei Facebook zeigen, dass Privacy als Hygienefaktor noch eine große offene Flanke darstellt.

Das Internet der bevorstehenden Dataismus-Ära wird nicht nur verständiger sein, was die semantischen Bezüge angeht – es wird auch optisch ein völlig neues Bild bieten. Der kommende Internet- Standard HTML 5 erlaubt die Einbindung von 3D-Objekten in Echtzeit, wie sie bislang nur leistungsfähige Spielkonsolen boten. Mittels sogenannter Dom-Speicher, die in Laptops, Tablets und Smartphones verbaut sein werden, lassen sich enorme Datenmengen kurzfristig lokal speichern und sind auch dann verfügbar, wenn die Verbindung zur Cloud temporär abreißt. „Künftig wird das Surfen gleichsam mit Außenbordmotor möglich sein“, schreibt der „Spiegel“. Aber wie das zukünftige Look & Feel des Internets und der datenbasierten Anwendungen sein wird, hängt auch davon ab, wie gut es gelingt, den Daten ein Gesicht zu geben. Der Design-Challenge besteht darin, Komplexität navigierbar zu machen und aus Aberbillionen von Bits und Bytes wieder ein Weltbild zusammenzusetzen, in dem wir als Menschen uns nicht nur zurechtfinden, sondern sogar wohlfühlen. Nur so wird aus Big Data das neue Big Picture einer erstrebenswerten digitalen Gesellschaft.

Dieser Artikel ist in folgenden Dossiers erschienen:

Dossier: Big Data

Dossier: Big Data

Das Recht auf Privatsphäre ist ein Auslaufmodell. Durch die Verdatung der Welt und die damit einhergehende Demokratisierung der Daten geraten die gegenwärtigen gesetzlichen Regeln, was „Innen“ und was „Außen“ ist, immer mehr unter Beschuss. Openness definiert das Private neu, das Individuum erhält mehr Selbstverantwortung, aber auch mehr Freiräume. So führt die Demokratisierung der öffentlichen Daten auch zur Entfesselung der privaten Informationen.

Folgende Menschen haben mit dem Thema dieses Artikels zu tun:

Matthias Horx

Matthias Horx ist der einflussreichste Trend- und Zukunftsforscher im D-A-CH-Raum und Experte für langfristige Entwicklungen in Gesellschaft und Wirtschaft.

Holm Friebe

In seinen Vorträgen öffnet er die Augen für den Wandel der Arbeitswelt und die neue Crafting-Revolution. Als smarter New Worker ist für Holm Friebe die Zukunft der Arbeit bereits Realität.