Die Faustregel ist einfach: Alle zwei Jahre verdoppelt sich der Datenberg, den wir beim Einkaufen mit unseren Kreditkarten, beim Suchen auf Google oder beim schlichten Rumlaufen mit unseren GPS-fähigen Smartphones anhäufen.
Diese Daten verschwinden nicht mehr, sie werden archiviert und ausgewertet. Zu welchen Zwecken unsere Daten ausgewertet werden, ist höchst unterschiedlich: Gewisse dienen der Allgemeinheit, andere nur den sammelnden Akteuren wie Banken, Telekomfirmen, Krankenkassen etc. etc.
Im Zuge der NSA-Affäre und dem jüngsten Datenskandal bei Facebook wird Big Data in der Öffentlichkeit zunehmend gleichgesetzt mit einer umfangreichen Überwachung und Analyse des Nutzerverhaltens sowie dem Versuch, aus den so gespeicherten Daten einen wirtschaftlichen Nutzen zu ziehen. In diesem Fall ist Big Data Wissen, das nur wenige nutzen können, sprich dem Profit einzelner Konzerne oder den Interessen eines Staates dient.
Die Analyse des Konsumverhaltens mit Cumulus und Supercard oder das Lechzen von Techfirmen und Krankenkassen nach unseren persönlichsten Gesundheitsdaten ist aber nur die eine Seite der Medaille. Denn Big Data kann auch Wissen sein, das von allen genutzt werden kann und der Zivilgesellschaft dient. Zum Beispiel, wenn Big Data der wissenschaftlichen Forschung oder Non-Profit-Organisationen zur Verfügung gestellt wird.
Im Zusammenspiel mit maschinellem Lernen und künstlicher Intelligenz hat Big Data das Potenzial, die Not auf dieser Welt zu lindern. Sieben Beispiele, wie die Zivilgesellschaft von Big Data profitiert:
Bevor wir mit den lebensrettenden Big-Data-Beispielen beginnen, vorher ein kurzer Hinweis ...
Und los geht's ...
Big Data könnte genutzt werden, um in Drittwelt- und Schwellenländern ein Frühwarnsystem für steigende Preise von Grundnahrungsmitteln zu etablieren, sprich den Ausbruch einer Hungersnot vorherzusagen. Ein Beispiel: Veränderungen in der Anzahl der Tweets aus Indonesien, die den Preis von Reis erwähnten, korrelierten eng mit realen Preiserhöhungen für das Grundnahrungsmittel, was aus den offiziellen Statistiken erst wesentlich später ersichtlich war.
Kaufen Menschen in einer armen Region plötzlich weniger Handy-Gesprächsguthaben oder greifen auf ihr Erspartes zurück und verzeichnen Wettersensoren kaum Niederschlag, sind das mögliche Indikatoren einer bevorstehenden Krise. «Die Analyse von Mustern in Big Data kann die Art und Weise revolutionieren, wie wir auf globale Krisen wie ökonomische Schocks, Seuchen oder Naturkatastrophen reagieren», sagt Richard Kirkpatrick, Leiter von Global Pulse. Das Institut für Big-Data-Forschung wurde 2009 vom UN-Generalsekretariat gegründet, um Krisen wie Hungersnöte vorhersagen zu können.
Ein anderes Beispiel aus den USA: «Die US-Behörde FEMA (Koordinationsstelle für die Katastrophenhilfe) schickte während der Wirbelsturmsaison 2011 viel schneller als sonst Rettungsteams in Regionen, aus denen sie Social-Media-Warnungen erhielt. Die Teams hatten einen Vorsprung von zwölf bis 24 Stunden, im Vergleich zu früher, als die FEMA noch auf verifizierte Lageberichte gewartet hatte – ein Zeitgewinn, der lebensrettend sein kann», schreibt trendradar.org.
Ein Jahr später zog Hurrikan Sandy über Jamaika, Kuba und traf auf die Ostküste der Vereinigten Staaten. Mehrere Dutzend Menschen starben. Zu Sandy wurden rund 20 Millionen Tweets versandt, die teils wichtige Informationen über Schäden und Verletzte enthielten. Diese Informationen von Hand auszuwerten, wäre ein Ding der Unmöglichkeit. Mit Big-Data-Analysen konnte die Datenmenge quasi in Echtzeit analysiert werden.
Dass Prognosemodelle basierend auf Big-Data-Analysen keineswegs trivial sind, musste vor wenigen Jahren ausgerechnet Google erleben: Das Daten-Projekt Google Flu wurde 2008 initiiert. Google nutzte die Häufigkeit bestimmter Suchbegriffe, um daraus die Wahrscheinlichkeit von Grippeerkrankungen und Dengue-Fieber sowie deren Ausbreitung in Ländern und einzelnen Regionen abzuleiten.
Das Projekt wurde vor einigen Jahren klammheimlich eingestellt, da die Prognosen unzuverlässig waren. Das Scheitern von Google Flu sollte indes keineswegs als Beispiel für das Scheitern von Big Data herangezogen werden. Googles erster Grippe-Prognose-Algorithmus war einfach nicht gut genug, bereits der nächste Versuch könnte ein Volltreffer sein.
Andere Versuche waren offenbar bereits erfolgreich: Mittels Analyse der Mobiltelefone von 15 Millionen Kenianern konnte eine Studie die Verbreitung von Malaria dokumentieren, was die Entwicklung zielgerichteterer Präventionsprogramme ermöglicht.
Wer bekommt Diabetes? Welche Einflüsse führen zu Krebs oder Alzheimer? Und wie wirkt sich Armut auf die Hirnentwicklung kleiner Kinder aus? Viele Studien dazu haben das Problem, dass sie an kleinen Gruppen durchgeführt werden und die Ergebnisse oft nicht wiederholbar sind.
Antworten wollen US-Forscher daher mit Hilfe einer bislang einzigartigen Big-Data-Studie finden: Für «The Human Project» sollen 10'000 New Yorker freiwillig über Jahrzehnte hinweg Unmengen von Daten liefern – vor allem über eine Smartphone-App.
Erfasst werden Kreditkartendaten, Gehaltsschecks, Intelligenz-Tests, Arztakten, Werte aus Blut- und Urinproben und vieles mehr. Diese grosse Vielfalt biologischer, ökonomischer und soziologischer Informationen durchkämmen Computerprogramme dann nach Mustern. «Unsere Antworten werden deutlich aussagekräftiger sein als nur ‹Zucker verursacht Diabetes›», sagte Studienleiter Paul Glimcher.
Um die wertvollen Daten und die Identität der Teilnehmer zu schützen, entsteht an der New York University in Brooklyn ein Hochsicherheitstrakt. Ins Innerste, den «roten Würfel», darf nur eine Handvoll Menschen, nach aufwändigem Sicherheitscheck und durch eine Schleuse. Akkreditierte Forscher erhalten Zutritt in den «gelben Bereich» zum Sichten bestimmter aktueller Daten – allerdings ohne eigenen Laptop oder Datenstick. Für den Zugriff von Aussen können Wissenschaftler jeweils nur Mini-Datensets beantragen, aus denen sich keine Identitäten rekonstruieren lassen.
Nach Angaben der Polizei sind über 90 Prozent der Alarmmeldungen Fehlalarme. Die Kosten für den unnötigen Einsatz muss der Besitzer der fehlbaren Alarmanlage tragen. Dies dürfte mit ein Grund sein, warum bis zu 60 Prozent der Alarmanlagen gar nicht aktiviert sind, wenn die Bewohner ausser Haus sind.
Big Data in Verbindung mit maschinellem Lernen soll helfen, Alarme zu kategorisieren und priorisieren. Im Gegensatz zu Menschen können Computerprogramme Muster in Unmengen von Daten (Ort des Alarms, Sensortyp der Alarmanlage, Wochentag, Zeit etc.) in kürzester Zeit erkennen.
Die Software lernt also, anhand der echten und falschen Alarme Fehlalarme zu identifizieren. Je länger der Computer trainiert, desto kleiner wird seine Fehlerrate. Seine Einschätzungen sind zwar nicht zu 100 Prozent richtig, Personen in Alarmzentralen erhalten aber eine Entscheidungshilfe, um eingehende Alarme als «vermutlich dringend» oder «vermutlich Fehlalarm» zu erkennen. Dies kann Menschenleben retten, da Einsatzkräfte weniger oft an falsche Orte geschickt werden.
Der Entwicklungshilfe im Allgemeinen und Hilfswerken im Speziellen wird oft mangelnde Effizienz vorgeworfen. Datenanalyse kann Non-Profit-Organisationen helfen, ihre Ressourcen zielgerichteter einzusetzen, indem Big Data genutzt wird, um Muster und Zusammenhänge sozialer Probleme zu erkennen.
Ein Beispiel: «Das Justice Mapping Center in New York aggregierte die Adressen aller amerikanischen Gefängnisinsassen. Die Karten zeigen so genannte Million-Dollar-Blocks, Strassenzüge, aus denen so viele Gefangene kommen, dass ihre Gefangenschaft über eine Million US-Dollar jährlich kostet. Dank der Datenanalyse kann in den betroffenen Wohngebieten gezielter in Jugendzentren, Drogenbetreuung oder Nachbarschaftshilfen investiert werden», schreibt trendradar.org.
Und Big Data habe einen weiteren Vorteil: Man könnte so «auch den Erfolg oder Misserfolg sozialer Programme und Reformen genauer und schneller messen, als es mit den üblichen Ex-Post-Evaluationen möglich ist».
Als am 15. September 2008 die US-Investmentbank Lehman Brothers Insolvenz anmeldete, schlitterte die Welt in eine Finanzkrise, an deren Folgen viele Staaten bis heute leiden. Der Insolvenz ging eine fatale Fehleinschätzung des damaligen US-Finanzministers Hank Paulson voran. Er meinte: «Die Probleme bei Lehman sind seit vielen Monaten bekannt. Die anderen Banken hatten reichlich Gelegenheit, ihre Risiken anzupassen. Deshalb können wir Lehman sicher untergehen lassen.»
Paulson irrte sich und Lehman Brothers zog zig andere Finanzinstitute in den Abgrund. Sein Fehler: «Seine Aussage basierte auf Annahmen und Theorien, nicht aber auf Daten, die die Zusammenhänge der Finanzmärkte berücksichtigen», schrieb Kurt Stockinger, Professor für Informatik und Studienleiter Data Science an der Zürcher Hochschule für Angewandte Wissenschaften fast zehn Jahre später.
Als die Queen von der britischen Akademie der Wissenschaften wissen wollte, warum die Finanzkrise niemand vorhergesehen hatte, lautete die Antwort sinngemäss: Einzelne Risiken für einzelne Banken wurden allenfalls zurecht als gering eingestuft, aber das Risiko für das gesamte Finanzsystem war enorm. Das Problem: Es gab so viele Finanzprodukte und somit Zahlungsströme, dass niemand im Detail sagen konnte, wie sich der Untergang einer Bank auf den Rest des Systems auswirken würde.
Das Finanzsystem ist in den letzten zehn Jahren kaum weniger komplex geworden. Wie also lassen sich drohende Finanzkrisen künftig vorhersehen? Mit Big Data, glauben Informatiker und Daten-Wissenschaftler. Durch die umfassende Analyse von Finanzströmen lasse sich das Risiko von Portfolios, Banken und schlussendlich auch Staaten beziehungsweise Volkswirtschaften ableiten, so die Hoffnung.
«Die Vision ist eine Agrarproduktion, die von Schädlingen abgeschottet und gefeit vor Stürmen, Dürren und Fluten auch unter Klimastress die urbanen Massen ernährt», schreibt Christiane Grefe in ihrem Buch «Global Gardening». Denn um den Hunger einer nach wie vor wachsenden Weltbevölkerung zu stillen, muss sich die Nahrungsmittelproduktion bis Mitte dieses Jahrhunderts verdoppeln.
Doch wie soll eine Agrarproduktion aussehen, die möglichst viele Menschen ernährt und die Umwelt schont? Biologische Produkte? Gentechnisch veränderte Produkte? Eine weitere Alternative ist die so genannte Bioökonomie. Damit ist die Verbindung von biologischen Prinzipien mit Technologien wie Biotech und Big Data gemeint.
Schon seit Tausenden von Jahren werden neue Pflanzen gezüchtet, Big Data macht den Prozess effizienter: Weil es dank leistungsfähigeren Computern möglich geworden ist, die Natur präziser zu analysieren, kann das Saatgut immer häufiger in eine Art Legosteine zerlegt und neu zusammengesetzt werden. Diese synthetische Biologie und moderne Züchtungsmethoden haben das Potenzial, die Nahrungsmittelproduktion massiv zu steigern und die klassische Gentechnik zum Teil zu ersetzen.