|
|||||||
Home Themenübersicht / Sitemap Notizen Webmaster | |||||||
"Big Data" - Die Problematik von Data Mining und Profiling - mit einem Ausflug zu Anoymisierung und De-AnonymisierungLetzte Updates: Juni 2019
Data Mining (heute Big Data genannt), das ist die systematische Auswertung durch Korrelation von Datenelementen in mehreren, zumeist sehr großen Datenbanken. Das war der ganz große Hype von ca. 2005 bis 2015, ab dann wird es als Schlagwort abgelöst durch das neue Schlagwort: "intelligente Algorithmen". Typischerweise brauchen diese (angeblich intelligenten) Algorithmen aber genau diese großen Datensammlungen um daraus ihre "Erkenntnisse" zu ziehen. Ein Gebiet, aus dem Data Mining / Big Data nicht mehr wegzudenken ist, das ist modernes Markting. Durch solche Analysen sind Firmen in der Lage, extrem viel über ihre Kunden oder Interessanten zu lernen, oft Dinge, die die Kunden selbst noch nicht realisiert haben, wie z.B. eine wachsende Vorliebe für irgend etwas (oder sogar eine beginnende Schwangerschaft. Und genauso wird Data Mining immer stärker zu Fahndungszwecken eingesetzt (z.B. als Schleppnetzfahndung) und zur angeblichen Bekämpfung des Terrors, bzw. zum Aufstöbern von ungequemen Bürgern wie Greenpeace Aktivisten. Es geht dabei geht um die statistische Auswertung von Verhaltensdaten einer sehr großen Zahl von Menschen, am besten der gesamten Bevölkerung. Die Idee dabei ist, dass durch reine Korrelationen, ohne zu verstehen warum etwas passiert, Erkenntnisse über die Zukunft und sogar (wahrscheinliches) zukünftiges Verhalten einzelner Personen gesammelt werden können. Eines der Probleme die für die Gesellschaft dabei entstehen ist die Unmöglichkeit, das Verhalten der Algorithmen wirklich im Details zu verstehen und damit zu verhindern, dass die Algorithemen systematische Diskriminierungen und andere unerwünschte Eigenschaften zeigen. Für diese Analyse und Vorhersage des erwarteten Verhaltens können z.B. folgende Daten verwendet werden:
Es ist wichtig zu wissen, dass es für diese Auswertung kaum ein Problem darstellt, wenn viele oder fast alle der Daten dieser Netze keine klaren Hinweise auf die Identität der Personen enthalten (d.h. anonym oder pseudonym sind). Mathematische Verfahren zur Analyse der Verbindungsstrukturen erlauben es weitgehend, verschiedene Netze und Datensammlungen übereinander zu legen. Und wenn eines dieser Netze den Namen oder die Telefonnummer enthält, so sind damit alle Netze und Datensammlungen de-anonymisiert. Weiter unten gebe ich Beispiele und Quellenhinweise zu De-Anonymisierungen. Ziel solcher Aktivitäten ist in vielen Fällen die Erstellung von Nutzer-Profilen, z.B. zu Werbezwecken. Bei der Werbung ist der Name gar nicht so interessant, solange die Person der dieses Profil zugeordnet ist, bei Bedarf immer wieder automatisiert erkannt wird, z.B. wenn sie auf einer Website erscheint oder wenn sie einen Laden betritt. Herbst 2016: Ein neues Schlagwort: Sentiment Analysis. Es beschreibt Systeme wie die Software Social Pulse mit deren Hilfe Arbeitgeber aus der schriftlichen Kommunikation der Mitarbeiter auf die Gefühlslage der Mitarbeiter, generell oder auf das Unternehmen bezogen, herausrechnen. Das klingt in den Artikeln zu Beginn immer "ganz OK", natürlich ist es gut, wenn die Unternehmensführung weiß, was bei den Mitarbeitern auf Missbehagen stößt. Was in den Artikeln nicht sehr deutlich rauskommt, aber natürlich klar ist: Wenn die Software bei ihren statistischen Berechnungen über Wortwahl und Formulierungen auf Missbehagen stößt, so entsteht auch immer eine Liste der Mitarbeiter, deren Äußerungen diese Erkenntnis ausgelöst haben. Solche Transparenz der Mitarbeiter lässt sich noch sehr gut mit Wearables für die Mitarbeiter ergänzen. Dann hat der Mitarbeiter wirklich keine Geheimnisse mehr. Natürlich behaupten die Unternehmen, dass diese Sachen anonym sind, aber wie viel von angeblicher Anonymität zu halten ist, das zeigt der Rest dieses Artikels hier. Aber auch die Staaten, Strafverfolgungsbehörden und Geheimdienste, sind immer stärker an solchen Analysen interessiert. Die Idee, durch eine Analyse des Surf-Verhaltens, der Internet-Suchanfragen, der Käufe bei Amazon und ähnliche Daten etwas über die (wahrscheinliche) Zukunft einer Person zu lernen, das ist eine Versuchung, der viele nicht widerstehen können. Genauso wie Amazon durch solche Analysen herausfinden "Kunden wie Sie haben auch folgende andere Bücher gekauft", so werten andere aus "Menschen mit ihren Interessen werden mit 45% Wahrscheinlichkeit später mal zu einem unbequemen Tierschützer" - so was nennt man Pre-Crime, popularisiert durch den Film Minority Report. Oder "Personen wie Sie werden mit 25% Wahrschenlichkeit zu einem Whistle-Blower wie Snowden". Bzw. für die Banken: "Menschen mit Ihren Freunden, Ihrem Wohnort, Ihren Interessen zahlen mit 30% Wahrscheinlichkeit einen Kredit nicht zurück, daher geben wir Ihnen erst gar keinen" - oder es gibt auf Grund einer solchen Analyse keinen Handyvertrag. Data Mining Auswertungen sind heute sogar für Privatleute verfügbar und nicht nur für große Firmen. Sie gibt es z.B. eine App für Facebook, iPhone, etc. mit dem Namen DateCheck entwickelt von Intelius. Die Applikation fragt Daten zu möglichen Straftaten, zur Wohnsituation sowie Informationen aus sozialen Netzwerken ab. Damit erfährt der Nutzer möglichst viele intime Details über eine neue Bekanntschaft. Ganz gruselig wird es, wenn die CIA solche Zukunftsprognosen erstellt und dann darüber nachdenkt, ob die Wahrscheinlichkeit hoch genug ist, eine Drohne vorbeizuschicken.
Oktober 2011:
Juni 2012: Laut einem Bericht des NDR sollten unter anderem die Kontakte von Facebook-Mitgliedern herangezogen werden, um Beziehungen zwischen Personen zu untersuchen und so Zusammenhänge mit der Kreditwürdigkeit der Verbraucher zu finden. Dazu sollen Social Bots eingesetzt werden, die ich auf dieser Weise an anderer Stelle erwähnt habe. Zudem sei die Analyse von Textdaten denkbar, um „ein aktuelles Meinungsbild zu einer Person zu ermitteln.“ Im Ziel sind aber auch berufliche Netzwerke wie Xing oder LinkedIn, der Kurznachrichtendienst Twitter, Personensuchmaschinen wie Yasni, Geodatendienste wie Google Street View und selbst Mitarbeiterverzeichnisse von Unternehmen oder den Autorenkatalog der Deutschen Nationalbibliothek. Digitale Marktplätze wie Immoscout sind nach einem "Welt"-Bericht ebenfalls im Visier. Diskutiert wurde gar, wie die Schufa über eigene Facebook-Profile oder Zugänge zum Kurznachrichtendienst Twitter verdeckt an „Adressen und insbesondere Adressänderungen“ anderer Nutzer gelangen kann. Angedacht sei auch die „automatisierte Identifikation von Personen öffentlichen Interesses, Verbraucherschützern und Journalisten“. Nach einem Aufschrei von Datenschützern und Politiker wurde das Projekt eingestellt und als "Missverständnis" bezeichnet. Rein wirtschaftlich ist natürlich die Versuchung groß, sich solcher Dienste zu bedienen die automatisierte Risikoprofile erstellen weil sie großflächig (mit welchen Methoden auch immer) das gesamte "Daten Öko-System" der sozialen Netze auswerten. An anderer Stelle berichte ich über den US-Datenaggregator Spokeo, der so etwas sehr systematisch und sehr erfolgreich tut (und zu 800 000$ Strafe verurteilt wurde, weil er darauf hingewiesen hat, wie effektiv sich diese Daten für Kreditbewertungen nutzen lassen). Die NY Times hat dazu einen recht guten Artikel. Der Autor sagt, dass wir derzeit alle kräftig mithelfen dieses riesige "Daten Öko-System" zu befüllen. Wir tun dies nicht nur durch unsere Postings in den Social Networks, sondern auch durch unsere Online-Einkäufe, durch unsere Anfragen an Suchmaschinen und alle anderen Aktivitäten im Netz, die alle irgendwo Datenspuren hinterlassen. Dieses "Daten Öko-System" nicht zu nutzen wird auf die Dauer ein Wettbewerbsnachteil sein. Auch in diesem Zusammenhang hier ein anderer NY Times Artikel: The Age of Big Data:
D.h. solche Auswertungen der riesigen Datenströme können sehr gut dafür genutzt werden, genau das zu finden, was man gesucht hat. Dies bezieht sich auch auf Kreditwürdigkeit, aber nicht nur. Da natürlich alle diese Datensammlungen, wenn sie mal geschehen sind, dem Datenschutz unterliegen sperren sich die Auswerter sehr dagegen, dass andere Wissenschaftler ihre Untersuchungen nachprüfen.
|
|||||||
Zurück nach oben Data Mining / "Big Data"Bruce Schneier stellt in der Zeitschrift Wired dar, warum diese Technik zum Vereiteln von terroristischen Anschlägen schon von der Idee her extrem ungeeignet ist. Es geht bei dem Data Mining darum, dass definiert wird, an welchem Verhalten man einen Terroristen zu erkennen glaubt, z.B. Bezahlen von Flugtickets mit Bargeld und gleichzeitig Bestellen von Mahlzeiten im Flugzeug für Muslims. Dann erfolgt eine Auswertung aller Daten auf Grund dieser Kriterien. Weil die Kriterien für "terroristisches Verhalten" sehr vage und verschwommen sind, wird jede dieser Auswertungen eine sehr große Zahl von sog. False Positives finden, das sind Ereignisse und Personen, die auch in dieses Schema passen, aber vollkommen harmlos sind. Aber allen diesen Hinweisen muss nachgegangen werden.
Ergebnis ist, dass die Polizei überschwemmt wird mit Nachforschungsanforderungen. So berichtete die New York Times, dass die (illegale) automatische Überwachung aller Telefonate in den USA durch Computer, die nach Schlüsselbegriffen in den Gesprächen gehorcht haben, zu vielen Tausenden von Hinweisen pro Monat geführt hat, die ALLE Fehlalarme waren. Der Grund liegt darin, dass terroristische Angriffe extrem selten sind, selbst im Vergleich zu ebenfalls seltenen Ereignissen wie Missbrauch einer Kreditkarte. Die Kosten für einen Falschalarm bei der Verifizierung von Käufen per Kreditkarte sind aber recht gering, die Karte wird nicht akzeptiert und der Käufer muss ein kurzes Telefonat mit der Kreditkartenfirma führen. Im Falle eines Falschalarms bei der Terroristenfahndung muss aber eine manuelle Untersuchung des Hintergrunds der Person durchgeführt werden, eine extrem aufwendiger Prozess, ein Anruf bei der Person wäre in diesem Fall nicht zielführend.
Jan. 2014: Eine Studie besagt, dass die massenhafte Telefonüberwachung ohne Erfolge bleibt. Juli 2014: Ein 166 Seiten Dokument "March 2013 Watchlisting Guidance" erläutert, wie jemand auf die amerikanische Terroristen-Watchlist kommen kann. Dafür genügt der Verdacht des Kontakts zu jemandem, bei der ein Verdacht in Richtung Terrorismus besteht. Kontakt bedeutet z.B. dass man in jemandes Adressbuch steht, Verdacht in Richtung Terrror besteht bereits, wenn jemand palästinensische Hilfsorganisationen finanziell unterstützt hat. Auch Facebook oder Twitter Einträge die einer Person zugeordnet werden können zu einem Eintrag auf der Watchlist führen.
Das Problem des Data Mining mit seltenen Ereignissen hat übrigens auch die Medizin, wenn sie Massenscreenings auf Krankheiten durchführt, die extrem selten sind. Selbst eine sehr geringe False Positiv-Rate eines solchen Tests ergibt eine sehr große Zahl von Fehldiagnosen, die zu einer Verunsicherung der getesteten Personen führen und die dann durch einen anderen Test verifziert werden müssen und sich dann als falsch herausstellen.
Data Mining ist extrem gut geeignet, um häufige Ereignisse auszuwerten. Die Käufe von bestimmten Büchern bei amazon, das Reiseverhalten von Flugzeugpassagieren, die Inhalte der Anfragen bei Google oder die Inhalte von GoogleMail. Hier ein guter Artikel der IT-Management Zeitschrift CIO zum Thema Hilft Data Mining im Kampf gegen Terror? (mit vielen weiterführenden Links, z.B. im Artikel "Poindexter Comes in from the Cold" über den Hintergrund und die Geschichte von TIA, dem großen US-Data Mining Programm, das einfach nicht tot zu kriegen ist. Bis hin zu einem Artikel Taming Big Brother, der besagt, dass Data Mining Technologie noch so weit von den Zielen der Regierung entfernt ist, dass diese Projekte außer den riesigen Kosten (fast) nur "false positives", d.h. unschuldige Verdächtigte, abwerfen werden. Zitat "So far one of the only distinct transactional similarities among the 19 Sept. 11th hijackers is that they all bought a lot of pizza using credit cards."). Hier eine ausführliche Studie zu Effective Counterterrorism and the Limited Role of Predictive Data Mining, mit einem Link zur Originalstudie. Und was selbst aus anonymiserten Daten alles herauszuholen ist zeigt diese peinliche Geschichte bei AOL.
Hier ein Link zu einem ausführlichen Artikel über die Datensammelwut in den USA durch die NSA. Und hier in meinen Notizen eine Erklärung (und weitere Unterlagen), wie mit Hilfe von Software aus solchen Datenmengen doch Erkenntnisse gewonnen werden können: Die Nadel im Heuhaufen finden - die Auswertung von Verkehrsdaten. Ein 2008 Report der "National Science Foundation" findet Data mining doesn't work well. Sie unterscheiden in diesem Report zwischen "subject-based data mining", d.h. eine Person steht im Mittelpunkt und dann werden Verbindungen zu dieser Person gesucht, gegenüber pattern-based data mining, bei der Anomalitäten in den Daten gefunden werden sollen (so wie die Software im vorigen Link dies versucht). Letzteres hat kaum Erfolg zu akzeptablen False Positive Raten zu kommen, d.h. die Zahl der vermeintlichen Terroristen wird immer zu hoch sein, als dass die Sicherheitsbehörden jedem Fall nachgehen könnten.
Big Data - ein neues Schlagwort für Data MiningIn 2011 entsteht ein neues Schlagwort unter dem jetzt Data Mining kommerziell angeboten wird: Big Data. Das zeigt dass Data Mining sehr wohl funktioniert. Im Mai 2011 erklärt die Speichersystem-Firma EMC: Big Data: Kundeninfos als Goldgrube. Der Artikel bringt Beispiele zur Auswertung von Kundenverhalten, aber auch automatisierte Bewerberauswahl über Daten im Internet. Im Herbst dann ein Artikel in der NYT: Big Data: Sorting Reality From the Hype. In dem Artikel wird erklärt, was das besondere an Big Data-Auswertungen sind. Programme wie das open-source Programm Hadoop (das z.B. erfolgreich beim Auswerten von Verbindungsdaten eines ganzen Landes eingesetzt werden kann) ist in der Lage, in den Datenbergen (notfalls auch von unstrukturierten Daten wie Emails) Muster zu erkennen, ohne dass der Benutzer des Programmes genau sagen muss, wonach er eigentlich sucht. Die NY Times bringt einen sehr interessanten Artikel zu Big Data: Government Aims to Build a ‘Data Eye in the Sky’. Sie berichten, dass mehrere Forschungseinrichtungen der US-Regierung und Militär derzeit Forschungsaufträge rund um die Auswertung der Datenmenge des Internets vergeben. Ziel ist es, Aussagen über zukünftige Entwicklungen zu machen. Die Forschungsgemeinde ist recht zwiespältig dazu. Hier einige Zitate:
Also, für mich klingen diese Technologien eigentlich alles ziemlich grauslich nach Überwachungsstaat. Natürlich werden die großen Trendanalysen anonym gemacht. Wenn dann aber mal erkannt wurde, dass es irgendwo im Staat ein Konfliktpotential gibt, so kann die gleiche Software sehr wohl auch die Vernetzungen der sog. "Drahtzieher" analysieren und sehr wohl mit Namen benennen. Ein Artikel in der Futurezone fragt nach der Effektivität der Auswertungen: 9/11: Folge den Netzwerken. Zitat:
Nov. 2011:
Einige interessante (und erschreckende) Hintergründe zeigt auch der Artikel von WikiLeaks: Mass interception of entire populations is not only a reality, it is a secret new industry spanning 25 countries. Im Artikel wird auf konkrete Nutzung zur Überwachung der Bürger hingewiesen, vor allem, aber nicht nur, in den bekannten Diktaturen. Wie solche Techniken von Kaufhäusern ausgenutzt werden können zeigt mein Artikel Die Zukunft ist schon hier: Das gezielte Manipulieren von Gewohnheiten. Ein NYT Artikel: Software That Listens for Lies zeigt, wie weit diese Technologie heute gehen kann. Der Artikel berichtet über das automatisierte Erkennen von Emotionen das u.a. dafür verwendet werden soll, Lügen zu erkennen. Aber natürlich kann diese Technik für viele andere Zwecke genutzt werden.
März 2012:
|
|||||||
Data Mining, Marketing, Anonymisierung und De-AnonymisierungDa moderne Menschen heute ständig Datenspuren hinterlassen (siehe Datenspuren im Internet) und solche Informationen für die Werbeindustrie reines Gold darstellen, wird ständig daran gearbeitet, wie diese Daten ausgewertet werden können ohne gar zu eklatant gegen Datenschutzgesetze zu verstoßen, bzw. die Kunden vor den Kopf zu stoßen. In Großbritannien und jetzt auch in den USA gibt es seit Mitte 2008 Aktivitäten unter dem Stichwort Phorm. Dabei geht es darum, dass die Firma den gesamten Datenverkehr ins Internet von Privatpersonen auswerten möchte, daraus Profile erstellen und dann gezielte Werbung für diese Personen anbieten. Man nennt dies Behavioral Targeting.
Wie weit diese Technologien mittlerweile entwickelt sind, zeigen einige Beispiele. Die US-Firma Sense Networks wertet die Standortdaten aus, die sie von den Mobilfunkanbietern bekommen. Es geht dabei nicht um die Telefonate, sondern nur die Orte, an denen sich die eingeschalteten Telefone täglich befinden. Diese Daten werden (natürlich) nur anonym weiterverkauft (z.B. zu Marketingzwecken), sie sind jedoch nie wirklich anonymisierbar. Denn Untersuchungen zeigen, dass die Kombination von Aufenthaltsort nach Mitternacht und Aufenthaltsort tagsüber in der überwiegenden Zahl der Fälle eindeutig ist. Wer in ihrem Wohnblock arbeitet am gleichen Arbeitsort wie sie. Diese Daten sind aber durchaus recherchier- und damit auswertbar, z.B. aus Telefonbüchern, Wählerverzeichnissen, u.ä. April 2011 berichten die Zeitungen, dass Apple im iPhone eine Datei mit allen Aufenthaltsorten des iPhones speichert. ". . . . Apple said it collects the location data anonymously . . . .". In der gleichen Woche wird folgendes berichtet: Google Says It Collects Location Data on Phones. Und wieder: ". . . Google said Friday that it collected location data from Android phones, but that it did so anonymously . . ." - Das ist aber alles nur Augenwischerei, solchen Datensammlungen sind nie wirklich anonym. Aber auch ohne diese De-Anonymisierung sind die Daten wertvoll. Eine Marketing-Organisation sortiert diese Standardortdaten nach 20 typischen Mustern, z.B. Nachtschwärmer (nach 10 Uhr abends unterwegs), berufstätig (im Berufsverkehr unterwegs), Hausfrau (nicht im Berufsverkehr unterwegs), denen dann gezielte Angebote aufs Handy gesendet werden. Das ganze funktioniert natürlich auch ohne dass das Unternehmen Daten wie Namen und Anschrift bekommt. Zu anonymen Daten aus Social Networks zeigt sich, dass deren De-Anonymisierung nicht wirklich funktioniert. Hier eine Studie zum Thema De-Anonymisierung. Die Studie zeigt, dass auch gründlich anonymisierte Daten aus Social Networks, wenn sie mit anderen Netzen verglichen werden, de-anonymisiert werden können. Die Wissenschaftler haben die öffentlich verfügbaren anonymisierten Verbindungsdaten des Twitter-Netzes de-anonymisiert, indem sie die Verknüpfungen mit denen in flickr.com verglichen haben. Das hat geklappt obwohl es nur eine geringe Überlappung zwischen den beiden Netzen gibt. Solche de-anonymisierten Daten werden für Forschungszwecke zur Verfügung gestellt, aber auch an Werbetreibende, die die Qualität der Daten eines Netzwerks testen möchten. Solche Daten sind auch verfügbar, indem automatische Suchprogramme sich durch solche Social Network "hindurchwühlen" (die Liste der Freunde der Freunde der Freunde .... durchgehen). Dabei gewinnen sie, je nach Netz, entweder Daten mit realen Namen oder nur Nick-Names. In diesem Artikel wird an Hand eines Beispiels mit anonymen Patientendaten (für Forschungszwecke zur Verfügung gestellt) sehr gut aufgezeigt, wie eine nachträgliche Namenszuordnung mit Hilfe von überlappenden Datenelementen (De-Anonymisierung) funktioniert (Hier der wissenschaftliche Artikel Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization). Wie schwer es ist, Anonymität zu erzeugen, das zeigen Untersuchungen, bei denen 87% aller Amerikaner durch die Verknüpfung von Geburtsdatum, Geschlecht und Postleitzahl eindeutig identifiziert waren. Solche Profile können nicht nur dafür verwendet werden, Werbung gezielt zu platzieren (was man ja erst mal noch nicht als schlimm ansehen muss), sie können auch für Diskriminierung eingesetzt werden. D.h. jemand der durch die Auswertung seines Internet-Nutzungsverhaltens als jemand erkannt wurde, bei dem Geld "vergleichsweise locker sitzt", der bekommt bestimmte Sonderangebote gar nicht erst angezeigt (discriminatory prizing). Amazon hat vor einigen Jahren angeblich in diese Richtung experimentiert und nach Protesten von Nutzern diese Aktivitäten wieder aufgegeben. Eine weitere Gefahr solcher Nutzerprofile ist, dass einer bestimmten Bevölkerungsgruppe bestimmte Informationen vorenthalten werden.
August 2010: Recorded Future
Nov. 2011:
Mai 2012: Profiling für Pre-Crime Detection
|
|||||||
Weiterführende InformationenWie wichtig Data Mining heute geworden ist zeigt diese Liste von Forschungsprojekten der US-Regierung: Fact Sheet: Big Data Across the Federal Government - March 29, 2012 (PDF). Da finden sich Datenanalyse-Projekte in sehr vielen Bereichen, nicht nur beim Verteidigungsministerium, das den Feind und das Schlachtfeld besser verstehen möchte, sondern auch in vielen Forschungsbereichen. Ein sehr begrüßenswertes Programm ist Programming Computation on Encrypted Data (PROCEED). Dabei geht es darum, dass z.B. in Daten, die verschlüsselt in einer Cloud-Storage abgelegt sind, trotzdem nach Inhalten gesucht werden kann ohne dass die Daten auf dem Cloud-Server zuvor entschlüsselt werden müssen, genannt wird so etwas "fully homomorphic encryption" (FHE). Dies ist für eine sichere Cloud-Nutzung eine Voraussetzung. Hier mehr zur Sicherheit von Cloud-Diensten.
2002 hat AT&T eine Programmiersprache Hancock patentieren lassen, die sich zur Auswertung von Kommunikationsdaten sehr gut eignet. Dabei geht es um Communities of Interest (COI) und um ganz viel Mathematik. Hier ist das Dokument selbst: Communities of Interest (verfügbar in viele Formaten, auch als PDF).
Mai 2012:
Dez. 2013:
Philipp Schaumann, http://sicherheitskultur.at/
Copyright-Hinweis:
|