Fake-News und andere Unwahrheiten

Philipp Schaumann - Letzte Aktualisierung: Mai 2023

 

Warum die Aufregung über Fake News?

Die Verbreitung von Unwahrheiten und Lügen ist keine Erfindung des 21. Jahrhunderts. Neu ist das Internet und das World-Wide-Web, mit dessen Hilfe es eigentlich jedem möglich ist, mit etwas Geschick eine unglaublich große, weltweite Zuhörerschaft zu erreichen. Das war vor dem Internet nur denen möglich, die über viel Geld und/oder Macht verfügen konnten.

Und neu ist, dass wir 2018 sogar nachweisen können, dass sich Lügen effektiver, weiter und schneller verbreiten als die (oft langweilige) Wahrheit: Fake-News sind schneller als die Wahrheit: "Eine Langzeitstudie untersuchte die Verbreitung von rund 126.000 englischsprachigen Storys via Twitter zwischen 2006 und 2017. Unabhängige Faktenchecker hatten sie zuvor überprüft und als "wahr" oder "falsch" eingruppiert. Die untersuchten Inhalte hatten drei Millionen Menschen insgesamt mehr als 4,5 Millionen mal getwittert."

Ein unwahrer Inhalt hatte eine um 70 Prozent höhere Wahrscheinlichkeit, weiterverbreitet zu werden. Bots, die automatisch Tweets absetzen, treiben die Weiterverbreitung von Unwahrheiten eindeutig an - aber: "Menschliches Verhalten trägt mehr zur unterschiedlichen Ausbreitung von Unrichtigem und Wahrheit bei als automatisierte Roboter", schreiben die Forscher.

Die Nutzer von Facebook, Twitter, Instagram und anderen Netzen sind sich ihres Einflusses und dadurch ihrer Verantwortung (noch?) nicht bewusst. Eine 13-jährige erfindet eine Vergewaltigung und die Politik überschlägt sich. Aber auch jedes Teilen eines reißerischen Artikels (ohne Prüfung z.B. auf Mimikama) verstärkt den Schneeball-Effekt und hilft, einer Lüge bei der Verbreitung zu helfen. Diese Macht entsteht aus wenigen Faktoren: die Digitalisierung aller Nachrichten in Verbindung mit den allgegegenwärtigen Handies und den Vernetzungen auf Twitter, Facebook, Instagram, etc. vermitteln jedem Nutzer die Möglichkeit, bei der Verbreitung von aufregenden Falsch-Nachrichten mitzuwirken.

Eine Untersuchung aus 2019 zeigt, welche Themengruppen am sichersten eine intensive Social Media-Debatte auslösen. Das sind Wut und Furcht, also 2 nicht sehr positive Gefühle. Diese Themen erzeugen die stärksten Kommunikationsbeziehungen zwischen einzelnen Teilnehmern. Und das nutzen die Erfinder der Fake News-Geschichten eben aus.

 

 

 

Fake News erkennen - Abofallen, Gewinnspiele, Kettenbriefe, Urban Legends, etc.

Eine Reihe von Websites versuchen, Gerüchten und falschen Nachrichten auf den Grund zu gehen. Eine davon ist die Initiative Mimikama. Sie kümmert sich aktiv um alles im Umkreis von Fake News. Nutzer können Beiträge die ihnen komisch vorkommen an Mimikama melden, Mimikama recherchiert dann nach und berichtet was sie herausgefunden haben. Sie haben auch ein Buch herausgegeben: "Die Fake-Jäger". Dort erklären sie auch wie sie vorgehen und zeigen damit auf, wie jeder Nutzer im Internet der Wahrheit besser auf die Schliche kommen könnte.

Zu den Tricks der Aufdecker gehört vor allem fortgeschritte Suchmaschinennutzung, z.B. das Auffinden von Bildern über "umgekehrte Bildersuche". (Sehr schön erklärt hat das alles André Wolf auf der Privacyweek 2017 in Wien). Mimikama betreibt auch die spezialisierte Suchmaschine Hoax Search. Auch die Website Watchlist Internet berichtet über Abofallen, Fake News und andere Betrügereien. Die Website der APA (Austria Press Agentur) bietet einen APA-Faktencheck, bei dem sie Meldungen untersuchen und richtig-stellen.

Mimikama unterscheidet 2 große Klassen von falschen Nachrichten: das eine sind Nachrichten, durch deren Verbreitung zumeist Geld verdient werden soll (oft indem durch reißerische Überschriften Menschen auf ihre Website gelockt werden sollen - das nennt sich 'Click-Bait') und das zweite sind Nachrichten, die politisch Stimmung (und vor allem sehr oft Hass und Zwietracht) verbreiten sollen.

Bereits zu den Frühzeiten des Internets wurden mit den ersten Emails auch die ersten Kettenbriefe mit Schauergeschichten verbreitet, z.B. die Legende von den HIV-infizierte Nadeln in Kinosesseln oder in Geldrückgabeschlitzen von Automaten. Etwas ängstliche Gemüter werden davon leicht verunsichert. Wenn Sie eine ungew&öhnliche Meldung sehen, dann prüfen Sie lieber auf diesen Websites, ob wirklich was dran ist bevor Sie es Ihren Freunden weiterschicken und diesen unnötig Angst machen und falsche Nachrichten verbreiten.

Zu der ersten Kategorie gehören auch Abofallen und Gewinnspiele. Abofallen sind vermeintlich kostenlose Angebote, die Kosten werden irgendwo im Kleingedruckten versteckt.

Ein Beispiel bei dem zwar kein Abo verkauft wird, aber ein kostenloser Service gegen Geld angeboten wird, sind Visum-Anträge (für die USA, Australien und andere). Die gibt es auf den offiziellen Websites kostenlos, z.B. der offiziellen US-Regierungswebsite, aber diese offiziellen Websites finden sich bei einer Suche im Internet oft ganz weit unten. Zuerst kommen viele Websites mit offiziell klingenden Namen wie ustraveldocs.com, www.us-esta-org.com, US.VisaCentro.com, americanvisaesta.com, visumusa.net, estas.de, visum-usa.com, etc.Diese verlangen Geld dafür, den eigentlich kostenlosen Visumantrag an die Botschaft weiterzuleiten. Das ist (leider) legal, weil unten im Fuß der Webseite (meistens) steht, dass es auch eine kostenlose Option gibt. Aber wer liest eine Webseite schon bis zu dem Kleingedruckten.

Andere verdienen Geld, indem sie Nutzer, z.B. über möglichst wilde Nachrichten auf Facebook oder Instragram auf andere Webseiten schicken, das nennt man Clickbait. Wie kann man mit so etwas Geld verdienen? Da hilft die (leicht verborgene) Internetökonomie. Im Internet wird nämlich derjenige finanziell belohnt, der für Besuche auf kommerziellen Webseiten sorgt. Das nennt sich "affiliate marketing". Der Verbreiter von möglichst wilden Geschichten auf seiner Website wird finanziell belohnt, wenn er möglichst viele Menschen dazu bringt, auf einen Link zu klicken, der den Internetnutzer auf eine andere Website bringt (wo versucht wird, ihm etwas zu verkaufen oder ihn in eine Abofallen zu locken). Z.B. können das Gewinnspiele sein. Veranstalter von Gewinnspielen machen ihr Geld, indem sie die Adressen und weitere Daten, die die Besucher in der Hoffnung auf einen Gewinn korrekt eintragen, an Adressenhändler weiterverkaufen. Oder sie schicken die Benutzer auf Websites, wie Schadsoftware, z.B. "böse" Apps beworben wird.

Hier die Links zu anderen Websites die sich dem Aufdecken von falschen Geschichten widmen.

  • Eine EU Initiative mit dem martialischen Namen "EU East Stratcom Task Force" veröffentlicht wöchentlich einen Disinformation Review, auch in deutscher Sprache, interessante Recherchen zu Fake-News die im Web kursieren.
  • hoaxmap.org ist eine weitere deutschsprachige Website die sich um Fake-News im deutschsprachingen Raum kümmert.
  • Für den englisch-sprachigen Teil des Internets gibt es auf Snopes eine gigantische Sammlung von Gerüchten, wahr oder auch nicht. Z.B. die sehr ausführlich recherchierten Artikel zu den berüchtigten Geschichten mit den gestohlenen Nieren oder den unglücklichen Bonsai Kätzchen
  • eine ähnliche Sammlung auf Urban Legends (englisch) - viele wilde Geschichten kann man da kennenlernen ;-)

Hier noch ein Quiz des Schweizer Rundfunks SRF mit konkreten Fake-News wo jede:r prüfen kann, wie kritisch er oder sie 'im Internet unterwegs ist' und erkannt wird, welche der Meldungen ein Fake ist: Echt oder Fake: Testen Sie Ihr Urteilsvermögen. Wer nicht einfach raten will, der kann z.B. über die hier verlinkten Recherche-Seiten (oder die 'umgekehrte Bildersuche') eine wirkliche Recherche versuchen.

 

 

 

 

Fake News machen Politik: das schlimme Wort vom "postfaktischen Zeitalter"

 

Brexit und die US-Wahl 2016

Welche Ergebnisse die Möglichkeiten der weltweiten Verbreitung von falschen Nachrichten in der Politik haben können, das sehen wir im Ergebnis der Brexit-Abstimmung und der US-Wahl 2016.

Ein Beispiel für Fake-News bei der Brexit-Abstimmung sind die Behauptungen zu den wöchentlichen EU-Beiträgen die Großbritannien zu zahlen hätte:

    "Der 'Boris Battle Bus' fährt mit dem Slogan durchs Land, die Insel entrichte Brüssel jede Woche 350 Millionen Pfund (446 Millionen Euro) an Beiträgen. Es gibt unterschiedliche Vorstellungen davon, wie der korrekte Betrag lautet: Die meisten Schätzungen gehen von 110 bis 175 Millionen Pfund. Fest steht: Der Slogan ist falsch. Johnson und seine Mitstreiter wiederholen ihn dennoch unbeirrt und suggerieren zusätzlich, nach dem Brexit könne man das eingesparte Geld ins nationale Gesundheitssystem NHS stecken."

Bei dem "Boris Battle Bus" war ja die falsche Aussage wenigstens noch öffentlich zu sehen und andere Medien konnten auf sie eingehen. Aber andere Disinformationen (Falschaussagen) der EU-Gegner wurden sehr schnell über die sozialen Medien verbreitet und die Zeitungen hatten keine Gelegenheit, diese Aussagen richtig zu stellen, weil sie die Empfänger der Falschaussagen in ihren Filterblasen ja gar nicht mehr erreichen. Diesen Effekt nennt man heute Mikrotargeting. Mikrotargeting bedeutet, dass Lügen (z.B. das Hetzen gegen Minderheiten mittels Verbreitung von falschen Nachrichten) die mittels Mikrotargeting an sehr kleine Zielgruppen verteilt werden kaum eine Chance haben, je aufgedeckt zu werden.

Ähnlich sind die Wahrheitsprobleme beim Thema Migration. Der Standard stellt richtig:

    . . . Wahr ist vielmehr, dass der Anteil der Menschen, die außerhalb ihrer Heimatländer leben, in den letzten Jahrzehnten kaum gestiegen ist und heute etwa drei Prozent der Weltbevölkerung in Höhe von insgesamt 7,5 Milliarden Menschen beträgt. . . . Dass alle Einwohner der Entwicklungsländer versuchen, in westliche Gesellschaften auszuwandern, ist ein Mythos. Diejenigen, die auswandern, bleiben mit viel größerer Wahrscheinlichkeit in ihrer eigenen Region. . . . in den globalen Migrationszahlen sind . . . 4,9 Millionen Menschen mit britischer Staatsangehörigkeit. . . In Großbritannien zahlen Einwanderer mehr Steuern, als sie an Sozialleistungen beanspruchen.

Einige Kommentatoren sprechen von einem postfaktischen Zeitalter (oder auch contra-faktischen Zeitalter). Post-truth wird von Oxford Dictionaries zum "Wort des Jahres" gewählt. Solche Schlagworte machen aber die Situation nicht erträglicher: Wenn beliebige Lügen in Windeseile breit verteilt werden können und es keine Möglichkeit gibt, die Empfänger für eine Richtigstellung in ihrer Bubble zu erreichen, dann ist auf dieser Grundlage eine funktionierende Demokratie nicht möglich.

Der Standard meldet, dass ein großer Teil der im US-Wahlkampf 2016 in den Social Networks verbreiteten Stories einfach vollständig erfunden sind: "Der Papst hätte sich für die Wahl von Donald Trump ausgesprochen. Hillary Clinton hätte 137 Millionen Dollar für illegale Waffenkäufe ausgegeben. Bill Clinton besitzt angeglich ein 200 Millionen Dollar teures Anwesen auf den Malediven. Hillary Clinton hätte eine Liebesbeziehung zu ihrer Beraterin Huma Abedin." Der Standard-Artikel referenziert dann auf die Filterblasen und versucht mögliche Lösungen, aber da gibt es wohl nicht viel.

Die NY Times berichtet ausführlich über die Hintergründe einer Fake News Factory in Georgien. Es ging den jugendlichen Betreibern rein ums Geld, keine Ideologie dahinter - trotzdem wird sich das bei auf der anderen Seite der Welt auf die Politik aus. Oder eine andere Fake News Fabrik in Mazedonien.

Die Fake-News, Falschnachrichten haben wegen ihres vermeintlichen Sensationsgehalt eine viel höhere Chance, weiterverteilt zu werden, bis zu 1 Million mal höher sagt der Artikel. Diese höhere Verbreitung sorgt für mehr Besucher auf den verlinkten Webseiten und dort Werbung gezeigt. Und über ihr Werbenetzwerk schneidet dann auch Google mit. Jetzt nach der Wahl versuchen Google und Facebook, zurückzurudern und diese Fake-News Welle einzudämmen (an der sie bis jetzt gut verdient haben).

 

2017: Viele Details zum Einsatz, der Implementierung und der Wirkung der Fake-News Angriffe bei der Trump Wahl und Brexit

Sept. 2017: Die NYT und andere arbeiten die Einmischungen aus Russland bei der Wahl von Trump auf und analysieren die genauen Abläufe. Die NYT berichtet The Fake Americans Russia Created to Influence the Election, eine kurze Zusammenfassung ist Neue Details zu Russlands Social-Media-Krieg vor US-Wahl. Dabei spielt z.B. ein (nicht existenter) Melvin Redick eine tragende Rolle. Sein Facebook-Profil war sehr die erste Veröffentlichung einer echten oder gefälschten Nachricht (z.B. die Clinton-Leaks). Dann übernehmen auf Twitter automatische Bots, die so genannte "Warlists" nutzen.

Dabei handelt es sich um Twitter-Bots, die hunderte bis tausende Fake-Profile auf Twitter betreiben und für eine hohe Verbreitung und dadurch hohe Wertigkeit sorgen. Auch Facebook hat in der Zwischenzeit bestätigt, dass sie an gezielter Werbung durch gefälschte russische Accounts während der Wahlzeit gut verdient haben. Siehe auch Purged Facebook Page Tied to the Kremlin Spread Anti-Immigrant Bile. Die falschen Facebook- und Twitter-Accounts aus Russland haben vor allem durch gleichzeitig links- und rechtslastige Propaganda und Falschmeldungen polarisiert und damit (direkt oder indirekt) Stimmung für Trump gemacht.

Feb. 2018 berichtet die NYT in einem ausführlichen Artikel über eine Fake Follower Factory. Am Beispiel der Firma Devumi zeigen sie auf, dass für sehr wenig Geld Twitter und Facebook Follower zu haben sind. Der Artikel listet eine Reihe von Prominenten, die zusammen von Devumi 200 Mio Twitter Follower gekauft haben. Der Hauptgrund warum die Prominenten sich Follower kaufen ist die Aufwertung ihrer eigenen Accounts durch die großen Followerzahl. Dies scheint z.B. im Show-Business und bei Journalisten heute die primäre Qualitätsmessung zu sein.

Diese Fake Follower sind zum Teil "gestohlene" richtige Personen, deren Accounts mittels Tippfehlern im Namen einen Schatten-Account bekommen, andere sind aber vollkommen künstlich erzeugt. Alle diese Fake-Accounts werden mittels Bots instrumentalisiert. Ein Artikel in golem.de Mein gar nicht böser Twitter-Bot erklärt wie leicht man seinen Twitter Account automatisieren kann, so dass er auf bestimmte Ereignisse z.B. Tweets von bestimmten Personen oder mit bestimmten Texten mit Re-Tweets oder eigenen Tweets oder Likes reagiert. Auf diese Weise entsteht eine weitere Verbreitung der ursprünglichen Nachricht und eine Aufwertung des Accounts in den "Augen" der Algorithmen, die die Wertigkeit bestimmen. Hier aus dem NYT-Artikel über das Ausmaß:

    "By some calculations, as many as 48 million of Twitter's reported active users - nearly 15 percent - are automated accounts designed to simulate real people, . . . Facebook disclosed to investors that it had at least twice as many fake users as it previously estimated, indicating that up to 60 million automated accounts may roam the world's largest social media platform. Devumi has more than 200,000 customers, including reality television stars, professional athletes, comedians, TED speakers, pastors and models [who] purchased their own followers. Devumi offers Twitter followers, views on YouTube, plays on SoundCloud, the music-hosting site, and endorsements on LinkedIn,. . ."

Die andere Technik um Meinungen zu beeinflussen sind Anzeigen. Der Standard berichtet Nov. 2017 an Hand von Beispielen, wie russische Agenturen mit Hilfe einer riesigen Zahl von Anzeigen in Social Networks sowohl die Rechte wie die Linke in den USA gezielt aufgehetzt haben. Ziel war (und ist), die politische Mitte zu schwächen und eine Polarisierung der Gesellschaft zu erreichen. (Etwas weiter unten ist ein Artikel zu den russischen Trollfabriken.

Im Laufe von 2017 kommen immer mehr Details ans Licht: 419 russische Fake-Profile twitterten pro Brexit und ein ausführlicher NYT Bericht: Signs of Russian Meddling in Brexit Referendum. Dieser Artikel berichtet auch darüber, dass es die russischen Aktivitäten nicht eingestellt sind: auch bei dem Streit um Katalonien gibt es Hinweise auf russische Aktivitäten zum Anheizen des Konflikts. Dabei spielen neben den Fake Facebook Accounts auch die offiziellen die Agenturen Sputnik und Russia Today eine wichtige Rolle. Auch dort werden gleichzeitig links- und rechtsradikale Positionen vertreten und verstärkt.

Noch ein ausführlichter NYT Bericht: She Warned of 'Peer-to-Peer Misinformation.'. In dem Artikel geht es um eine Aktivistin, die zusammen mit anderen beobachtet und dokumentiert hat, wie mit Hilfe von Fake Accounts and Bots in den sozialen Medien militante Stimmung gemacht wird.

Noch eine späte Enthüllung: Twitter: 6500 russische Fake-Konten unterstützten Labour bei britischer Parlamentswahl im Juni 2017. Das zeigt, mit welch massiven Mitteln über Social Network die Bevölkerung manipuliert wird.

2018: Ein Finanzier im letzten US-Wahlkampfs entschuldigt sich, dass seine Spende von 100 000 USD für den Wahlkampf eines demokratischen Senators (heimlich) für eine Fake Facebook-Seite des republikanischen Gegners und Tausende von Fake-Twitter Accounts verwendet wurde. Mehr Details im verlinkten Artikel. Dies scheint aber nur die Spitze des Eisbergs zu sein. Auch wenn die Demokraten sich über die Schmierkampagne gegen Hillary Clinton empören so sind doch einige bereits, solche Techniken ebenfalls einzusetzen. Eine Studie der University of Oxford in 2018: Challenging Truth and Trust: A Global Inventory of Organized Social Media Manipulation, kommt zum Schluss, dass das Manipulieren von Bürgern weltweit ein Riesenbusiness geworden ist, eingesetzt bei Wahlen und anderen Gelegenheiten.

 

 

 

Russische Troll Fabriken

Bereits im Sept. 2015 gab es mehrere Artikel zu sog. Troll Fabriken. Russland hat eine spezielle Technik im modernen Cyberwar perfektioniert: Angriffe auf die öffentliche Meinung im In- und Ausland mittels Troll Fabriken. Der Link führt auf einen sehr ausführlichen Hintergrundbericht in der NY Times, in dem geschildert wird, dass ein ganzes Gabäude in St. Petersburg nur dem Erzeugen von Stimmung durch falsche Nachrichten gewidmet ist. Auf diese Weise hatte Putin zuerst nur die öffentliche Meinung in Russland, z.B. was die Krim und die Ukraine betrifft, ganz gut in Griff und auch im Westen sind viele Leute durch die bezahlten Blog-Beiträge ziemlich verwirrt.

Diese Troll Fabrik war auch bei der US-Wahl 2016 extrem beschäftigt. Zu den Trollfabriken hier ein interessanter Artikel in Techrepublic: The new art of war: How trolls, hackers and spies are rewriting the rules of conflict. Ziel der russischen Politik ist es, Zwietracht in den westlichen Demokratien zu säen, und zwar speziell zu Wahlzeiten. Sie adressieren dabei Menschen, die entweder linke oder rechts-konservative Positionen vertreten. So haben sie z.B. in den USA gleichzeitig zu Pro-Trump Demonstrationen und zu Gegendemonstrationen aufgerufen. Ergebnis war eine extrem angezeigte Gesellschaft, bei einer der Aktionen ist dann eine Anti-Trump Demonstrantin gezielt überfahren worden.

Die NY Times berichtet: A Powerful Russian Weapon: The Spread of False Stories. Der Artikel berichtet über die vielen falschen Berichte aus Russland zu Themen wie dem Abschuss des Zivilflugzeugs über der Ukraine oder die Behauptung, dass die NATO Kernwaffen in Schweden positioniert hätte. Die Zeitschrift Wired berichtet, wie diese Aktionen in den großen Kontext der russischen Strategie passen: A Guide to Russia's High Tech Tool Box for Subverting US Democracy. Feb. 2018 wird von der US-Justiz eine offizielle Anklage gegen die Trollfabriken erstellt.

Der Falter bringt einige gute Artikel zum Thema Fake News: Russia Today, der Propagandamaschine von Putin für (gegen) den Westen. Noch ausführlicher stellt das die NYT in einem sehr ausführlichen Artikel dar: RT, Sputnik and Russia's New Theory of War. Sie zeigen, dass es Putin gelingt, das Recht auf freie Meinungsäußerung in den USA sehr weitgehend für seine Propagandazwecke zu nutzen. Und die liegen darin, dass die von ihm kontrollierten Medien, die mittlerweile im US-Kabelfernsehen präsent sind, gleichzeitig weit linke und weit rechte Meinungen propagieren und dabei auch vor einseitiger oder klar falscher Berichterstattung nicht zurückschrecken.

Etwas weiter unten gibt es mehr Details über Strategien unter der Überschrift Doxing, Disinformation Kampagnen gegen lästige Bürger.

 

 

 

Die Wahlen in Österreich 2017 - Microtargeting und Retargeting

Wie der futurezone-Artikel Digitaler Wahlkampf: Von Microtargeting bis zu Dark Posts im Detail beschreibt, wurden die sozialen Medien von den Parteien sehr aktiv eingesetzt. Dabei wurden auch Techniken wie Microtargeting mit sog. "Dark Posts" (die korrekte Bezeichnung bei Facebbook ist Unpublished Page Post) und Retargeting durch "Facebook Pixel". Beides ist derzeit (vor der EU-Datenschutz-Grundverordnung) noch legal (wie das in Zukunft gehandhabt wird, wird man sehen).

Facebook erlaubt es den Werbetreibenden, mittels Microtargeting auch kleine Zielgruppen sehr gezielt zu adressieren. So haben die Grünen z.B. Menschen adressiert, die sich 'für Yoga interessieren', oder die Liste Pilz 'Menschen, die sich für Haustiere interessieren'. Das ist für die Parteien preisgünstig, weil jeweils nur eine kleine Zahl von Werbungen geschaltet wird. Bei Retargeting über Facebook werden sog. 'Facebook Pixel' eingesetzt. Zitat: 'Der Pixel ist eigentlich ein JavaScript Code und wird auf den Websites der Parteien eingebaut. Dadurch wissen wir nicht nur die IP-Adresse eines Besuchers der Website, sondern Facebook kann ihn auch seinem Profil zuordnen. Man muss dazu Facebook gar nicht offen haben - es reicht, die App am Smartphone installiert und konfiguriert zu haben', beschreibt Thaler das Feature. 'So können wir zB eine Werbung nur an die weiblichen Besucher eines bestimmten Teils unserer Website ausspielen, die zwischen 20 und 30 Jahre alt sind sowie ein Baby haben, das jünger als ein Jahr ist.'

 

 

 

Wie können wir "alternate realities" begegnen?

 

Hierzu gibt es leider (noch?) keine wirkliche Lösung. Dafür gibt aber mehr oder weniger gefährliche Ansätze. Im folgenden Abschitt nun einiges zu Lösungsideen.

Ein Falter-Artikel beschäftigt sich mit der Wirkung der Tweets von Trump (hinter Paywall), der Autor ist Medienwissenschaftler und bezieht sich in dem Artikel u.a. auf die Frankfurter Schule, Leute wie Adorno, Fromm, Neumann und Löwenthal und ihre Arbeiten zu Massenmedien. Er schreibt u.a.: "Trump betreibt ein Politik des Postfaktischen, in der nicht Fakten, Themen und Diskussion, sondern Ideologie, Personalisierung und Emotionen wichtig sind. . . Twitter ist ein Medium, das emotionale Politik fördert und in dem Ideologie und Irrationalität an die Stelle von Argumenten, Belegen und Wissen treten."

Ende 2016 gibt es teilweise bizarre Ideen aus der Politik: Obama regt eine Wahrheitsbehörde im US-Außenministerium an die 2017 zum Gesetzt wurde. Im Pentagon-Budget gibt es dafür den Posten "Countering Disinformation and Propaganda Act". Die CDU will eine Strafverschärfung bei Fake-News, auch da wird wohl eine Wahrheitsbehörde notwendig werden. Hier eine tolle Satire zum Thema Ministerium für Wahrheit.

Mai 2015
Die NY Times berichtet über Studien und Experimente die Facebook selbst durchgeführt hat: Facebook Use Polarizing? Site Begs to Differ. Facebook sagt, dass der Effekt nicht so stark sei wie oft befürchtet wird, und dass er vor allem damit zusammenhängt, dass die Freundeskreise sehr oft recht homogen sind. Andere Wissenschaftler widersprechen, der Artikel ist recht interessant. August 2016
Mitarbeiter einer US-Universität haben sich die Mechanismen bei der Verbreitung von Fake News im Detail angesehen. Sie kommen zu dem Schluss, dass in ganz vieleh Fällen nach dem ersten Posten der falschen Nachricht zuerst mal automatische Bots die Aufgabe übernehmen, diese Nachricht an Accounts weiterleiten, die eine große Zahl von Followern haben, d.h. die als einflussreiche Nutzer gelten. Wenn dann einige dieser Benutzer die Weiterverteilung übernehmen, so ist in den Augen der Empfänger die Nachricht aufgewertet und wird weiter verbreitet.

Berichte aus den USA zeigen, dass US-Schüler nicht (mehr) in der Lage sind, den Wahrheitsgehalt einer Meldung zu verifizieren. Jetzt wird es peinlich: nach der PISA-Studie 2018 schneiden die USA fast am besten ab, die Schüler der europäischen Länder sind noch viel schlechter. Eine Studie in Österreich bestätigt die traurige Nachricht: Jugendliche tun sich schwer, Fake News im Netz zu erkennen. D.h. Materialien für den Unterricht, wie ich sie oben verlinkt habe, müssten noch viel mehr eingesetzt werden.

Und eine staatliche Behörde, die wie manchmal vorgeschlagen gegen Fake News vorgeht, ein "Wahrheitsministerium", das riecht stark nach Zensur und 1984. Wissenschaftlich geht New Scientist das Thema an: Seeing reason: How to change minds in a 'post-fact' world (leider Paywall).

Das ist dann ein Punkt, wo die Forderung nach 'öffentlich-rechtlichen europäischen Social Networks und Suchmaschinen', bei denen nicht die Gewinn-Optimierung im Vordergrund steht, für mich recht vernünftig klingt.

Im Falter 2016 steht dazu ein Artikel Facebook, alte Medien, neuer und alter Hass. Einige Auszüge daraus:

    Facebook trifft auf die neue soziale Lage einer Weltgesellschaft, in der Umverteilung zwar weitergeht, nach oben, zu dem einen Prozent, zum spekulativen Finanzkapital. Aber auch zugunsten aufsteigender Schwellenländer, auf Kosten der reichen Industriestaaten (und jener Länder, die ausgeschlossen bleiben). Deklassierung droht innerhalb der Staaten des Westens, Globalisierung verschärft sie. . . .
    Geschickte Demagogen konnten solche Ängste je schon für sich mobilisieren, die neuerdings algorithmisch präparierte Filterfalle hilft ihnen dabei. . . .
    wer die Idee eines europäischen öffentlich-rechtlichen sozialen Mediums und einer europäischen Suchmaschine mit offengelegten Algorithmen belächelt, sollte an jene Umstände denken, unter denen öffentlich-rechtliche Medien entstanden sind. . . .
    Die Menschen ließen sich seinerzeit [...] verführen, weil Massenmedien sie in antisemitische und völkische Filterblasen einbetteten. Ihre gesellschaftliche und wirtschaftliche Lage war desolat.

 

 

 

Doxing, Disinformation Kampagnen gegen lästige Bürger oder Ex-Partner

Doxing ist in der Sicherheitsszene der Fachbegriff für das Veröffentlichen von (wahren - oder bei Bedarf auch gefälschten) Dokumenten zum Schaden eines Unternehmens oder einer Person oder Organisation. Prominente Beispiele sind die veröffentlichten Dokumente von Sony Pictures Entertainment, des Democratic National Committee, Hacking Team und viele andere. Ziel ist entweder Erpressung oder einfach nur um Schaden anzurichten, z.B. aus Rache. Der Angriff wird gegen Firmen verwendet, aber auch im privaten Bereich, z.B. nach einer streitigen Trennung. Hier eine Studie dazu aus 2017: Why people ruin others' lives by exposing all their data online.

Bruce Schneier hatte 2015 in einem etwas früheren Artikel im Atlantic geschrieben "The Meanest Email You Ever Wrote, Searchable on the Internet: In the age of cloud computing, everyone is vulnerable." 2016 hat Bruce Schneier auf die zusätzliche Option, die Dokumente vor dem Leak leicht zu verfälschen, hingewiesen: How Long Until Hackers Start Faking Leaked Documents? Leider ist das aber keine theoretische Überlegung.

Okt. 2016: Doxing durch APT28
Die russische Gruppe APT28 schafft es mal wieder in die Presse: Im Zusammenhang mit den Doping-Vorwürfen gegen russische Sportler werden von russischer Seite Dokumente der Welt-Anti-Dopingagentur Wada veröffentlicht, die über Medikamentennutzung amerikanischer Sportlerinnen berichten. Dabei deutet viel darauf hin, dass die Gruppe die wahlweise als APT28 oder Fancy Bear bezeichnet wird, dahinter steht. Jetzt kommt der Knackpunkt: Wada sagt, dass die meisten der Dokumente schon echt seien, aber nicht alle. Dokumente vor der Veröffentlichung leicht zu verfälschen macht es für die betroffene Organisation sehr schwer, ein glaubhaftes Dementi zu erzeugen.

Disinformation Kampagnen, d.h. Schmierkampagnen kann man aber auch außerhalb Russlands kaufen: der indische Anbieter Aglaya bot 2014 Infiltration in die Netze von "Gegnern", aber auch verdeckte Aktionen wie "sting operations", Diskreditierung von Gegnern (egal ob Privatpersonen oder Firmen) in Social Networks und Twitter und auch das Erzeugen von falschen Anklagen gegen die Opfer der Angriffe. Auch für Angriffe gegen kritische Infrastruktur sind sie sich nicht zu gut.

Auch aus der russichen Trickkiste: ein Bericht in der NY Times Foes of Russia Say Child Pornography Is Planted to Ruin Them. Der Bericht sagt, dass die alte Technik aus Sowjetzeiten, Darstellungen sexueller Gewalt gegen Kinder auf Rechnern von Regime-Kritikern zu installieren, wieder gut in Mode ist. Letztendlich ist es sehr sehr schwer, sich gegen solche Vorwürfe effektiv zu wehren.

 

 

 

 

Verleumdung wird immer perfekter - Mit Hilfe von AI Fotos, Stimmen und Videos fälschen

In 2016 konnte Adobes VoCo Software die Stimme einer Person imitieren, wenn 20 Minuten Text von dieser Person zur Verfügung stehen. Zu Beginn 2018 hat der chinesische Internetgigant Baidu mit Hilfe von Artificial Intelligence das so weit perfektioniert, dass weniger als 1 Minute Text ausreicht, z.B. die Ansage auf einem Anrufbeantworter: Baidu can clone your voice after hearing just a minute of audio. So was bietet natürlich nicht nur für die chinesische Regierung tolle Möglichkeiten, jemandem "falsche" Texte in den Mund zu legen.

Deep Nudes

2019 veröffentlicht ein Entwickler ein Programm das Bilder von bekleideten Frauen nimmt aus die Kleidung durch Bildteile von nackten Frauen aus dem Internet überlagert, er nennt es Deep Nudes (zum Namen siehe Box links). Dies ist eine weitere Anwendung von AI die wir eigentlich nicht gebraucht haben. Er hat das Programm jetzt wieder zurückgezogen, aber das Programm zirkuliert jetzt eh im Internet. Außerdem kann ein entsprechend ausgebildeter Entwickler dies auch jederzeit wiederholen.

Aber es geht auch mit Videos

Dez. 2017: Mit Hilfe von AI-Systemen sind Videos relativ leicht zu fälschen, so können Verleumder ihre Opfer zu Pornstars machen. Was auch bereits möglich ist: Falsche Aussagen automatisiert zu einem Video hinzufügen.

Feb. 2018: Gefälschte Rachepornos: Deepfakes werden ein richtiges Problem
Rachepornos sind ein bereits etwas älteres Problem: Während der Beziehung hat das Paar Nacktaufnahmen gemacht, nach der Trennung veröffentlicht einer der beiden die Nacktfotos im Internet oder schickt sie an Arbeitskollegen des Ex-Partners. Das gibt es schon eine Weile, ist natürlich illegal, aber es setzte immerhin voraus, dass Nacktfotos existieren. Dies ist heute dank geeigneter Software nicht mehr nötig. Der Kopf des Ex-Partners kann auf Fotos und neuerdings sogar auf Filme von Pornstars draufgesetzt werden. Hier der Artikel zu Deepfakes - der Artikel enthält auch einenn Abschnitt über die Möglichkeiten, sich daegegen zu wehren.

Hier noch ein Artikel über die AI-Hintergründe: Google gave the world powerful AI tools, and the world made porn with them.

 

 

 

Leider nun auch außerhalb der USA: Swatting

Swatting war zu Beginn weitgehend auf die USA konzentriert, aber auch in Deutschland wurden für Swatting in 2022 über 13.000 Fälle gemeldet - ein Anstieg von neun Prozent im Vergleich zu 2021.

Der Name leitet sich von SWAT, der amerikanischen Spezialeinheit Special Weapons and Tactics ab. Beim Swatting wird in einem falschen Notruf eine polizeiliche Spezialeinheit zur Wohnung des Opfers geschickt. Ende 2017 führte der Angriff in den USA zu einem Todesopfer. Es ging um einen Streit zwischen Computer-Gamern. Der Wikipedia Artikel meldet für 2015 auch einen Fall in Deutschland. Auch hier können in 2023 AI-Systeme eingesetzt werden: KI-Stimmen lösen gefährliche Polizeieinsätze aus.

Hier ein grundsätzlicher Artikel zu Swatting: Wie schwer bewaffnete Polizisten auf Unschuldige gehetzt werden. Der Angriffstyp wird auch oft genutzt, um Journalisten einzuschüchtern - Brian Krebs wurde nach seinen vielen Artikeln über die organisierte Kriminiliät im Internet regelmäßig Ziel von Swatting-Angriffen, mittlerweile kennt die Polizei aber seine Adresse und ruft vorher bei ihm an. Vorher gab es aber durchaus eine Reihe von brenzligen Situationen.

Jan. 2018:
Der bereits erwähnte Brian Krebs hat auch hier die Insider-Story: Serial SwatterBragged He Hit 100 Schools, 10 Homes. Der vermutliche Verursacher bei der Tötung durch die Spezialeinheit ist ein bereits bekanner Serientäter. Er saß wegen einer Bombendrohung bereits im Gefängnis, brüstet sich aber seit seiner Freilassung mit Hunderten von solchen Swatting-Anrufen. Hier der Link auf eine deutschsprachige Meldung dazu: Swatting bei Call of Duty: Polizei erschießt Unbeteiligten.

 

 

 

Fake Follower, falsche Freunde - Sock Puppets und Astroturfing

Heute wird der "virtuelle Wert" einer Person immer öfter über die Zahl der Follower in Twitter oder der Friends in Social Networks gemessen. Da wundert es natürlich nicht, daraus auch schnell eine Geschäftsidee wird.

Unter Sock Puppets und Astroturfing wird verstanden, wenn mittels bezahlter Identitäten Stimmung für oder gegen etwas gemacht wird. Ein guter Artikel dazu ist Falsche Freunde als Geschäftszweig. Dort wird berichtet, dass solche Dienste kommerziell angeboten werden, dass ein Mitarbeiter i.d.Regel 20 Identitäten bedient und dass man für 35.000 Euro typischerweise 10.000 neue Fans für eine Website kaufen kann. An anderer Stelle wird berichtet, dass auf eBay 1000 Fans für 1995 Euro zu haben sind - was immer davon der korrekte Preis ist, auf jeden Fall scheint das ein kommerzieller Markt zu sein.

Laut den Security-Spezialisten von Barracuda Networks hat sich bereits eine Schattenwirtschaft um gekaufte Follower und Freunde entwickelt. Der Preis pro Follower soll bei 1,5 Cent liegen. Bzw. wie venturebeat berichtet: $1500 for 100,000 fans - on shady sites like SocialMediaCorp. Siehe Facebook's war on zombie fans just started - Ergebnis: Rihanna's down 22,000 fans, and so is Shakira. Lady Gaga is liked by 32,000 fewer people today, and Zynga's Texas HoldEm Poker is down by almost 100,000 fans.

Der Online-Shop-Anbieter "Limited Run" behauptet, dass die Klicks auf Facebook Werbungsabrufe zu einem großen Teil von nicht-menschlichen "Nutzern" kommen sollen. Die Forscher haben in FB Werbung geschaltet, aber nur 20 Prozent dieser vermeintlichen Nutzer die auf ihre Anzeigen geklickt hätten, wären auch auf der eigenen Webseite aufgetaucht. Dabei ist ihnen auch aufgefallen, dass die anderen Nutzer Javascript deaktiviert hatten, was in der Regel nur ein bis zwei Prozent der Nutzer tun, weil ja sonst die meisten Websites nicht mehr funktionieren. D.h. es sieht ganz so aus als würden Bots auf die Anzeigen klicken und damit Kosten für die werbenden Firmen und Einnahmen für Facebook erzeugen.

Facebook selbst veröffentlicht Zahlen zu sog. Fake Accounts. Das waren im Juli 2012 8,7%, d.h. von 955 Mio Nutzern sind das 83 Millionen. Aber weiter aufgeschlüsselt sind dies hauptsächlich doppelte Accounts, bzw. Accounts von Haustieren u.ä. Wirkliche "unerwünschte Accounts" sind nach ihren Angaben nur 1,5%, d.h. immerhin 15 Mio. Dies sind Accounts die für Spamming, Werbebetrug wie weiter oben erwähnt oder für Datensammlungen genutzt werden.

 

Paid Posters, Crowd Turfing

Dezember 2011:
Der Artikel Das Geschäft mit dem Crowdturfing zeigt, dass das Manipulieren von Meinungen durch falsche Aktitivitäten in Social Networks mittlerweile ein nennenswerter Gechäftszweig geworden ist. Zitat: "Die meisten Aufträge, die Crowdsourcing-Dienste in China und den USA abwickeln, dienen inzwischen der Manipulation von sozialen Netzwerken und der öffentlichen Meinung". In China sind mittlerweile "paid posters" die auf Webseiten (derzeit noch hauptsächlich noch chinesische) positive oder negative Kommentare und Bewertungen abgeben ein nennenswerter Geschäftszweig geworden.

Aber auch bei englischsprachigen Diensten wie dem Mechanical Turk von Amazon gibt es mehr und mehr zweifelhafte Aktivitäten. Hier berichtet der Guardian über entsprechende Software, ursprünglich entwickelt für psychologische Kriegsführung, aber natürlich auch sehr gut geeignet für positive oder negative Kommunikation über Produkte.

Ein Ergebnis dieser Aktivitäten kann durchaus sein, dass die Bewertungssysteme auf Websites wie eBay, Amazon, den Hotel- und Reisewebsite, etc. irgendwann einmal vollkommen wertlos werden, weil eh die größte Zahl der Beiträge und Bewertungen "bestellt" sind.

 

 

 

Hass-Postings und das Trolley-Problem

2017 war vermutlich für Facebook und Twitter das Jahr, in dem sie entgültig ihre Unschuld verloren haben. Eine Vorladung vor einen Untersuchungsausschuss ist kein Spaß. Die gesellschaftlichen Wirkungen von Social Networks auf die Gesellschaft wurden durch die Probleme mit problematischer Werbung zur Trump-Wahl extrem zugespitzt.

Das andere Dauerproblem der Social Networks sind die Hasspostings. Nach europäischem, und speziell nach deutschem Recht müssen die Social Networks dagegen aktiv und nicht nur re-aktiv vorgehen. Dies ist ein erheblicher personeller Aufwand und wirft komplexe rechtliche Fragen auf, z.B. wieso entscheidet ein Unternehmen über die Grenzen der Meinungsfreiheit.

Ein unschönes Beispiel für die Folgen dieses Online-Hasses ist Richard Gutjahr. Der Falter berichtet, dass er und seine Familie, weil er bei dem Anschlag in Nizza und bei dem Amoklauf in München anwesend war, jetzt von einer Meute von Verschwörungstheoretikern bedroht wird. Aber das ist nur eines von vielen traurigen Beispielen.

Oft wird gefragt, wie es kommen kann, dass im Netz so viel Hass, Morddrohungen, etc. veröffentlicht werden. Ist die Bevölkerung wirklich so roh oder liegt es am Netz. Eine mögliche Antwort gibt es evt. das sog. Trolley Problem. Doch was hat der Hass im Netz mit dem Trolley Problem zu tun? Bei dem Trolley Problem geht es um ein Gedankenexperiment, das bereits 1930 erstmal diskutiert wurde, aber dann in den 50iger und 60iger Jahren groß raus kam.

Beim Trolley Problem geht es darum, dass die Testteilnehmer sich eine Situation vorstellen sollen, bei der sie durch den Tod einer Person das Leben mehrer anderer retten können (Details siehe voriger Link zur Wikipedia). Dieses Experiment wird seit 1951 in allen Kulturkreisen durchgeführt und bringt zumeist ein Ergebnis, bei dem die Testpersonen sich zwischen 40% und 60% für die eine oder andere Lösung entscheiden.

Die genaue Zahl der Personen, die bereit sind, zur Rettung anderer zu töten, hängt von dem genauen Testszenario ab. Eine Variante ist das sog. Fat Man Problem. Dabei wird nicht eine Weiche umgestellt, sondern um die 5 Personen zu retten muss die Testperson bereit sein, einen extrem schweren Mann auf die Gleise zu stoßen (und dadurch die Lohre zum Entgleisen zu bringen).

Bei dieser Variante zeigt sich, dass die Bereitschaft, mit den eigenen Händen für den Tod des Unbeteiligten (und der Rettung der 5) zu sorgen, sehr viel geringer ist. Die häufigste Erklärung ist, dass es uns deutlich leichter fällt, diesen Mann zu opfern, wenn die Aktion mittels technischer Hilfsmittel durchgeführt werden kann. Dies kann, wie in diesem Experiment, die Weiche sein, oder der Knopf im Milgram-Experiment (bei dem Textpersonen simulierte andere Testpersonen für "wissenschaftliche Zwecke" mit Stromschlägen folterten) oder eben durch schnelle Hasspostings in Social Networks.

Der Falter-Redakteur Florian Klenk hatte 2016 einen Hassposter zu Hause besucht, der vorher gepostet hatte: "Kann den wer anzünden bitte?". In seinem ausführlichen (kostenpflichtigen) Portrait BORIS WOLLTE MICH VERBRENNEN beschreibt der Autor ausführlich, dass es sich bei dem Poster um einen durchaus bürgerlich geordneten EDV-Techniker mit Familie handelt, der auch im Betrieb durchaus Rücksicht auf die islamischen Kollegen und ihre Religion nimmt, im Netz aber Morddrohungen ausstößt.

In diesem (ebenfalls kostenpflichtigen) Beitrag beschreibt Ingrid Brodnig vom Falter die Ergebnisse ihrer Recherchen bei unterschiedlichen Typen von Postern und wie Zeitungen mit diesem Hass und Hetze in ihren Foren umgehen.

Das "leichtere" Töten wenn es mit Hilfe von Technik geschieht wird natürlich auch beim Militär ausgenützt. Die Geschichte der Kriege der letzten 500 Jahre bringt einen immer größeren Abstand zwischen den Kämpfern, die (derzeit) letzte Stufe ist der (an anderer Stelle beschriebene) Drohnenkrieg. Die nächste Stufe sind die ganz autonomen Waffen, die nur mit einer Aufgabe versehen werden müssen, z.B. "Suche Panzer in der syrischen Wüste" und die dann automatisch losziehen. Solche Drohnen gibt es bereits und sie werden ständig weiterentwickelt. Auf meiner anderen Website noch mehr zu Killer-Robots und der Diskussion der Pro- und Contra-Argumente.

 



Philipp Schaumann, https://sicherheitskultur.at/


zeigende Hand als Hinweis auf Verlinkung zur HauptseiteHome

Copyright-Hinweis:
Das Copyright des Materials auf diesen Webseiten liegt, falls kein anderer Autor genannt wird, bei Philipp Schaumann. Creative Commons License Icon
Diese Texte sind lizensiert unter der Create Commons Attribution-Noncommercial-Share Alike 2.0 Austria Lizenz. Natürlich gelten auch die Regeln des Fair Use und über Ausnahmen bzgl. der Lizenz kann jederzeit mit den Autoren gesprochen werden.