Philipp Schaumann - Letzte Aktualisierung: Nov. 2024
Warum die Aufregung über Fake News?
Die Verbreitung von Unwahrheiten und Lügen ist keine Erfindung des 21. Jahrhunderts. Neu ist das Internet und das World-Wide-Web, mit dessen Hilfe es eigentlich jedem möglich ist, mit etwas Geschick eine unglaublich große, weltweite Zuhörerschaft zu erreichen. Das war vor dem Internet nur denen möglich, die über viel Geld und/oder Macht verfügen konnten.
Und neu ist, dass wir 2018 sogar nachweisen können, dass sich Lügen effektiver, weiter und schneller verbreiten als die (oft langweilige) Wahrheit: Fake-News sind schneller als die Wahrheit: "Eine Langzeitstudie untersuchte die Verbreitung von rund 126.000 englischsprachigen Storys via Twitter zwischen 2006 und 2017. Unabhängige Faktenchecker hatten sie zuvor überprüft und als "wahr" oder "falsch" eingruppiert. Die untersuchten Inhalte hatten drei Millionen Menschen insgesamt mehr als 4,5 Millionen mal getwittert."
Ein unwahrer Inhalt hatte eine um 70 Prozent höhere Wahrscheinlichkeit, weiterverbreitet zu werden. Bots, die automatisch Tweets absetzen, treiben die Weiterverbreitung von Unwahrheiten eindeutig an - aber: "Menschliches Verhalten trägt mehr zur unterschiedlichen Ausbreitung von Unrichtigem und Wahrheit bei als automatisierte Roboter", schreiben die Forscher.
Die Nutzer von Facebook, Twitter, Instagram und anderen Netzen sind sich ihres Einflusses und dadurch ihrer Verantwortung (noch?) nicht bewusst. Eine 13-jährige erfindet eine Vergewaltigung und die Politik überschlägt sich. Aber auch jedes Teilen eines reißerischen Artikels (ohne Prüfung z.B. auf Mimikama) verstärkt den Schneeball-Effekt und hilft, einer Lüge bei der Verbreitung zu helfen. Diese Macht entsteht aus wenigen Faktoren: die Digitalisierung aller Nachrichten in Verbindung mit den allgegegenwärtigen Handies und den Vernetzungen auf Twitter, Facebook, Instagram, etc. vermitteln jedem Nutzer die Möglichkeit, bei der Verbreitung von aufregenden Falsch-Nachrichten mitzuwirken.
Eine Untersuchung aus 2019 zeigt, welche Themengruppen am sichersten eine intensive Social Media-Debatte auslösen. Das sind Wut und Furcht, also 2 nicht sehr positive Gefühle. Diese Themen erzeugen die stärksten Kommunikationsbeziehungen zwischen einzelnen Teilnehmern. Und das nutzen die Erfinder der Fake News-Geschichten eben aus.
Youtube, der große Radikalisierer?
(Bis 2022 war hinter der Überschrift kein Fragezeichen, aber Google hat wohl ab 2019 Verbesserungen durchgeführt, siehe etwas weiter unten. Hier erst mal der Bericht aus 2018.)
Unter der Überschrift YouTube, the Great Radicalizer fand sich Anfang 2018 ein interessanter Artikel in der NYT. Es geht darin um ein Selbstexperiment. Das fing ganz harmlos an: die Autorin hat sich vor der Wahl in den USA ein Video über Trump angesehen. Und dann jeweils auf nächste Video geklickt das dort empfohlen wurde. Nach einigen Weiterklicks war sie bei ultra-rechten Verschwörungen.
Dann hat sie den Test mit einem anderen Youtube-Account mit Clinton versucht, jeweils das nächste Video angeklickt, dann wieder das nächste, etc. Nach einigen Klicks war sie bei linken Verschwörungstheoretikern, z.B. 9/11-Theoretikern, etc.
Noch ein Beispiel 2019: Es geht um Videos für Kinder. Nach dem Klicken auf 10 weitere Empfehlungen kamen in 45% der Fälle verstörende Inhalte die nicht für Kinder geeignet waren.
Das geht auch außerhalb der Politik: Start mit Video zu vegetarischem Essen, das endet bei extremen Veganismus. Auch das Wallstreet Journal hat solche Tests gemacht: 2018 How YouTube Drives People to the Internet's Darkest Corners. Start mit einem Video über Impfungen und nach einigen Klicks endet man bei extremen Impfgegnern.
Was die Tester auch anschauen, sie enden immer bei möglichst extremen Positionen. Man könnte fast auf die Idee kommen, Google will möglichst viel Unruhe in die Welt bringen, aber vermutlich ist das alles viel simpler: Google will mit seinen Algorithmen und der Artificial Intelligence nur einfach möglichst viel Geld machen indem die Benutzer möglichst lange am Schirm gehalten werden. Und der Algorithmus glaubt, das ginge am besten durch möglichst extreme Positionen.
2018 ging der Empfehlungsalgorithmus so weit, dass er zu dem Schul-Shooting in Florida Videos empfiehlt, in denen die protestierenden Schüler als bezahlte Schauspieler diffamiert werden. Und das geht weiter bis zu Video-Empfehlungen, dass eine 2012 School-Shooting nur ein Hoax war.
Das ist eine sehr gefährliche Tendenz, wenn wir immer mehr Entscheidungen den Algorithmen überlassen die nur auf das Profit-Interesse ihrer Eigentümer optimieren.
Update 2022:Online-Radikalisierung: YouTube-Algorithmus wohl harmloser als gedacht. Die damaligen Artikel haben anscheinend doch was gebracht. Seite 2019 wurde das Empfehlungssystem überarbeitet und mittlerweile zeigen Studien, dass Nutzer:innen extremistische Videos zumeist sehen weil sie dem entsprechenden YouTube-Kanal direkt folgen oder sie auf externe Links klicken. Nur noch selten ließe sich beobachten, dass YouTube solche Kanäle anderen Nutzer:innen empfiehlt.
Fake-News führen in einigen Ländern zu Lynch-Morden
Wozu Fake-News in kritischen Situationen führen können zeigt sich 2018, wo es in Indien, Sri Lanke, aber auch in Mexiko zu Lynch-Morden kommt, die durch Fake-News getriggert wrden. Mehr dazu an anderer Stelle.
Fake News erkennen - Abofallen, Gewinnspiele, Kettenbriefe, Urban Legends, etc.
Eine Reihe von Websites versuchen, Gerüchten und falschen Nachrichten auf den Grund zu gehen. Eine davon ist die Initiative Mimikama. Sie kümmert sich aktiv um alles im Umkreis von Fake News. Nutzer können Beiträge die ihnen komisch vorkommen an Mimikama melden, Mimikama recherchiert dann nach und berichtet was sie herausgefunden haben. Sie haben auch ein Buch herausgegeben: "Die Fake-Jäger". Dort erklären sie auch wie sie vorgehen und zeigen damit auf, wie jeder Nutzer im Internet der Wahrheit besser auf die Schliche kommen könnte.
Zu den Tricks der Aufdecker gehört vor allem fortgeschritte Suchmaschinennutzung, z.B. das Auffinden von Bildern über "umgekehrte Bildersuche". (Sehr schön erklärt hat das alles André Wolf auf der Privacyweek 2017 in Wien). Mimikama betreibt auch die spezialisierte Suchmaschine Hoax Search. Auch die Website Watchlist Internet berichtet über Abofallen, Fake News und andere Betrügereien. Die Website der APA (Austria Press Agentur) bietet einen APA-Faktencheck, bei dem sie Meldungen untersuchen und richtig-stellen.
Mimikama unterscheidet 2 große Klassen von falschen Nachrichten: das eine sind Nachrichten, durch deren Verbreitung zumeist Geld verdient werden soll (oft indem durch reißerische Überschriften Menschen auf ihre Website gelockt werden sollen - das nennt sich 'Click-Bait') und das zweite sind Nachrichten, die politisch Stimmung (und vor allem sehr oft Hass und Zwietracht) verbreiten sollen.
Bereits zu den Frühzeiten des Internets wurden mit den ersten Emails auch die ersten Kettenbriefe mit Schauergeschichten verbreitet, z.B. die Legende von den HIV-infizierte Nadeln in Kinosesseln oder in Geldrückgabeschlitzen von Automaten. Etwas ängstliche Gemüter werden davon leicht verunsichert. Wenn Sie eine ungew&öhnliche Meldung sehen, dann prüfen Sie lieber auf diesen Websites, ob wirklich was dran ist bevor Sie es Ihren Freunden weiterschicken und diesen unnötig Angst machen und falsche Nachrichten verbreiten.
Zu der ersten Kategorie gehören auch Abofallen und Gewinnspiele. Abofallen sind vermeintlich kostenlose Angebote, die Kosten werden irgendwo im Kleingedruckten versteckt.
Ein Beispiel bei dem zwar kein Abo verkauft wird, aber ein kostenloser Service gegen Geld angeboten wird, sind Visum-Anträge (für die USA, Australien und andere). Die gibt es auf den offiziellen Websites kostenlos, z.B. der offiziellen US-Regierungswebsite, aber diese offiziellen Websites finden sich bei einer Suche im Internet oft ganz weit unten. Zuerst kommen viele Websites mit offiziell klingenden Namen wie ustraveldocs.com, www.us-esta-org.com, US.VisaCentro.com, americanvisaesta.com, visumusa.net, estas.de, visum-usa.com, etc.Diese verlangen Geld dafür, den eigentlich kostenlosen Visumantrag an die Botschaft weiterzuleiten. Das ist (leider) legal, weil unten im Fuß der Webseite (meistens) steht, dass es auch eine kostenlose Option gibt. Aber wer liest eine Webseite schon bis zu dem Kleingedruckten.
Fake News als Thema im Unterricht
Zusätzlich zu den vielen Materialien die hier bereits verlinkt sind gibt es noch ein paar weitere die ganz hilfreich sein können bei der Vermittlung von kritischer Internet-Nutzung. Da ist z.B. die Trollwerkstatt. Dort gibt es Texte, Präsentationen und Videos, die dabei unterstützen, Verschwörungserzählungen im Unterricht zu thematisieren. Dort gibt es sogar einen Verschwörungsmythen-Generator. Alle Unterlagen stehen kostenlos zum Download zur Verfügung.
Ein weiteres Angebot kommt von der Landesmedienzentral Baden-Württemberg: Verschwörungstheorien als Unterrichtsthema. Zusätzlich gibt es dort Materialien zu Hatespeech, Cybermobbing, Smartphone Apps, Sexualität und Pornographie, Werbung, digitale Spiele.
Andere verdienen Geld, indem sie Nutzer, z.B. über möglichst wilde Nachrichten auf Facebook oder Instragram auf andere Webseiten schicken, das nennt man Clickbait. Wie kann man mit so etwas Geld verdienen? Da hilft die (leicht verborgene) Internetökonomie. Im Internet wird nämlich derjenige finanziell belohnt, der für Besuche auf kommerziellen Webseiten sorgt. Das nennt sich "affiliate marketing". Der Verbreiter von möglichst wilden Geschichten auf seiner Website wird finanziell belohnt, wenn er möglichst viele Menschen dazu bringt, auf einen Link zu klicken, der den Internetnutzer auf eine andere Website bringt (wo versucht wird, ihm etwas zu verkaufen oder ihn in eine Abofallen zu locken). Z.B. können das Gewinnspiele sein. Veranstalter von Gewinnspielen machen ihr Geld, indem sie die Adressen und weitere Daten, die die Besucher in der Hoffnung auf einen Gewinn korrekt eintragen, an Adressenhändler weiterverkaufen. Oder sie schicken die Benutzer auf Websites, wie Schadsoftware, z.B. "böse" Apps beworben wird.
Wer räumt eigentlich die schmutzige Seite des Internets auf - The Cleaners
Von den Millionen von Beiträgen die täglich in die Netze gestellt werden, ist ein Teil "extrem verstörend". Das sind z.B. Videos und Bildern von extremer Gewalt bis zu sexueller Gewalt gegen Kinder und drastischen Enthauptungsvideos. Irgendjemand muss da aufräumen. Wenig überraschend wird auch diese extrem schmutzige und belastende Arbeit zunehmend in Länder ausgelagert, bei denen ein niedriger Arbeitnehmerschutz passiert.
Der Film The Cleaners nimmt sich 2018 dieses Themas an. "The Cleaners blickt
in die Gedankenwelt von Facebooks Sittenwächtern, die täglich Tausende gemeldete Inhalte löschen oder freigeben - ein realer Social-Media-Horrorfilm ohne Aussicht auf ein Happyend."
Hier die Links zu anderen Websites die sich dem Aufdecken von falschen Geschichten widmen.
Eine EU Initiative mit dem martialischen Namen "EU East Stratcom Task Force" veröffentlicht wöchentlich einen Disinformation Review, auch in deutscher Sprache, interessante Recherchen zu Fake-News die im Web kursieren.
hoaxmap.org ist eine weitere deutschsprachige Website die sich um Fake-News im deutschsprachingen Raum kümmert.
Für den englisch-sprachigen Teil des Internets gibt es auf Snopes eine gigantische Sammlung von Gerüchten, wahr oder auch nicht. Z.B. die sehr ausführlich recherchierten Artikel zu den berüchtigten Geschichten mit den gestohlenen Nieren oder den unglücklichen Bonsai Kätzchen
eine ähnliche Sammlung auf Urban Legends (englisch) - viele wilde Geschichten kann man da kennenlernen ;-)
Hier noch ein Quiz des Schweizer Rundfunks SRF mit konkreten Fake-News wo jede:r prüfen kann, wie kritisch er oder sie 'im Internet unterwegs ist' und erkannt wird, welche der Meldungen ein Fake ist: Echt oder Fake: Testen Sie Ihr Urteilsvermögen. Wer nicht einfach raten will, der kann z.B. über die hier verlinkten Recherche-Seiten (oder die 'umgekehrte Bildersuche') eine wirkliche Recherche versuchen.
Die Gefährdung der Demokratie durch die Beeinflussung von Wahlen
Da gibt es heute mehrere Methoden: Der Artikel auf diser Seite behandelt die Wahlbeeinflussungen durch Fake-News und Bots so wie wir das bei Brexit und der Trump-Wahl erlebt haben.
Ein weiterer Artikel diskutiert Wahlbeeinflussungen durch Suchmaschinen und durch die gezielte Motivation ausgewählter Wählergruppen (die Internetfirmen wissen mindestens so gut wie wir selbst, was jeder von uns wählen wird).
Ein dritter Artikel dreht sich um sog. "psychographic modeling techniques", Techniken auf der Basis der persönlichen Spuren jedes Einzelnen im Internet.
Herbst 2017: eine US-Online-Vorlesung Calling Bullshit in the Age of Big Data. Hier immer noch verlinkt wegen der umfangreichen Materialsammlung mit vielen Links zu lehrreichen Artikeln.
Januar 2017: Guter Kommentar von Helmut Müller in den Salzburger Nachrichten:
"Das Internet, das gestartet ist als Mobilisierungsmittel der Demokratie, hat sich in eine Vernebelungsmaschine verwandelt, die die demokratische Öffentlichkeit zu zerstören droht. . . . . ein Begriff wie 'alternative Fakten' aktualisiert in Wahrheit das Diktaturmittel des "Neusprech" aus George Orwells Anti-Utopie '1984'."
Fake News machen Politik: das schlimme Wort vom "postfaktischen Zeitalter"
Brexit und die US-Wahl 2016
Welche Ergebnisse die Möglichkeiten der weltweiten Verbreitung von falschen Nachrichten in der Politik haben können, das sehen wir im Ergebnis der Brexit-Abstimmung und der US-Wahl 2016.
Ein Beispiel für Fake-News bei der Brexit-Abstimmung sind die Behauptungen zu den wöchentlichen EU-Beiträgen die Großbritannien zu zahlen hätte:
"Der 'Boris Battle Bus' fährt mit dem Slogan durchs Land, die Insel entrichte Brüssel jede Woche 350 Millionen Pfund (446 Millionen Euro) an Beiträgen. Es gibt unterschiedliche Vorstellungen davon, wie der korrekte Betrag lautet: Die meisten Schätzungen gehen von 110 bis 175 Millionen Pfund. Fest steht: Der Slogan ist falsch. Johnson und seine Mitstreiter wiederholen ihn dennoch unbeirrt und suggerieren zusätzlich, nach dem Brexit könne man das eingesparte Geld ins nationale Gesundheitssystem NHS stecken."
Bei dem "Boris Battle Bus" war ja die falsche Aussage wenigstens noch öffentlich zu sehen und andere Medien konnten auf sie eingehen. Aber andere Disinformationen (Falschaussagen) der EU-Gegner wurden sehr schnell über die sozialen Medien verbreitet und die Zeitungen hatten keine Gelegenheit, diese Aussagen richtig zu stellen, weil sie die Empfänger der Falschaussagen in ihren Filterblasen ja gar nicht mehr erreichen. Diesen Effekt nennt man heute Mikrotargeting. Mikrotargeting bedeutet, dass Lügen (z.B. das Hetzen gegen Minderheiten mittels Verbreitung von falschen Nachrichten) die mittels Mikrotargeting an sehr kleine Zielgruppen verteilt werden kaum eine Chance haben, je aufgedeckt zu werden.
Ein gefährliches Geschäftsmodell
Roger McNamee, ein früher Investor in und Berater von Facebook schildet im Washington Monthly ausführlich, wie er spätestens mit dem Brexit-Ergebnis das Geschäftsmodell von Social Networks als eine Gefahr für die Demokratie sieht.
Social Networks leben von Werbung die möglichst zielgenau auf eine Person ausgerichtet, sie optimieren die Zeit die der Nutzer auf ihrer Seite verbleibt. Der Algorithmus bevorzugt Inhalte, die möglichst sensationell sind, d.h. die die Nutzer auf der Seite halten und beschäftigen, die weiterverteilt werden unter den "friends" - maximum share of attention, which optimizes profits. Dafür ist es unwichtig, ob die Meldung wahr oder falsch ist, möglichst sensationell und emotional muss sie sein. Dagegen kann eine Zeitung nicht mithalten, deren Inhalte sind für eine breite Masse geschrieben, nicht zielgerichtet und möglichst unemotional und sachlich.
Im Fall von Werbung für Brexit und Trump hilft sogar, dass das Geschäftsmodell und der Algorithmus Werbung die sich an Schlecht-Verdiener richtet, billiger anbietet (wegen ihrer geringeren Kaufkraft). D.h. für wenig Geld kann eine Organisation zielgerichtet Negativ-Botschaften an Personen senden, die sich benachteiligt fühlen. Das Geschäftsmodell bietet einen optimalen Hebel für rechte und nationalistische Positionen.
"Politik der Gefühle"
Im Falter 12/2018 wird auf den Essay "Politik der Gefühle" von Josef Haslinger referenziert. Er hat bereits 1987 sehr gut beschrieben, was heute bei Wahlen passiert. Früher haben die Kandidaten ihre Positionen publiziert und dann versucht, die Wähler für diese Positionen zu gewinnen.
Heute geht das andersrum: Der Wähler wird analysiert was er denn wohl wünschen würde und dann werden personalisierte Dark posts gezeigt, die möglichst zielgenau auf die Gefühle dieses einen Wählers zugeschnitten sind und mit der Position des Kandidaten nicht viel zu tun haben müssen. (Dark posts, weil niemand anders diese Werbung sieht, d.h. für die anderen Wähler und die Presse unsichtbar. Die Presse kann diese angebliche Aussage nicht hinterfragen weil sie nur an eine ganz kleine Zielgruppe gesendet wurde).
Hasslinger: "Es ist die Strategie einer prinzipiellen Standpunktlosigkeit. Der Werber bewegt sich selbst, umschmeichelt den Umworbenen, hält ihn in gegebenen Gefühlswelten fest und bestätigt diese."
Alternativ zu der Option, einen Kandidaten zu intervenieren wird auch die Gegenstrategie eingesetzt: Eine Nachricht an die potentiellen Wähler des Gegenkandidaten zu senden die diesen Wähler von der Wahl abhalten. Ein Beispiel wäre, an Personen die von Facebook als "Judenhasser" klassifiziert wurden ein Posting zu senden, dass der eigentlich bevorzugte Kandidat eine pro-isreal Aussage gemacht hätte.
Ähnlich sind die Wahrheitsprobleme beim Thema Migration. Der Standard stellt richtig:
. . . Wahr ist vielmehr, dass der Anteil der Menschen, die außerhalb ihrer Heimatländer leben, in den letzten Jahrzehnten kaum gestiegen ist und heute etwa drei Prozent der Weltbevölkerung in Höhe von insgesamt 7,5 Milliarden Menschen beträgt. . . . Dass alle Einwohner der Entwicklungsländer versuchen, in westliche Gesellschaften auszuwandern, ist ein Mythos. Diejenigen, die auswandern, bleiben mit viel größerer Wahrscheinlichkeit in ihrer eigenen Region. . . . in den globalen Migrationszahlen sind . . . 4,9 Millionen Menschen mit britischer Staatsangehörigkeit. . . In Großbritannien zahlen Einwanderer mehr Steuern, als sie an Sozialleistungen beanspruchen.
Einige Kommentatoren sprechen von einem postfaktischen Zeitalter (oder auch contra-faktischen Zeitalter). Post-truth wird von Oxford Dictionaries zum "Wort des Jahres" gewählt. Solche Schlagworte machen aber die Situation nicht erträglicher: Wenn beliebige Lügen in Windeseile breit verteilt werden können und es keine Möglichkeit gibt, die Empfänger für eine Richtigstellung in ihrer Bubble zu erreichen, dann ist auf dieser Grundlage eine funktionierende Demokratie nicht möglich.
Der Standard meldet, dass ein großer Teil der im US-Wahlkampf 2016 in den Social Networks verbreiteten Stories einfach vollständig erfunden sind: "Der Papst hätte sich für die Wahl von Donald Trump ausgesprochen. Hillary Clinton hätte 137 Millionen Dollar für illegale Waffenkäufe ausgegeben. Bill Clinton besitzt angeglich ein 200 Millionen Dollar teures Anwesen auf den Malediven. Hillary Clinton hätte eine Liebesbeziehung zu ihrer Beraterin Huma Abedin." Der Standard-Artikel referenziert dann auf die Filterblasen und versucht mögliche Lösungen, aber da gibt es wohl nicht viel.
Die NY Times berichtet ausführlich über die Hintergründe einer Fake News Factory in Georgien. Es ging den jugendlichen Betreibern rein ums Geld, keine Ideologie dahinter - trotzdem wird sich das bei auf der anderen Seite der Welt auf die Politik aus. Oder eine andere Fake News Fabrik in Mazedonien.
Die Fake-News, Falschnachrichten haben wegen ihres vermeintlichen Sensationsgehalt eine viel höhere Chance, weiterverteilt zu werden, bis zu 1 Million mal höher sagt der Artikel. Diese höhere Verbreitung sorgt für mehr Besucher auf den verlinkten Webseiten und dort Werbung gezeigt. Und über ihr Werbenetzwerk schneidet dann auch Google mit. Jetzt nach der Wahl versuchen Google und Facebook, zurückzurudern und diese Fake-News Welle einzudämmen (an der sie bis jetzt gut verdient haben).
2017: Viele Details zum Einsatz, der Implementierung und der Wirkung der Fake-News Angriffe bei der Trump Wahl und Brexit
Sept. 2017: Die NYT und andere arbeiten die Einmischungen aus Russland bei der Wahl von Trump auf und analysieren die genauen Abläufe. Die NYT berichtet The Fake Americans Russia Created to Influence the Election, eine kurze Zusammenfassung ist Neue Details zu Russlands Social-Media-Krieg vor US-Wahl. Dabei spielt z.B. ein (nicht existenter) Melvin Redick eine tragende Rolle. Sein Facebook-Profil war sehr die erste Veröffentlichung einer echten oder gefälschten Nachricht (z.B. die Clinton-Leaks). Dann übernehmen auf Twitter automatische Bots, die so genannte "Warlists" nutzen.
Dabei handelt es sich um Twitter-Bots, die hunderte bis tausende Fake-Profile auf Twitter betreiben und für eine hohe Verbreitung und dadurch hohe Wertigkeit sorgen. Auch Facebook hat in der Zwischenzeit bestätigt, dass sie an gezielter Werbung durch gefälschte russische Accounts während der Wahlzeit gut verdient haben. Siehe auch Purged Facebook Page Tied to the Kremlin Spread Anti-Immigrant Bile. Die falschen Facebook- und Twitter-Accounts aus Russland haben vor allem durch gleichzeitig links- und rechtslastige Propaganda und Falschmeldungen polarisiert und damit (direkt oder indirekt) Stimmung für Trump gemacht.
Feb. 2018 berichtet die NYT in einem ausführlichen Artikel über eine Fake Follower Factory. Am Beispiel der Firma Devumi zeigen sie auf, dass für sehr wenig Geld Twitter und Facebook Follower zu haben sind. Der Artikel listet eine Reihe von Prominenten, die zusammen von Devumi 200 Mio Twitter Follower gekauft haben. Der Hauptgrund warum die Prominenten sich Follower kaufen ist die Aufwertung ihrer eigenen Accounts durch die großen Followerzahl. Dies scheint z.B. im Show-Business und bei Journalisten heute die primäre Qualitätsmessung zu sein.
Die USA wissen natürlich auch, wie Wahlbeeinflussung geht
Nur für den Fall, dass jemand aus diesen detaillierten Berichten über die Techniken, mit denen Russland die Wahlen in in den USA und die Abstimmiung zu Brexit beeinflusst haben schließen könnte, dass die USA bei diesen Thema sauber sind, hier ein Artikel aus der NYT: Russia Isn't the Only One Meddling in Elections. We Do It, Too..
Der Unterschied ist, dass die russischen Akteure das Funktionieren des Internets und der Sozialen Netze offenbar sehr gut verstanden haben und damit gut agieren.
Der NYT-Artikel erwähnt Wahlen in Italien, Nicaragua und Serbien die mit viel Geld beeinflusst wurden. "We've been doing this kind of thing since the C.I.A. was created in 1947. We've used posters, pamphlets, mailers, banners - you name it. We've planted false information in foreign newspapers. We've used what the British call 'King George's cavalry': suitcases of cash."
Deutlich dramatischer waren die US-Eingriffe im Iran und Guatemala in den 50igern, Chile in 1973 bei denen jeweils Diktatoren an die Macht gebracht wurden. Dazu viele Anschläge und Anschlagsversuche in Lateinamerika, Afrika und Asien in den 60igern.
Diese Fake Follower sind zum Teil "gestohlene" richtige Personen, deren Accounts mittels Tippfehlern im Namen einen Schatten-Account bekommen, andere sind aber vollkommen künstlich erzeugt. Alle diese Fake-Accounts werden mittels Bots instrumentalisiert. Ein Artikel in golem.de Mein gar nicht böser Twitter-Bot erklärt wie leicht man seinen Twitter Account automatisieren kann, so dass er auf bestimmte Ereignisse z.B. Tweets von bestimmten Personen oder mit bestimmten Texten mit Re-Tweets oder eigenen Tweets oder Likes reagiert. Auf diese Weise entsteht eine weitere Verbreitung der ursprünglichen Nachricht und eine Aufwertung des Accounts in den "Augen" der Algorithmen, die die Wertigkeit bestimmen. Hier aus dem NYT-Artikel über das Ausmaß:
"By some calculations, as many as 48 million of Twitter's reported active users - nearly 15 percent - are automated accounts designed to simulate real people, . . . Facebook disclosed to investors that it had at least twice as many fake users as it previously estimated, indicating that up to 60 million automated accounts may roam the world's largest social media platform. Devumi has more than 200,000 customers, including reality television stars, professional athletes, comedians, TED speakers, pastors and models [who] purchased their own followers. Devumi offers Twitter followers, views on YouTube, plays on SoundCloud, the music-hosting site, and endorsements on LinkedIn,. . ."
Eine andere Art der Wahlbeeinflussung, ebenfalls im Einsatz bei der US-Wahl 2016, ist die Persönlichkeitsanalyse der Internet-Nutzer und dann gezielte Werbung für genau diese Zielgruppe auszuspielen.
Wer für eine solche Analyse das Geld nicht hat, der verwendet für seine bezahlten Postings einfach die Klassifizierungen die Facebook für Werbetreibende anbietet, die gehen auch sehr tief.
Die andere Technik um Meinungen zu beeinflussen sind Anzeigen. Der Standard berichtet Nov. 2017 an Hand von Beispielen, wie russische Agenturen mit Hilfe einer riesigen Zahl von Anzeigen in Social Networks sowohl die Rechte wie die Linke in den USA gezielt aufgehetzt haben. Ziel war (und ist), die politische Mitte zu schwächen und eine Polarisierung der Gesellschaft zu erreichen. (Etwas weiter unten ist ein Artikel zu den russischen Trollfabriken.
Im Laufe von 2017 kommen immer mehr Details ans Licht: 419 russische Fake-Profile twitterten pro Brexit und ein ausführlicher NYT Bericht: Signs of Russian Meddling in Brexit Referendum. Dieser Artikel berichtet auch darüber, dass es die russischen Aktivitäten nicht eingestellt sind: auch bei dem Streit um Katalonien gibt es Hinweise auf russische Aktivitäten zum Anheizen des Konflikts. Dabei spielen neben den Fake Facebook Accounts auch die offiziellen die Agenturen Sputnik und Russia Today eine wichtige Rolle. Auch dort werden gleichzeitig links- und rechtsradikale Positionen vertreten und verstärkt.
Noch ein ausführlichter NYT Bericht: She Warned of 'Peer-to-Peer Misinformation.'. In dem Artikel geht es um eine Aktivistin, die zusammen mit anderen beobachtet und dokumentiert hat, wie mit Hilfe von Fake Accounts and Bots in den sozialen Medien militante Stimmung gemacht wird.
2018: Ein Finanzier im letzten US-Wahlkampfs entschuldigt sich, dass seine Spende von 100 000 USD für den Wahlkampf eines demokratischen Senators (heimlich) für eine Fake Facebook-Seite des republikanischen Gegners und Tausende von Fake-Twitter Accounts verwendet wurde. Mehr Details im verlinkten Artikel. Dies scheint aber nur die Spitze des Eisbergs zu sein. Auch wenn die Demokraten sich über die Schmierkampagne gegen Hillary Clinton empören so sind doch einige bereits, solche Techniken ebenfalls einzusetzen. Eine Studie der University of Oxford in 2018: Challenging Truth and Trust: A Global Inventory of Organized Social Media Manipulation, kommt zum Schluss, dass das Manipulieren von Bürgern weltweit ein Riesenbusiness geworden ist, eingesetzt bei Wahlen und anderen Gelegenheiten.
2020: Die Troll-Fabriken sind noch weit professioneller
Er beschreibt, dass die russischen Kampagnen zu Brexit und zur Trump-Wahl zwar effektiv waren, aber dass heute diese Aktivitäten (mehr oder weniger unerkannt) weitergehen und lange nicht mehr so plump sind. Damals wurde oft mit Falschmeldungen gearbeitet, heute werden (sehr oft positive) Emotionen eingesetzt. Das ist viel effektiver wenn die Meldungen durchaus korrekt sind (und daher nicht widerlegt werden können), aber in einem einseitigen Kontext gebracht werden. D.h. die heutigen Meldungen sind korrekt, und positiv, aber sie versuchen, Politiker mit extremeren Ansichten zu stärken gegenüber Politikern, die sich um Ausgleich bemühen. Themen sind z.B. Black Lives Matter oder #MeToo.
Bereits im Sept. 2015 gab es mehrere Artikel zu sog. Troll Fabriken. Russland hat eine spezielle Technik im modernen Cyberwar perfektioniert: Angriffe auf die öffentliche Meinung im In- und Ausland mittels Troll Fabriken. Der Link führt auf einen sehr ausführlichen Hintergrundbericht in der NY Times, in dem geschildert wird, dass ein ganzes Gabäude in St. Petersburg nur dem Erzeugen von Stimmung durch falsche Nachrichten gewidmet ist. Auf diese Weise hatte Putin zuerst nur die öffentliche Meinung in Russland, z.B. was die Krim und die Ukraine betrifft, ganz gut in Griff und auch im Westen sind viele Leute durch die bezahlten Blog-Beiträge ziemlich verwirrt.
Diese Troll Fabrik war auch bei der US-Wahl 2016 extrem beschäftigt. Zu den Trollfabriken hier ein interessanter Artikel in Techrepublic: The new art of war: How trolls, hackers and spies are rewriting the rules of conflict. Ziel der russischen Politik ist es, Zwietracht in den westlichen Demokratien zu säen, und zwar speziell zu Wahlzeiten. Sie adressieren dabei Menschen, die entweder linke oder rechts-konservative Positionen vertreten. So haben sie z.B. in den USA gleichzeitig zu Pro-Trump Demonstrationen und zu Gegendemonstrationen aufgerufen. Ergebnis war eine extrem angezeigte Gesellschaft, bei einer der Aktionen ist dann eine Anti-Trump Demonstrantin gezielt überfahren worden.
Der Falter bringt einige gute Artikel zum Thema Fake News: Russia Today, der Propagandamaschine von Putin für (gegen) den Westen. Noch ausführlicher stellt das die NYT in einem sehr ausführlichen Artikel dar: RT, Sputnik and Russia's New Theory of War. Sie zeigen, dass es Putin gelingt, das Recht auf freie Meinungsäußerung in den USA sehr weitgehend für seine Propagandazwecke zu nutzen. Und die liegen darin, dass die von ihm kontrollierten Medien, die mittlerweile im US-Kabelfernsehen präsent sind, gleichzeitig weit linke und weit rechte Meinungen propagieren und dabei auch vor einseitiger oder klar falscher Berichterstattung nicht zurückschrecken.
Die Wahlen in Österreich 2017 - Microtargeting und Retargeting
Wie der futurezone-Artikel Digitaler Wahlkampf: Von Microtargeting bis zu Dark Posts im Detail beschreibt, wurden die sozialen Medien von den Parteien sehr aktiv eingesetzt. Dabei wurden auch Techniken wie Microtargeting mit sog. "Dark Posts" (die korrekte Bezeichnung bei Facebbook ist Unpublished Page Post) und Retargeting durch "Facebook Pixel". Beides ist derzeit (vor der EU-Datenschutz-Grundverordnung) noch legal (wie das in Zukunft gehandhabt wird, wird man sehen).
Facebook erlaubt es den Werbetreibenden, mittels Microtargeting auch kleine Zielgruppen sehr gezielt zu adressieren. So haben die Grünen z.B. Menschen adressiert, die sich 'für Yoga interessieren', oder die Liste Pilz 'Menschen, die sich für Haustiere interessieren'. Das ist für die Parteien preisgünstig, weil jeweils nur eine kleine Zahl von Werbungen geschaltet wird. Bei Retargeting über Facebook werden sog. 'Facebook Pixel' eingesetzt. Zitat: 'Der Pixel ist eigentlich ein JavaScript Code und wird auf den Websites der Parteien eingebaut. Dadurch wissen wir nicht nur die IP-Adresse eines Besuchers der Website, sondern Facebook kann ihn auch seinem Profil zuordnen. Man muss dazu Facebook gar nicht offen haben - es reicht, die App am Smartphone installiert und konfiguriert zu haben', beschreibt Thaler das Feature. 'So können wir zB eine Werbung nur an die weiblichen Besucher eines bestimmten Teils unserer Website ausspielen, die zwischen 20 und 30 Jahre alt sind sowie ein Baby haben, das jünger als ein Jahr ist.'
Manipulative Kommunikation macht uns im digitalen Raum das Leben schwer. Problematische Phänomene wie Populismus, Propaganda, Radikalisierung und Verschwörungsideologie nutzen unter anderem psychologische Andockstellen die wir alle in uns tragen. Lea zeigt sehr gut verständlich (mit Beispielen) die psychologischen Andockstellen die uns empfänglich machen für Populismus, Propaganda, Radikalisierung und Verschwörungsideologien.
Wie können wir "alternate realities" begegnen?
Hierzu gibt es leider (noch?) keine wirkliche Lösung. Dafür gibt aber mehr oder weniger gefährliche Ansätze. Im folgenden Abschitt nun einiges zu Lösungsideen.
Ein Falter-Artikel beschäftigt sich mit der Wirkung der Tweets von Trump (hinter Paywall), der Autor ist Medienwissenschaftler und bezieht sich in dem Artikel u.a. auf die Frankfurter Schule, Leute wie Adorno, Fromm, Neumann und Löwenthal und ihre Arbeiten zu Massenmedien. Er schreibt u.a.: "Trump betreibt ein Politik des Postfaktischen, in der nicht Fakten, Themen und Diskussion, sondern Ideologie, Personalisierung und Emotionen wichtig sind. . . Twitter ist ein Medium, das emotionale Politik fördert und in dem Ideologie und Irrationalität an die Stelle von Argumenten, Belegen und Wissen treten."
Ende 2016 gibt es teilweise bizarre Ideen aus der Politik: Obama regt eine Wahrheitsbehörde im US-Außenministerium an die 2017 zum Gesetzt wurde. Im Pentagon-Budget gibt es dafür den Posten "Countering Disinformation and Propaganda Act". Die CDU will eine Strafverschärfung bei Fake-News, auch da wird wohl eine Wahrheitsbehörde notwendig werden. Hier eine tolle Satire zum Thema Ministerium für Wahrheit.
Mai 2015
Die NY Times berichtet über Studien und Experimente die Facebook selbst durchgeführt hat: Facebook Use Polarizing? Site Begs to Differ. Facebook sagt, dass der Effekt nicht so stark sei wie oft befürchtet wird, und dass er vor allem damit zusammenhängt, dass die Freundeskreise sehr oft recht homogen sind. Andere Wissenschaftler widersprechen, der Artikel ist recht interessant.
August 2016
Mitarbeiter einer US-Universität haben sich die Mechanismen bei der Verbreitung von Fake News im Detail angesehen. Sie kommen zu dem Schluss, dass in ganz vieleh Fällen nach dem ersten Posten der falschen Nachricht zuerst mal automatische Bots die Aufgabe übernehmen, diese Nachricht an Accounts weiterleiten, die eine große Zahl von Followern haben, d.h. die als einflussreiche Nutzer gelten. Wenn dann einige dieser Benutzer die Weiterverteilung übernehmen, so ist in den Augen der Empfänger die Nachricht aufgewertet und wird weiter verbreitet.
Das ist dann ein Punkt, wo die Forderung nach 'öffentlich-rechtlichen europäischen Social Networks und Suchmaschinen', bei denen nicht die Gewinn-Optimierung im Vordergrund steht, für mich recht vernünftig klingt.
Facebook trifft auf die neue soziale Lage einer Weltgesellschaft, in der Umverteilung zwar weitergeht, nach oben, zu dem einen Prozent, zum spekulativen Finanzkapital. Aber auch zugunsten aufsteigender Schwellenländer, auf Kosten der reichen Industriestaaten (und jener Länder, die ausgeschlossen bleiben). Deklassierung droht innerhalb der Staaten des Westens, Globalisierung verschärft sie. . . .
Geschickte Demagogen konnten solche Ängste je schon für sich mobilisieren, die neuerdings algorithmisch präparierte Filterfalle hilft ihnen dabei. . . .
wer die Idee eines europäischen öffentlich-rechtlichen sozialen Mediums und einer europäischen Suchmaschine mit offengelegten Algorithmen belächelt, sollte an jene Umstände denken, unter denen öffentlich-rechtliche Medien entstanden sind. . . .
Die Menschen ließen sich seinerzeit [...] verführen, weil Massenmedien sie in antisemitische und völkische Filterblasen einbetteten. Ihre gesellschaftliche und wirtschaftliche Lage war desolat.
Doxing, Disinformation Kampagnen gegen lästige Bürger oder Ex-Partner
Doxing ist in der Sicherheitsszene der Fachbegriff für das Veröffentlichen von (wahren - oder bei Bedarf auch gefälschten) Dokumenten zum Schaden eines Unternehmens oder einer Person oder Organisation. Prominente Beispiele sind die veröffentlichten Dokumente von Sony Pictures Entertainment, des Democratic National Committee, Hacking Team und viele andere. Ziel ist entweder Erpressung oder einfach nur um Schaden anzurichten, z.B. aus Rache. Der Angriff wird gegen Firmen verwendet, aber auch im privaten Bereich, z.B. nach einer streitigen Trennung. Hier eine Studie dazu aus 2017: Why people ruin others' lives by exposing all their data online.
Okt. 2016: Doxing durch APT28
Die russische Gruppe APT28 schafft es mal wieder in die Presse: Im Zusammenhang mit den Doping-Vorwürfen gegen russische Sportler werden von russischer Seite Dokumente der Welt-Anti-Dopingagentur Wada veröffentlicht, die über Medikamentennutzung amerikanischer Sportlerinnen berichten. Dabei deutet viel darauf hin, dass die Gruppe die wahlweise als APT28 oder Fancy Bear bezeichnet wird, dahinter steht. Jetzt kommt der Knackpunkt: Wada sagt, dass die meisten der Dokumente schon echt seien, aber nicht alle. Dokumente vor der Veröffentlichung leicht zu verfälschen macht es für die betroffene Organisation sehr schwer, ein glaubhaftes Dementi zu erzeugen.
Disinformation Kampagnen, d.h. Schmierkampagnen kann man aber auch außerhalb Russlands kaufen: der indische Anbieter Aglaya bot 2014 Infiltration in die Netze von "Gegnern", aber auch verdeckte Aktionen wie "sting operations", Diskreditierung von Gegnern (egal ob Privatpersonen oder Firmen) in Social Networks und Twitter und auch das Erzeugen von falschen Anklagen gegen die Opfer der Angriffe. Auch für Angriffe gegen kritische Infrastruktur sind sie sich nicht zu gut.
Auch aus der russichen Trickkiste: ein Bericht in der NY Times Foes of Russia Say Child Pornography Is Planted to Ruin Them. Der Bericht sagt, dass die alte Technik aus Sowjetzeiten, Darstellungen sexueller Gewalt gegen Kinder auf Rechnern von Regime-Kritikern zu installieren, wieder gut in Mode ist. Letztendlich ist es sehr sehr schwer, sich gegen solche Vorwürfe effektiv zu wehren.
Verleumdung wird immer perfekter - Mit Hilfe von AI Fotos, Stimmen und Videos fälschen
In 2016 konnte Adobes VoCo Software die Stimme einer Person imitieren, wenn 20 Minuten Text von dieser Person zur Verfügung stehen. Zu Beginn 2018 hat der chinesische Internetgigant Baidu mit Hilfe von Artificial Intelligence das so weit perfektioniert, dass weniger als 1 Minute Text ausreicht, z.B. die Ansage auf einem Anrufbeantworter: Baidu can clone your voice after hearing just a minute of audio. So was bietet natürlich nicht nur für die chinesische Regierung tolle Möglichkeiten, jemandem "falsche" Texte in den Mund zu legen.
Deep Nudes
2019 veröffentlicht ein Entwickler ein Programm das Bilder von bekleideten Frauen nimmt aus die Kleidung durch Bildteile von nackten Frauen aus dem Internet überlagert, er nennt es Deep Nudes (zum Namen siehe Box links). Dies ist eine weitere Anwendung von AI die wir eigentlich nicht gebraucht haben. Er hat das Programm jetzt wieder zurückgezogen, aber das Programm zirkuliert jetzt eh im Internet. Außerdem kann ein entsprechend ausgebildeter Entwickler dies auch jederzeit wiederholen.
Aber es geht auch mit Videos
"Deep . . . " - Woher der eigentümliche Name?
Deep Fakes oder Deep Nudes ist angelehnt an Deep Learning, eine Technik der künstlichen Intelligenz auf der Basis von künstlichen neuronalen Netzen. Dabei wird das Netz auf Grund von einer möglichst großen Zahl von Beispieldaten "trainiert". Im Fall von Deep Nudes wurden Generative Adversarial Networks (GAN) genutzt. Das sind 2 neuronale Netze, die sich gegenseitig trainieren.
Feb. 2018: Gefälschte Rachepornos: Deepfakes werden ein richtiges Problem
Rachepornos sind ein bereits etwas älteres Problem: Während der Beziehung hat das Paar Nacktaufnahmen gemacht, nach der Trennung veröffentlicht einer der beiden die Nacktfotos im Internet oder schickt sie an Arbeitskollegen des Ex-Partners. Das gibt es schon eine Weile, ist natürlich illegal, aber es setzte immerhin voraus, dass Nacktfotos existieren. Dies ist heute dank geeigneter Software nicht mehr nötig. Der Kopf des Ex-Partners kann auf Fotos und neuerdings sogar auf Filme von Pornstars draufgesetzt werden. Hier der Artikel zu Deepfakes - der Artikel enthält auch einenn Abschnitt über die Möglichkeiten, sich daegegen zu wehren.
Swatting war zu Beginn weitgehend auf die USA konzentriert, aber auch in Deutschland wurden für Swatting in 2022 über 13.000 Fälle gemeldet - ein Anstieg von neun Prozent im Vergleich zu 2021.
Der Name leitet sich von SWAT, der amerikanischen Spezialeinheit Special Weapons and Tactics ab. Beim Swatting wird in einem falschen Notruf eine polizeiliche Spezialeinheit zur Wohnung des Opfers geschickt. Ende 2017 führte der Angriff in den USA zu einem Todesopfer. Es ging um einen Streit zwischen Computer-Gamern. Der Wikipedia Artikel meldet für 2015 auch einen Fall in Deutschland. Auch hier können in 2023 AI-Systeme eingesetzt werden: KI-Stimmen lösen gefährliche Polizeieinsätze aus.
Hier ein grundsätzlicher Artikel zu Swatting: Wie schwer bewaffnete Polizisten auf Unschuldige gehetzt werden. Der Angriffstyp wird auch oft genutzt, um Journalisten einzuschüchtern - Brian Krebs wurde nach seinen vielen Artikeln über die organisierte Kriminiliät im Internet regelmäßig Ziel von Swatting-Angriffen, mittlerweile kennt die Polizei aber seine Adresse und ruft vorher bei ihm an. Vorher gab es aber durchaus eine Reihe von brenzligen Situationen.
Jan. 2018:
Der bereits erwähnte Brian Krebs hat auch hier die Insider-Story: Serial SwatterBragged He Hit 100 Schools, 10 Homes. Der vermutliche Verursacher bei der Tötung durch die Spezialeinheit ist ein bereits bekanner Serientäter. Er saß wegen einer Bombendrohung bereits im Gefängnis, brüstet sich aber seit seiner Freilassung mit Hunderten von solchen Swatting-Anrufen. Hier der Link auf eine deutschsprachige Meldung dazu: Swatting bei Call of Duty: Polizei erschießt Unbeteiligten.
Fake Follower, falsche Freunde - Sock Puppets und Astroturfing
Heute wird der "virtuelle Wert" einer Person immer öfter über die Zahl der Follower in Twitter oder der Friends in Social Networks gemessen. Da wundert es natürlich nicht, daraus auch schnell eine Geschäftsidee wird.
Unter Sock Puppets und Astroturfing wird verstanden, wenn mittels bezahlter Identitäten Stimmung für oder gegen etwas gemacht wird. Ein guter Artikel dazu ist Falsche Freunde als Geschäftszweig. Dort wird berichtet, dass solche Dienste kommerziell angeboten werden, dass ein Mitarbeiter i.d.Regel 20 Identitäten bedient und dass man für 35.000 Euro typischerweise 10.000 neue Fans für eine Website kaufen kann. An anderer Stelle wird berichtet, dass auf eBay 1000 Fans für 1995 Euro zu haben sind - was immer davon der korrekte Preis ist, auf jeden Fall scheint das ein kommerzieller Markt zu sein.
Laut den Security-Spezialisten von Barracuda Networks hat sich bereits eine Schattenwirtschaft um gekaufte Follower und Freunde entwickelt. Der Preis pro Follower soll bei 1,5 Cent liegen. Bzw. wie venturebeat berichtet: $1500 for 100,000 fans - on shady sites like SocialMediaCorp. Siehe Facebook's war on zombie fans just started - Ergebnis: Rihanna's down 22,000 fans, and so is Shakira. Lady Gaga is liked by 32,000 fewer people today, and Zynga's Texas HoldEm Poker is down by almost 100,000 fans.
Der Online-Shop-Anbieter "Limited Run" behauptet, dass die Klicks auf Facebook Werbungsabrufe zu einem großen Teil von nicht-menschlichen "Nutzern" kommen sollen. Die Forscher haben in FB Werbung geschaltet, aber nur 20 Prozent dieser vermeintlichen Nutzer die auf ihre Anzeigen geklickt hätten, wären auch auf der eigenen Webseite aufgetaucht. Dabei ist ihnen auch aufgefallen, dass die anderen Nutzer Javascript deaktiviert hatten, was in der Regel nur ein bis zwei Prozent der Nutzer tun, weil ja sonst die meisten Websites nicht mehr funktionieren. D.h. es sieht ganz so aus als würden Bots auf die Anzeigen klicken und damit Kosten für die werbenden Firmen und Einnahmen für Facebook erzeugen.
Facebook selbst veröffentlicht Zahlen zu sog. Fake Accounts. Das waren im Juli 2012 8,7%, d.h. von 955 Mio Nutzern sind das 83 Millionen. Aber weiter aufgeschlüsselt sind dies hauptsächlich doppelte Accounts, bzw. Accounts von Haustieren u.ä. Wirkliche "unerwünschte Accounts" sind nach ihren Angaben nur 1,5%, d.h. immerhin 15 Mio. Dies sind Accounts die für Spamming, Werbebetrug wie weiter oben erwähnt oder für Datensammlungen genutzt werden.
Paid Posters, Crowd Turfing
Dezember 2011:
Der Artikel Das Geschäft mit dem Crowdturfing zeigt, dass das Manipulieren von Meinungen durch falsche Aktitivitäten in Social Networks mittlerweile ein nennenswerter Gechäftszweig geworden ist. Zitat: "Die meisten Aufträge, die Crowdsourcing-Dienste in China und den USA abwickeln, dienen inzwischen der Manipulation von sozialen Netzwerken und der öffentlichen Meinung". In China sind mittlerweile "paid posters" die auf Webseiten (derzeit noch hauptsächlich noch chinesische) positive oder negative Kommentare und Bewertungen abgeben ein nennenswerter Geschäftszweig geworden.
Aber auch bei englischsprachigen Diensten wie dem Mechanical Turk von Amazon gibt es mehr und mehr zweifelhafte Aktivitäten. Hier berichtet der Guardian über entsprechende Software, ursprünglich entwickelt für psychologische Kriegsführung, aber natürlich auch sehr gut geeignet für positive oder negative Kommunikation über Produkte.
Ein Ergebnis dieser Aktivitäten kann durchaus sein, dass die Bewertungssysteme auf Websites wie eBay, Amazon, den Hotel- und Reisewebsite, etc. irgendwann einmal vollkommen wertlos werden, weil eh die größte Zahl der Beiträge und Bewertungen "bestellt" sind.
Hass-Postings und das Trolley-Problem
2017 war vermutlich für Facebook und Twitter das Jahr, in dem sie entgültig ihre Unschuld verloren haben. Eine Vorladung vor einen Untersuchungsausschuss ist kein Spaß. Die gesellschaftlichen Wirkungen von Social Networks auf die Gesellschaft wurden durch die Probleme mit problematischer Werbung zur Trump-Wahl extrem zugespitzt.
Das andere Dauerproblem der Social Networks sind die Hasspostings. Nach europäischem, und speziell nach deutschem Recht müssen die Social Networks dagegen aktiv und nicht nur re-aktiv vorgehen. Dies ist ein erheblicher personeller Aufwand und wirft komplexe rechtliche Fragen auf, z.B. wieso entscheidet ein Unternehmen über die Grenzen der Meinungsfreiheit.
Ein unschönes Beispiel für die Folgen dieses Online-Hasses ist Richard Gutjahr. Der Falter berichtet, dass er und seine Familie, weil er bei dem Anschlag in Nizza und bei dem Amoklauf in München anwesend war, jetzt von einer Meute von Verschwörungstheoretikern bedroht wird. Aber das ist nur eines von vielen traurigen Beispielen.
Oft wird gefragt, wie es kommen kann, dass im Netz so viel Hass, Morddrohungen, etc. veröffentlicht werden. Ist die Bevölkerung wirklich so roh oder liegt es am Netz. Eine mögliche Antwort gibt es evt. das sog. Trolley Problem. Doch was hat der Hass im Netz mit dem Trolley Problem zu tun? Bei dem Trolley Problem geht es um ein Gedankenexperiment, das bereits 1930 erstmal diskutiert wurde, aber dann in den 50iger und 60iger Jahren groß raus kam.
Beim Trolley Problem geht es darum, dass die Testteilnehmer sich eine Situation vorstellen sollen, bei der sie durch den Tod einer Person das Leben mehrer anderer retten können (Details siehe voriger Link zur Wikipedia). Dieses Experiment wird seit 1951 in allen Kulturkreisen durchgeführt und bringt zumeist ein Ergebnis, bei dem die Testpersonen sich zwischen 40% und 60% für die eine oder andere Lösung entscheiden.
Die genaue Zahl der Personen, die bereit sind, zur Rettung anderer zu töten, hängt von dem genauen Testszenario ab. Eine Variante ist das sog. Fat Man Problem. Dabei wird nicht eine Weiche umgestellt, sondern um die 5 Personen zu retten muss die Testperson bereit sein, einen extrem schweren Mann auf die Gleise zu stoßen (und dadurch die Lohre zum Entgleisen zu bringen).
Bei dieser Variante zeigt sich, dass die Bereitschaft, mit den eigenen Händen für den Tod des Unbeteiligten (und der Rettung der 5) zu sorgen, sehr viel geringer ist. Die häufigste Erklärung ist, dass es uns deutlich leichter fällt, diesen Mann zu opfern, wenn die Aktion mittels technischer Hilfsmittel durchgeführt werden kann. Dies kann, wie in diesem Experiment, die Weiche sein, oder der Knopf im Milgram-Experiment (bei dem Textpersonen simulierte andere Testpersonen für "wissenschaftliche Zwecke" mit Stromschlägen folterten) oder eben durch schnelle Hasspostings in Social Networks.
Der Falter-Redakteur Florian Klenk hatte 2016 einen Hassposter zu Hause besucht, der vorher gepostet hatte: "Kann den wer anzünden bitte?". In seinem ausführlichen (kostenpflichtigen) Portrait BORIS WOLLTE MICH VERBRENNEN beschreibt der Autor ausführlich, dass es sich bei dem Poster um einen durchaus bürgerlich geordneten EDV-Techniker mit Familie handelt, der auch im Betrieb durchaus Rücksicht auf die islamischen Kollegen und ihre Religion nimmt, im Netz aber Morddrohungen ausstößt.
In diesem (ebenfalls kostenpflichtigen) Beitrag beschreibt Ingrid Brodnig vom Falter die Ergebnisse ihrer Recherchen bei unterschiedlichen Typen von Postern und wie Zeitungen mit diesem Hass und Hetze in ihren Foren umgehen.
Das "leichtere" Töten wenn es mit Hilfe von Technik geschieht wird natürlich auch beim Militär ausgenützt. Die Geschichte der Kriege der letzten 500 Jahre bringt einen immer größeren Abstand zwischen den Kämpfern, die (derzeit) letzte Stufe ist der (an anderer Stelle beschriebene) Drohnenkrieg. Die nächste Stufe sind die ganz autonomen Waffen, die nur mit einer Aufgabe versehen werden müssen, z.B. "Suche Panzer in der syrischen Wüste" und die dann automatisch losziehen. Solche Drohnen gibt es bereits und sie werden ständig weiterentwickelt. Auf meiner anderen Website noch mehr zu Killer-Robots und der Diskussion der Pro- und Contra-Argumente.