Home      Themenübersicht / Sitemap      Webmaster      

 

Andere Kritikpunkte an Social Media

Und wiederum an anderer Stelle geht es um den Verlust der Privatsphäre durch Social Media.

In einem anderen Artikel behandele ich viele generelle Kritikpunkte an Social Media, z.B. ihre Marktdominanz, das Suchtpotential, Hass und Bullying in den Foren.

 

 

Fake-News und andere Unwahrheiten

Philipp Schaumann - Letzte Aktualisierung: Juli 2018

Warum die Aufregung über Fake News?

Die Verbreitung von Unwahrheiten und Lügen ist keine Erfindung des 21. Jahrhunderts. Neu ist das Internet und das World-Wide-Web, mit dessen Hilfe es eigentlich jedem möglich ist, mit etwas Geschick eine unglaublich große, weltweite Zuhörerschaft zu erreichen. Das war vor dem Internet nur denen möglich, die über viel Geld und/oder Macht verfügen konnten.

Youtube, der große Radikalisierer

Unter dieser Überschrift findet sich Anfang 2018 ein interessanter Artikel in der NYT. Es geht darin um ein Selbstexperiment. Das fing ganz harmlos an: der Autor hat sich vor der Wahl in den USA ein Video über Trump angesehen. Und dann jeweils auf nächste Video geklickt das dort empfohlen wurde. Nach einigen Weiterklicks war er bei ultra-rechten Verschwörungen.

Dann hat er den Test mit einem anderen Youtube-Account mit Clinton versucht, jeweils das nächste Video angeklickt, dann wieder das nächste, etc. Nach einigen Klicks war er bei linken Verschwörungstheoretikern, z.B. 9/11-Theoretikern, etc.

Das geht auch außerhalb der Politik: Start mit Video zu vegetarischem Essen, das endet bei extremen Veganismus. Auch das Wallstreet Journal hat solche Tests gemacht: How YouTube Drives People to the Internet’s Darkest Corners. Start mit einem Video über Impfungen und nach einigen Klicks endet man bei extremen Impfgegnern.

Was die Tester auch anschauen, sie enden immer bei möglichst extremen Positionen. Man könnte fast auf die Idee kommen, Google will möglichst viel Unruhe in die Welt bringen, aber vermutlich ist das alles viel simpler: Google will mit seinen Algorithmen und der Artificial Intelligence nur einfach möglichst viel Geld machen indem die Benutzer möglichst lange am Schirm gehalten werden. Und der Algorithmus glaubt, das ginge am besten durch möglichst extreme Positionen.

2018 ging der Empfehlungsalgorithmus so weit, dass er zu dem Schul-Shooting in Florida Videos empfiehlt, in denen die protestierenden Schüler als bezahlte Schauspieler diffamiert werden. Und das geht weiter bis zu Video-Empfehlungen, dass eine 2012 School-Shooting nur ein Hoax war.

Das ist eine sehr gefährliche Tendenz, wenn wir immer mehr Entscheidungen den Algorithmen überlassen die nur auf das Profit-Interesse ihrer Eigentümer optimieren. An anderer Stelle mehr zu gefährlichen Algorithmen. Hier noch ein Artikel über die Macht der Internetkonzerne.

2018 veröffentlicht die EU eine Studie zu digital transformation of news media and the rise of online disinformation. Sie diskutieren darin, welche Möglichkeiten der Gegenreaktion gegen solche Kampagnen möglich sein könnten.

Fake-News führen in einigen Ländern zu Lynch-Morden

Wozu Fake-News in kritischen Situationen führen können zeigt sich 2018, wo es in Indien, Sri Lanke, aber auch in Mexiko zu Lynch-Morden kommt, die durch Fake-News getriggert wrden. Mehr dazu an anderer Stelle.

Und neu ist, dass wir 2018 sogar nachweisen können, dass sich Lügen effektiver, weiter und schneller verbreiten als die (oft langweilige) Wahrheit: Fake-News sind schneller als die Wahrheit: "Eine Langzeitstudie untersuchte die Verbreitung von rund 126.000 englischsprachigen Storys via Twitter zwischen 2006 und 2017. Unabhängige Faktenchecker hatten sie zuvor überprüft und als "wahr" oder "falsch" eingruppiert. Die untersuchten Inhalte hatten drei Millionen Menschen insgesamt mehr als 4,5 Millionen mal getwittert."

Ein unwahrer Inhalt hatte eine um 70 Prozent höhere Wahrscheinlichkeit, weiterverbreitet zu werden. Bots, die automatisch Tweets absetzen, treiben die Weiterverbreitung von Unwahrheiten eindeutig an – aber: "Menschliches Verhalten trägt mehr zur unterschiedlichen Ausbreitung von Unrichtigem und Wahrheit bei als automatisierte Roboter", schreiben die Forscher.

Die Nutzer von Facebook, Twitter, Instagram und anderen Netzen sind sich ihres Einflusses und dadurch ihrer Verantwortung (noch?) nicht bewusst. Eine 13-jährige erfindet eine Vergewaltigung und die Politik überschlägt sich. Aber auch jedes Teilen eines reißerischen Artikels (ohne Prüfung z.B. auf Mimikama) verstärkt den Schneeball-Effekt und hilft, einer Lüge bei der Verbreitung zu helfen. Diese Macht entsteht aus wenigen Faktoren: die Digitalisierung aller Nachrichten in Verbindung mit den allgegegenwärtigen Handies und den Vernetzungen auf Twitter, Facebook, Instagram, etc. vermitteln jedem Nutzer die Möglichkeit, bei der Verbreitung von aufregenden Falsch-Nachrichten mitzuwirken.

 

Abofallen, Gewinnspiele, Kettenbriefe, Urban Legends, etc.

Eine Reihe von Websites versuchen, Gerüchten und falschen Nachrichten auf den Grund zu gehen. Besonders hervorzuheben ist die Initiative Mimikama. Sie kümmert sich sehr aktiv um alles im Umkreis von Fake News. Nutzer können Beiträge die ihnen komisch vorkommen an Mimikama melden, Mimikama recherchiert dann nach und berichtet was sie herausgefunden haben. Sie haben auch ein Buch herausgegeben: "Die Fake-Jäger". Dort erklären sie auch wie sie vorgehen und zeigen damit auf, wie jeder Nutzer im Internet der Wahrheit besser auf die Schliche kommen könnte. Zu den Tricks der Aufdecker gehört vor allem fortgeschritte Suchmaschinennutzung, z.B. das Auffinden von Bildern über "umgekehrte Bildersuche". (Sehr schön erklärt hat das alles André Wolf auf der Privacyweek 2017 in Wien - beginnend bei 23:10). Mimikama betreibt auch die spezialisierte Suchmaschine Hoax Search.

Mimikama unterscheidet 2 große Klassen von falschen Nachrichten: das eine sind Nachrichten, durch deren Verbreitung zumeist Geld verdient werden soll und das zweite sind Nachrichten, die politisch Stimmung (und vor allem sehr oft Hass) verbreiten sollen.

Medienkompetenz für Kinder ab 8 Jahre: Andrea Schwendemann- Filme, Bücher und andere Medien, Ravensburger

Bereits zu den Frühzeiten des Internets wurden mit den ersten Emails auch die ersten Kettenbriefe mit Schauergeschichten verbreitet, z.B. die Legende von den HIV-infizierte Nadeln in Kinosesseln oder in Geldrückgabeschlitzen von Automaten. Etwas ängstliche Gemüter werden davon leicht verunsichert. Wenn Sie eine ungew&öhnliche Meldung sehen, dann prüfen Sie lieber auf diesen Websites, ob wirklich was dran ist bevor Sie es Ihren Freunden weiterschicken und diesen unnötig Angst machen und falsche Nachrichten verbreiten.

Zu der ersten Kategorie gehören Abofallen und Gewinnspiele. Abofallen sind vermeintlich kostenlose Angebote, die Kosten werden irgendwo im Kleingedruckten versteckt.

Ein Beispiel bei dem zwar kein Abo verkauft wird, aber ein kostenloser Service gegen Geld angeboten wird, das ist der Antrag auf ein US-Visum. Das gibt es auf offiziellen US-Regierungswebsite kostenlos, aber diese offizielle Website findet sich bei einer Suche im Internet ganz weit unten. Zuerst kommen viele Websites mit offiziell klingenden Namen wie ustraveldocs.com, www.us-esta-org.com, US.VisaCentro.com, americanvisaesta.com, visumusa.net, estas.de, visum-usa.com, etc.Diese verlangen Geld dafür, den eigentlich kostenlosen Visumantrag an die Botschaft weiterzuleiten. Das ist (leider) legal, weil unten im Fuß der Webseite (meistens) steht, dass es auch eine kostenlose Option gibt. Aber wer liest eine Webseite schon bis zu dem Kleingedruckten.

Andere verdienen Geld, indem sie andere Nutzer, z.B. über möglist wilde Nachrichten auf Facebook auf andere Webseiten schicken. Wie kann man mit so etwas Geld verdienen? Da hilft die (leicht verborgene) Internetökonomie. Im Internet wird nämlich derjenige finanziell belohnt, der für Besuche auf kommerziellen Webseiten sorgt. Das nennt sich "affiliate marketing". Der Verbreiter von möglichst wilden Geschichten auf seiner Website wird entlohnt, wenn er möglichst viele Menschen dazu bringt, auf einen Link zu klicken, der den Internetnutzer auf eine andere Website bringt (wo versucht wird, ihm etwas zu verkaufen oder ihn in eine Abofallen zu locken). Z.B. können das Gewinnspiele sein. Veranstalter von Gewinnspielen machen ihr Geld, indem sie die Adressen und weitere Daten, die die Besucher in der Hoffnung auf einen Gewinn korrekt eintragen, an Adressenhändler weiterverkaufen. Oder sie schicken die Benutzer auf Websites, wie Schadsoftware, z.B. "böse" Apps beworben wird.

Wer räumt eigentlich die schmutzige Seite des Internets auf - The Cleaners

Von den Millionen von Beiträgen die täglich in die Netze gestellt werden, ist ein Teil "extrem verstörend". Das sind z.B. Videos und Bildern von extremer Gewalt bis zu Kinderpornographie und drastischen Enthauptungsvideos. Irgendjemand muss da aufräumen. Wenig überraschend wird auch diese extrem schmutzige und belastende Arbeit zunehmend in Länder ausgelagert, bei denen ein niedriger Arbeitnehmerschutz passiert.

Der Film The Cleaners nimmt sich 2018 dieses Themas an. "The Cleaners blickt in die Gedankenwelt von Facebooks Sittenwächtern, die täglich Tausende gemeldete Inhalte löschen oder freigeben - ein realer Social-Media-Horrorfilm ohne Aussicht auf ein Happyend."

Aber nicht alles wird in Billiglohnländer verlagert, hier 2 Berichte über die Auswirkungen dieser Arbeit von sog. Moderators in den USA. Und noch mal: The Human Toll of Protecting the Internet from the Worst of Humanity.

Hier die Links zu anderen Websites die sich dem Aufdecken von falschen Geschichten widmen.

  • Eine EU Initiative mit dem martialischen Namen "EU East Stratcom Task Force" veröffentlicht wöchentlich einen Disinformation Review, auch in deutscher Sprache, interessante Recherchen zu Fake-News die im Web kursieren.
  • hoaxmap.org ist eine weitere deutschsprachige Website die sich um Fake-News im deutschsprachingen Raum kümmert.
  • Für den englisch-sprachigen Teil des Internets gibt es auf Snopes eine gigantische Sammlung von Gerüchten, wahr oder auch nicht. Z.B. die sehr ausführlich recherchierten Artikel zu den berüchtigten Geschichten mit den gestohlenen Nieren oder den unglücklichen Bonsai Kätzchen
  • eine ähnliche Sammlung auf Urban Legends (englisch)

 

 

 

Gefährdung von Demokratie durch Beeinflussung von Wahlen

Dieser Artikel hier behandelt die Wahlbeeinflussungen durch Fake-News und Bots so wie wir das bei Brexit und der Trump-Wahl erlebt haben.

Ein weiterer Artikel diskutiert Wahlbeeinflussungen durch Suchmaschinen und durch gezielte Motivation ausgewählter Wählergruppen.

Herbst 2017: eine US-Online-Vorlesung Calling Bullshit in the Age of Big Data zu der es eine umfangreiche Materialsammlung mit vielen Links zu lehrreichen Artikeln gibt.

Januar 2017: Guter Kommentar von Helmut Müller in den Salzburger Nachrichten:

    "Das Internet, das gestartet ist als Mobilisierungsmittel der Demokratie, hat sich in eine Vernebelungsmaschine verwandelt, die die demokratische Öffentlichkeit zu zerstören droht. . . . . ein Begriff wie 'alternative Fakten' aktualisiert in Wahrheit das Diktaturmittel des "Neusprech" aus George Orwells Anti-Utopie '1984'."

 

Fake News machen Politik: postfaktisches Zeitalter

Brexit und die US-Wahl 2016

Welche Ergebnisse die Möglichkeiten der weltweiten Verbreitung von falschen Nachrichten in der Politik haben können, das sehen wir im Ergebnis der Brexit-Abstimmung und der US-Wahl 2016. Bei der Brexit-Abstimmung wurden die Disinformationen (Falschaussagen) der EU-Gegner sehr schnell über die sozialen Medien verbreitet und die Zeitungen hatten keine Gelegenheit, diese Aussagen richtig zu stellen, weil sie die Empfänger der Falschaussagen in ihren Filterblasen ja gar nicht mehr erreichen. Beispiel sind die Behauptungen zu den wöchentlichen EU-Beiträgen die Großbritannien zu zahlen hätte:

    "Der "Boris Battle Bus" fährt mit dem Slogan durchs Land, die Insel entrichte Brüssel jede Woche 350 Millionen Pfund (446 Millionen Euro) an Beiträgen. Es gibt unterschiedliche Vorstellungen davon, wie der korrekte Betrag lautet: Die meisten Schätzungen gehen von 110 bis 175 Millionen Pfund. Fest steht: Der Slogan ist falsch. Johnson und seine Mitstreiter wiederholen ihn dennoch unbeirrt und suggerieren zusätzlich, nach dem Brexit könne man das eingesparte Geld ins nationale Gesundheitssystem NHS stecken."

Ein gefährliches Geschäftsmodell

Roger McNamee, ein früher Investor in und Berater von Facebook schildet im Washington Monthly ausführlich, wie er spätestens mit dem Brexit-Ergebnis das Geschäftsmodell von Social Networks als eine Gefahr für die Demokratie sieht. Die Social Networks leben von Werbung, möglichst zielgenau auf die Person ausgerichtet, sie optimieren die Zeit die der Nutzer auf der Seite verbleibt. Der Algorithmus bevorzugt Inhalte, die möglichst sensationell sind, d.h. die die Nutzer auf der Seite halten und beschäftigen, die weiterverteilt werden unter den "friends" - maximum share of attention, which optimizes profits. Dagegen kann eine Zeitung nicht mithalten, deren Inhalte sind für eine breite Masse und nicht zielgerichtet.

Im Fall von Werbung für Brexit und Trump hilft sogar, dass das Geschäftsmodell und der Algorithmus Werbung die sich an Schlecht-Verdiener richtet, billig anbietet. D.h. für wenig Geld kann eine Organisation zielgerichtet Negativ-Botschaften an Personen senden, die sich benachteiligt fühlen. Das Geschäftsmodell bietet einen optimalen Hebel für rechte und nationalistische Positionen.

"Politik der Gefühle"

Im Falter 12/2018 wird auf den Essay "Politik der Gefühle" von Josef Haslinger referenziert. Er hat bereits 1987 sehr gut beschrieben, was heute bei Wahlen passiert. Früher haben die Kandidaten ihre Positionen publiziert und dann versucht, die Wähler für diese Positionen zu gewinnen.

Heute geht das andersrum: Der Wähler wird analysiert was er denn wohl wünschen würde und dann werden personalisierte Dark posts gezeigt, die möglichst zielgenau auf die Gefühle dieses einen Wählers zugeschnitten sind und mit der Position des Kandidaten nicht viel zu tun haben müssen. (Dark posts, weil niemand anders diese Werbung sieht, d.h. für die anderen Wähler und die Presse unsichtbar. Die Presse kann diese angebliche Aussage nicht hinterfragen weil sie nur an eine ganz kleine Zielgruppe gesendet wurde).

Hasslinger: "Es ist die Strategie einer prinzipiellen Standpunktlosigkeit. Der Werber bewegt sich selbst, umschmeichelt den Umworbenen, hält ihn in gegebenen Gefühlswelten fest und bestätigt diese."

Alternativ zu der Option, einen Kandidaten zu intervenieren wird auch die Gegenstrategie eingesetzt: Eine Nachricht an die potentiellen Wähler des Gegenkandidaten zu senden die diesen Wähler von der Wahl abhalten. Ein Beispiel wäre, an Personen die von Facebook als "Judenhasser" klassifiziert wurden ein Posting zu senden, dass der eigentlich bevorzugte Kandidat eine pro-isreal Aussage gemacht hätte.

Ähnlich sind die Wahrheitsprobleme beim Thema Migration. Der Standard stellt richtig:

    . . . Wahr ist vielmehr, dass der Anteil der Menschen, die außerhalb ihrer Heimatländer leben, in den letzten Jahrzehnten kaum gestiegen ist und heute etwa drei Prozent der Weltbevölkerung in Höhe von insgesamt 7,5 Milliarden Menschen beträgt. . . . Dass alle Einwohner der Entwicklungsländer versuchen, in westliche Gesellschaften auszuwandern, ist ein Mythos. Diejenigen, die auswandern, bleiben mit viel größerer Wahrscheinlichkeit in ihrer eigenen Region. . . . in den globalen Migrationszahlen sind . . . 4,9 Millionen Menschen mit britischer Staatsangehörigkeit. . . In Großbritannien zahlen Einwanderer mehr Steuern, als sie an Sozialleistungen beanspruchen.

Einige Kommentatoren sprechen von einem postfaktischen Zeitalter (oder auch contra-faktischen Zeitalter). Post-truth wird von Oxford Dictionaries zum "Wort des Jahres" gewählt. Solche Schlagworte machen aber die Situation nicht erträglicher: Wenn beliebige Lügen in Windeseile breit verteilt werden können und es keine Möglichkeit gibt, die Empfänger für eine Richtigstellung in ihrer Bubble zu erreichen, dann ist auf dieser Grundlage eine funktionierende Demokratie nicht möglich.

Der Standard meldet, dass ein großer Teil der im US-Wahlkampf 2016 in den Social Networks verbreiteten Stories einfach vollständig erfunden sind: "Der Papst hätte sich für die Wahl von Donald Trump ausgesprochen. Hillary Clinton hätte 137 Millionen Dollar für illegale Waffenkäufe ausgegeben. Bill Clinton besitzt angeglich ein 200 Millionen Dollar teures Anwesen auf den Malediven. Hillary Clinton hätte eine Liebesbeziehung zu ihrer Beraterin Huma Abedin." Der Standard-Artikel referenziert dann auf die Filterblasen und versucht mögliche Lösungen, aber da gibt es wohl nicht viel.

Die NY Times berichtet ausführlich über die Hintergründe einer Fake News Factory in Georgien. Es ging den jugendlichen Betreibern rein ums Geld, keine Ideologie dahinter - trotzdem wird sich das bei auf der anderen Seite der Welt auf die Politik aus. Oder eine andere Fake News Fabrik in Mazedonien.

Die Fake-News, Falschnachrichten haben wegen ihres vermeintlichen Sensationsgehalt eine viel höhere Chance, weiterverteilt zu werden, bis zu 1 Million mal höher sagt der Artikel. Diese höhere Verbreitung sorgt für mehr Besucher auf den verlinkten Webseiten und dort Werbung gezeigt. Und über ihr Werbenetzwerk schneidet dann auch Google mit. Jetzt nach der Wahl versuchen Google und Facebook, zurückzurudern und diese Fake-News Welle einzudämmen (an der sie bis jetzt gut verdient haben).

 

2017: Viele Details zum Einsatz, der Implementierung und der Wirkung der Fake-News Angriffe bei der Trump Wahl und Brexit

Sept. 2017: Die NYT und andere arbeiten die Einmischungen aus Russland bei der Wahl von Trump auf und analysieren die genauen Abläufe. Die NYT berichtet The Fake Americans Russia Created to Influence the Election, eine kurze Zusammenfassung ist Neue Details zu Russlands Social-Media-Krieg vor US-Wahl. Dabei spielt z.B. ein (nicht existenter) Melvin Redick eine tragende Rolle. Sein Facebook-Profil war sehr die erste Veröffentlichung einer echten oder gefälschten Nachricht (z.B. die Clinton-Leaks). Dann übernehmen auf Twitter automatische Bots, die so genannte "Warlists" nutzen.

Dabei handelt es sich um Twitter-Bots, die hunderte bis tausende Fake-Profile auf Twitter betreiben und für eine hohe Verbreitung und dadurch hohe Wertigkeit sorgen. Auch Facebook hat in der Zwischenzeit bestätigt, dass sie an gezielter Werbung durch gefälschte russische Accounts während der Wahlzeit gut verdient haben. Siehe auch Purged Facebook Page Tied to the Kremlin Spread Anti-Immigrant Bile. Die falschen Facebook- und Twitter-Accounts aus Russland haben vor allem durch gleichzeitig links- und rechtslastige Propaganda und Falschmeldungen polarisiert und damit (direkt oder indirekt) Stimmung für Trump gemacht.

Feb. 2018 berichtet die NYT in einem ausführlichen Artikel über eine Fake Follower Factory. Am Beispiel der Firma Devumi zeigen sie auf, dass für sehr wenig Geld Twitter und Facebook Follower zu haben sind. Der Artikel listet eine Reihe von Prominenten, die zusammen von Devumi 200 Mio Twitter Follower gekauft haben. Der Hauptgrund warum die Prominenten sich Follower kaufen ist die Aufwertung ihrer eigenen Accounts durch die großen Followerzahl. Dies scheint z.B. im Show-Business und bei Journalisten heute die primäre Qualitätsmessung zu sein.

Die USA wissen natürlich auch, wie Wahlbeeinflussung geht

Nur für den Fall, dass jemand aus diesen detaillierten Berichten über die Techniken, mit denen Russland die Wahlen in in den USA und die Abstimmiung zu Brexit beeinflusst haben schließen könnte, dass die USA bei diesen Thema sauber sind, hier ein Artikel aus der NYT: Russia Isn’t the Only One Meddling in Elections. We Do It, Too..

Der Unterschied ist, dass die russischen Akteure das Funktionieren des Internets und der Sozialen Netze offenbar sehr gut verstanden haben und damit gut agieren.

Der NYT-Artikel erwähnt Wahlen in Italien, Nicaragua und Serbien die mit viel Geld beeinflusst wurden. “We’ve been doing this kind of thing since the C.I.A. was created in 1947. We’ve used posters, pamphlets, mailers, banners — you name it. We’ve planted false information in foreign newspapers. We’ve used what the British call ‘King George’s cavalry’: suitcases of cash.”

Deutlich dramatischer waren die US-Eingriffe im Iran und Guatemala in den 50igern, Chile in 1973 bei denen jeweils Diktatoren an die Macht gebracht wurden. Dazu viele Anschläge und Anschlagsversuche in Lateinamerika, Afrika und Asien in den 60igern.

Diese Fake Follower sind zum Teil "gestohlene" richtige Personen, deren Accounts mittels Tippfehlern im Namen einen Schatten-Account bekommen, andere sind aber vollkommen künstlich erzeugt. Alle diese Fake-Accounts werden mittels Bots instrumentalisiert. Ein Artikel in golem.de Mein gar nicht böser Twitter-Bot erklärt wie leicht man seinen Twitter Account automatisieren kann, so dass er auf bestimmte Ereignisse z.B. Tweets von bestimmten Personen oder mit bestimmten Texten mit Re-Tweets oder eigenen Tweets oder Likes reagiert. Auf diese Weise entsteht eine weitere Verbreitung der ursprünglichen Nachricht und eine Aufwertung des Accounts in den "Augen" der Algorithmen, die die Wertigkeit bestimmen. Hier aus dem NYT-Artikel über das Ausmaß:

    "By some calculations, as many as 48 million of Twitter’s reported active users — nearly 15 percent — are automated accounts designed to simulate real people, . . . Facebook disclosed to investors that it had at least twice as many fake users as it previously estimated, indicating that up to 60 million automated accounts may roam the world’s largest social media platform. Devumi has more than 200,000 customers, including reality television stars, professional athletes, comedians, TED speakers, pastors and models [who] purchased their own followers. Devumi offers Twitter followers, views on YouTube, plays on SoundCloud, the music-hosting site, and endorsements on LinkedIn,. . ."

Eine andere Art der Wahlbeeinflussung, ebenfalls im Einsatz bei der US-Wahl 2016 ist die Persönlichkeitsanalyse der Internet-Nutzer und dann gezielte Werbung für genau diese Zielgruppe auszuspielen.

Wer für solche eine Analyse das Geld nicht hat, der verwendet für seine bezahlten Postings einfach die Klassifzierungen die Facebook für Werbetreibende anbietet, die gehen auch sehr tief.

Die andere Technik um Meinungen zu beeinflussen sind Anzeigen. Der Standard berichtet Nov. 2017 an Hand von Beispielen, wie russische Agenturen mit Hilfe einer riesigen Zahl von Anzeigen in Social Networks sowohl die Rechte wie die Linke in den USA gezielt aufgehetzt haben. Ziel war (und ist), die politische Mitte zu schwächen und eine Polarisierung der Gesellschaft zu erreichen. (Etwas weiter unten ist ein Artikel zu den russischen Trollfabriken.

Im Laufe von 2017 kommen immer mehr Details ans Licht: 419 russische Fake-Profile twitterten pro Brexit und ein ausführlicher NYT Bericht: Signs of Russian Meddling in Brexit Referendum. Dieser Artikel berichtet auch darüber, dass es die russischen Aktivitäten nicht eingestellt sind: auch bei dem Streit um Katalonien gibt es Hinweise auf russische Aktivitäten zum Anheizen des Konflikts. Dabei spielen neben den Fake Facebook Accounts auch die offiziellen die Agenturen Sputnik und Russia Today eine wichtige Rolle. Auch dort werden gleichzeitig links- und rechtsradikale Positionen vertreten und verstärkt.

Noch ein ausführlichter NYT Bericht: She Warned of ‘Peer-to-Peer Misinformation.’. In dem Artikel geht es um eine Aktivistin, die zusammen mit anderen beobachtet und dokumentiert hat, wie mit Hilfe von Fake Accounts and Bots in den sozialen Medien militante Stimmung gemacht wird.

Noch eine späte Enthüllung: Twitter: 6500 russische Fake-Konten unterstützten Labour bei britischer Parlamentswahl im Juni 2017. Das zeigt, mit welch massiven Mitteln über Social Network die Bevölkerung manipuliert wird.

 

 

 

Stimmen und Videos fäschen leicht gemacht - Deepfakes

Und noch eine schlechte Nachricht:
der Falter berichtet von einer neuen Software, die das Erstellen von falschen Videos deutlich vereinfacht: Face2Face überträgt die Mimik eines Gesichts auf ein fremdes Gesicht. Man kann damit die Person z.B. Grinsen lassen. Ein neues Programm von Adobe, das auch als 'Audio-Photoshop' bezeichnet wird, "lauscht" 20 Min. der Stimme einer Person und kann dann diese Person alle Texte sagen lassen, die als Text in das Programm eingegeben werden, Stimme, Tonfall, etc. stimmt.

Russische Troll Fabriken

Bereits im Sept. 2015 gab es mehrere Artikel zu sog. Troll Fabriken. Russland hat eine spezielle Technik im modernen Cyberwar perfektioniert: Angriffe auf die öffentliche Meinung im In- und Ausland mittels Troll Fabriken. Der Link führt auf einen sehr ausführlichen Hintergrundbericht in der NY Times, in dem geschildert wird, dass ein ganzes Gabäude in St. Petersburg nur dem Erzeugen von Stimmung durch falsche Nachrichten gewidmet ist. Auf diese Weise hatte Putin zuerst nur die öffentliche Meinung in Russland, z.B. was die Krim und die Ukraine betrifft, ganz gut in Griff und auch im Westen sind viele Leute durch die bezahlten Blog-Beiträge ziemlich verwirrt.

Diese Troll Fabrik war auch bei der US-Wahl 2016 extrem beschäftigt. Zu den Trollfabriken hier ein interessanter Artikel in Techrepublic: The new art of war: How trolls, hackers and spies are rewriting the rules of conflict. Ziel der russischen Politik ist es, Zwietracht in den westlichen Demokratien zu säen, und zwar speziell zu Wahlzeiten. Sie adressieren dabei Menschen, die entweder linke oder rechts-konservative Positionen vertreten. So haben sie z.B. in den USA gleichzeitig zu Pro-Trump Demonstrationen und zu Gegendemonstrationen aufgerufen. Ergebnis war eine extrem angezeigte Gesellschaft, bei einer der Aktionen ist dann eine Anti-Trump Demonstrantin gezielt überfahren worden.

Die NY Times berichtet: A Powerful Russian Weapon: The Spread of False Stories. Der Artikel berichtet über die vielen falschen Berichte aus Russland zu Themen wie dem Abschuss des Zivilflugzeugs über der Ukraine oder die Behauptung, dass die NATO Kernwaffen in Schweden positioniert hätte. Die Zeitschrift Wired berichtet, wie diese Aktionen in den großen Kontext der russischen Strategie passen: A Guide to Russia’s High Tech Tool Box for Subverting US Democracy. Feb. 2018 wird von der US-Justiz eine offizielle Anklage gegen die Trollfabriken erstellt.

Der Falter bringt einige gute Artikel zum Thema Fake News: Russia Today, der Propagandamaschine von Putin für (gegen) den Westen. Noch ausführlicher stellt das die NYT in einem sehr ausführlichen Artikel dar: RT, Sputnik and Russia’s New Theory of War. Sie zeigen, dass es Putin gelingt, das Recht auf freie Meinungsäußerung in den USA sehr weitgehend für seine Propagandazwecke zu nutzen. Und die liegen darin, dass die von ihm kontrollierten Medien, die mittlerweile im US-Kabelfernsehen präsent sind, gleichzeitig weit linke und weit rechte Meinungen propagieren und dabei auch vor einseitiger oder klar falscher Berichterstattung nicht zurückschrecken.

Etwas weiter unten gibt es mehr Details über Strategien unter der Überschrift Doxing, Disinformation Kampagnen gegen lästige Bürger.

 

 

 

Die Wahlen in Österreich 2017 - Microtargeting und Retargeting

Wie der futurezone-Artikel Digitaler Wahlkampf: Von Microtargeting bis zu Dark Posts im Detail beschreibt, wurden die sozialen Medien von den Parteien sehr aktiv eingesetzt. Dabei wurden auch Techniken wie Microtargeting mit sog. "Dark Posts" (die korrekte Bezeichnung bei Facebbook ist Unpublished Page Post) und Retargeting durch "Facebook Pixel". Beides ist derzeit (vor der EU-Datenschutz-Grundverordnung) noch legal (wie das in Zukunft gehandhabt wird, wird man sehen).

Facebook erlaubt es den Werbetreibenden, mittels Microtargeting auch kleine Zielgruppen sehr gezielt zu adressieren. So haben die Grünen z.B. Menschen adressiert, die sich „für Yoga interessieren“, oder die Liste Pilz „Menschen, die sich für Haustiere interessieren“. Das ist für die Parteien preisgünstig, weil jeweils nur eine kleine Zahl von Werbungen geschaltet wird. Bei Retargeting über Facebook werden sog. „Facebook Pixel“ eingesetzt. Zitat: „Der Pixel ist eigentlich ein JavaScript Code und wird auf den Websites der Parteien eingebaut. Dadurch wissen wir nicht nur die IP-Adresse eines Besuchers der Website, sondern Facebook kann ihn auch seinem Profil zuordnen. Man muss dazu Facebook gar nicht offen haben – es reicht, die App am Smartphone installiert und konfiguriert zu haben“, beschreibt Thaler das Feature. „So können wir zB eine Werbung nur an die weiblichen Besucher eines bestimmten Teils unserer Website ausspielen, die zwischen 20 und 30 Jahre alt sind sowie ein Baby haben, das jünger als ein Jahr ist.“

 

 

 

Wie können wir "alternate realities" begegnen?

Julia Ebner, "Wut. Was Islamisten und Rechtsextreme mit uns machen"

Julia Ebner hat die Szene der Hassposter intensiv beobachtet und eine Buch dazu veröffentlicht. Ihre Aussage ist durchaus überraschend: Ein großer Teil der Hassbotschaften in Social Media stammt nicht von frustrierten Bürgern, sondern von straff organisierten Gruppen, die gezielt Debatten manipulieren. (In einer anderen Veröffentlichung habe ich die Zahl 7000 für den gesammten deutschsprachigen Raum gelesen)

Diese kleine Minderheit versucht, speziell vor Wahlen, intensiv Hass und Zwietracht zu sähen und damit für populistische Parteien Stimmung zu machen.

 

Hierzu gibt es leider (noch?) keine wirkliche Lösung. Dafür gibt aber mehr oder weniger gefährliche Ansätze. Im folgenden Abschitt nun einiges zu Lösungsideen.

Ein Falter-Artikel beschäftigt sich mit der Wirkung der Tweets von Trump (hinter Paywall), der Autor ist Medienwissenschaftler und bezieht sich in dem Artikel u.a. auf die Frankfurter Schule, Leute wie Adorno, Fromm, Neumann und Löwenthal und ihre Arbeiten zu Massenmedien. Er schreibt u.a.: "Trump betreibt ein Politik des Postfaktischen, in der nicht Fakten, Themen und Diskussion, sondern Ideologie, Personalisierung und Emotionen wichtig sind. . . Twitter ist ein Medium, das emotionale Politik fördert und in dem Ideologie und Irrationalität an die Stelle von Argumenten, Belegen und Wissen treten."

Ende 2016 gibt es teilweise bizarre Ideen aus der Politik: Obama regt eine Wahrheitsbehörde im US-Außenministerium an. Im Pentagon-Budget gibt es dafür den Posten "Countering Disinformation and Propaganda Act". Die CDU will eine Strafverschärfung bei Fake-News, auch da wird wohl eine Wahrheitsbehörde notwendig werden. Hier eine tolle Satire zum Thema Ministerium für Wahrheit.

Mai 2015
Die NY Times berichtet über Studien und Experimente die Facebook selbst durchgeführt hat: Facebook Use Polarizing? Site Begs to Differ. Facebook sagt, dass der Effekt nicht so stark sei wie oft befürchtet wird, und dass er vor allem damit zusammenhängt, dass die Freundeskreise sehr oft recht homogen sind. Andere Wissenschaftler widersprechen, der Artikel ist recht interessant. August 2016
Mitarbeiter einer US-Universität haben sich die Mechanismen bei der Verbreitung von Fake News im Detail angesehen. Sie kommen zu dem Schluss, dass in ganz vieleh Fällen nach dem ersten Posten der falschen Nachricht zuerst mal automatische Bots die Aufgabe übernehmen, diese Nachricht an Accounts weiterleiten, die eine große Zahl von Followern haben, d.h. die als einflussreiche Nutzer gelten. Wenn dann einige dieser Benutzer die Weiterverteilung übernehmen, so ist in den Augen der Empfänger die Nachricht aufgewertet und wird weiter verbreitet.

Berichte aus den USA zeigen, dass US-Schüler nicht (mehr) in der Lage sind, den Wahrheitsgehalt einer Meldung zu verifizieren. Ich fürchte, dass das nicht US-spezifisch ist. - Die Befürchtung war real: eine Studie in Österreich bestätigt die traurige Nachricht: Jugendliche tun sich schwer, Fake News im Netz zu erkennen. Und eine staatliche Behörde die gegen Fake News vorgeht, ein "Wahrheitsministerium", das riecht stark nach Zensur und 1984. Wissenschaftlich geht New Scientist das Thema an: Seeing reason: How to change minds in a ‘post-fact’ world.

Das ist dann ein Punkt, wo die Forderung nach 'öffentlich-rechtlichen europäischen Social Networks und Suchmaschinen', bei denen nicht die Gewinn-Optimierung im Vordergrund steht, recht vernünftig klingt.

Im Falter 2016 steht dazu ein Artikel Facebook, alte Medien, neuer und alter Hass. Einige Auszüge daraus:

    Facebook trifft auf die neue soziale Lage einer Weltgesellschaft, in der Umverteilung zwar weitergeht, nach oben, zu dem einen Prozent, zum spekulativen Finanzkapital. Aber auch zugunsten aufsteigender Schwellenländer, auf Kosten der reichen Industriestaaten (und jener Länder, die ausgeschlossen bleiben). Deklassierung droht innerhalb der Staaten des Westens, Globalisierung verschärft sie. . . .
    Geschickte Demagogen konnten solche Ängste je schon für sich mobilisieren, die neuerdings algorithmisch präparierte Filterfalle hilft ihnen dabei. . . .
    wer die Idee eines europäischen öffentlich-rechtlichen sozialen Mediums und einer europäischen Suchmaschine mit offengelegten Algorithmen belächelt, sollte an jene Umstände denken, unter denen öffentlich-rechtliche Medien entstanden sind. . . .
    Die Menschen ließen sich seinerzeit [...] verführen, weil Massenmedien sie in antisemitische und völkische Filterblasen einbetteten. Ihre gesellschaftliche und wirtschaftliche Lage war desolat.

 

 

 

Doxing, Disinformation Kampagnen gegen lästige Bürger oder Ex-Partner

Doxing ist in der Sicherheitsszene der Fachbegriff für das Veröffentlichen von (wahren - oder bei Bedarf auch gefälschten) Dokumenten zum Schaden eines Unternehmens oder einer Person oder Organisation. Prominente Beispiele sind die veröffentlichten Dokumente von Sony Pictures Entertainment, des Democratic National Committee, Hacking Team und viele andere. Ziel ist entweder Erpressung oder einfach nur um Schaden anzurichten, z.B. aus Rache. Der Angriff wird gegen Firmen verwendet, aber auch im privaten Bereich, z.B. nach einer streitigen Trennung. Hier eine Studie dazu aus 2017: Why people ruin others’ lives by exposing all their data online.

Bruce Schneier hatte 2015 in einem etwas früheren Artikel im Atlantic geschrieben "The Meanest Email You Ever Wrote, Searchable on the Internet: In the age of cloud computing, everyone is vulnerable." 2016 hat Bruce Schneier auf die zusätzliche Option, die Dokumente vor dem Leak leicht zu verfälschen, hingewiesen: How Long Until Hackers Start Faking Leaked Documents? Leider ist das aber keine theoretische Überlegung.

Okt. 2016: Doxing durch APT28
Die russische Gruppe APT28 schafft es mal wieder in die Presse: Im Zusammenhang mit den Doping-Vorwürfen gegen russische Sportler werden von russischer Seite Dokumente der Welt-Anti-Dopingagentur Wada veröffentlicht, die über Medikamentennutzung amerikanischer Sportlerinnen berichten. Dabei deutet viel darauf hin, dass die Gruppe die wahlweise als APT28 oder Fancy Bear bezeichnet wird, dahinter steht. Jetzt kommt der Knackpunkt: Wada sagt, dass die meisten der Dokumente schon echt seien, aber nicht alle. Dokumente vor der Veröffentlichung leicht zu verfälschen macht es für die betroffene Organisation sehr schwer, ein glaubhaftes Dementi zu erzeugen.

Disinformation Kampagnen, d.h. Schmierkampagnen kann man aber auch außerhalb Russlands kaufen: der indische Anbieter Aglaya bot 2014 Infiltration in die Netze von "Gegnern", aber auch verdeckte Aktionen wie "sting operations", Diskreditierung von Gegnern (egal ob Privatpersonen oder Firmen) in Social Networks und Twitter und auch das Erzeugen von falschen Anklagen gegen die Opfer der Angriffe. Auch für Angriffe gegen kritische Infrastruktur sind sie sich nicht zu gut.

Auch aus der russichen Trickkiste: ein Bericht in der NY Times Foes of Russia Say Child Pornography Is Planted to Ruin Them. Der Bericht sagt, dass die alte Technik aus Sowjetzeiten, Kinderpornographie auf Rechnern von Regime-Kritikern zu installieren, wieder gut in Mode ist. Letztendlich ist es sehr sehr schwer, sich gegen solche Vorwürfe effektiv zu wehren.

 

 

 

 

Verleumdung wird immer perfekter - Mit Hilfe von AI Stimmen und Videos fälschen

In 2016 konnte Adobes VoCo Software die Stimme einer Person imitieren, wenn 20 Minuten Text von dieser Person zur Verfügung stehen. Zu Beginn 2018 hat der chinesische Internetgigant Baidu mit Hilfe von Artificial Intelligence das so weit perfektioniert, dass weniger als 1 Minute Text ausreicht, z.B. die Ansage auf einem Anrufbeantworter: Baidu can clone your voice after hearing just a minute of audio. So was bietet natürlich nicht nur für die chinesische Regierung tolle Möglichkeiten, jemandem "falsche" Texte in den Mund zu legen.

Aber es geht auch mit Videos:

Dez. 2017:
Mit Hilfe von AI-Systemen sind Videos leicht zu fälschen, so können Verleumder ihre Opfer zu Pornstars machen. Was auch bereits möglich ist: Falsche Aussagen automatisiert zu einem Video hinzufügen.

Feb. 2018: Gefälschte Rachepornos: Deepfakes werden ein richtiges Problem
Rachepornos sind ein bereits etwas älteres Problem: Während der Beziehung hat das Paar Nacktaufnahmen gemacht, nach der Trennung veröffentlicht einer der beiden die Nacktfotos im Internet oder schickt sie an Arbeitskollegen des Ex-Partners. Das gibt es schon eine Weile, ist natürlich illegal, aber es setzte immerhin voraus, dass Nacktfotos existieren. Dies ist heute dank geeigneter Software nicht mehr nötig. Der Kopf des Ex-Partners kann auf Fotos und neuerdings sogar auf Filme von Pornstars draufgesetzt werden. Hier der Artikel zu Deepfakes - der Artikel enthält auch einenn Abschnitt über die Möglichkeiten, sich daegegen zu wehren.

Hier noch ein Artikel über die AI-Hintergründe: Google gave the world powerful AI tools, and the world made porn with them.

 

Zum Glück außerhalb der USA (noch) ein Randthema: Swatting.

Swatting ist zum Glück noch weitgehend auf die USA konzentriert. Der Name leitet sich von SWAT, der amerikanischen Spezialeinheit Special Weapons and Tactics ab. Beim Swatting wird in einem falschen Notruf eine polizeiliche Spezialeinheit zur Wohnung des Opfers geschickt. Ende 2017 führte der Angriff in den USA zu einem Todesopfer. Es ging um einen Streit zwischen Computer-Gamern. Der Wikipedia Artikel meldet für 2015 auch einen Fall in Deutschland.

Hier ein grundsätzlicher Artikel zu Swatting: Wie schwer bewaffnete Polizisten auf Unschuldige gehetzt werden. Der Angriff wird auch oft genutzt, um Journalisten einzuschüchtern - Brian Krebs wurde nach seinen vielen Artikeln über die organisierte Kriminiliät im Internet regelmäßig Ziel von Swatting-Angriffen, mittlerweile kennt die Polizei aber seine Adresse und ruft vorher bei ihm an. Vorher gab es aber durchaus eine Reihe von brenzligen Situationen.

Jan. 2018:
Der bereits erwähnte Brian Krebs hat auch hier die Insider-Story: Serial Swatter “SWAuTistic” Bragged He Hit 100 Schools, 10 Homes. Der vermutliche Täter bei der Tötung durch die Spezialeinheit ist ein bereits bekanner Serientäter. Er saß wegen einer Bombendrohung bereits im Gefängnis, brüstet sich aber seit seiner Freilassung mit Hunderten von solchen Swatting-Anrufen. Hier der Link auf eine deutschsprachige Meldung dazu: Swatting bei Call of Duty: Polizei erschießt Unbeteiligten.

 

 

 

Fake Follower, falsche Freunde - Sock Puppets und Astroturfing

Heute wird der "virtuelle Wert" einer Person immer öfter über die Zahl der Follower in Twitter oder der Friends in Social Networks gemessen. Da wundert es natürlich nicht, daraus auch schnell eine Geschäftsidee wird.

Gestohlene Profile und Identitätsdiebstahl

An anderer Stelle berichte ich, wie solche gestohlenen Profile für kriminelle Absichten verwendet werden und an welchen Stellen jeder Nutzer von Social Media aufpassen muss.

Unter Sock Puppets und Astroturfing wird verstanden, wenn mittels bezahlter Identitäten Stimmung für oder gegen etwas gemacht wird. Ein guter Artikel dazu ist Falsche Freunde als Geschäftszweig. Dort wird berichtet, dass solche Dienste kommerziell angeboten werden, dass ein Mitarbeiter i.d.Regel 20 Identitäten bedient und dass man für 35.000 Euro typischerweise 10.000 neue Fans für eine Website kaufen kann. An anderer Stelle wird berichtet, dass auf eBay 1000 Fans für 1995 Euro zu haben sind - was immer davon der korrekte Preis ist, auf jeden Fall scheint das ein kommerzieller Markt zu sein.

Laut den Security-Spezialisten von Barracuda Networks hat sich bereits eine Schattenwirtschaft um gekaufte Follower und Freunde entwickelt. Der Preis pro Follower soll bei 1,5 Cent liegen. Bzw. wie venturebeat berichtet: $1500 for 100,000 fans — on shady sites like SocialMediaCorp. Siehe Facebook’s war on zombie fans just started - Ergebnis: Rihanna’s down 22,000 fans, and so is Shakira. Lady Gaga is liked by 32,000 fewer people today, and Zynga’s Texas HoldEm Poker is down by almost 100,000 fans.

Der Online-Shop-Anbieter "Limited Run" behauptet, dass die Klicks auf Facebook Ads zu einem großen Teil von nicht-menschlichen "Nutzern" kommen sollen. Sie haben in FB Werbung geschaltet, aber nur 20 Prozent dieser vermeintlichen Nutzer die auf ihre Anzeigen geklickt hätten, wären auch auf der eigenen Webseite aufgetaucht. Dabei ist ihnen auch aufgefallen, dass die anderen Nutzer Javascript deaktiviert hatten, was in der Regel nur ein bis zwei Prozent der Nutzer tun, weil ja sonst die meisten Websites nicht mehr funktionieren. D.h. es sieht ganz so aus als würde irgendein Bot auf die Anzeigen klicken und damit Kosten für die werbenden Firmen und Einnahmen für Facebook erzeugen.

Facebook selbst veröffentlicht Zahlen zu sog. Fake Accounts. Das waren im Juli 2012 8,7%, d.h. von 955 Mio Nutzern sind das 83 Millionen. Aber weiter aufgeschlüsselt sind dies hauptsächlich doppelte Accounts, bzw. Accounts von Haustieren u.ä. Wirkliche "unerwünschte Accounts" sind nach ihren Angaben nur 1,5%, d.h. immerhin 15 Mio. Dies sind Accounts die für Spamming, Werbebetrug wie weiter oben erwähnt oder für Datensammlungen genutzt werden.

 

Paid Posters, Crowd Turfing

Dezember 2011:
Der Artikel Das Geschäft mit dem Crowdturfing zeigt, dass das Manipulieren von Meinungen durch falsche Aktitivitäten in Social Networks mittlerweile ein nennenswerter Gechäftszweig geworden ist. Zitat: "Die meisten Aufträge, die Crowdsourcing-Dienste in China und den USA abwickeln, dienen inzwischen der Manipulation von sozialen Netzwerken und der öffentlichen Meinung". In China sind mittlerweile "paid posters" die auf Webseiten (derzeit noch hauptsächlich noch chinesische) positive oder negative Kommentare und Bewertungen abgeben ein nennenswerter Geschäftszweig geworden.

Aber auch bei englischsprachigen Diensten wie dem Mechanical Turk von Amazon gibt es mehr und mehr zweifelhafte Aktivitäten. Hier berichtet der Guardian über entsprechende Software, ursprünglich entwickelt für psychologische Kriegsführung, aber natürlich auch sehr gut geeignet für positive oder negative Kommunikation über Produkte.

Ein Ergebnis dieser Aktivitäten kann durchaus sein, dass die Bewertungssysteme auf Websites wie eBay, Amazon, den Hotel- und Reisewebsite, etc. irgendwann einmal vollkommen wertlos werden, weil eh die größte Zahl der Beiträge und Bewertungen "bestellt" sind.

 

 

 

Hass-Postings und das Trolley-Problem

2017 war vermutlich für Facebook und Twitter das Jahr, in dem sie entgültig ihre Unschuld verloren habenl. Eine Vorladung vor einen Untersuchungsausschuss ist kein Spaß. Die gesellschaftlichen Wirkungen von Social Networks auf die Gesellschaft wurden durch die Probleme mit problematischer Werbung zur Trump-Wahl extrem zugespitzt.

Das andere Dauerproblem der Social Networks sind die Hasspostings. Nach europäischem, und speziell nach deutschem Recht müssen die Social Networks dagegen aktiv und nicht nur re-aktiv vorgehen. Dies ist ein erheblicher personeller Aufwand und wirft komplexe rechtliche Fragen auf, z.B. wieso entscheidet ein Unternehmen über die Grenzen der Meinungsfreiheit.

Ein unschönes Beispiel für die Folgen dieses Online-Hasses ist Richard Gutjahr. Der Falter berichtet, dass er und seine Familie, weil er bei dem Anschlag in Nizza und bei dem Amoklauf in München anwesend war, jetzt von einer Meute von Verschwörungstheoretikern bedroht wird. Die Details auf seinem Blog www.gutjahr.biz. Aber das ist nur eines von vielen traurigen Beispielen.

Grafische Darstellung des Trolley-Problems aus Wikipedia. An anderer Stelle diskutiere ich das Trolley-Problem und autonome Fahrzeuge.

Oft wird gefragt, wie es kommen kann, dass im Netz so viel Hass, Morddrohungen, etc. veröffentlicht werden. Ist die Bevölkerung wirklich so roh oder liegt es am Netz. Eine mögliche Antwort gibt es evt. das sog. Trolley Problem. Doch was hat der Hass im Netz mit dem Trolley Problem zu tun? Bei dem Trolley Problem geht es um ein Gedankenexperiment, das bereits 1930 erstmal diskutiert wurde, aber dann in den 50iger und 60iger Jahren groß raus kam.

Beim Trolley Problem geht es darum, dass die Testteilnehmer sich eine Situation vorstellen sollen, bei der sie durch den Tod einer Person das Leben mehrer anderer retten können (Details siehe voriger Link zur Wikipedia). Dieses Experiment wird seit 1951 in allen Kulturkreisen durchgeführt und bringt zumeist ein Ergebnis, bei dem die Testpersonen sich zwischen 40% und 60% für die eine oder andere Lösung entscheiden.

Die genaue Zahl der Personen, die bereit sind, zur Rettung anderer zu töten, hängt von dem genauen Testszenario ab. Eine Variante ist das sog. Fat Man Problem. Dabei wird nicht eine Weiche umgestellt, sondern um die 5 Personen zu retten muss die Testperson bereit sein, einen extrem schweren Mann auf die Gleise zu stoßen (und dadurch die Lohre zum Entgleisen zu bringen).

Bei dieser Variante zeigt sich, dass die Bereitschaft, mit den eigenen Händen für den Tod des Unbeteiligten (und der Rettung der 5) zu sorgen, sehr viel geringer ist. Die häufigste Erklärung ist, dass es uns deutlich leichter fällt, diesen Mann zu opfern, wenn die Aktion mittels technischer Hilfsmittel durchgeführt werden kann. Dies kann, wie in diesem Experiment, die Weiche sein, oder der Knopf im Milgram-Experiment (bei dem Textpersonen simulierte andere Testpersonen für "wissenschaftliche Zwecke" mit Stromschlägen folterten) oder eben durch schnelle Hasspostings in Social Networks.

Der Falter-Redakteur Florian Klenk hatte 2016 einen Hassposter zu Hause besucht, der vorher gepostet hatte: "Kann den wer anzünden bitte?". In seinem ausführlichen (kostenpflichtigen) Portrait BORIS WOLLTE MICH VERBRENNEN beschreibt der Autor ausführlich, dass es sich bei dem Poster um einen durchaus bürgerlich geordneten EDV-Techniker mit Familie handelt, der auch im Betrieb durchaus Rücksicht auf die islamischen Kollegen und ihre Religion nimmt, im Netz aber Morddrohungen ausstößt.

In diesem (ebenfalls kostenpflichtigen) Beitrag beschreibt Ingrid Brodnig vom Falter die Ergebnisse ihrer Recherchen bei unterschiedlichen Typen von Postern und wie Zeitungen mit diesem Hass und Hetze in ihren Foren umgehen.

Das "leichtere" Töten wenn es mit Hilfe von Technik geschieht wird natürlich auch beim Militär ausgenützt. Die Geschichte der Kriege der letzten 500 Jahre bringt einen immer größeren Abstand zwischen den Kämpfern, die (derzeit) letzte Stufe ist der (an anderer Stelle beschriebene) Drohnenkrieg. Die nächste Stufe sind die ganz autonomen Waffen, die nur mit einer Aufgabe versehen werden müssen, z.B. "Suche Panzer in der syrischen Wüste" und die dann automatisch losziehen. Solche Drohnen gibt es bereits und sie werden ständig weiterentwickelt. Auf meiner anderen Website noch mehr zu Killer-Robots und der Diskussion der Pro- und Contra-Argumente.

 



Philipp Schaumann, http://sicherheitskultur.at/


Home

Copyright-Hinweis:
Das Copyright des Materials auf diesen Webseiten liegt, falls kein anderer Autor genannt wird, bei Philipp Schaumann. Creative Commons License
Diese Texte sind lizensiert unter der Create Commons Attribution-Noncommercial-Share Alike 2.0 Austria Lizenz. Natürlich gelten auch die Regeln des Fair Use und über Ausnahmen bzgl. der Lizenz kann jederzeit mit den Autoren gesprochen werden.