231. Newsletter - sicherheitskultur.at - 18.12.2025

von Philipp Schaumann

Letzte Ergänzungen 30.12.2025

Zum Archiv-Überblick

 

Hier die aktuellen Meldungen:

1. Algorithmische Auswahl auf Social Media und Polarisierung

Meta, TikTok, Google und Co. bestimmen über unsere digitale Öffentlichkeit: Die Algorithmen auf ihren Social-Media-Plattformen prägen, was wir sehen, worüber wir sprechen und wie sich unsere Wirklichkeit formt. Eine im November 2025 veröffentlichte Studie der Bertelsmann Stiftung und der Universität Potsdam zeigte, dass Parteien im Bundestagswahlkampf 2025 in Deutschland durch Plattformalgorithmen unterschiedlich stark begünstigt oder benachteiligt wurden.

Ein alter Diskussionspunkt: Ist die algorithmische Auswahl dessen, was jedem Nutzer in Social Media (wie Instagram, Tiktok, Youtube, etc.) gezeigt wird, nun verantwortlich für eine Radikalisierung der Ansichten und für Meinungsblasen in denen jede:r nur seine eigenen Positionen verstärkt bekommt?

Darüber kann man trefflich streiten, socialmediawatchblog berichtet nun über ein Experiment rund um 'algorithmisch-bestimmte Inhalte auf Social Media'. Das Experiment fand im Sommer 2024, also mitten im Wahlkampf vor der US-Wahl statt, und zwar auf X, wo es oft recht heftig zugeht.

Mittels einer Browser-Erweiterung bekam ein Teil der 1500 Teilnehmer mehr Beiträge gezeigt, die als `polarisierend`eingestuft wurden, andere Teilnehmer bekamen weniger `polarisierende` Beiträge und die Kontrollgruppe den 'normalen' Feed.

Alle Teilnehmer wurden vorher und nachher zu ihren Einstellungen bezüglich Menschen mit anderen Meinungen gefragt. Sie gaben an, wie sie über die Anhängerïnnen der jeweils anderen Partei denken und welche Gefühle sie hatten, während sie X nutzten.

Ergebnis: Mehr `polarisierende` Beiträge führten zu negativeren Meinungen, die Anhänger der anderen Partei betreffend. Gleichzeitig führte eine Reduktion der `polarisierenden` Beiträge zu einer Reduktion der Verweildauer auf X und zu weniger Reaktionen auf Posts.

Das Resumé von socialmediawatchblog (mit Verweis auf Limitierungen einer solchen Studie): Eine Reduktion von `polarisierenden` Beiträgen wäre möglich, würde aber wegen verkürzter Verweildauer auch zu weniger Einnahmen durch Werbung führen, dh ist für die Betreiber nicht wirklich erstebenswert.

Um die Komplexität des Themas zu verdeutlichen verweist socialmediawatchblog noch auf 2 Positionen:

  • Dan Williams: The Case Against Social Media is Weaker Than You Think
  • Nathan Witkin: The Case Against Social Media is Stronger Than You Think
  •  

    2. Wie ist das denn mit 'Peak Social Media'?

    Im Oktober hatte ich berichtet, dass bei jungen Menschen in den USA (angeblich) die Nutzungsdauer für Social Media abnimmt. Die Wiener Zeitung hat die Untersuchungen nun für Österreich recherchieren lassen, weshalb ich nun in der Oktober-Ausgabe die US-Grafiken durch die österreichischen ersetzt habe.

    Die Zahlen aus Österreich: Seit 2020 gibt es ein Plateau von 2,5 Std. täglich in Social Media (Tiktok, Instagram, Snapchat, Youtube), Online-Zeit insgesamt 3,5 Std, in der Altersgruppe 16-24 Jahre. Das überrascht mich weniger als der angebliche Rückgang, der aus den USA gemeldet worden war. Ich denke, das Plateau lässt sich recht leicht aus der begrenzten Zeit erklären, die nun mal für solche Aktivitäten zur Verfügung steht. Außerdem sind das Mittelwerte. Da bestimmt einige junge Menschen weniger lang online sind, kommen andere wohl auf deutlich höhere Zahlen.

    Hier der Link auf die Wiener Zeitung: Social Media: Ist das Ende erreicht? Alle Details, auch dazu, wie sich die Social Media-Interessen vom eigenen Umfeld zu den Influencer:innen verschoben haben, finden sich in der Oktober-Ausgabe.

     

    3. Social Media, Sucht und psychische Gesundheit

    Eigentlich schon keine Neuigkeiten mehr, aber wir sollten das nicht vergessen: Der US Surgeon General (Wikipedia übersetzt das mit Sanitätsinspekteur der Vereinigten Staaten) hatte bereits 2023 eine Warnung veröffentlicht: “Social Media and Youth Mental Health”. Thema sind die zahlreichen Studien zum Zusammenhang zwischen mentaler Gesundheit von Jugendlichen und starker Social Media Nutzung.

    Das Wallstreet Journal berichtete bereits 2021: Facebook Knows Instagram is Toxic for Teen Girls. Der Artikel ist über Meta-interne Studien, die Meta aber lieber nicht veröffentlichte. Oder 2022 aus Großbritannien: Facebook & Co.: 12-jährige Mädchen und 14-jährige Jungen besonders verletzlich. Oder 2017 wieder Großbritannien: Facebook and Twitter 'harm young people's mental health'.

    Nobelpreisträger Paul Krugman hat die USA als Digital Narco-State bezeichnet. Grund ist, dass in den USA süchtig-machendes Social Media ohne Einschränkungen möglich ist und die Betreiber (die Tech-Oligarchen) sehr guten Zugang zur US-Regierung haben. Wie Krugman es sieht, haben die Social Media Giganten die Regierung 'gekauft' und die US-Regierung macht nun in deren Interesse Druck auf die EU. Gewünscht ist eine Aufweichung unserer Gesetze zu Datenschutz und Online-Plattformen (siehe den digitalen Omnibus, entstanden primär auf Druck der USA). Und es läuft gut für die Tech-Oligarchen: Trump hat gerade den US-Staaten verboten, Gesetze zu erlassen, die AI-Systeme einschränken könnten.

    Weil wir vorher gerade bei Meta waren - Meta nimmt wohl gern mal 'leicht schmutziges Geld'. Ich hatte in diesem Jahr unter Meta verdient angeblich riesig an Scams darüber berichtet, dass Meta bereits 2024 16 Milliarden durch Werbung für betrügerische Aktivitäten verdient hatte. Nachdem dies intern diskutiert worden war, hat Meta dann die Preise für solche Werbung deutlich erhöht (wenn das Ziel der Werbung ist, andere Menschen zu betrügen, so darf die Gewinnspanne auch etwas höher sein {Sarkasmus off}).

     

    4. Das australische Social Media-Verbot für Kinder und Jugendliche unter 16

    Wir kommen von Thema "Social Media" nicht weg. Australien hat nun zum Schutz von Kindern und Jugendlichen unter 16 Jahren ein ziemlich umfassendes Verbot für Social Media verhängt. Die Meinungen der weltweiten Öffentlichkeit sind gespalten. M.E. spricht einiges für ein Verbot, die Details sind aber (wie üblich) kompliziert. Details zu Australien findet sich auf der offiziellen Website der eSafety Commissioner. Der Artikel Social-Media-Bann in Australien beschreibt einige der Details: Verboten sind folgende Plattformen für Kinder unter 16 Jahren:

    Die Betreiber müssen "reasonable steps" zu ergreifen, um Unter-16-jährige auszuschließen. Praktisch müssen sie bereits existierende Accounts von Unter-16-jährigen pausieren und neue Anmeldungen von ihnen unterbinden. Weiter verfügbar bleiben Messenger- und Gaming-Dienste wie Whatsapp, Roblox oder Telegram und auch Fotoplattformen wie Lemon8 oder Yope. (Dass die Spieleplattform Roblox nicht unter die Regelung fält, ist mE etwas eigenartig. Dort passiert viel "Ungutes", wie mir Schulklassen mit 11-jährigen berichten.)

    Die große Herausforderung ist die Feststellung des Alters bei möglichst gutem Datenschutz. Das australische Dokument beschreibt drei zentrale technische Verfahren zur Altersfeststellung (Age Assurance Methods), die Plattformen einzeln oder kombiniert anwenden dürfen, bzw. müssen:

    Kein Anbieter darf ausschließlich Ausweise verlangen (weil damit der Datenschutz deutlich unterlaufen wäre), es muss immer eine "angemessene Alternative" angeboten werden, etwa ein Selfie-Abgleich oder eine Altersbestätigung durch Erziehungsberechtigte.

    Fehleinstufungen sollen durch successive Validation vermieden werden: eine gestufte Prüfung über mehrere Datenquellen und Methoden hinweg. In kritischen Fällen, etwa wenn das System das Alter auf 15 bis 17 Jahre schätzt, sollen Nutzer automatisch zu weiteren Prüfungen weitergeleitet werden. Details der Implementierungen dürfen die Anbieter selbst wählen. Bei Zweifeln wird der Zugang nur eingeschränkt gewährt, bis eine genauere Verifikation möglich ist.

    Die Datensammlungen, die bei jedem der Anbieter dadurch entstehen, gefährden natürlich die persönlichen Daten der Nutzer:innen, entsprechende Datenleaks in solchen Datensammlungen sind bereits früher vorgekommen.

    Viele Jugendliche versuchen Umgehungen, zB durch ein Gesicht der Eltern, falsche Angaben durch die Eltern oder durch VPN-Nutzung (falls das nicht der jeweilige Anbieter verhindert, so wie sich die australische Regierung wünscht und was sich auch recht leicht implementieren lässt). Es wird sich zeigen, wie effektiv das Verbot in der Praxis umgesetzt werden kann.

    Und die EU?

    Die EU arbeitet bereits seit einiger Zeit an einer technischen Lösung, die diese Datenschutzprobleme vermeiden würde: The EU approach to age verification. In einer zukünftigen EU Digital Identity Wallet wird es die Option geben, das Vorliegen eines bestimmten Alters zu beweisen, ohne Namen oder auch nur Geburtsdatum weiterzugeben (Dh der Server fragt, ob die Person älter als X ist, die Antwort ist lediglich Ja oder Nein, keine weiteren Daten über diese Person). Implementierungen werden derzeit in einigen Ländern getestet, die Software ist weitgehend Open Source, kann verifiziert und das Benutzer-Interface für jedes Land angepasst werden. Zur Gesamtkonzept der eIDAS gibt es natürlich auch kritische Stimmen und Verbesserungsvorschläge - ich beziehe mich hier auf die Idee einer selektiven Altersverifikation, für die es viele Anwendungen gibt, zB auch Alkoholverkauf an Jugendliche.

    Eine ähnliche Lösung ist in Österreich bereits für das Verbot von Tabakwaren-Verkauf an Automaten für unter 16 umgesetzt. Die österreichischen Banken wurden gezungen, auf ihren Bankomat-, bzw. Girokarten (heute Debit-Karten) eine Funktion zu implementieren, mit deren Hilfe der Automat von einer österreichischen Karte testen kann, ob der Kartenbesitzer bereits 16 Jahre alt ist (Kurioses Detail: Manchmal warten vor den Bankomaten ausländische Touristen und bitten darum, dass ein Östereicher seine Karte kurz 'davor hält'. Sonst bekommen Touristen keine Zigaretten vom Automaten in Österreich).

     

    Ergänzung: Pro und Contra staatliches Verbot

    Kommunikationswissenschafter Marian Adolf sieht die Verantwortung bei den Social-Media-Unternehmen, die aber nicht genug gegen die negativen Aspekte unternehmen. Ein staatliches Verbot im Alleingang sieht er eher skeptisch, aber als Symbol könnte es doch positive Wirkung haben. Hier seine Punkte, ganz knapp zusammengefasst:

  • zahlreiche Studien belegen, dass soziale Medien erhebliche negative Auswirkungen haben können. Sie sind
  • Schauplatz der Hassrede,
  • Einfallschleusen für Desinformation und
  • Brutbeschleuniger digitaler Radikalisierung.
  • Auf Grund bewusster Designentscheidungen wird die Aufmerksamkeit junger Nutzerinnen und Nutzer regelrecht aufgesaugt, während die Konzerne ihre Daten abschöpfen und mit Werbung überfluten.
  • Viele Jugendliche kämpfen mit suchtähnlichen Problemen und bekommen ihre Bildschirmzeit nicht unter Kontrolle.
  • Es wird gemobbt, verglichen und gedisst [wiki]
  • Staatliche Verbote können technisch umgangen werden, aber Verbote können symbolische Wirkung entfalten.
  • Gerade dieser symbolische Charakter kann bedeutsam sein - wenn nicht mehr alle meine Kontakte online sind, fällt etwas vom sozialen 'Druck' weg.
  • Ein allgemeines Verbot kann auf Jugendliche daher paradoxerweise entlastend wirken: Nichtnutzung wird zur Normalität und niemand muss fürchten, etwas zu verpassen oder sozial abgehängt zu sein.
  • Die Verantwortung für sichere Umgebungen und adäquate Inhalte liegt in erster Linie bei den Plattformen selbst. Sie besitzen die technischen Möglichkeiten (siehe weiter oben), Problematisches früh zu erkennen, zu begrenzen und transparent zu moderieren. Nur das tun sie kaum.
  • Ich schließe mich seiner Meinung an.

     

    5. AI-Slop, Deepfakes und der Verlust gemeinsamer Realität

    Im Oktober 2025 hatte ich das Thema "OpenAIs Sora, das Social Network mit Deepfake-Generator" bereits angerissen und dabei auch Ingrid Brodnig zitiert. Das Problem mit Deepfakes und Desinformation ist, dass die Realität immer mehr verschwimmt. Wenn viele Menschen sagen "Ich kenne mich überhaupt nicht mehr aus, was eigentlich real und was fake ist, was eigentlich die Fakten sind und was nur 'alternative Fakten', dann haben die Zerstörer gewonnen: Netzexpertin Brodnig: "Propaganda ist erfolgreich, wenn sich Leute nicht mehr auskennen".

    Im Dezember 2025 wurde Ingrid Brodnig im österreichischen Fernsehen zu Deepfakes befragt (8 Minuten Video im Artikel verlinkt). Gefragt, warum die Plattformen nicht strikter dagegen vorgehen, weist sie auf die tollen Werbeprofite hin, die (auch mit so was) erzielt werden können.

    Ingrid Brodnig erwartet für 2026 immer mehr und deutlich perfektere Fake-Videos. Sie hofft auf Verbesserungen der Wirksamkeit der europäischen Gegenmaßnahmen gegen Betrug auf den Social Media Plattformen. Brodnig hat auch Angst um unsere Demokratie durch noch bessere politische Fakes, zB vor Wahlen: "Die Grundsubstanz der Demokratie und unsere Realität gehen potentiell verloren".

    Auch in Dokumentarfilmen

    Der Artikel in der NY Times A.I. Video Is Threatening Our Ability to Trust Documentaries berichtet, dass sebst 'ernsthafte' Dokumentarfilmer immer stärker in Versuchung kommen, bei ihren Arbeiten generative AI, dh LLM-Systeme einzusetzen. Das sei ein schlüpfriger Pfad, meint die Autorin Alissa Wilkinson.

    Das beginnt dann zB mit so 'Harmlosigkeiten', wie das Generieren eines Voice-over Hintergrundkommentars mit der Stimme des Protagonisten durch ein AI-System. Oder es werden historische Personen durch AI-Systeme 'wieder zum Leben erweckt', ohne dass die künstliche Generierung erwähnt wird (bzw. maximal im Abspann). Oder es werden Zeitungsartikel oder historische Objekte 'nachgestellt' - ohne die künstliche Generierung deutlich zu erwähnen.

    Die Autorin meint, bisher habe es eine ungeschriebene Regel gegeben, dass in Dokumentationen immer klar sein müsste, welche Bilder real sind und was nachträglich 'gestellt' ist. Historische Fotos oder gar Filme zu finden ist aufwendig - das Generieren mit Hilfe von LLM-Systemen ist daher eine große Versuchung für Dokumentarfilmer, schreibt sie.

    Die Archival Producers Alliance hat Guidelines für die Nutzung generativer AI-Systeme veröffentlicht. So sollten alle entsprechenden Stellen deutlich als 'AI-generiert' markiert werden (und nicht erst im Abspann) - denn oft werden kurze Sequenzen eines Dokumentarfilms später ausgeschnitten und anderweitig verwendet.

    Die Autorin befürchtet, dass wir eine Situation bekommen, bei der jegliche Filmaufnahme als 'Fake News' abgetan werden kann ("liars divident") und die Realität komplett geleugnet wird. Immer mehr Menschen wissen, wie einfach heute Bilder und Filme generiert oder verändert werden können. Dh die Annahme, das Bild könnte auch gefälscht sein, ist immer realer. Die Menschheit verliert die etwas über 100 Jahre währende Sicherheit, dass Fotografien mit einer hohen Wahrscheinlichkeit die Realität wiederspiegeln.

    Die Autorin befürchtet /erwartet, dass Streaming-Plattformen (und andere) einen riesigen (und lukrativen) Markt für Dokumentarfilme (zB True Crime-Dokumentationen [wiki]) schaffen werden. Dies könnte eine große Versuchung für Dokumentarfilmer sein, sich die Arbeit mittels generativer AI leicht zu machen und dabei Fake-News zu generieren (mit allen Vorurteilen und Clichés, die in den Trainingsdaten drin stecken).

    Ergänzung Dez. 2025:
    "AI Slop" [wiki] flutet das Internet, generiert Milliarden von Klicks und spült Millionen in die Kassen anonymer Produzenten: Jedes fünfte YouTube-Video für neue Nutzer ist KI-Schrott.

     

    6. Ergänzungen früherer Beiträge

    Palantir CEO Alex Karp und Kriegsverbrechen in der Karibik

    In meinem früheren ausführlichen Artikel zu Palantir hatte ich bisher nur einen der Gründer behandelt, Peter Thiel. Aber ein weiterer wichtiger Gründer ist Alex Karp. Karp und Thiel sind von ihren Ideologien her sehr unterschiedlich. Alex Karp (heute der Chef von Palantir) hat bei Jürgen Habermas Philosophie studiert, gehört eher zum 'linken Spektrum' und hat nicht Trump, sondern Kamala Harris bei der US-Wahl unterstützt. Karp steht heute ideologisch im Kreise der Tech-Oligarchen ziemlich allein da. Der Falter berichtet in einem ausführlichen Artikel über Leben und Einstellung von Alex Karp (mit Probe-Abo zu lesen).

    Soweit klingt das ja gar nicht so schlimm (mal von der Palantir-Software abgesehen). Aber nun hat Karp in einem Interview zu den Angriffen auf die angeblichen Drogenboote in der Karibik Stellung genommen. Nach Zählungen von US-Medien wurden dabei inzwischen mehr als 90 Menschen getötet. Diese Tötungen ohne Gerichtsverfahren oder Nachweisen (speziell wenn das Boot bereits zerstört ist) werden von vielen als Kriegsverbrechen gesehen. Aus Sicht von UN-Menschenrechtsexperten etwa verstößt die US-Regierung damit gegen das Völkerrecht.

    Karp erklärte, dass eine mögliche Verfassungskonformität der Angriffe auf die Boote gut für das Geschäft von Palantir wäre. Oder wie gizmodo.com es formuliert: Palantir-CEO meint, es wäre gut fürs Geschäft, Kriegsverbrechen für verfassungskonform zu erklären.

    Der Artikel Fluch der Karibik mit den Drohnen Trumps beschreibt die juristische Situation und warum Kriegsrecht keine Anwendung finden kann (die Karibik ist kein Kriegsgebiet und es bestand auch keine Gefahr für Leib und Leben durch die angeblichen 'Schmuggler'). Schmuggler sind Zivilisten, dh Nichtkombattanten und damit kein legitimes Ziel militärischer Aktionen. Selbst wenn Kriegsrecht anwendbar wäre, so wäre die bewusste Tötung der Überlebenden trotzdem ein Kriegsverbrechen. Ein Experte: "Drogenhandel ist ein Verbrechen, kein bewaffneter Konflikt. Bei den Angriffen handelt es sich um willkürliche Tötungen auf hoher See. Das sind extralegale Hinrichtungen.” Der Artikel beschreibt, wie der US-Drohnenkrieg bereits seit einigen früheren US-Präsidenten, wie zB Friedensnobelpreistäger Barack Obama [wiki], auf juristisch sehr dünnem Eis steht. Hier ein früherer Artikel von mir zum problematischen Drohnenkrieg.

     

    Copyright-Streit Disney gegen OpenAI

    Zu dem Urheberrechtsthema beim Training von generativen LLM-Systemen hat es gerade eine leicht bizarre Einigung gegeben. Disney hatte gegen OpenAI geklagt, weil in deren Sora Social Media Plattform immer wieder Disney-Figuren wie Micky Maus oder Sponge Bob verwendet werden - ein Copryight-Alptraum.

    Die überraschende Lösung: Disney investiert eine Milliarde in OpenAI und dafür dürfen Disney-Figuren wie Micky Maus in Sora verwendet werden - Nein, das ist kein Tippfehler: Disney zahlt UND gibt seine Rechte auf. Geniale Lösung für OpenAI!

    Aber das ist nicht die große Lösung für die offenen Urheberrechtsfragen für die generativen LLM-Systeme. Diese Systeme funktionieren nur, wenn sie sich das gesamte Wissen der Menschheit einverleiben können, alles was in den letzten 2000+ Jahren publiziert wurde.

    Viele weitere Prozesse sind noch offen. Die optimale Lösung für die AI-Firmen: Sie möchten eine generelle Freigabe für Trainingszwecke als 'Fair Use'-Nutzung [wiki]. Einge Länder, zB Großbritannien, scheinen bereit zu sein, ihnen da entgegen zu kommen.

     

    Meta und Scams

    Es gibt wieder Neues aus dem Bereich 'Meta und ihr Umgang mit Betrug'. Die kurze Zusammenfassung: Meta könnte es stoppen, tut es aber nicht.

     

    Nvidia

    In einem früheren Artikel zu Nvidia wurden zwei kritische Berichte zu den Zukunftsperspektiven ergänzt. Und ich habe dort auch ergänzt, warum OpenAI und auch Nvidia derzeit durch das LLM Gemini3 von Google etwas in Bedrängnis kommen.

     

    Außerdem wünsche ich uns allen eine friedliche und vielleicht etwas besinnliche Weihnachtszeit. :-)