240. Newsletter - sicherheitskultur.at - 26. April 2026

von Philipp Schaumann

Letzte Ergänzungen 25.04.2026

Themen-Überblick aller Newsletter

 

Hier die aktuellen Meldungen:

1. Social Media-Verbot für Kinder - technische Herausforderungen

Hier die Fortsetzung zum Verbot von Netzinhalten für Kinder und Jugendliche. Im vorigen Newsletter hatte ich das Thema Verbot von Netzinhalten für Kinder und Jugendliche aus grundsätzlicher Sicht, zB der Kinderrechte behandelt (Social Media Verbot und Wahlrecht, das beißt sich irgendwie). Aber dass eine Altersbeschränkung grundsätzlich eine gute Idee ist, das wissen sogar die Betreiber der Social Media-Plattformen - sie haben sehr wohl Altersbeschränkungen in ihren Nutzungsbedingungen, nur werden die nicht kontrolliert.

Die geplante technische Implementierung

In diesem Beitrag konzentriere ich mich auf die Herausforderungen der technischen Umsetzung, und die sind erheblich größer, als das bei der Kommissionspräsidentin klingt: (opens in a new tab)EU-Mini-Wallet ohne Tracking und Open Source Quellcode. Zitat: "sie sei komplett anonym, kostenlos und funktioniere auf allen Geräten". Die App soll aus Datenschutz-Sicht korrekt implementiert werden, und zwar mit (opens in a new tab)Zero Knowledge Proof [wiki]. Dh, das Social Network oder der Porno-Anbieter "fragt" bei der EU-Mini-Wallet, ob der Besitzer dieses Geräts älter als nn Jahre ist, die Antwort ist dann JA oder NEIN, keine weiteren Merkmale, auch kein Geburtsdatum (so etwas gibt es in Ö bereits für Zigarettenautomaten, es funktioniert auf der Basis von österreichischen Bankomat-Karten und gibt keine Identitäten preis).

So weit die Theorie, die Praxis ist (derzeit): (opens in a new tab)EU-App zur Altersprüfung von Experten in weniger als zwei Minuten geknackt. Sicherheitsforscher Paul Moore hat sich die "Age Verification"-App der EU näher angesehen und kommt auf X zu (opens in a new tab)einem vernichtenden Ergebnis: Die App weise nicht nur zahlreiche strukturelle Sicherheitsschwächen auf, sie sei auch extrem leicht zu knacken. Keine zwei Minuten habe er benötigt, um den Check auszutricksen, betont Moore. Hier eine Zusammenfassung (opens in a new tab)der gefundenen Sicherheitsprobleme im Standard. Das sind keine Programmierfehler, sondern Design-Fehler und zahlreiche strukturelle Sicherheitsschwächen. Natürlich lassen sich die beheben, aber das Ganze wirft kein gutes Licht auf die Konzepte.

Der Franzose (opens in a new tab)Baptiste Robert kann die Probleme bestätigen, er konnte die biometrische Authentifizierungsfunktionen der Altersverifizierungs-App umgehen. Er konnte auf die App auch ohne Autorisierung mit einem PIN-Code oder einem biometrischen Anmeldeverfahren zugreifen. Die Europäische Kommission widerspricht und gibt sich entspannt: das wäre lediglich eine frühe Demoversion - alle genannten Sicherheitsprobleme seien bereits in einer neueren Version der App "behoben" worden. Komisch, dass die frühe Demoversion auf Github zum Testen frei gegeben wurde.

In einer EU-Pressekonferenz gibt ein EU-Mitarbeiter (opens in a new tab)Tipps, wie man die Alterskontrolle umgehen kann. Auf Frage eines Journalisten, ob sich künftig auch Reisende aus Nicht-EU-Regionen einer Alterskontrolle unterziehen müssen, wenn sie eine der Instagram, TikTok und Co verwenden wollen, hatte ein EU-Beamter eine verblüffend ehrliche Antwort parat: "Ja, das müssen sie. Außer natürlich, sie nutzen einen (opens in a new tab)VPN" [wiki].

Genau dieser Trick reicht aber auch, um all diese Alterssperren zu umgehen. Es reicht, sich einen VPN-Dienst in einer Region zuzulegen, wo es solche Alterskontrollen nicht gibt und sich dann anzumelden. Auch in Australien ist diese Problematik diskutiert worden, die australische Regierung hat daher ein Verbot des VPN-Zugangs gefordert (das wurde aber von den Plattformen nicht umgesetzt). Auch bei uns gibt es den Ruf nach (opens in a new tab)Verbot von VPN-Diensten. Die haben jedoch wichtige Funktionen. Sie ermöglichen zB Home Office Workern den sicheren Zugang zum Firmennetz. Aber auch ein Zugang zu Social Media ohne Überwachungsmöglichkeit der jeweiligen Regierung ist eine wichtige Funktionalität - auch EU-Regierungen sind dabei erwischt worden, ihre Journalisten zu überwachen, nicht nur in Ungarn. Zur VPN-Frage gibt es keine gute Lösung: Wenn VPN-Zugang erlaubt wird, bringt das Verbot nicht viel, falls VPN-Zugänge (oder TOR) verboten werden, so ist die Anonymität von kritischen Journalisten und Bürgern bedroht.

Nicht sauber geklärt ist auch das Inklusionsproblem. Wir haben ja eine durchaus komplexe Problemstellung: Kinder unter dem zu verifizierenden Alter sollen keinen Zugriff auf bestimmte Web-Plattformen erhalten. Alle, die älter als dieses Alter sind (zB Erwachsene), aber sehr wohl. Und zwar nicht, indem sie mittels VPN zugreifen, weil das könnten die Kinder ja auch, das kann nicht die Lösung sein. Und es sollten auch die Erwachsenen Zugriff haben, die kein Smartphone besitzen, das mit der jeweiligen staatlichen Lösung kompatibel ist oder keinen EU-Pass besitzen - mehr Details im Einschub.

438 Sicherheits- und Privatsphärenforscher 32 Ländern haben auf 6 Seiten ihre Argumente bezüglich Alterskontrollen dargelegt: (opens in a new tab)Joint statement of security and privacy scientists and researchers on Age Assurance. Sie fordern ein Moratorium der Umsetzung, zu viele Fragen sind derzeit noch offen.

In Australien wurden die Technologien zur Altersfeststellung fast vollständig den Betreibern überlassen, die haben die Aufgabe an Dienstleister ausgelagert, so wie von den Wissenschaftlern (siehe oben) befürchtet.

Und die Durchsetzung?

So weit die technischen Herausforderungen. Die wirklichen Herausforderungen sehe ich, siehe die Probleme mit der Durchsetzung in Australien, in der Durchsetzung. Auch die EU tut sich sehr schwer, die tollen DSA- und DMA-Regeln wirklich effektiv durchzusetzen, trotz der angedrohten hohen Strafen. Die betroffenen Plattformen haben genügend Geld, um sich wegen jedem Problem einen Weg durch alle Instanzen leisten zu können.

Datenschutz-NGO Epicenter Works fordert daher die Kommission auf, die Pläne auf Eis zu legen. Generell sollte man sich besser auf die Durchsetzung bestehender EU-Gesetze fokussieren, anstatt an solch problematischen Lösungen zu basteln. Zu einer konsistenten Löschung ungeeigneter Inhalte und effektiver Moderation gibt es bereits jetzt strenge Regeln, die aber sehr gern ignoriert werden (siehe die absolut unpassenden Inhalte auf Grok, Tiktok und Telegram). Wenn die EU diese Inhalte nicht löschen lassen kann, wie kann dann eine Altersbeschränkung effektiv durchgesetzt werden.

Und welche Plattformen sollen betroffen sein?

Ein weiteres, riesiges Thema ist: welche Plattformen sollen bis zu welchem Alter verboten sein? Ein Problem, das ich da sehe, ist, dass auf vielen Plattformen, wie zB Youtube, sehr sinnvolle Inhalte zu finden sind (zB Kurse für fast alle Wissensgebiete), aber leider eben auch die nervigen (opens in a new tab)Youtube-Shorts [wiki] - für alle, die wie ich von den Youtube-Shorts genervt werden: (opens in a new tab)man kann die permanent abstellen (bzw mehr oder weniger permanent).

Auch das hier klingt für mich naiv: Die EU-Komission berichtet, die Statistiken seien alarmierend: (opens in a new tab)Jedes sechste Kind wird online gemobbt, jedes achte ist selbst an Cybermobbing beteiligt. - Ich habe wenig Zweifel an den Zahlen, aber mir ist nicht klar, wie durch eine Altersbeschränkung für ausgewählte Plattformen, bzw Teile dieser Plattformen, Mobbing verhindert werden kann. In Australien ist zB Whatsapp nicht gesperrt, SnapChat aber sehr wohl. Evt. bleibt Whatsapp erreichbar, weil dort auch viele der 'offiziellen' Klassenchats laufen, wo Hausaufgaben verkündet werden und ähnliches. Auch in dem in vielen Schulen eingesetzten MS Teams kann man unpassende Kommentare schreiben.

Mal abgesehen davon, dass auch in der realen Welt gemobbt wird, digitales Mobbing zu verhindern setzt voraus, dass jegliche digitale Gruppen-Kommunikation verhindert würde. Ich denke, das ist mit dem modernen, weitgehend digitalen Realitäten in heutigen Schulen nicht wirklich kompatibel.

Noch ein Gedanke dazu: die Probleme für Kinder im Netz beschränken sich nicht auf sog. "Soziale Medien", siehe die Liste der Herausforderungen: Was Kinder im Netz erleben. Dh ein Verbot einiger Plattformen, wie in Australien, wird wohl nur begrenzte Wirkung zeigen, selbst wenn es der EU gelingen sollte, die Maßnahme bei den Plattformen effektiver durchzusetzen als in Australien. Die gefährlichen Stellen im Netz sind weit verstreut - siehe die Probleme mit AI-Chatbots, mit AI-friends und auch Spielsucht, antrainiert auf Roblox. Dazu gibt es aus Deutschland nun solide Informationen, siehe nächster Beitrag.

 

2. Expertenstudie zu Internet-Gefahren für Kinder

Das deutsche Familienministerium hatte eine Studie in Auftrag gegeben. Die Expertenkommission "Kinder- und Jugendschutz in der digitalen Welt" legt nun eine Bestandsaufnahme der Problematik vor. Auf 120 Seiten legt sie einen umfangreichen (opens in a new tab)Überblick über die Komplexität der Thematik vor. Handlungsempfehlungen will die Kommission bis Ende Juni 2026 vorlegen.

Die vorliegende Bestandsaufnahme analysiert in drei Teilen den aktuellen Stand des Kinder- und Jugendschutzes in der digitalen Welt: Die Studie beschreibt

Weil die 120 Seiten ziemlich lang sind gibt es als (opens in a new tab)Synopse eine 8 Seiten Zusammenfassung. Für alle, denen das immer noch zu lang ist, (opens in a new tab)zitiert Golem.de (vermutlich von einer Pressekonferenz bei der Vorstellung der Bestandsaufnahme - siehe der folgende Textblock):

Hier ein weiterer zusammenfassender Bericht zur Studie: (opens in a new tab)Mindestalter für Social Media: Kommission legt Bestandsaufnahme vor.

 

3. Mehr AI in den Schulen?

Ein, für mich provokanter Vorschlag kommt von der Philosophin (opens in a new tab)Cornelia Mooslechner-Brüll. In Res Publica hat sie eine Position veröffentlicht, in der sie für mehr AI in der Schule eintritt: (opens in a new tab)Mündigkeit im Algorithmus.

Cornelia Mooslechner-Brüll ist für mehr Philosophieren im Unterricht und sieht im Einsatz von Sprachmodellen positive Möglichkeiten der Partizipation, die dann aber auf jeden Fall in gemeinsames Philosophieren und Diskutieren führen muss.

Ihre Punkte:
Ein oft übersehenes Hindernis für politische Partizipation ist die sprachliche und inhaltliche Komplexität der Systeme. Gesetzestexte, kommunale Haushaltspläne und behördliche Dokumente sind in einem Fachjargon verfasst, der weite Teile der Bevölkerung vom Diskurs ausschließt.

Kl-gestützte Sprachmodelle stellen hier den idealen demokratischen Übersetzer dar. Hunderte Seiten können in leicht verständlicher Weise zusammengefasst und erklärt werden. Politische Programme können in die eigene Sprache oder einfachere Diktion übersetzt werden.

Informationsasymmetrien, die oft zu politischer Frustration führen, können so abgebaut werden. Wer die Spielregeln versteht, kann sich einmischen - Kl senkt die Eintrittsbarriere in die res publica drastisch.

Um einen Zwei-Klassen-Zugang zu generativen Systemen zu vermeiden, plädiert sie dafür, allen Kindern (vermutlich ab einem bestimmten Alter) die Nutzung von deutlich besseren Pro-Versionen zu ermöglichen.

Sie selbst nutzt generative AI für ihre Texte und Unterrichtsvorbereitungen intensiv und mit viel Erfahrung. So wie man von allen intensiven Nutzern hört: Die Qualität der Prompts bestimmt die Qualität der Antworten. Dies möchte sie wohl - zusätzlich zu den Möglichkeiten, sich komplizierte Inhalte einfacher erklären zu lassen - bereits in den Schulen vermittelt sehen.

 

4. Marktanteile generativer AI und die Geschäftssituation der Anbieter

Es läuft nicht optimal für OpenAI, ihre Finanzierungen werden hinterfragt, die Marktanteile brechen zu Gunsten Google und Anthropic ein und die Solididität der wirtschaftlichen Prognosen von Anthropic wird deutlich besser eingeschätzt: (opens in a new tab)OpenAI in der Krise: Der ChatGPT-Hersteller am Rande des Nervenzusammenbruchs.

Außerdem hat (opens in a new tab)Sam Altman, als Chef von OpenAI, mittlerweile den Ruf (opens in a new tab)notorischer Unzuverlässigkeit und ist mit dem Rest der Branche heftig zerstritten, die Details im Artikel.

 

Vibe Coding als Kostenfalle für die Anbieter?

Die Vibe Coding-Services, die als eines der stärksten Geschäftsmodelle erschienen, scheinen mehr Compute-Leistung und mehr Strom zu verbrauchen, als sie kosten - dh, je mehr die Kunden davon nutzen, desto mehr Geld verlieren die Anbieter.

Wie man hört, wollen die Anbieter auf neue kostendeckendere Abo-Modelle umstellen, die wohl viel teurer sein werden. Firmen, deren Entwickler viel Vibe-Coding einsetzen, haben heute (April 2026) oft AI-Kosten von 10% der IT-Personalkosten, dh IT-Entwicklung wird teurer, nicht billiger. Außerdem scheint das immer noch nicht kostendeckend für die Anbieter zu sein. Microsoft bietet (opens in a new tab)keine GitHub Copilot subscriptions mehr an.

Noch ein Hinweis: (opens in a new tab)Anthropic nimmt testweise Claude Code aus dem Pro-Tarif. Bei einigen Neukunden fehlt die für Entwickler wichtige Claude-Code-Komponente - es soll ein Test sein, evt, ob die Kunden das merken.

 

5. Statistiken zu den "intelligenten" Leistungen generative AI

 

Die führenden Anbieter generativer AI scheinen ziemlich gleichauf zu liegen, auch die Modelle aus China

Quelle: (opens in a new tab)Want to understand the current state of AI? Check out these charts.

 

Die Leistungen der generativen Systeme für verschiedene Aufgaben

Die Leistungen auf verschiedenen Gebieten werden verglichen mit den Leistungen typischer Menschen (was immer damit gemeint ist).

Bei vielen Aufgaben liegen Menschen gleichauf, bei PhD level science verständlicherweise nicht (die Systeme haben viele wissenschaftliche Veröffentlichungen gelesen, irgendwie "gespeichert" (aber nichts verstanden)). Sie können aber die Texte gut zusammenfassen, dafür gibt es Punkte.

Auch bei Competition Level Math liegen AI-Systeme vor den meisten Menschen. Das sind teilweise spezielle Systeme (zB (opens in a new tab)AlphaProof [wiki]), die für Mathematik optimiert wurden und an den Mathematik-Olympiaden für Schüler mit respektablen Erfolg teilnehmen. Aber auch hier gilt, dass die Systeme (eigentlich) nichts verstanden haben, aber trotzdem viele der Aufgaben lösen (wie menschliche Schüler das auch manchmal machen).

Zur Math-Olympiade siehe (opens in a new tab)DeepMind and OpenAI claim gold in International Mathematical Olympiad. AlphaProof nutzt die spezielle Computersprache (opens in a new tab)Lean [wiki] (Beweisassistent), die entwickelt wurde, um mathematische Beweise in eine formale, computer-verifizierbare Form zu bringen.

 

6. Ergänzungen früherer Beiträge

Mehr zu Deepfakes und Halluzinationen

Ergänzungen bei Deepfakes und AI-Halluzinationen vor Gericht.

Das ist peinlich: (opens in a new tab)Falsche Aufgaben und Bilder: Lehrbuchverlag unter KI-Verdacht. Ein deutscher Lehrbuchverlag soll Aufgabenhefte und Schulbücher, die ziemlich offensichtlich mit KI erstellt wurden, verkaufen - es finden sich die üblichen Fehler. Die Fehler sind teilweise haarsträubend. Wie viele der Bücher bereits an Schulen eingesetzt werden, ist nicht bekannt.

 

Fragen rund um Anthropic Mythos

Im vorigen Newsletter habe ich viele Details zu den Vorgängen rund um das Anthropic Vibe-Coding Tool Mythos ergänzt. Verlinkt ist dort auch die Frage, ob die Vibe-Coding Anbieter durch ihre Kunden Geld verlieren.

 

AI-Chatbots - schon wieder ist etwas passiert

(opens in a new tab)OpenAI-Chef entschuldigt sich nach Schulmassaker in Kanada. OpenAI hatte den Account der mutmaßlichen Täterin im vergangenen Juni gesperrt, nachdem das automatisierte Überwachungssystem in den Unterhaltungen der jungen Frau Szenarien mit Waffengewalt aufgefallen waren. Die Behörden wurden nicht informiert. Nach der Tat entdeckte OpenAI, dass die Frau dann einen neuen ChatGPT-Account angelegt hatte.

Frühere Berichte zum Thema Chatbots: Problematische Dialoge der Chatbots bei psychischen Problemen (in diesem Beitrag wurde Ende April eine weitere Studie verlinkt. Auch die zeigt, dass einige der Chatbots Wahnideen deutlich verstärken können), das Psycho-Experiment der AI-Chatbots und ein globales psychologisches Experiment.

 

Muskismus - Aufstieg und Herrschaft eines Technokings

Bei dem Bericht über die Tech-Oligarchen habe ich bei Elon Musk das neue Buch über seine Ideologie und Konzepte verlinkt: Muskismus - Aufstieg und Herrschaft eines Technokings.

 

Schon fast lustige Ergänzung:

Im aktuellen Windows-System sind über 80 Implementierungen des generativen Sprachmodells von Microsoft (opens in a new tab)Copilot [wiki] enthalten. Microsoft Chef Satya Nadella bewirbt seine AI bei jeder Gelegenheit für alle möglichen wichtigen Aufgaben. Nun hat sich jemand die (opens in a new tab)Nutzungsbedingungen angesehen: "Copilot is for entertainment purposes only". Microsoft warnt seine Nutzer explizit davor, Copilot für wichtige Ratschläge heranzuziehen, und betont, dass der Dienst Fehler machen könne oder nicht wie beabsichtigt funktioniere. Der Artikel dazu: (opens in a new tab)Copilot kann man nicht ernst nehmen, sagt Microsoft. Ähnliche Warnungen bringen natürlich die anderen Sprachmodelle ebenfalls, (opens in a new tab)Halluzinationen [wiki] eben.

 

Kostenlos: ÖIAT-Online-Seminare

Kostenlose Online-Seminare organisiert das Österreichische Institut für angewandte Telekommunikation ((opens in a new tab)ÖIAT). Hier die kommenden Termine und Themen - alle diese Schulungen sind empfehlenswert (ich nehme an vielen davon Teil).

Die Termine und Themen der neuen Online-Kurse: (zumeist abends, manchmal auch nachmittags oder morgens)

  • 29. April | Webinar: Digitale Aspekte in Kinderschutzkonzepten (nachmittags)
  • 5. Mai | Webinar: Männersache – Frauensache: Vorurteile in digitalen Medien (abends)
  • 6. Mai | Webinar: Über Pornografie reden (nachmittags)
  • 12. Mai | Webinar: Digitale Mediennutzung: Wie kann ich mein Kind gut begleiten? (abends)
  • 26. Mai | Webinar: Gewalt im Netz: Was Eltern tun können (abends)
  • 2. Juni | Webinar: Smartphone, Tablet & Co sicher nutzen (abends)
  • 9. Juni | Webinar: So bezahlen Sie sicher im Internet (abends)
  • 16. Juni | Webinar: Soziale Netzwerke als tägliche Begleiter (abends)
  • 23. Juni | Webinar: Selbstdarstellung, Schönheitsideale & Vorurteile in digitalen Medien (abends)
  • 15. Sept. | Webinar: KI verstehen: Grundlagen und Herausforderung (abends)
  • Anmeldung auf (opens in a new tab)academy.oiat.at - der Zoom-Link kommt dann per Email - wie gesagt: m.E. sehr empfehlenswert.