239. Newsletter - sicherheitskultur.at - 15. April 2026

von Philipp Schaumann

Letzte Ergänzungen 15.04.2026

Themen-Überblick aller Newsletter

 

Hier die aktuellen Meldungen:

1. Social Media für Kinder verbieten?

Das ist ein schwieriges Thema, daher habe ich diesen Artikel lange aufgeschoben, es gibt so viele Aspekte zu bedenken. Auch wenn wir vielleicht nicht selbst davon betroffen sind, so kennen wir alle die Berichte, dass Menschen unterschiedlichen Alters Probleme damit haben, das Smartphone wegzulegen während ständig neue Videos in Tiktok, Instagram, Facebook oder Youtube zu spielen anfangen und ihre bunte Ablenkungswelt präsentieren. (Ja, nicht nur Kinder, siehe (opens in a new tab)Selbstversuch: Zwei Wochen ohne Smartphone – kann das so schwer sein? Ja!)

Der erste Gedanke ist da oft ein Verbot. So wie bei einigen anderen Suchtmitteln (aber durchaus nicht allen). Einige Suchtmittel sind verboten (zB Rauschgifte), einige sind reguliert und bringen große staatliche Einnahmen (wie Tabak und Glückspiel), andere sind fast unreguliert und gelten als Kulturgut (wie zB Alkohol).

Zurück zu Social Media. Auch ich habe das Gefühl, dass es sehr falsch ist, speziell Kindern ein Gerät in die Hand zu geben, das mit vielen Tricks und viel Wissenschaft darauf programmiert wurde, dass es Nutzern jedes Alters möglichst schwer fällt, das Gerät wieder aus der Hand zu legen, das Licht im Kinder- oder Schlafzimmer endlich auszumachen und entspannt einzuschlafen.

Die Verantwortung dafür kann man natürlich den Eltern geben, sie sollen für das Wohlbefinden ihrer Kinder sorgen. Da ist natürlich die Vorbildwirkung der Eltern gefragt. Denn wenn diese ständig mit dem Handy beschäftigt sind, beim Essen, aber auch wenn sie mit den Kindern unterwegs sind (im Bus, auf dem Spielplatz, usw.), dann ist das kein gutes Vorbild und Einschränkungen der Smartphone-Nutzung in der Familie sind schlecht argumentierbar und durchsetzbar.

Viele der einflussreichen Menschen in Silicon Valley haben das Suchtproblem für ihre Familien bereits gelöst: in ihren Familien gibt es nur sehr eingeschränkte Smartphone- und Social Media-Nutzung, sie wissen um die Risiken und (opens in a new tab)schützen ihre eigenen Kinder. Ein Vorschlag für besorgte Eltern ist zB ein "Mediennutzungsvertrag" zwischen Eltern und Kindern zur Regulierung der Smartphone-Nutzung. Dabei werden aber wohl auch die Eltern die Smartphone-Nutzung runter bremsen müssen, zB beim gemeinsamen Essen.

Aber ein grundsätzliches staatliches Verbot könnte den Eltern natürlich viel Stress und Diskussionen ersparen, speziell auch, weil da natürlich nur die Kinder eingeschränkt werden würden. :-) Und dass die stundenlange intensive Nutzung der Social Media Apps mit ihren Suchtfaktor-Mechanismen (wie autoplay und endless scrolling) für niemanden, aber speziell auch für Kinder und Jugendliche (mit allen ihren Unsicherheiten) nicht gut ist.

Überall in der EU, aber auch darüber hinaus, wird nun über Social Media Verbot für Kinder diskutiert, Australien hat es bereits letztes Jahr eingeführt (ich hatte ausführlich berichtet) und Australien berichtet nun über (opens in a new tab)Probleme mit der Durchsetzung, die Kooperation der Plattformen scheint begrenzt zu sein (die Kinder sollen ja - aus Sicht der Plattformen - bewusst süchtig gemacht werden, siehe peinliche interne Dokumente aus den Prozessen in den USA).

Ein Verbot bis zum Alter von 16 (so wie (opens in a new tab)in Australien und in vielen EU-Ländern vorgeschlagen) würde sich mit dem österreichischen Wahlrecht ab 16 wohl irgendwie beißen. Wer wählen darf, die:der sollte sich auch über die Positionen der Parteien, auch auf Instagram, Facebook und Youtube, informieren dürfen. Österreich will die Herausforderung der Kinderrechte durch ein Verbot, nur bis 14 Jahre lösen.

Aber Expert:innen sagen, dass das Social Media-Suchtproblem nicht mit 16 Jahren aufhört, im Gegenteil, der Höhepunkt der Gefährdung soll bei ca. 18 Jahren liegen - Siehe auch die Vorträge beim 3rd EUDHIT Online Symposium. Thema: (opens in a new tab)"Designed for Harm, Fixed by Ban? Rethinking Child Safety Online".

Eine Herausforderung sind zB die (opens in a new tab)Kinderrechte der UNICEF mit dem Recht auf freie Meinungsäußerung & Beteiligung an öffentlicher Diskussion ("dem Alter und der Reife des Kindes entsprechend") (Art. 12 der Kinderrechskonvention) und das Recht auf Jugendbeteiligung & bürgerschaftliches Engagement. Hier die Stellungnahme der UNICEF: (opens in a new tab)Social media: Age-related bans won’t keep kids safe, UNICEF warns.

Das heißt, es wird sehr schwer werden, eine wirklich sinnvolle Altersgrenze zu definieren. Die (opens in a new tab)Kinderschutz-Organisation 'die möwe' fordert daher: Mindestalter von 16 Jahren für Content-Plattformen (zB TikTok, Instagram, YouTube), sowie von 14 Jahren für Messenger-Dienste (zB WhatsApp). Aber immer vorausgesetzt, dass die Herausforderungen der technischen Implementierung, zB die (opens in a new tab)Alters-Verifikation [wiki], datenschutz rechtlich sauber gelöst werden können (und nicht so, wie in Australien) - spoiler: bei den Überlegungen zur Implementierung klemmt es derzeit auch in Europa noch ganz erheblich.

In einem früheren Newsletter hatte ich bereits ein Pro und Contra staatliches Verbot, aber dazu ist noch viel mehr zu sagen. Aber diese Themen-Komplexe hebe ich mir für einen zukünftigen Newsletter auf.

 

2. AI-Agenten und IT-Sicherheit

In früheren Newslettern hatte ich bereits über AI-Agenten und die Problematik der Sicherheit dieser Systeme berichtet. An anderer Stelle ging es um ungehorsame AI-Agenten, die ihre Anweisungen ignorieren und eigene Ideen zur Umsetzung ihrer Aufgabe haben. Jetzt habe ich gefunden, dass die (opens in a new tab)OWASP [wiki]- Organisation schon im Dezember 2025 eine Systematik der IT-Sicherheitsprobleme (oder -Herausforderungen) von AI-Agenten veröffentlicht hatte: (opens in a new tab)OWASP Top 10 for Agentic Applications for 2026. Das ausführliche Dokument bringt entsprechende Beispiele und wie man sich dagegen schützen kann.

Die OWASP unterscheidet 10 verschiedene Klassen von potentiellen Sicherheits-Problemen (die untereinander zusammenhängen und von denen mehrere an einem konkreten Problem beteiligt sein können). Dies können externe Angriffe sein, aber auch Fehler, die ohne externe Einwirkung auftreten.

Zum Anzeigen der Liste, bitte

 

3. Krypto als Krisenwährung?

Zu Kryptowährungen und ihrem Einsatz bei der (mehr oder weniger) organisierten Kriminalität habe ich ja bereits öfter berichtet. Hier ist ein Interview mit einem Finanzexperten der Frankfurt School of Finance, der Geldanlage in alle Kryptowährungen wie "hochriskante Aktien" einschätzt und nicht wie einen "sicheren Hafen" für Geldanlage, wie Gold: (opens in a new tab)"Lassen wir Bitcoin den Weg der Tamagotchis gehen": Warum Krypto als Krisenwährung nicht taugt.

Der Finanzexperte verweist darauf, dass schon 2010 der Erfinder von Bitcoin, (opens in a new tab)Satoshi Nakamoto [wiki] davon gesprochen hat, dass wir in 20 Jahren beim Bitcoin entweder ein sehr hohes Transaktionsvolumen sehen oder gar keins. Die heutige Realität ist, dass Bitcoin im Zahlungsverkehr eigentlich gar keine Rolle spielt (es ist viel zu langsam, jede Zahlung dauert Minuten, bis sie 'durch' ist).

Aktuelle Zahlen sprechen von einem Gesamtvolumen für 'normale' Zahlungen für Waren und Dienstleistungen von ca. 2 Milliarden US$ in 2025 (inkl. Zahlungen in Stablecoins wie Tether). Aber allein die Bitcoin-Transaktionen im Zusammenhang mit "Pig Butchering"-Betrug machen knapp 7 Milliarden US Dollar im Jahr aus. Da sind die umfangreichen Ransomware-Zahlungen und vor allem der Handel mit Darstellungen sexueller Handlungen an Kindern, Drogen, Waffen, etc. noch nicht einmal dabei. Dh illegale Zahlungen sind ganz offenbar die wichtigste Anwendung von Bitcoin, jenseits von spekulativen Geldanlagen.

 

4. Pädophilie auf Tiktok und Telegram, ein Riesengeschäft

Eine Nachricht, die ich beim 3rd EUDHIT Online Symposium zum Thema: (opens in a new tab)"Designed for Harm, Fixed by Ban? Rethinking Child Safety Online" gelernt habe: (opens in a new tab)Predators on TikTok: a Goldmine for Pedophiles. Ein spanische Untersuchung hat auf Tiktok nach sexualisierten Bildern und Videos von Kindern und Teenagern gesucht und 40 Accounts mit 1,5 Mio Followern gefunden. Angeboten wurden 5200 AI-generierte Videos und 3600 Videos von realen Kindern. Teilweise werden 'harmlose' Videos für diese Zwecke missbraucht und mittels generativer AI 'überarbeitet'. (Die Details im vorigen Link)

Das Subscription-System von Tiktok wird benutzt, um AI generierte sexuelle Darstellungen mit Minderjährigen zu verkaufen. Das ist zwar an sich nach den Tiktok-Regeln verboten, aber das Verbot wird nicht durchgesetzt. Von 15 gemeldeten Accounts wurde nur 1 als 'gegen die Tiktok-Regeln betrachtet', alle 15 blieben trotzdem auch über 72 Stunden weiter online. So etwas ist nach den DSA-Regeln eigentlich verboten.

Tiktok bekommt 50% des Umsatzes der Subscriptions. Der Tiktok-Algorithmus erkennt recht schnell die Vorlieben der Nutzer und beginnt dann von sich aus, solche Inhalte als /For You/ vorzuschlagen. Interessierte Kunden werden durch die Ersteller der Videos auf Telegram-Accounts verwiesen, bei denen dann der wirkliche Handel mit 'hartem Material' stattfindet. Die spanische Organisation identifizierte 12 solche Telegram-Accounts (und meldete sie der spanischen Polizei).

Aber auf Telegram floriert nicht nur das Geschäft mit Kinderfotos, (opens in a new tab)Experten decken länderübergreifenden Handel mit Nacktfotos von Frauen auf Telegram auf. Die Aktivistengruppe registrierte mehr als 80.000 versendete Dateien innerhalb von sechs Wochen. Es handelte sich sowohl um Fotos als auch um Deepfakes. Man kann wohl davon ausgehen, dass zumindest die Deepfakes ohne Zustimmung der betroffenen Personen entstanden sind und veröffentlicht werden. 25.000 aktive Nutzer wurden in diesen Kanälen gezählt und das waren nur spanische und italienische Chatgruppen. Dh das Problem ist insgesamt viel, viel größer. Bereits 2025 hatte ich berichtet, dass Telegram eigentlich fast ganz ohne Administration arbeitet. Auch hier schafft die EU es leider nicht, ihre Regeln, zB DSA, durchzusetzen. Da bin ich skeptisch, was die Durchsetzung von Altersbeschränkungen betrifft.

 

5. KI-Nutzung in Österreich

Der Standard bringt die Ergebnisse einer Umfrage zur KI-Nutzung in der Gesamtbevölkerung und die ist mE überraschend hoch: (opens in a new tab)Mehrheit der Österreicher verwendet KI mindestens einmal pro Woche.

 

6. Ergänzungen früherer Beiträge

Social Media-Sucht und AI-Freunde aus ärztlicher Sicht

In der Ärzte-Publikation doccheck wird über Studien zur Wirkung von AI-Friends auf Heranwachsende berichtet: (opens in a new tab)Suchtpotenzial: Chatbot statt Freunde.

Berichtet wird über eine Mediensuchtstudie aus Deutschland: (opens in a new tab)Zwischen Fortnite, TikTok und ChatGPT: Mediennutzung, Risiken und neue Nutzungstrends bei Kindern und Jugendlichen in Deutschland. Mehr als jeder Vierte der 10–17-Jährigen nutzt bereits mehrmals pro Woche einen KI-Chatbot. Einer der Hauptgründe hierfür ist nicht etwa Recherche oder Hausaufgabenhilfe – sondern die Bewältigung negativer Gefühle. So nutzen bis zu 10% der Jugendlichen KI, um negative Gefühle zu regulieren und Einsamkeit zu lindern. Mehr als 30% der Jugendlichen gaben sogar an, dass sie der Chatbot besser verstehe als ein Mensch.

Die Forscher sprechen von sich entwickelnden (opens in a new tab)parasozialen Beziehungsmustern zum Chatbot, "da der Chatbot menschliche Kommunikationsmuster imitiert und damit die intensiv emotional gefärbte Nutzungsgewohnheit gewollt erschafft. . . . Dies geht nachweislich auch mit einer höheren psychischer Belastung und einem erhöhten Risiko für das ohnehin schon problematische Nutzungsverhalten der Heranwachsenden einher". Die DAK-Gesundheit untersucht in einer Längsschnittstudie gemeinsam mit dem Universitätsklinikum Hamburg-Eppendorf seit 2019 das Mediennutzungsverhalten von Kindern und Jugendlichen. Für 2025 fanden sie, dass jedes vierte Kind eine riskante oder sogar deutlich abhängige Nutzung von Social Media zeigte, hochgerechnet wären das über 1,4 Millionen 10- bis 17-jährige Kinder und Jugendliche in Deutschland (für Ö, durch 10 teilen).

Frühere Beiträge dazu finden sich unter Das weltweite Psycho-Experiment der AI-Chatbots und Virtual friends und Suizid - Social Media und psychische Probleme.

 

Meta verhindert Werbung für Schadenersatzprozesse

Ich hatte vor einiger Zeit berichtet, dass Meta wohl an Werbung für Betrügereien sehr ordentlich verdient. Jetzt könnte man glauben, Meta schafft es einfach nicht, die gefährliche Werbung zu erkennen und zu verhindern. Das scheint aber ganz offensichtlich falsch zu sein.

Denn nachdem Meta und Google wegen der Erzeugung von Sucht durch ihre Social Media verurteilt wurden, versuchen Anwälte nun, Werbung auf Facebook und Instagram zu schalten, in der sie ihre Dienste für Schadenersatzprozesse anbieten. Dies erkennen und verhindern die Systeme von Meta aber recht zuverlässig: (opens in a new tab)Meta removes ads for social media addiction litigation.

 

Halluzinationen und fehlendes Weltmodell der generativen AI-Systeme

Generative Sprach-AI-Systeme haben fast alles gelesen, was in den letzten 2500 Jahren geschrieben wurde, aber sie haben absolut nichts verstanden. Sie haben lediglich eine statistische Auswertung der Silben-Häufigkeiten erstellt ((opens in a new tab)token [wiki]). Auf Grund ihrer riesigen Größe können sie jedoch Texte generieren, die auf den ersten Blick "vernünftig" klingen. Ein "Verständnis" für die Zusammenhänge würde ein sog. (opens in a new tab)Weltmodell voraussetzen. Ohne ein solches werden sich Halluzinationen und logische Fehler nie ganz vermeiden lassen.

Eine Reihe von AI-Forschern arbeitet in Richtung "Weltmodelle", der große Erfolg der riesig skalierten reinen Sprachmodelle hat ihre Forschungen (und deren Finanzierung) in den letzten Jahren in der Hintergrund geschoben, aber das scheint sich derzeit (2026) gerade zu ändern: (opens in a new tab)Sind große Sprachmodelle eine Sackgasse – und World Models die Lösung? - Technischer Hintergrund: (opens in a new tab)World Models - Can agents learn inside of their own dreams?

 

AI-Zusammenfassung zu 10% inhaltlich falsch

Zeitungen berichten, dass die AI-Zusammenfassung, entweder in der Websuche oder bei direkter Frage an einen AI-Chatbot, ihre Besucherzahlen einbrechen lassen. Das ist aber nicht das einzige Problem dieser direkten Antworten. Eine Analyse zeigte, dass ca. 10% der AI-Antworten inhaltlich inkorrekt waren (von der (opens in a new tab)NY Times in Auftrag gegeben - Share Link mit Details und Beispielen). Dafür gibt es 2 Gründe: zum einen sind da die bereits oft erwähnten Halluzinationen, zum anderen können auch Website-Betreiber ganz bewusst die AI-Systeme manipulieren. Die NY Times berichtet von einem Beispiel, dass das gut klappen kann und Microsoft warnt: (opens in a new tab)So manipulieren Unternehmen eure KI-Chatbots mit Hilfe von sog. "hidden prompts". Hier der Standard-Artikel zu: (opens in a new tab)Googles AI Overviews liegen in jedem zehnten Fall falsch.

Noch ein Beispiel: Eine Forscherin der Universität Göteborg erfand eine Hautkrankheit namens (opens in a new tab)Bixonimania [wiki], die angeblich durch langen Bildschirmgebrauch und Blaulicht verursacht wird und die Augenlider betrifft und postete dies im Internet in einem privaten Blog. Diese Krankheit existiert nicht! Mehrere KI-Chatbots präsentierten ihre Erfindung nun als echte Diagnose - sie können nicht zwischen einem Blog-Beitrag und einer (opens in a new tab)peer-reviewed [wiki] wissenschaftlichen Veröffentlichung unterscheiden: KI-Chatbots fielen auf eine erfundene Krankheit herein. Dieses Beispiel zeigt, wie leicht sich die AI-Zusammenfassungen und AI-Chatbots manipulieren lassen, zB um falsche Behauptungen weltweit zu verbreiten, zum eigenen Vorteil oder zum Schaden anderer.

 

Anthropic Claude Code Neurosymbolic AI und Anthropic Mythos

(opens in a new tab)Claude Code [wiki] von Anthropic gilt als das beste Tool für Vibe Coding (dh Programmierung mit KI-Unterstützung). Der Quellcode von Claude Code kam nun in die Öffentlichkeit und die Überraschung war, dass keine reine 'generative AI' eingesetzt wird, sondern sog. (opens in a new tab)Neurosymbolic AI [wiki]. Das ist eine Hybrid-Implementierung aus generativer AI und der in den 80igern Jahren eingesetzten (opens in a new tab)Symbolic AI [wiki]. Symbolische AI arbeitet ohne Training mit festen logischen Regeln. Dies galt bis Mitte der 90iger Jahre als die Zukunft der AI, dann bekamen die (opens in a new tab)Neuronalen Netze [wiki], auch durch die Hardware-Unterstützung der Grafik-Prozessoren (GPUs) auf einmal ihren Durchbruch, der dann auch zu den generativen Sprachmodellen führte.

Nun hat Anthropic offenbar ein Hybrid System geschaffen, ein Konzept, das zB Gary Marcus seit langem propagiert: (opens in a new tab)The biggest advance in AI since the LLM. Claude Code gilt nicht nur als das beste System für Programmierarbeiten, der Energieverbrauch ist wohl auch (opens in a new tab)2 Größenordnungen niedriger.

In einem früheren Newsletter habe ich meine Übersicht über verschiedene Formen von AI zu einer 'Geschichte der AI' erweitert.

Anthropic Mythos - das neue Spitzensystem
Alle generativen AI-Modelle sind bei der Suche nach Schwachstellen in bestehenden Programmen besser als im Programmieren. Die aktuellen Meldungen sind: (opens in a new tab)Anthropics neues KI-Modell Mythos könnte Cyberlandschaft "umwälzen". Mythos soll so viele Schwachstellen in bestehenden Systemen entdeckt haben, dass die US-Regierung und auch das bundesdeutsche BSI sehr beunruhigt sind.

Anthropic gibt das System nicht für die Öffentlichkeit frei, sondern erlaubt nur ausgewählten Organisationen die Nutzung zum Finden und Korrigieren von Schwachstellen. Dafür haben sie unter dem Namen (opens in a new tab)Project Glasswing eine (opens in a new tab)Kooperation mit Google, Apple, Microsoft und 40 anderen großen Firmen gegründet. Sie haben Angst, dass das System in den Händen von Kriminellen zu (opens in a new tab)Problemen, zB für Banken führen könnte.

Aus England kommt nun eine leichte Entwarnung nach einem Test durch das National Cyber Security Centre NCSC: (opens in a new tab)Why cyber defenders need to be ready for frontier AI. Ja, Mythos ist deutlich besser als bisherige Modelle, aber so gut dann auch wieder nicht, Zitat: our evaluation of Mythos Preview shows that it [Claude Mythos] – and potentially future models – could be directed to autonomously compromise small, weakly defended, and vulnerable systems if given network access. Dh, alle, die für die Sicherheit von Software und Systemen verantwortlich sind, müssen pro-aktiv diese (oder ähnliche) Software einsetzen und ihre Systeme dringenst 'reparieren'. Falls das flächendeckend passiert, so könnte es eine Welt ohne IT-Verwundbarkeiten geben - ein großes 'falls'. Das wäre ein harter Schlag für die Spyware-Industrie, ich fände das OK.

OpenAI kann da natürlich nicht zurückstehen, auch sie haben nun ein AI-Modell, das zu gefährlich für die Öffentlichkeit ist: (opens in a new tab)Nach Anthropic Mythos: OpenAI kündigt GPT-5.4-Cyber an. Der Zugang ist eingeschränkt und erfolgt über das im Februar gestartete OpenAI-Programm (opens in a new tab)Trusted Access for Cyber (TAC).

OpenAI will das Programm in den kommenden Wochen auf tausende verifizierte Sicherheitsforscher, sowie hunderte Teams, die für den Schutz kritischer Software verantwortlich sind, ausweiten. Außerdem soll das Programm um zusätzliche Zugriffsstufen erweitert werden. In den höchsten Stufen wird GPT-5.4-Cyber freigeschaltet, eine speziell angepasste Variante mit weniger Sicherheitsbeschränkungen und erweiterten Funktionen, darunter (opens in a new tab)Reverse-Engineering [wiki]-Fähigkeiten, die die Analyse fertiger Programme ohne Quellcode ermöglichen.

Ganz frisch: ein Kongress in Wien hat sich philosophisch mit der Frage beschäftigt, ob der Begriff Intelligenz überhaupt auf Tiere und/oder Maschinen anwendbar sein kann - und falls ja, welche Kriterien dann gestellt werden sollten. Teilnehmer:innen problematisierten die heutige Entwicklung einer Technologie, ohne dass die Grundlagen dahinter verstanden seien und sehen im "Trainng" der Sprachsysteme fragwürdige rechtliche Praktiken im Umgang mit Privatsphäre und intellektuellem Eigentum. Andere sahen die Gefahr einer "epistemischen Enteignung" und eines Kompetenz- und Autonomieverlusts aufseiten der Nutzenden. Die Verklärung der Systeme zur Quintessenz von Denken und Wissen führe zur Abwertung menschlicher Bildung. Der Artikel: (opens in a new tab)Philosophisch betrachtet: Wie intelligent kann künstliche Intelligenz sein?

 

Kostenlos: ÖIAT-Online-Seminare

Kostenlose Online-Seminare organisiert das Österreichische Institut für angewandte Telekommunikation ((opens in a new tab)ÖIAT). Hier die kommenden Termine und Themen - alle diese Schulungen sind empfehlenswert (ich nehme an vielen davon Teil).

Die Termine und Themen der neuen Online-Kurse: (zumeist abends, manchmal auch nachmittags oder morgens)

  • 21. April | Webinar: Cybergrooming (nachmittags)
  • 21. April | Webinar: Wie erkenne ich Fake News? (abends)
  • 23. April | Webinar: Deepfakes und digitale Medien (nachmittags)
  • 27. April | Webinar: Sexualität & Digitale Medien (vormittags)
  • 28. April | Webinar: KI-Chatbots als digitale Begleiter: Die Bedeutung von AI-Companions für Kinder und Jugendliche (abends)
  • 29. April | Webinar: Digitale Aspekte in Kinderschutzkonzepten (nachmittags)
  • 5. Mai | Webinar: Männersache – Frauensache: Vorurteile in digitalen Medien (abends)
  • 6. Mai | Webinar: Über Pornografie reden | (nachmittags)
  • 12. Mai | Webinar: Digitale Mediennutzung: Wie kann ich mein Kind gut begleiten? (abends)
  • 26. Mai | Webinar: Gewalt im Netz: Was Eltern tun können (abends)
  • Anmeldung auf (opens in a new tab)academy.oiat.at - der Zoom-Link kommt dann per Email - wie gesagt: m.E. sehr empfehlenswert.