240. Newsletter - sicherheitskultur.at - 26. April 2026
von Philipp Schaumann
Letzte Ergänzungen 25.04.2026
Themen-Überblick aller Newsletter
Hier die aktuellen Meldungen:
1. Social Media-Verbot für Kinder - technische Herausforderungen
Hier die Fortsetzung zum Verbot von Netzinhalten für Kinder und Jugendliche. Im vorigen Newsletter hatte ich das Thema Verbot von Netzinhalten für Kinder und Jugendliche aus grundsätzlicher Sicht, zB der Kinderrechte behandelt (Social Media Verbot und Wahlrecht, das beißt sich irgendwie). Aber dass eine Altersbeschränkung grundsätzlich eine gute Idee ist, das wissen sogar die Betreiber der Social Media-Plattformen - sie haben sehr wohl Altersbeschränkungen in ihren Nutzungsbedingungen, nur werden die nicht kontrolliert.
Die geplante technische Implementierung
In diesem Beitrag konzentriere ich mich auf die Herausforderungen der technischen Umsetzung, und die sind erheblich größer, als das bei der Kommissionspräsidentin klingt: ↑(opens in a new tab)EU-Mini-Wallet ohne Tracking und Open Source Quellcode. Zitat: "sie sei komplett anonym, kostenlos und funktioniere auf allen Geräten". Die App soll aus Datenschutz-Sicht korrekt implementiert werden, und zwar mit ↑(opens in a new tab)Zero Knowledge Proof [wiki]. Dh, das Social Network oder der Porno-Anbieter "fragt" bei der EU-Mini-Wallet, ob der Besitzer dieses Geräts älter als nn Jahre ist, die Antwort ist dann JA oder NEIN, keine weiteren Merkmale, auch kein Geburtsdatum (so etwas gibt es in Ö bereits für Zigarettenautomaten, es funktioniert auf der Basis von österreichischen Bankomat-Karten und gibt keine Identitäten preis).
So weit die Theorie, die Praxis ist (derzeit): ↑(opens in a new tab)EU-App zur Altersprüfung von Experten in weniger als zwei Minuten geknackt. Sicherheitsforscher Paul Moore hat sich die "Age Verification"-App der EU näher angesehen und kommt auf X zu ↑(opens in a new tab)einem vernichtenden Ergebnis: Die App weise nicht nur zahlreiche strukturelle Sicherheitsschwächen auf, sie sei auch extrem leicht zu knacken. Keine zwei Minuten habe er benötigt, um den Check auszutricksen, betont Moore. Hier eine Zusammenfassung ↑(opens in a new tab)der gefundenen Sicherheitsprobleme im Standard. Das sind keine Programmierfehler, sondern Design-Fehler und zahlreiche strukturelle Sicherheitsschwächen. Natürlich lassen sich die beheben, aber das Ganze wirft kein gutes Licht auf die Konzepte.
Der Franzose ↑(opens in a new tab)Baptiste Robert kann die Probleme bestätigen, er konnte die biometrische Authentifizierungsfunktionen der Altersverifizierungs-App umgehen. Er konnte auf die App auch ohne Autorisierung mit einem PIN-Code oder einem biometrischen Anmeldeverfahren zugreifen. Die Europäische Kommission widerspricht und gibt sich entspannt: das wäre lediglich eine frühe Demoversion - alle genannten Sicherheitsprobleme seien bereits in einer neueren Version der App "behoben" worden. Komisch, dass die frühe Demoversion auf Github zum Testen frei gegeben wurde.
In einer EU-Pressekonferenz gibt ein EU-Mitarbeiter ↑(opens in a new tab)Tipps, wie man die Alterskontrolle umgehen kann. Auf Frage eines Journalisten, ob sich künftig auch Reisende aus Nicht-EU-Regionen einer Alterskontrolle unterziehen müssen, wenn sie eine der Instagram, TikTok und Co verwenden wollen, hatte ein EU-Beamter eine verblüffend ehrliche Antwort parat: "Ja, das müssen sie. Außer natürlich, sie nutzen einen ↑(opens in a new tab)VPN" [wiki].
Genau dieser Trick reicht aber auch, um all diese Alterssperren zu umgehen. Es reicht, sich einen VPN-Dienst in einer Region zuzulegen, wo es solche Alterskontrollen nicht gibt und sich dann anzumelden. Auch in Australien ist diese Problematik diskutiert worden, die australische Regierung hat daher ein Verbot des VPN-Zugangs gefordert (das wurde aber von den Plattformen nicht umgesetzt). Auch bei uns gibt es den Ruf nach ↑(opens in a new tab)Verbot von VPN-Diensten. Die haben jedoch wichtige Funktionen. Sie ermöglichen zB Home Office Workern den sicheren Zugang zum Firmennetz. Aber auch ein Zugang zu Social Media ohne Überwachungsmöglichkeit der jeweiligen Regierung ist eine wichtige Funktionalität - auch EU-Regierungen sind dabei erwischt worden, ihre Journalisten zu überwachen, nicht nur in Ungarn. Zur VPN-Frage gibt es keine gute Lösung: Wenn VPN-Zugang erlaubt wird, bringt das Verbot nicht viel, falls VPN-Zugänge (oder TOR) verboten werden, so ist die Anonymität von kritischen Journalisten und Bürgern bedroht.
Nicht sauber geklärt ist auch das Inklusionsproblem. Wir haben ja eine durchaus komplexe Problemstellung: Kinder unter dem zu verifizierenden Alter sollen keinen Zugriff auf bestimmte Web-Plattformen erhalten. Alle, die älter als dieses Alter sind (zB Erwachsene), aber sehr wohl. Und zwar nicht, indem sie mittels VPN zugreifen, weil das könnten die Kinder ja auch, das kann nicht die Lösung sein. Und es sollten auch die Erwachsenen Zugriff haben, die kein Smartphone besitzen, das mit der jeweiligen staatlichen Lösung kompatibel ist oder keinen EU-Pass besitzen - mehr Details im Einschub.
438 Sicherheits- und Privatsphärenforscher 32 Ländern haben auf 6 Seiten ihre Argumente bezüglich Alterskontrollen dargelegt: ↑(opens in a new tab)Joint statement of security and privacy scientists and researchers on Age Assurance. Sie fordern ein Moratorium der Umsetzung, zu viele Fragen sind derzeit noch offen.
- Effective deployment is subject to trade-offs. Es gibt keine Implementierungsoptionen, die nicht gleichzeitig gravierende Nachteile haben.
- Age estimation and age inference bring harm to users without effectiveness guarantees. Jegliche Altersfeststellungen haben Nachteile und keine Lösung ist sicher und effektiv.
- Building a global trust infrastructure for age verification is non-trivial. Die Komplexität einer wirklichen sicheren Implementierung wird drastisch unterschätzt. Da die Plattformen, die eine Alters-Verifizierung durchführen müssen, nicht nur in der EU sind, bräuchte es eine globale ↑(opens in a new tab)Trust Infrastruktur [wiki], so dass alle Plattformen die Gültigkeit der Altersbestätigung verifizieren können.
- Lack of understanding of harms. Die Wissenschaftler befürchten, dass Menschen (nicht nur Kinder), die von Plattformen ausgeschlossen werden, versuchen könnten auf andere, evt. noch gefährlichere Alternativen auszuweichen.
- Diminishing privacy online. Jede Altersverifikation ist mit neuen Datensammlungen verbunden, oft wird der Betrieb dieser Infrastrukturen an Sub-Unternehmer mit zweifelhafter Sicherheit ausgelagert. Die große Zahl von ↑(opens in a new tab)früheren Data Breaches (Datenverlusten) zeigt, wie viele Milliarden von Nutzerdaten jedes Jahr in falsche Hände geraten.
- Increasing discrimination. Zugriffsverluste auch für Erwachsene, die zB keine Zugang zu einer staatlichen ID-Aussstellungsbehörde haben, die Kompatibel ist mit der EU-Wallet (zB. Flüchtlinge, undokumentierte Immigranten, Obdachlose, Touristen, Gefängniss-Insassen, aber auch Menschen, die hier arbeiten, aber keinen Anspruch auf EU-Wallet haben). Und alle, die der Komplexität der Antragstellung und Bedienung der EU-Wallet nicht gewachsen sind, bzw ein Gerät haben, das mit der EU-Wallet nicht kompatibel ist (ich erinnere an die immer wieder auftretenden Herausforderungen der ↑(opens in a new tab)ID Austria). Wie weit diese Einschränkungen gehen, das hängt auch davon ab, welche Plattformen unter das Verbot fallen würden (ein separates, sehr komplexes Thema).
- Centralization of power. Eine solche Infrastruktur, potentiell auch in den Händen von Staaten, die nicht immer 100% den demokratischen Geflogenheiten anhängen, kann eine ganz neue Ebene von Diskriminierungsmöglichkeiten, zB in Richtung ↑(opens in a new tab)LGBTQ+ [wiki] Inhalten bringen.
- Lack of discussion of the Privacy Enhancing Technologies (PETs) impact. Hier geht es um Technologien zur Verbesserung des Datenschutzes. Durch solche gut gemeinten Technologien, zB. ↑(opens in a new tab)Zero Knowledge Proof [wiki] und Nicht-Trackbarkeit der Altersanfragen können neue Anforderungen an kompatible Geräte entstehen (wie die Sicherheitsanforderungen von Windows 11 ↑(opens in a new tab)UEFI [wiki], die fast alle Windows 10-PCs zu Elektroschrott werden lassen). Oder wie zu Beginn der ID Austria, als die Software meines (bereits etwas älteren) Smartphones nicht den ursprünglichen Sicherheits-Anforderungen der ID-Austria entsprach. Die Sicherheits-Anforderungen wurden nun gelockert und ID Austria klappt nun auch bei mir.
- Deployment is not justified unless it is proven that the benefits greatly outweigh the harms. Die Nachteile des Einsatzes dieser Kontrollen muss abgewogen werden gegen die Vorteile, die durch eine Altersbeschränkungen entstehen. Dafür fehlen aber (noch) die wissenschaftlichen Studien.
In Australien wurden die Technologien zur Altersfeststellung fast vollständig den Betreibern überlassen, die haben die Aufgabe an Dienstleister ausgelagert, so wie von den Wissenschaftlern (siehe oben) befürchtet.
Und die Durchsetzung?
So weit die technischen Herausforderungen. Die wirklichen Herausforderungen sehe ich, siehe die Probleme mit der Durchsetzung in Australien, in der Durchsetzung. Auch die EU tut sich sehr schwer, die tollen DSA- und DMA-Regeln wirklich effektiv durchzusetzen, trotz der angedrohten hohen Strafen. Die betroffenen Plattformen haben genügend Geld, um sich wegen jedem Problem einen Weg durch alle Instanzen leisten zu können.
Datenschutz-NGO Epicenter Works fordert daher die Kommission auf, die Pläne auf Eis zu legen. Generell sollte man sich besser auf die Durchsetzung bestehender EU-Gesetze fokussieren, anstatt an solch problematischen Lösungen zu basteln. Zu einer konsistenten Löschung ungeeigneter Inhalte und effektiver Moderation gibt es bereits jetzt strenge Regeln, die aber sehr gern ignoriert werden (siehe die absolut unpassenden Inhalte auf Grok, Tiktok und Telegram). Wenn die EU diese Inhalte nicht löschen lassen kann, wie kann dann eine Altersbeschränkung effektiv durchgesetzt werden.
Und welche Plattformen sollen betroffen sein?
Ein weiteres, riesiges Thema ist: welche Plattformen sollen bis zu welchem Alter verboten sein? Ein Problem, das ich da sehe, ist, dass auf vielen Plattformen, wie zB Youtube, sehr sinnvolle Inhalte zu finden sind (zB Kurse für fast alle Wissensgebiete), aber leider eben auch die nervigen ↑(opens in a new tab)Youtube-Shorts [wiki] - für alle, die wie ich von den Youtube-Shorts genervt werden: ↑(opens in a new tab)man kann die permanent abstellen (bzw mehr oder weniger permanent).
Auch das hier klingt für mich naiv: Die EU-Komission berichtet, die Statistiken seien alarmierend: ↑(opens in a new tab)Jedes sechste Kind wird online gemobbt, jedes achte ist selbst an Cybermobbing beteiligt. - Ich habe wenig Zweifel an den Zahlen, aber mir ist nicht klar, wie durch eine Altersbeschränkung für ausgewählte Plattformen, bzw Teile dieser Plattformen, Mobbing verhindert werden kann. In Australien ist zB Whatsapp nicht gesperrt, SnapChat aber sehr wohl. Evt. bleibt Whatsapp erreichbar, weil dort auch viele der 'offiziellen' Klassenchats laufen, wo Hausaufgaben verkündet werden und ähnliches. Auch in dem in vielen Schulen eingesetzten MS Teams kann man unpassende Kommentare schreiben.
Mal abgesehen davon, dass auch in der realen Welt gemobbt wird, digitales Mobbing zu verhindern setzt voraus, dass jegliche digitale Gruppen-Kommunikation verhindert würde. Ich denke, das ist mit dem modernen, weitgehend digitalen Realitäten in heutigen Schulen nicht wirklich kompatibel.
Noch ein Gedanke dazu: die Probleme für Kinder im Netz beschränken sich nicht auf sog. "Soziale Medien", siehe die Liste der Herausforderungen: Was Kinder im Netz erleben. Dh ein Verbot einiger Plattformen, wie in Australien, wird wohl nur begrenzte Wirkung zeigen, selbst wenn es der EU gelingen sollte, die Maßnahme bei den Plattformen effektiver durchzusetzen als in Australien. Die gefährlichen Stellen im Netz sind weit verstreut - siehe die Probleme mit AI-Chatbots, mit AI-friends und auch Spielsucht, antrainiert auf Roblox. Dazu gibt es aus Deutschland nun solide Informationen, siehe nächster Beitrag.
2. Expertenstudie zu Internet-Gefahren für Kinder
Das deutsche Familienministerium hatte eine Studie in Auftrag gegeben. Die Expertenkommission "Kinder- und Jugendschutz in der digitalen Welt" legt nun eine Bestandsaufnahme der Problematik vor. Auf 120 Seiten legt sie einen umfangreichen ↑(opens in a new tab)Überblick über die Komplexität der Thematik vor. Handlungsempfehlungen will die Kommission bis Ende Juni 2026 vorlegen.
Die vorliegende Bestandsaufnahme analysiert in drei Teilen den aktuellen Stand des Kinder- und Jugendschutzes in der digitalen Welt: Die Studie beschreibt
- die digitalen Lebenswelten und Gefährdungslagen von Kindern und Jugendlichen,
- die Strukturen der Medienbildung, Prävention und pädagogischen Praxis in Deutschland und
- den bestehenden rechtlichen Rahmen sowie seine Durchsetzung
Weil die 120 Seiten ziemlich lang sind gibt es als ↑(opens in a new tab)Synopse eine 8 Seiten Zusammenfassung. Für alle, denen das immer noch zu lang ist, ↑(opens in a new tab)zitiert Golem.de (vermutlich von einer Pressekonferenz bei der Vorstellung der Bestandsaufnahme - siehe der folgende Textblock):
- "Es ist zu kurz gesprungen, nur über Altersbeschränkungen nachzudenken", fast der Kommissionsvorsitzende Olaf Köller die Ergebnisse zusammen.
- 1. Das Problem ist real
Der Erziehungswissenschaftler Köller erinnerte daran, dass allein in D. etwa eine Million Jugendliche digitale Medien auf problematische Weise nutzten, 300.000 zeigten Suchtverhalten. Hinzu kämen Risiken wie Cybermobbing, Hassrede, Pornografie und vieles mehr.
Die Folgen können Verstörung, Angst, Schlafstörungen und andere psychische Belastungen sein, wie es im Zwischenbericht heißt. Wie gefährdet einzelne Kinder und Jugendliche sind, hängt demnach auch von individuellen Voraussetzungen ab – von der "Vulnerabilität".
"Frühe Kindheit, psychische Störungen, Traumaerfahrungen und soziodemografische Faktoren beeinflussen, wie digitale Medien wirken", heißt es. Die unterschiedliche Empfänglichkeit für Risiken gehöre zu den Dingen, die sie am meisten überrascht hätten, sagt Nadine Schön, die Co-Vorsitzende der Kommission. - 2. Auch Erwachsene sind das Problem
Die zweite wichtige Erkenntnis aus Schöns Sicht: das Verhalten der Erwachsenen. Zum einen geht es darum, ob schon Kleinkinder – womöglich unbeaufsichtigt – vor Bildschirmen sitzen. "Passive Bildschirmzeit kann deren Sprachentwicklung beeinträchtigen", heißt es in der Bestandsaufnahme.
Reizintensive Inhalte könnten Ablenkbarkeit begünstigen. Zum anderen geht es um die Ablenkung der Eltern durchs eigene Handy. Fachleute benutzen den Begriff "Technoference": Die Technik kommt in die Quere, wenn die volle Aufmerksamkeit dem Kind gehören sollte. - 3. Es ist nicht alles nur Problem
"Das Smartphone fungiert als zentraler Zugang zu Kommunikation, Unterhaltung, Information, sozialer Einbindung und zunehmend auch zu produktiven KI-basierten Anwendungen", schreiben die Expertinnen und Experten. Es gebe eben auch große Chancen, so Köller.
Social Media seien wichtige digitale Räume, zum Beispiel für queere Jugendliche. Die digitalen Medien könnten zu einer positiven Entwicklung der Identität beitragen.
Kinder und Jugendliche haben aus Sicht des Wissenschaftlers einen hohen "Reflexionsgrad"; sie wissen um Chancen und Risiken, sie möchten sich das Medium nicht einfach entziehen lassen. Köller betont, dass "Schutz und Teilhabe keine Gegensätze sind, sondern dass es um geschützte Teilhabe im Netz geht". - 4. Es gibt schon viele Vorschriften
"Ein wirkliches Regulierungsdefizit per se sieht man nicht", erläutert Schön. Vorschriften, die auch Kinder und Jugendliche schützen könnten, gäbe es bereits. Auf EU-Ebene seien das der Digital Services Act (DSA) und Leitlinien zum Schutz Minderjähriger, in Deutschland das Jugendschutzgesetz und der Jugendmedienschutz-Staatsvertrag. Doch die Regelungen seien komplex und passten nicht immer zusammen. "Vor allem sehen wir auch Defizite im wirksamen Vollzug", sagt die frühere CDU-Bundestagsabgeordnete.
Das betrifft auch mögliche Altersbeschränkungen für Social Media: Wie setzt man die eigentlich durch? In Australien zeigt die Erfahrung, dass Jugendliche Umwege finden.
Der Verbraucherzentrale Bundesverband ergänzt, dass auch das "Grundproblem" technisch zu lösen sei: "Süchtig machende Designs, Endlosscrolling, schädliche Personalisierung und ähnliche Funktionen müssen standardmäßig für alle Nutzerinnen und Nutzer ausgeschaltet sein. Das würde die Plattformen für alle besser machen." - 5. Ein Verbot allein wird nichts nützen
Eine Altersbeschränkung allein werde nicht helfen, sagt Köller. Man müsse "das Problem in der ganzen Breite anpacken". Soll heißen: Eltern, Schulen, Kinder- und Jugendärzte müssen zusammenwirken.
Es gebe Medienbildung und Prävention in Deutschland, aber eben nicht flächendeckend, schreiben die Fachleute. "Familie, Kita, Schule, Jugendhilfe, außerschulische Kinder- und Jugendarbeit sowie Elternbildung spielen eine wichtige Rolle für die Medienbildung und bauen aufeinander auf."
Der Branchenverband Bitkom sieht vor allem die Eltern in der Pflicht. Eine Umfrage zeige, dass nur die Hälfte der Eltern, die ihrem Kind ein Social-Media-Profil erlaubten, dessen Privatsphäre-Einstellungen geändert habe. Ebenfalls nur die Hälfte der Eltern spreche mit dem Kind darüber, was beim Teilen von Bildern und Videos zu beachten sei.
Hier ein weiterer zusammenfassender Bericht zur Studie: ↑(opens in a new tab)Mindestalter für Social Media: Kommission legt Bestandsaufnahme vor.
3. Mehr AI in den Schulen?
Ein, für mich provokanter Vorschlag kommt von der Philosophin ↑(opens in a new tab)Cornelia Mooslechner-Brüll. In Res Publica hat sie eine Position veröffentlicht, in der sie für mehr AI in der Schule eintritt: ↑(opens in a new tab)Mündigkeit im Algorithmus.
Cornelia Mooslechner-Brüll ist für mehr Philosophieren im Unterricht und sieht im Einsatz von Sprachmodellen positive Möglichkeiten der Partizipation, die dann aber auf jeden Fall in gemeinsames Philosophieren und Diskutieren führen muss.
Ihre Punkte:
Ein oft übersehenes Hindernis für politische Partizipation ist die sprachliche und inhaltliche Komplexität der Systeme. Gesetzestexte, kommunale Haushaltspläne und behördliche Dokumente sind in einem Fachjargon verfasst, der weite Teile der Bevölkerung vom Diskurs ausschließt.
Kl-gestützte Sprachmodelle stellen hier den idealen demokratischen Übersetzer dar. Hunderte Seiten können in leicht verständlicher Weise zusammengefasst und erklärt werden. Politische Programme können in die eigene Sprache oder einfachere Diktion übersetzt werden.
Informationsasymmetrien, die oft zu politischer Frustration führen, können so abgebaut werden. Wer die Spielregeln versteht, kann sich einmischen - Kl senkt die Eintrittsbarriere in die res publica drastisch.
Um einen Zwei-Klassen-Zugang zu generativen Systemen zu vermeiden, plädiert sie dafür, allen Kindern (vermutlich ab einem bestimmten Alter) die Nutzung von deutlich besseren Pro-Versionen zu ermöglichen.
Sie selbst nutzt generative AI für ihre Texte und Unterrichtsvorbereitungen intensiv und mit viel Erfahrung. So wie man von allen intensiven Nutzern hört: Die Qualität der Prompts bestimmt die Qualität der Antworten. Dies möchte sie wohl - zusätzlich zu den Möglichkeiten, sich komplizierte Inhalte einfacher erklären zu lassen - bereits in den Schulen vermittelt sehen.
4. Marktanteile generativer AI und die Geschäftssituation der Anbieter
Es läuft nicht optimal für OpenAI, ihre Finanzierungen werden hinterfragt, die Marktanteile brechen zu Gunsten Google und Anthropic ein und die Solididität der wirtschaftlichen Prognosen von Anthropic wird deutlich besser eingeschätzt: ↑(opens in a new tab)OpenAI in der Krise: Der ChatGPT-Hersteller am Rande des Nervenzusammenbruchs.
Außerdem hat ↑(opens in a new tab)Sam Altman, als Chef von OpenAI, mittlerweile den Ruf ↑(opens in a new tab)notorischer Unzuverlässigkeit und ist mit dem Rest der Branche heftig zerstritten, die Details im Artikel.
Vibe Coding als Kostenfalle für die Anbieter?
Die Vibe Coding-Services, die als eines der stärksten Geschäftsmodelle erschienen, scheinen mehr Compute-Leistung und mehr Strom zu verbrauchen, als sie kosten - dh, je mehr die Kunden davon nutzen, desto mehr Geld verlieren die Anbieter.
Wie man hört, wollen die Anbieter auf neue kostendeckendere Abo-Modelle umstellen, die wohl viel teurer sein werden. Firmen, deren Entwickler viel Vibe-Coding einsetzen, haben heute (April 2026) oft AI-Kosten von 10% der IT-Personalkosten, dh IT-Entwicklung wird teurer, nicht billiger. Außerdem scheint das immer noch nicht kostendeckend für die Anbieter zu sein. Microsoft bietet ↑(opens in a new tab)keine GitHub Copilot subscriptions mehr an.
Noch ein Hinweis: ↑(opens in a new tab)Anthropic nimmt testweise Claude Code aus dem Pro-Tarif. Bei einigen Neukunden fehlt die für Entwickler wichtige Claude-Code-Komponente - es soll ein Test sein, evt, ob die Kunden das merken.
5. Statistiken zu den "intelligenten" Leistungen generative AI
Die führenden Anbieter generativer AI scheinen ziemlich gleichauf zu liegen, auch die Modelle aus China
Quelle: ↑(opens in a new tab)Want to understand the current state of AI? Check out these charts.
Die Leistungen der generativen Systeme für verschiedene Aufgaben
Die Leistungen auf verschiedenen Gebieten werden verglichen mit den Leistungen typischer Menschen (was immer damit gemeint ist).
Bei vielen Aufgaben liegen Menschen gleichauf, bei PhD level science verständlicherweise nicht (die Systeme haben viele wissenschaftliche Veröffentlichungen gelesen, irgendwie "gespeichert" (aber nichts verstanden)). Sie können aber die Texte gut zusammenfassen, dafür gibt es Punkte.
Auch bei Competition Level Math liegen AI-Systeme vor den meisten Menschen. Das sind teilweise spezielle Systeme (zB ↑(opens in a new tab)AlphaProof [wiki]), die für Mathematik optimiert wurden und an den Mathematik-Olympiaden für Schüler mit respektablen Erfolg teilnehmen. Aber auch hier gilt, dass die Systeme (eigentlich) nichts verstanden haben, aber trotzdem viele der Aufgaben lösen (wie menschliche Schüler das auch manchmal machen).
Zur Math-Olympiade siehe ↑(opens in a new tab)DeepMind and OpenAI claim gold in International Mathematical Olympiad. AlphaProof nutzt die spezielle Computersprache ↑(opens in a new tab)Lean [wiki] (Beweisassistent), die entwickelt wurde, um mathematische Beweise in eine formale, computer-verifizierbare Form zu bringen.
6. Ergänzungen früherer Beiträge
Mehr zu Deepfakes und Halluzinationen
Ergänzungen bei Deepfakes und AI-Halluzinationen vor Gericht.
Das ist peinlich: ↑(opens in a new tab)Falsche Aufgaben und Bilder: Lehrbuchverlag unter KI-Verdacht. Ein deutscher Lehrbuchverlag soll Aufgabenhefte und Schulbücher, die ziemlich offensichtlich mit KI erstellt wurden, verkaufen - es finden sich die üblichen Fehler. Die Fehler sind teilweise haarsträubend. Wie viele der Bücher bereits an Schulen eingesetzt werden, ist nicht bekannt.
Fragen rund um Anthropic Mythos
Im vorigen Newsletter habe ich viele Details zu den Vorgängen rund um das Anthropic Vibe-Coding Tool Mythos ergänzt. Verlinkt ist dort auch die Frage, ob die Vibe-Coding Anbieter durch ihre Kunden Geld verlieren.
AI-Chatbots - schon wieder ist etwas passiert
↑(opens in a new tab)OpenAI-Chef entschuldigt sich nach Schulmassaker in Kanada. OpenAI hatte den Account der mutmaßlichen Täterin im vergangenen Juni gesperrt, nachdem das automatisierte Überwachungssystem in den Unterhaltungen der jungen Frau Szenarien mit Waffengewalt aufgefallen waren. Die Behörden wurden nicht informiert. Nach der Tat entdeckte OpenAI, dass die Frau dann einen neuen ChatGPT-Account angelegt hatte.
Frühere Berichte zum Thema Chatbots: Problematische Dialoge der Chatbots bei psychischen Problemen (in diesem Beitrag wurde Ende April eine weitere Studie verlinkt. Auch die zeigt, dass einige der Chatbots Wahnideen deutlich verstärken können), das Psycho-Experiment der AI-Chatbots und ein globales psychologisches Experiment.
Muskismus - Aufstieg und Herrschaft eines Technokings
Bei dem Bericht über die Tech-Oligarchen habe ich bei Elon Musk das neue Buch über seine Ideologie und Konzepte verlinkt: Muskismus - Aufstieg und Herrschaft eines Technokings.
Schon fast lustige Ergänzung:
Im aktuellen Windows-System sind über 80 Implementierungen des generativen Sprachmodells von Microsoft ↑(opens in a new tab)Copilot [wiki] enthalten. Microsoft Chef Satya Nadella bewirbt seine AI bei jeder Gelegenheit für alle möglichen wichtigen Aufgaben. Nun hat sich jemand die ↑(opens in a new tab)Nutzungsbedingungen angesehen: "Copilot is for entertainment purposes only". Microsoft warnt seine Nutzer explizit davor, Copilot für wichtige Ratschläge heranzuziehen, und betont, dass der Dienst Fehler machen könne oder nicht wie beabsichtigt funktioniere. Der Artikel dazu: ↑(opens in a new tab)Copilot kann man nicht ernst nehmen, sagt Microsoft. Ähnliche Warnungen bringen natürlich die anderen Sprachmodelle ebenfalls, ↑(opens in a new tab)Halluzinationen [wiki] eben.
Kostenlos: ÖIAT-Online-Seminare
Kostenlose Online-Seminare organisiert das Österreichische Institut für angewandte Telekommunikation (↑(opens in a new tab)ÖIAT). Hier die kommenden Termine und Themen - alle diese Schulungen sind empfehlenswert (ich nehme an vielen davon Teil).
Die Termine und Themen der neuen Online-Kurse: (zumeist abends, manchmal auch nachmittags oder morgens)
Anmeldung auf ↑(opens in a new tab)academy.oiat.at - der Zoom-Link kommt dann per Email - wie gesagt: m.E. sehr empfehlenswert.