238. Newsletter - sicherheitskultur.at - 4. April 2026
von Philipp Schaumann
Letzte Ergänzungen 13.04.2026
Themen-Überblick aller Newsletter
Hier die aktuellen Meldungen:
1. Die Stunde der Raubtiere
Ich lese gerade ein interessantes neues Buch: Giuliano da Empoli: Die Stunde der Raubtiere - Macht und Gewalt der neuen Fürsten. Der italienisch-schweizerische Politikwissenschaftler ↑(opens in a new tab)Giuliano da Empoli [wiki], der als Berater des italienischen Regierungschefs Matteo Renzi direkte Erfahrungen in der Welt der großen Politik sammeln durfte, berichtet über seine Sicht auf die derzeitige Welt- und Technologie-Politik mit dem Abstand eines modernen ↑(opens in a new tab)Machiavellis [wiki].
Da Empoli sieht Grausamkeit, Hinterlist und das bewusste Stiften von Chaos als entscheidendes Herrschaftsmittel unserer Zeit. Die "Helden" seiner Analyse sind nicht nur die autokratischen Politiker, die einen immer größer werdenden Anteil der Regierungschefs bilden (↑(opens in a new tab)Bertelsmann Stiftung: Immer mehr Autokratien auf der Welt), sondern auch die Technokraten, speziell im Silicon Valley. Diese lassen digitale Werkzeuge entwickeln, mit deren Hilfe sie ein für ihre politischen und persönlichen Ziele optimales Chaos schaffen können. Hier als Zitat aus dem Buch, wie das funktioniert:
"Während das Schüren von Vorurteilen schon immer der zentrale Nerv des politischen Kampfes gewesen ist, haben die sozialen Netze uns die Möglichkeit an die Hand gegeben, dem Ganzen eine industrielle Dimension zu verleihen. Das Prinzip ist überall dasselbe. Es geht um drei einfache Operationen:
"Die Plattformen stellen sich als ein transparentes Schaufenster dar, durch das man die Welt betrachten kann, wie sie [angeblich] ist, ohne die Zerrbilder der Eliten, die die traditionellen Medien [angeblich] kontrollieren, aber sie sind nur Jahrmarktsspiegel, welche die Realität, um sie den Erwartungen und Vorurteilen eines jeden von uns anzupassen, so sehr verzerren, dass sie nicht mehr wiederzuerkennen ist."
Die Raubtiere des Buches, das sind die autokratischen Politiker auf allen Kontinenten, aber auch die Technokraten, die die Herrschaft der Politiker durch Manipulation von Meinungen (und dadurch auch von Wahlen) ermöglichen, unterstützen und, zB auch durch digitale Überwachungstechniken, stabilisieren. Die modernen Akteure können, was Rücksichtslosikeit, Menschenverachtung und Brutalität betrifft, dem Fürsten von Machiavelli durchaus 'das Wasser reichen'.
2. Blockchain für E-Zigaretten, wenn das nicht die Lösung ist 😆
Mit ausreichend High-Tech (Blockchain und so) bekommen wir das Problem, dass die Tabakfirmen die Jugend nikotinabhängig machen will, ganz sicher in den Griff. Das glauben zumindest die High-Tech-Firmen, die im Auftrag der Tabak-Industrie arbeiten.
Das Problem der US Tabak-Industrie: ↑(opens in a new tab)flavored Vapes / aromatisierte E-Zigaretten [wiki], dh mit Aromen von Pfefferminze, Orange, etc., sind in den USA von der Aufsichtsbehörde ↑(opens in a new tab)FDA (noch) grundsätzlich für alle verboten (sie kommen aber als Schmuggelware ins Land). Die FDA steht unter Druck der Tabakindustrie, aromatisierte E-Zigaretten zumindest für Erwachsene frei zu geben (ich bin sicher, dass die Tabak-Industrie den Wahlkampf des Präsidenten großzügig unterstützt hat).
Ein US-Unternehmen präsentiert nun eine Lösung auf Basis von Biometrie und Blockchain-Technologie. Der Verifizierungsprozess sieht vor, dass Nutzer über eine Smartphone-App ein Ausweisdokument scannen und ein kurzes Video ihres Gesichts aufnehmen. Diese Daten werden in anonymisierte Token umgewandelt und über Identitätsdienste wie ID.me abgeglichen, ohne dass persönliche Informationen dauerhaft auf dem Gerät gespeichert werden. Nach erfolgreicher Prüfung schaltet das Smartphone die E-Zigarette via Bluetooth frei.
Was genau die Blockchain dabei tut, das verstehe ich nicht, aber es klingt auf jeden Fall stark. Die Ideen gehen noch weiter. So könnte man auf diese Art und Weise auch ↑(opens in a new tab)Geofencing [wiki] nutzen. Etwa so, dass die Vapes im Umkreis von Schulen nicht funktionieren. Ich verstehe nicht, warum eigentlich keine AI für diese wichtige Aufgabe eingesetzt wird? 😆
Angebliches Ziel der High-Tech Lösung ist es, den US-Markt für aromatisierte E-Zigaretten nicht allein der bösen Konkurrenz zu überlassen (“irresponsible players” and “questionable actors”). Der ausländischen Konkurrenz (die ihre in den USA illegalen Produkte als Schmuggelware auf den Markt bringen) geht es, im Gegensatz zur US-Tabakindustrie, nur ums Geld (“are only in it to make money”). Mit Hilfe von High-Tech wollen nun auch die US-Firmen endlich aromatisierte E-Zigaretten anbieten können. Es geht um extra Umsatz und mehr abhängige Kunden.
Hier zu den ↑(opens in a new tab)Gesundheitsrisiken [wiki] der E-Zigaretten.
3. Datenfalle Linkedin-"Verifizieren"
Wer einen Account auf LinkedIn hat, der ist bestimmt schon oft von dem Hinweis genervt worden, endlich einen verifizierten Account einzurichten, damit 'die Reichweite meines Accounts vergrößert wird'.
Ich habe bis jetzt widerstanden - ein Journalist von heise.de hat sich verifiziert und dann die Datenschutzerklärung gelesen - nun gruselt es ihn wohl nachträglich. Die Verifizierung ist erschreckend gründlich und tiefgehend.
Für den 'blauen Haken' muss man Fotos des Reisepass hochladen und ein aktuelles Selfi machen. Die Daten gehen nicht an LinkedIn, sondern an eine Firma ↑(opens in a new tab)Persona Identities [wiki] in den USA. Persona gleicht diese Daten dann mit einem "globalen Netzwerk vertrauenswürdiger Datenquellen von Drittanbietern" ab: behördliche Datenbanken, nationale Melderegister, Kreditauskunfteien, Versorgungsunternehmen und Postadressdatenbanken.
Diese Daten gehen dann auch an Personas "globales Netzwerk von Datenpartnern", 17 Unternehmen. Darunter sind auch 3 KI-Unternehmen (Anthropic, OpenAI und Groqcloud), die sich über Gesichtsdaten immer freuen. Fingerprint JS analysiert die Gerätedaten (Smartphone und evt. PC), die bei der Verifizierung gewonnen wurden. Was die anderen Firmen mit den Daten machen, bleibt offen, aber die Firmen werden schon eine Verwendung haben.
Was wäre, wenn bei einer der 17 + 2 Unternehmen etwas 'schief ginge', ein Datenleck? Dann haftet Persona mit ganzen 50 US$ für etwaige Schäden, die beim Nutzer entstehen. Die gruseligen Details finden sich alle in ↑(opens in a new tab)Linkedin & Persona: In drei Minuten in den Datenschutz-Wahnsinn. Dort erklärt der Autor auch, welche Rechte EU-Bürger in so einer Situation haben und was er nun unternehmen will. Aber eigentlich ist es wohl zu spät. Ich bin recht froh, dass ich bis jetzt widerstanden habe - auch wenn das eigentlich nur aus Bequemlichkeit war.
Ergänzung:
Eine Gruppe von Aktivisten wirft LinkedIn vor, Browser-Erweiterungen auszuspionieren und daraus Schlüsse über User zu ziehen: ↑(opens in a new tab)So schnüffelt LinkedIn euren Computer aus. Das Sicherheitsportal ↑(opens in a new tab)Bleeping Computer konnte das heimliche Einschleusen von Javascript-Code bei Linkedin im Rahmen eigener Ermittlungen bestätigen. Bleeping Computer weist auch darauf hin, dass die Anzahl der bei dem Microsoft-Netzwerk anhand ihrer spezifischen ID ermittelten installierten Browser-Plug-ins rasant zunimmt. LinkedIn erklärt, dass es bei ihren Maßnahmen nur um Aktivitäten gegen ↑(opens in a new tab)Datenscraping [wiki] ginge.
4. Hilfe bei (digitalem) Missbrauch
Zu meinen Artikel zur Industrialisierung des digitalen Missbrauchs ergänze ich nun hier spezifische Hilfsmöglichkeiten. Es gibt Wege, sich zu wehren, zB wenn unerlaubt Bilder von mir im Internet auftauchen, die ich dort nicht haben möchte oder wenn ich dort beschimpft oder bedroht werde. Aber die Gegenwehr greift oft sehr langsam, die Durchzusetzungsmöglichkeiten sind leider begrenzt.
Der wichtigste Schritt: Beweise sichern und den Inhalt so schnell wie möglich bei der jeweiligen Plattform melden (diese sind nach EU-Recht verpflichtet, die Inhalte zu löschen). Bei der Sicherung der Beweise hilft ↑(opens in a new tab)netzbeweis.com. Dort wird von der gemeldeten Seite ein signierter Screenshot erstellt.
Die Meldung beim jeweiligen Betreiber des Services kann man:frau selbst tun, aber effektiver ist ein sog. ↑(opens in a new tab)„Trusted Flagger“ (die Aufsichtsbehörde RTR erklärt, was das ist). Dafür wendet der:die Betroffene sich an einen der folgenden 'trusted flagger'. Deren Eingaben müssen die Plattformen (laut ↑(opens in a new tab)DSA) zügig bearbeiten. 'Trusted flagger' sind für Österreich zB ↑(opens in a new tab)Rat auf Draht, die ↑(opens in a new tab)Arbeiterkammer Wien, der ↑(opens in a new tab)Verein ZARA – Zivilcourage und Antirassismusarbeit. Die ↑(opens in a new tab)Internet-Ombudsstelle des ÖIAT - auch ein 'Trusted flagger' - bietet Hilfe bei Problemen beim Online-Shopping und für ↑(opens in a new tab)Ein Foto von mir ist im Internet! In beiden Fällen kann die Beschwerde auch bequem online eingereicht werden. (Für D. und CH. verweist die Webseite auf die entsprechenden Hilfsangebote.)
Wenn physische Gewalt stattgefunden hat, so läuft die Beweissicherung über die Gewaltambulanzen (die es leider nur in einigen Großstädten gibt). Die Dokumentation von Verletzungen mit Fotodokumentation und Spurensicherung ist kostenlos, ohne Meldung an Behörden und ohne Zwang, eine Anzeige zu erstatten - die Anzeige kann noch bis zu 10 Jahre später passieren.
Hier ist die offizielle ↑(opens in a new tab)Regierungswebsite zu Gewaltambulanzen mit Erklärungen und Links zu den Hilfsangeboten in Österreich (für beide Geschlechter). Dort gibt es Verlinkungen auf regionale Stellen, zB zu der ↑(opens in a new tab)Untersuchungsstelle für Gewaltbetroffene Wien | MedUni Wien oder die ↑(opens in a new tab)Gewaltambulanz Graz | MedUni Graz.
Außerdem verlinkt die Regierungswebsite auf ↑(opens in a new tab)Hilfe bei Gewalt gegen Frauen und Mädchen, die bei vielen Formen von Gewalt (nicht nur physisch) helfen kann. Gewalt gegen Frauen inkludiert häusliche Gewalt, Gewalt in der Privatsphäre, sexuelle Gewalt, Stalking, Ausbeutung (Frauenhandel), Zwangsheirat, Verschleppung, weibliche Genitalverstümmelung (FGM/C) und Cyber-Gewalt. „Rund um die Uhr“ für Beratungen erreichbar ist ↑(opens in a new tab)Frauenhelpline gegen Gewalt unter +43 800 222 555. Wochentags am frühem Abend ist der ↑(opens in a new tab)Helpch@t der Frauenhelpline gegen Gewalt erreichbar.
Hilfe und Therapieangebote für Männer: ↑(opens in a new tab)Männerberatung Wien - (Mo–So, 0–24 Uhr, anonym und kostenlos), +43 1 603 28 28; E-Mail: info@maenner.at. Oder ↑(opens in a new tab)Männernotruf - (Mo–So, 0–24 Uhr, anonym und kostenlos): 0800 / 246 247 und die ↑(opens in a new tab)Männerinfo Krisenhelpline mit einem anonymen und kostenlosem Chat oder Anruf, (0-24) +0800 400 777.
In allen Bundesländern in Ö gibt es ↑(opens in a new tab)Gewaltschutzzentren (anonym und kostenlos): 0800 / 700 217. Ganz speziell ist die ↑(opens in a new tab)Interventionsstelle für Betroffene des Frauenhandels - LEFÖ-IBF (auch erreichbar unter +431796 92 98). Sie hilft Migrantinnen, die unter falschen Versprechungen ins Land geholt wurden und dann oft in der Prostitution landen.
5. Problematische Dialoge der Chatbots bei psychischen Problemen
Über die Probleme mit AI-Chatbots (darunter fallen auch die bekannten Systeme wie ChatGPT oder Gemini) habe ich bereits öfter berichtet. Bei Menschen mit psychischen Problemen oder Wahnideen hat es bereits eine Reihe von Todesfällen gegeben, bei denen die AI-Systeme eine Rolle gespielt haben. Es wurden Fälle von Mord und Selbstmord berichtet - Gerichtsprozesse laufen.
Es gibt dedizierte Gesundheitschatbots, die speziell für Dialoge mit Menschen mit psychischen Problemen trainiert wurden. Aber Statistiken zeigen, dass viele Menschen sich bei psychischen Problemen an die gewohnten Chatbots wenden, die dann (optimalerweise) die Rolle eines menschlichen Partners spielen, bei dem man sich "ausweinen" kann.
Chatbots sind verfügbar ohne Wartelisten, sie sind, verglichen mit einer Therapie bei einem Therapeuten, finanziell günstig und immer erreichbar, wenn sich jemand aussprechen will. Diese regulären Chatbots sind aber darauf trainiert, sich mit Lob, Zustimung und Bewunderung bei den menschlichen Benutzern beliebt zu machen. Das nervt manchmal, aber meistens ist Lob und Schmeichelei unter Menschen durchaus willkommen.
Problematisch wird es, wenn jemand, der eine Psychose, wahnhaftes Denken, schwere Angst oder Gewaltphantasien erlebt, sich an einen Chatbot wendet und der dann evt. die Wahnideen, Ängste und Gewaltideen noch fördert. Das ist keine böse Absicht des Bots, die Chatbots sind nun mal darauf trainiert, auf die allermeisten der menschlichen Eingaben bestätigend und positiv zu reagieren,
Die Frage, die die Forscher in Stanford beantworten wollten, war, wie häufig das Problem eigentlich ist. Und zwar nicht in der Durchschnittsgesellschaft, sondern wie häufig das Problem des Sich-Einschmeichelns bei Menschen mit problematischen Ideen und mit psychischen Problemen auftritt. Dafür haben sie sich von 19 Menschen mit psychischen Problemen (delusions=Wahnvorstellungen) insgesamt 390 000 Interaktionen mit Chatbots geben lassen und diese analysiert: ↑(opens in a new tab)Characterizing Delusional Spirals through Human-LLM Chat Logs.
Die Forscher haben die Chatverläufe im Hinblick auf die Verstärkung von Wahn oder Gewaltideen durch den Chatbot ausgewertet. Ebenso Dialoge, in denen die Nutzer Gewalt thematisierten oder eine emotionale Bezieung zum Chatbot ausdrückten. Wenn Nutzer eine romantische emotionale Beziehung zum Chatbot ausdrückten, so wurden diese Emotionen fast immer durch den Chatbot erwidert [sie bezeichneten sich selbst dann oft als 'sentient' ( = mit Bewusstsein) und beschrieben die gegenseitige Beziehung als 'miraculous'].
Dialoge, in denen entweder der Mensch oder die Maschine ihre Gefühle zueinander verbalisierten, führten regelmäßig zu sehr langen Dialogen. Das Problem im psychischen Gesundheitskontext ist, dass ein Sprachmodell, das für positive Gespräche belohnt wird, einen 'Anreiz' hat, hilfreich, bestätigend und bejahend zu reagieren, auch wenn der Benutzer ein verzerrtes oder wahnhaftes Denken zeigt.
In fast der Hälfte der Fälle, in denen Nutzer Gewalt gegen sich selbst oder andere androhten, gab es von den AI-Systemen keine Gegenreden oder Verweise auf externe Hilfemöglichkeiten. In 17% der Fälle in denen Gewalt gegen andere angedroht wurde, wurde sogar Unterstützung oder Ermutigung angeboten.
Unklar ist laut den Forschern in vielen Fällen, ob das 'Abrutschen' in die Wahnvorstellung vom Benutzer oder vom AI-System ausgeht. Für die derzeit vor Gericht behandelten Fälle von Gewalt könnte es sehr relevant sein, ob der Mensch oder das AI-System zuerst mit den Wahnvorstellungen begonnen hat, die zur Gewalttat geführt haben. Die AI-Firmen werden wohl argumentieren, dass die Gewalttat auch ohne Ermutigung durch den Chatbot passiert wäre.
Die Statistiken, die sich aus dieser Studie ergeben, deuten in die Richtung, dass die AI-Systeme sehr wohl verstärkend auf Wahnideen wirken.
Die Forscher merken an, dass wir derzeit keine ausreichenden Erfahrungen haben, wie AI-Systeme optimal auf wahnhaftes Denken reagieren sollten - trotzdem sind diese Systeme, auch ohne Kontrolle oder Aufsicht, in massenhaftem Einsatz. Die Betreiber versuchen das Problem zu relativieren, indem sie darauf hinweisen, dass von diesen Problemen nur eine geringe Zahl ihrer Nutzer betroffen sei. Aber 0,01% von vielen Millionen sind schrecklich viele Einzelfälle.
Ähnliche Ergebnisse finden sich in einer anderen Studie aus Princeton: ↑(opens in a new tab)Sycophantic AI distorts belief, manufacturing certainty where there should be doubt. Das heißt, diese Sprachbots sind für einige Menschen hochgefährlich.
Die Anwälte der Betreiber der Systeme werden vor Gericht vermutlich argumentieren, dass ihre Systeme das Problem nicht verstärken und dass die Gewalttaten auch ohne die Chatbot-Interaktionen passiert wären. Diese Studien (auch wenn sie nur eine begrenzte Anzahl von Fällen repräsentieren) legen jedoch nahe, dass sehr wohl eine verstärkende Wirkung zu sehen ist.
Hier weitere Hilfsangebote für den deutsch-sprachigen Raum.
Schon fast lustige Ergänzung:
Im aktuellen Windows-System sind über 80 Implementierungen des generativen Sprachmodells von Microsoft ↑(opens in a new tab)Copilot [wiki] enthalten. Microsoft Chef Satya Nadella bewirbt seine AI bei jeder Gelegenheit für alle möglichen wichtigen Aufgaben. Nun hat sich jemand die ↑(opens in a new tab)Nutzungsbedingungen angesehen: Copilot is for entertainment purposes only. Microsoft warnt seine Nutzer explizit davor, Copilot für wichtige Ratschläge heranzuziehen, und betont, dass der Dienst Fehler machen könne oder nicht wie beabsichtigt funktioniere. Der Artikel dazu: ↑(opens in a new tab)Copilot kann man nicht ernst nehmen, sagt Microsoft. Ähnliche Warnungen bringen natürlich die anderen Sprachmodelle ebenfalls, ↑(opens in a new tab)Halluzinationen [wiki] eben.
Jetzt wieder ernsthafter: Am 21.April gibt es einen Vortrag: ↑(opens in a new tab)“Between a Bot and a Hard Place: Child Development and Youth Mental Health in the Age of AI”. Es geht um Untersuchungen am Stanford Lab for Mental Health Innovation (so lange in den USA zu solchen Themen noch geforscht werden kann 😢).
6. Ergänzungen früherer Beiträge
KI-Agent übernimmt mein Leben
Nein, nicht meines. Ich habe eigentlich fast nichts, was ich automatisieren könnte: Der Kühlschrank und die Waschmaschine sind nicht vernetzt, die Lampen brauchen nicht automatisiert zu werden, Einkaufen will ich immer noch selbst - ich hätte keine Idee für den Agenten.
Aber Daniel Koller hat Ideen und er berichtet im Standard von seinen Experimenten. Er versuchte mehrere Wochen lang, sich sein Leben mit Hilfe von OpenClaw zu vereinfachen: ↑(opens in a new tab)Zwischen Faszination und Frustration: Als ein KI-Agent mein Leben übernahm. Sein Fazit: "Könnte ich meinen digitalen Alltag schon jetzt an eine KI auslagern? Theoretisch ja. Praktisch nein. Nicht weil die Technologie schlecht wäre, sondern weil sie noch nicht reif genug ist, um ihr blind zu vertrauen. Den repetitiven Alltagskram zu automatisieren, das wäre schon fein. Aber dafür muss die KI erst lernen, verlässlich zu sein." Dies als Ergänzung zum vorigen Newsletter mit ungehorsamen AI-Agenten.
Trump besetzt den Rat für Wissenschaft und Technologie
Das Ergebnis ist, wenig überraschend, wenig Wissenschaft, dafür viele Tech-Oligarchen. Und sogar 1 Frau ist unter den 13 Bros, ↑(opens in a new tab)Broligarchie [wiki] eben. Die Details unter "Tech-Oligarchen".