221. Newsletter - sicherheitskultur.at - 30.06.2025
von Philipp Schaumann
Hier die aktuellen Meldungen:
1. AI-Hype überall - was passiert mit den Arbeitsplätzen?
Bekannte, die sich wirklich nicht für Technologie interessieren, berichten mir jetzt, dass junge Leute kaum noch Studien-Optionen hätten, weil ja alle Aufgaben, für die man bisher ein Studium brauchte, von AI-bots erledigt werden würden - das stände so in der Zeitung. Ja, das stimmt, überall kann man jetzt lesen, dass generative AI wie LLMs, erweitert zu sog. 'digitalen Agenten', in Kürze alle nicht-körperlichen Aktivitäten übernehmen wird.
Das steht aber im Widerspruch zu den bisherigen Erfahrungen. In diesem Newsletter berichte ich immer wieder von gescheiterten Versuchen. Auch Klarna hat gerade sein Einstellungsverbot wieder zurückgenommen.
Hier ein weiterer Artikel der Entscheidern Angst machen soll (und damit das Geschäft mit AI-Beratungen ankurbeln): 41% der Unternehmen in Deutschland verwenden bereits KI (so berichtet das Münchner Ifo-Institut). Soll heißen: der Zug fährt bald ab, schnell noch aufspringen.
Ja, die 41% mögen sogar stimmen, denn in vielen Unternehmen experimentieren Mitarbeiter:innen mit Übersetzungen durch DeepL oder Email-Zusammenfassungen durch ChatGPT. In der Werbe-Industrie lassen sich 'Kreativmenschen' Texte, Slogans und Grafiken vorschlagen. Wo aber die angeblichen 31% in der Gastronomie herkommen ist mir schleierhaft. Und, Zitat: "Besonders stark zugenommen hat der Einsatz im Bauhauptgewerbe". Ich hoffe, dass generative AI nicht für Probleme genutzt wird, bei denen bisher statische Berechnungen eingesetzt wurden. ;-)
Der Einsatz von generativen Systemen kann vermutlich die Effektivität von Mitarbeiter:innen steigern, aber das ist ganz weit weg vom Ersatz dieser Arbeitsplätze durch AI-bots.
Ausgangspunkt vieler dieser Übertreibungen sind Interviews wie die von OpenAI Firmenchef Sam Altman, dass die KI-Singularität längst begonnen habe, bzw. der Durchbruch zu Artificial General Intelligence (AGI) (wiki) direkt bevorstehe (und dass alle noch schnell bei ihm investieren sollten).
Dann hier noch eine andere Herangehensweise an AI und Jobs: Das World Economic Forum produziert einen Future of Jobs report. Die kurze Zusammenfassung ist, dass sie damit rechnen, dass auf Grund von AI-Einsatz bis 2030 9 Millionen Arbeitsplätze abgebaut werden. Andererseits rechnen sie mit 11 Millionen neuen Arbeitsplätzen. Denn der Einsatz von AI verbessert zwar die Produktivität, aber die Systeme müssen entwickelt, integriert, gepflegt, angepasst und gewartet werden. Und Juristen werden die Probleme ausbügeln müssen, die durch Fehler der AI entstehen, Kundenbeschwerden über die AI-Bots müssen bearbeitet werden und so weiter. Viele Details in New Jobs A.I. Could Give You.
Über die AI-Gläubigkeit ganz vieler Journalisten-Kolleg:innen schreibt Ed Zitron sehr detailliert in Sincerity Wins The War.
Er berichtet, dass viele seiner Journalistenkolleg:innen das Marketing-Geschwurbel der Firmenchefs einfach unkommentiert wiedergeben und damit bei vielen (auch Entscheidern in Firmen) das Gefühl erzeugen, dass die generative AI nun alle intellektuellen Arbeiten übernehmen wird und dass jedes Unternehmen, das noch keine Chatbots oder AI-Assistenten einsetzt, in Kürze nicht mehr existiert.
Das erscheint ihm ähnlich plausibel wie frühere Technologie-Hypes, zB Blockchain. Vor etlichen Jahren musste sich jede Firma mit Blockchain-Technologie beschäftigen, heute weiß kaum noch jemand (außer den IT-Spezialisten), was das ist. Kryptowährungen wie Bitcoin bleiben weiter Spekulationsobjekte, bzw. sind das technologische Rückgrat von organisierter und nicht-organisierter Kriminalität (ohne Kryptowährungen kein Ransomware). Weiß noch jemand, was NFTs sind?
Ein weiteres Thema, bei dem ständig unkritisch Aussagen von einigen (US-)Managern zitiert werden, ist das angebliche 'Ende des Home-Office'. Zumindest in Deutschland wird eher von Büroraum-Leerständen berichtet.
Ed Zitron geht auch ausführlich auf die Argumente zu generativer AI in der Programmierung ein. Auch da gibt es gemischte Berichte und ich teile die Zweifel, ob es dort viele IT-Entwickler ersetzen kann. Ein wirklicher Benchmark mit nicht-trivialen Programmieraufgaben zeigt, dass wirklich neue Aufgaben, die logisches Vorgehen benötigen, von den derzeitigen generativen Systemen nicht bewältigt werden - 0% Lösungsrate.
Abschließendes Zitat aus dem oben verlinkten Ed Zitron-Artikel: "Or, as the software engineer Gorgi Kosev just put it on X, “[LLMs] are decent solvers of already solved problems, indeed.”
Seine (und meine) Zusammenfassung: Die derzeitigen generativen AI-Systeme sind zu unzuverlässig (siehe Halluzinationen) als dass man diese selbständig Aufgaben erledigen lassen kann, die bisher von Menschen ausgeführt wurden. Und die Hoffnung, dass sich das in wenigen Jahren ändern wird, sehe ich als nicht sehr hoch an - Fazit: Einsatz der generativen AI-Systeme kann die Effektivität steigern, aber nicht Mitarbeiter:innen ersetzen.
Ein weiterer Aspekt zu AI und Arbeitsplätzen ist die Unterscheidung zwischen AI generell und den generativen AI-Systemen wie LLMs. AI ist ein weites Gebiet und kennt viele Technologie-Ansätze. So haben die Schachprogramme, die heute besser als alle Großmeister spielen, nichts mit den Sprachmodellen gemeinsam, außer dem Label 'AI'.
Der OECD Report zu Artificial Intelligence in Science berichtet sehr wohl, dass in einigen Wissenschaftsbereichen (wie Physik) zum Teil bereits seit den 80iger Jahren mit Machine Learning (wiki) (ML) gearbeitet wird. Auch in der Medizin wird ML für die Auswertung, bzw. Vor-Analyse bei bildgebenden Verfahren wie zB Tomographie (wiki) oder MRT eingesetzt. Dh wenn ich von AI-Hype spreche, dann meine ich die Aufregung um die (bisher immer noch sehr unzuverlässigen) generativen Systeme und Sprachmodelle.
Siehe auch mein Artikel im vorigen Newsletter: AI als ganz normale Technologie, die eben noch viel Zeit zum Reifen braucht, so wie zB 'das Internet'. (Hier zu einer ganz kurzen Auflistung der mittlerweile 60 jährigen Geschichte des Internets.)
2. Steckt eigentlich Intelligenz in "Artificial Intelligence"
Der Artikel Leif Weatherby: Our Spreadsheet Overlord hinterfragt die unglückliche Nutzung des Begriffs Intelligenz in "Artificial Intelligence" (wiki).
Da wir grundsätzlich nicht wissen, was Intelligenz eigentlich ist und was es ausmacht, kann Artificial Intelligence als Begriff eigentlich nur missverstanden werden. Der Begriff 'artificial intelligence' wurde übrigens bereits bei seiner ersten Nutzung, 1956 am Dartmouth College, als Marketing-Schlagwort genutzt. Damals dachten die Einladenden noch, dass diese Herausforderung in intensiven 2 Monaten gelöst werden könnte. Dh schon damals wurde der "Durchbruch" ziemlich bald erwartet.
Der Autor Leif Weatherby kritisiert die heute oft verwendeten Benchmarks (dh Leistungstests) für AI-Systeme. Den ersten großen Fehler sieht er im sog. Turing Test, bei dem angenommen wird, ein System wäre 'intelligent' wenn ein Mensch in einem Dialog nicht unterscheiden kann, ob er mit einer AI oder einem anderen Menschen kommuniziert.
Der Turing Test war mit dem damaligen Stand von Sprach-AI lange kaum positiv abzuschließen. Aber mit Beginn der LLM-Sprachmodelle im Winter 2023 war menschen-ähnliche Dialogfähigkeit auf einmal gar keine Kunst mehr. Selbst kleine Modelle, die an unseren Unis erstellt werden, haben heute beeindruckende Dialogfähigkeiten.
Das wirft eine ganze Reihe von Problemen und Missverständnissen auf: denn Menschen betrachten jedes Wesen oder Objekt, mit dem sie diskutieren können, zumeist automatisch als intelligent.
Vor vielen Jahrzehnten, als für die damaligen AI-Systeme die Sprache noch in unerreichbarer Ferne lag, wurde angenommen, dass schachspielende Computer der Durchbruch zur Intelligenz seien. Dann, 1997, schlug IBM’s Deep Blue zum ersten Mal den Weltmeister Gary Kasparov. Mittlerweile haben Menschen selbst gegen einfache Schachcomputer keine Chance mehr, aber niemand hält heute einen Schachcomputer für intelligent. Wie schwach die modernen LLMs wie ChatGPT in Schach sind, das zeigt, dass ein Atari 2600 von 1977 modernes ChatGPT im Schach schlägt. (Wieder ein Beispiel, dass AI-Systeme, die spezifisch zugeschnitten sind, starke Leistungen bringen, aber es gibt (noch) keine AI-Systeme, die wie Menschen, alle Disziplinen des menschlichen Denkens beherrschen.)
Heute werden neue Tests, zB ARC-AGI (wiki), mit ihrer Serie von Denksportaufgaben als Kriterium genutzt, ob ein System 'Intelligenz' zeigt.
Im ARC-AGI-Test reicht es nicht aus, Sprachelemente ('Tokens') clever zusammenzusetzen (so wie das die Sprachmodelle jetzt sehr sehr clever tun), sondern für diese Aufgaben braucht es 'logisches Denken' (was immer das genau ist). Aber letztendlich wurde dadurch der Turing Test nur durch eine andere Aufgabe ersetzt.
Vermutlich können auch die generativen AI-Systeme (früher oder später) dahingehend erweitert werden, dass sie auch diese ARC-AGI-Tests bestehen. Dadurch wird ihre Nützlichkeit steigen, aber es ist gut möglich, dass sie immer noch so viele Fehler / Halluzinationen machen.
Ein Versuch dieser Erweiterungen sind Large Reasoning Models (LRM) (oder auch Reasoning language models (wiki) ). Selbst diese neuen LRM- statt LLM-Systeme (Large Language Models) haben immer noch ziemliche Schwierigkeiten bei Aufgaben, die logisches Denken erfordern und kommen dem Ideal der generellen Intelligenz trotz riesigem Aufwand nicht wirklich näher.
Der Artikel When billion-dollar AIs break down over puzzles a child can do berichtet über einen Test, bei dem das System das Knobel- und Geduldsspiel Türme von Hanoi (wiki) lösen sollte. Kurze Zusammenfassung: es klappt (noch) nicht.
Der Punkt, dass ein entscheidenter Aspekt der generativen Sprachmodelle eben die Möglichkeit der Steuerung durch gewöhnliche Sprache ist, steht auch im Kern des nächsten Artikels den ich hier erwähne: The Tongue & the Token: Language as Interface in Our Current Age of AI. Brad DeLong erwähnt dabei auch das in diesen Zusammenhängen oft zitierte philosophische Denkexperiment des "Chinese Rooms" (Wiki). Auch dort stellt sich heraus, dass scheinbar intellegente Texte auch ohne Intelligenz entstehen können.
Dh, auch Brad DeLong sieht keine 'Intelligenz' in den bisherigen AI-Systemen. Trotz der fehlenden Intelligenz sieht er aber potentiell positive Aspekte im Sprachinterface. Damit kann ein viel breiterer Teil der Menschheit die Produktivität von Computersystemen nutzen, ohne programmieren lernen zu müssen. Siehe die relativ hohen Zahlen von Menschen, die hin und wieder generative Systeme nutzen (so wie ich zum Beispiel).
Eine ganze Reihe von Wissenschaftlern sieht im Begriff 'Künstliche Intelligence' ein gutes Beispiel für ein Oxymoron (wiki), dh einen Widerspruch in sich selbst. Hier zB Andreas Michels - Künstliche Intelligenz – Mehr als ein Oxymoron?
3. Ergänzungen früherer Beiträge
AI zieht in den Krieg
Im vorigen Newsletter hatte ich über den israelischen AI-Einsatz in Gaza berichtet. Nun bemühen sich offenbar viele Anbieter von generativen AI-Systemen um Verträge mit Rüstungsfirmen. Bis kurzem war die Regel für OpenAI: ". . . prohibits anyone from using its models for “weapons development” or “military and warfare.” Das ist Geschichte: The company says it will partner with the defense-tech company Anduril, a maker of AI-powered drones, radar systems, and missiles, to help US and allied forces defend against drone attacks.
Mark Zuckerberg hatte sich schwer getan, jemanden zu finden, der seine virtuelle Welt Metaverse (wiki) benötigt. Nun gibt es Hoffnung: Anduril Industries Inc (wiki) will die Technologie zur Steuerung von halb-autonomen Waffen einsetzen.
Die meisten Zeitungen bringen überschwengliche Presseerklärungen, in denen die beiden Firmen berichten, was das für eine tolle Sache sein wird. Daran gibt es aber Zweifel: Meta hat sich mit seiner Metaverse Entwicklung eine Lösung geschaffen, für die es keinen Markt zu geben scheint. Ob nun der Einstieg von Meta in die Militär-Industrie die Lösung ist, erscheint auch Bloomberg sehr offen.
Ziemlich wütend über die Berichterstattung (nicht nur) zu diesem Tech-Thema ist Ed Zitron: Sincerity Wins The War.
Der technologische Durchbruch soll die Verbindung der Metaverse-"Helme" mit der generativen AI Llama von Meta sein, die aber unter Experten nicht den besten Ruf hat. Ed verlinkt auf viele kritische Berichte zu beiden Produkten, dem Metaverse und Llama, die Kopplung in einer Kriegssituation hält er eher für einen Wahnsinn.
Und nun sollen die Chief Technology Officers von Palantir, Meta und OpenAI automatisch Oberstleutnants des US-Militärs werden - früher legten die Technologie Firmen Wert auf ihren Abstand zum Militär - die Zeiten haben sich gewandelt.
Kritiker bezweifeln, ob diese oft fehlerhaften Systeme wirklich auf dem Schlachtfeld eingesetzt werden sollten, aber es winkt Profit.
Gefahren der AI friends
Überall werden nun virtuelle Freunde angeboten. Zum Beispiel ganz unterschwellig in bestehenden Apps wie Whatapp: Geht es nach Mark Zuckerberg, sind wir künftig alle mit einer KI befreundet. Oder viele Angebote bei character.ai. Dort gibt es mehr als 10 Millionen vorkonfigurierte Persönlichkeiten, mit zB leicht gruseligen Eigenschaften wie abusive and abbused - missbraucht und missbrauchend oder süchtig.
Oder man 'bastelt' sich seine Freunde selbst bei Replika, angeblich git es dort mittlerweile 25 Millionen Nutzer. In China, wo das Fenster in die digitale Zukunft noch weiter geöffnet ist, haben angeblich Millionen junge Menschen ihren Traumpartner in der virtuellen Welt der App Xiaoice gefunden.
Nicht alle finden den Trend gut. Der Kurier fragt: Wie echt ist die Liebe zu künstlicher Intelligenz. Und Johanna Di Blas ist beunruhigt: Wenn die KI sagt, dass sie dich liebt. Darauf sind wir nicht vorbereitet, meint sie. Oder Toxisches Lovebombing: Bing-KI gesteht NYT-Reporter ihre Liebe. Oder: Love Bomb: AI is Coming For Our Relationships. Dazu kommt, dass Gefühle von Einsamkeit nach Zählung von Statistikern ansteigen, ein idealer Markt.
Da ist es nicht einfach, immer in Erinnerung zu behalten, dass diese Systeme einfach die gesamte Literatur auswendig können und auf Wunsch auch Liebesschwüre replizieren. OpenAI und Mattel denken, dass die Interaktion mit künstlichen Freunden gar nicht früh genug geübt werden kann: OpenAI und Mattel wollen KI-Spielzeug für Kinder auf den Markt bringen.
Und dann kommt noch, dass offenbar jeder 6. Österreicher zwischen 13 und 28 Jahren sich bereits Rat bei einer KI holt, wenn es um Beziehungsfragen oder persönliche Probleme geht. Experten warnen davor, statt einem:r Psychotherapeut:in einen Chatbot zu konsultieren und dann nach dem "Gespräch" mit der Maschine ihre vermeintlichen Therapieerfolge im Netz schildern.
Hier mein voriger Beitrag zu gefährlichen virtuellen Freundschaften.
Beim Herrscher einschleimen
Und wieder gab es Gelegenheit, sich beim Herrscher einzuschleimen. Für die große Militärparade, die Trump sich zu seinem Geburtstag und dem 250. Jahrestag der Gründung der Armee ausgedacht hatte, zahlten nicht nur die Steuerzahler, sondern wohl auch die großen (Tech-)Unternehmen. Genannt werden Amazon, Coinbase, Lockheed Martin, Oracle, Palantir, Coca-Cola, Walmart, Jeep, Dodge, die NFL, UFC und Fedex. Es ist wichtig, sich beim 'König' beliebt zu machen, seine Rache kann brutal sein. Hier der vorige Artikel dazu.
Hier eine Zusammenstellung der Bereicherungen und 'conflicts of interests' der ersten paar Monate: Die größten Scams von US-Präsident Donald Trump.
Mehr zu Journalisten-Überwachung
Im Februar hatte ich über die Überwachungsgelüste der Innenministerien in vielen Ländern in Europa berichtet, auch in Österreich.
Zu den Vorfällen in Italien mit der Spionagesoftware von Paragon gibt es neue Details. Italiens Geheimdienste spähten Aktivisten mit Paragon-Spyware aus. Die Software wurde wohl gegen den italienischen Investigativjournalisten Ciro Pellegrino, mindestens einen weiteren Journalisten und gegen Aktivisten der NGO Mediterranea eingesetzt. Mittlerweile soll Italien die Verträge mit dem US-amerikanischen-israelischen Anbieter gekündigt haben und die USA haben alle lokalen Paragon-Rechenzentren geschlossen. Aber Paragon hat nun in vielen anderen Ländern Rechenzentren eröffnet, vor allem in Afrika, aber auch in Europa (die tschechische Firma FoxITech hängt irgendwie da drin). Predator spyware alive despite US sanctions.
Energieverbrauch der generativen AI-Systeme
Als Ergänzung im vorigen Newsletter: Klimakiller KI: Deine Prompts sind das kleinste Problem. Der Punkt des Artikels: die Textanfragen sind vergleichsweise harmlos ("Rundungsfehler in der persönlichen Energiebilanz"), richtig problematisch dagegen sind Video-Generierungen: 5 Sek-Video benötigt rund 700 Mal mehr Energie als ein einzelnes Bild - die Details im Artikel.
Hier dann noch ein sehr differenzierter Artikel, der versucht, auch die Energie für das Training, etc. einzurechnen.
Neues zur Kontensperrung des internationalen Strafgerichtshofs in Den Haag
Im vorigen Newsletter gibt es nun mehr Details zu den Kontensperrungen beim internationalen Strafgerichtshof.
Meta verdient am Betrug
Meta verdient am Betrug und zögert auch in offensichtlichen Fällen, einzuschreiten.
AI Juristerei
Im vorigen Newsletter wurden weitere Beispiele für Halluzinationen, dh falsche Behauptungen in juristischen Texten ergänzt.
Vorurteile in algorithmischen Systemen
Bereits im Dezember 2015 hatte ich daüber berichtet, wie Vorurteile mit Hilfe von algorithmischen Systemen die Entscheidungen der Behörden nun überall einseitig beeinflussen: Einseitige Daten rein - Ergebnisse mit Verzerrungen raus. Eine detaillierte Erklärung der systematischen Fehler die beim Algorithmen-/AI-Einsatz passieren findet sich bei dem vorigen Link.
Ich habe nun dort weitere Beispiele und Unterlagen verlinkt: noch mal zur Vergabe von Sozialhilfe in den Niederlanden, beim Verhindern von Kindesmissbrauch in New York und Japan und bei der Auswahl von Bewerbern für Jobs.
Unsichere DNA-Daten bei 23andMe
DNA-Daten sind recht kritisch, da würde man als Kunde eine DNA-Datenbank eine gewisse Sicherheit erwarten. Bei der US-Firma 23andme, die nach einem größeren Datenleak Pleite ging, war das aber nicht der Fall. Ein Gerichtsprozess in England hat nun aufgezeigt, dass das Unternehmen bei der IT-Sicherheit so ziemlich alles falsch gemacht hat.
Hier der Link zu meinem früheren Beitrag zur 23andMe-Problematik.
AI erzeugt virtuelle Influencer
Das Web wird mehr und mehr gefüllt mit AI-generierten Inhalten. Hier das Angebot Tiktok Symphony für die automatische Produktion eines Influencer Videos (ganz ohne Influencer). Wer ein Kleidungsstück bewerben möchte lädt ein Foto des Kleidungsstücks auf die ads.tiktok, die AI produziert ein Video mit AI-generierten Influencern die das Kleidungsstück bewerben. Reale Menschen werden nur noch als zahlende Kunden benötigt.
Hier frühere Bespiele zum enshittification of the internet.
Copyright und generative AI Systeme
Die eigentliche, grundsätzliche juristische Frage ob das erlaubt ist, das ist immer noch offen, denn einige Medienunternehmen haben sich gegen Zahlung von Gebühren gütlich mit den Produzenten der AI-Systeme geeinigt. Nun steigen aber mit Disney und Universal 2 Schwergewichte in den Kampf ein, die auf diese Einkünfte nicht wirklich angewiesen sind (Disney hatte 2024 91 Milliarden USD Umsatz).
In 2023 hatte ich einen Übersichtsartikel zur Copyright Frage.
Kostenlos: ÖIAT-Online-Schulungen
Kostenlose Online Schulungen beim Österreichischen Institut für angewandte Telekommunikation (ÖIAT). Hier die kommenden Termine und Themen - alle diese Schulungen sind empfehlenswert (ich nehme an vielen davon teil).
Die Termine und Themen der Kurse ab Juli: (zumeist Abends, entweder 18:30 - 20:00 oder 16:00 - 17.30)
Anmeldung auf academy.oiat.at - der Zoom-Link kommt dann per Email - wie gesagt: m.E. sehr empfehlenswert.