223. Newsletter - sicherheitskultur.at - 07.08.2025

von Philipp Schaumann

Zum Archiv-Überblick

 

Hier die aktuellen Meldungen:

1. Haben wir eine AI-Bubble?

Wenn wir uns die derzeitige Liste der reichsten Aktienfirmen anschauen, so finden wir dort meistens die sog. Magnificent 7 [wiki]: US-High-Tech-Firmen mit einem riesigen Gesamt-Aktienwert:

Nvidia, Microsoft, Apple, Amazon, Alphabet(=Google), Meta (vorm. Facebook) und Tesla. Zusätzlich unter den ersten 10 finden sich manchmal TSMC (Chip-Produzent aus Taiwan) und die Investment Firma Berkshire Hathaway, manchmal auch ein Pharma-Unternehmen.

Wenn wir das mit früher vergleichen, so waren zB die teuersten Unternehmen 1997 eine Mischung aus vielen, meist traditionellen Industriezweigen:

General Electric als Mischkonzern im Technikbereich, Shell und Exxon Mobile aus der Erdöl-Branche, Microsoft als teuerstes IT-Unternehmen, Intel aus der Chip-Branche, Coca-Cola in der Getränke-Industrie, NT&T, das japanische Telefonunternehmen, Toyota für Automobile und Merck und Novartis aus Pharma. Auch fanden sich damals öfters Nicht-US-Unternehmen, zB hier 2x Japan, 1x Schweiz und 1x Niederlande.

Was ist da in der Zwischenzeit passiert? In der Zwischenzeit ist das Internet von einer Spielerei für Technik-Verliebte zum dominierenden Wirtschaftsfaktor geworden und hat einigen Firmen eine sehr lukrative Monopolstellung verschafft.

Monopole gab es früher auch, aber wir leben heute in besonderen Zeiten. Viel mehr Details dazu gibt es bei Paul Krugman Why Did the Rich Pull Away from the Rest? Understanding Inequality und speziell Teil 4 über die Bedingungen, die zu den Giga-Reichen der heutigen Zeit geführt haben: Oligarchs and the Rise of Mega-Fortunes.

Der Hauptgrund für diese gigantischen Vermögen ist, dass Monopole in der Netzwerkwelt noch mehr Macht haben als früher. Der Grund dafür liegt im sog. Netzwerkeffekt, bzw. Lock-in-Effekt [wiki], dh wir haben eine "Winner takes All"-Ökonomie. Ausführlich erklärt wird dies von Cory Doctorow (siehe im frühereren Newsletter), der den Begriff Enshittification dafür geprägt hat: Die Betreiber von erfolgreichen Internetdiensten können ihren Service fast beliebig verschlechtern, ohne dass die Kunden abspringen.

Wir kennen das alle: Weil die Mehrheit der IT-Nutzer die Programme von Microsoft nutzt, ist es hilfreich, diese auch selbst zu nutzen. Weil fast alle Kindergarten-Eltern-Gruppen auf Whatsapp sind, so brauchen es dann alle Eltern - ein Wechsel zu besseren Angeboten ist vergleichsweise mühsam. Das führt dazu, dass die großen IT-Firmen viele Mitarbeiter entlassen können, immer weniger Service anbieten, noch mehr von unseren Daten an noch mehr Abnehmer verkaufen und die Profite und die Aktien-Renditen bei den dominanten IT-Firmen immer weiter steigen.

Die große Frage ist: Wird das immer so weitergehen und welche Veränderungen werden die generativen AI-Systeme wie ChatGPT bringen? Dafür ist es hilfreich, zu verstehen, warum gerade Nvidia derzeit die teuerste Firma ist. Nvidia produziert seit 1993 Chips für Grafikberechnungen (GPU) [wiki] die bis vor einigen Jahren primär in High-End Gaming PCs genutzt wurden.

Dann stellte sich heraus, dass die Rechenoperationen, für die diese Geräte optimiert sind, auch für die derzeitig gängigen Implementierungen von 'neuronalen Netzen' optimal sind (Matrix-Operationen mit Gleitkommazahlen geringer Genauigkeit). Bereits seit 2007 stellt Nvidia eine spezielle Mathematik-Programmbibliothek (Cuda wiki) für Matrix-Operationen bereit. Derzeit ist Nvidia quasi Monopolist bei High-End GPU-Chips (siehe die Diskussionen um den Export nach China).

Um zu sehen, was nun derzeit den Kurs von Nvida so nach oben treibt, hilft es, sich anzuschauen, was die anderen 6 IT-Firmen derzeit investieren:

Diese 7 machen gemeinsam 31% der 500 Firmen des S&P500-Aktienindexes aus. Grund für die riesige Bewertung der Nvidia-Aktie ist, dass ein beträchtlicher Teil der oben aufgelisteten Investitionen der anderen 6 Firmen in AI-Rechenzentren und zu Nvidia fließen wird. Anderseits sind die oben gelisteten Umsätze aus den AI-Bereichen nicht wirklich so, dass sich die Investitionen in naher Zukunft rechnen werden. Noch niemand weiß so richtig, wie mit AI in Zukunft Geld verdient werden kann. Der Hauptgrund für diese Investitionen ist, dass keine dieser Firmen den AI-Zug verpassen will, falls er denn je mal kommerziell erfolgreich sein wird. (Und das sind Umsätze von AI, nicht Profite von AI!)

Dabei ist Nvidia auf ziemlich dünnem Eis unterwegs, siehe Das Gespenst vom Bankrott geht um in der Tech-Branche. Nvidia hatte früher 90% Marktanteil bei ihrem damaligen Kerngeschäft der Grafikkarten, heute vernachlässigen sie diesen Geschäftszweig weil die Profite bei den KI-Karten ungleich höher sind. Die wesentlich kostengünstigeren integrierten APUs von AMD [wiki] eine ernsthafte Konkurrenz zu dedizierten Grafikkarten. Aber Nvidia konzentriert sich derzeit ausschließlich auf das neue Kerngeschäft mit den restlichen 6 der Magnifizent 7.

Alle Anbieter bieten derzeit ihre AI-Dienste zu extrem rabattierten Preisen an, oder, so wie Google und andere, gleich kostenlos. Die Zukunft von Nvidia hängt davon ab, ob die anderen großen IT-Firmen weiterhin die Rechenchips von Nvidia kaufen, auch wenn sie damit keine Umsätze generieren können. Falls nicht, so bewegen wir uns gerade auf die 2. Internet-Bubble zu.

Für alle, die rund um das Jahr 2000 das Platzen der sog. Dotcom Blase [wiki] verpasst haben, Zitat Wikipedia: "Der Begriff Dotcom-Blase ist ein durch die Medien geprägter Kunstbegriff für eine im März 2000 geplatzte Spekulationsblase, die insbesondere die sogenannten Dotcom-Unternehmen der New Economy betraf und vor allem in Industrieländern zu Vermögensverlusten für Kleinanleger führte."

Aktualisierung 2 Wochen später:
Jetzt sieht sogar Sam Altman von OpenAI eine AI-Bubble: "Jemand wird gewaltig Geld verlieren". Auch Altmann ist an das Jahr 2000 erinnert. Der Socialmediawatch-Blog stimmt zu und ordnet die Äußerung in ihre differenzierte Bewertung der Zukunft mit generativer AI ein: Natürlich ist KI eine Blase.

Liste der möglichen Geschäftsmodelle für generative AI

Ich schreibe immer ganz bewusst 'generative AI-Systeme', denn es gibt eine ganze Reihe anderer AI-Systeme auf der Basis neuronaler Netze, die aber nicht mit den Texten des Internets, den Youtube-Videos und der gesamten Musik von Spotify trainiert werden. Diese AI-Systeme werden zB mit Röntgen- oder MRT-Aufnahmen trainiert und können dann bei automatisierten Screenings eingesetzt werden (aber auch hierbei scheint es noch Herausforderungen zu geben um die Qualität menschlicher Experten zu erreichen, zB fehlenden hoch-qualitative Trainingsdaten. Außerdem gibt es wohl Probleme wenn sich die Ärzte zu sehr auf die AI verlassen). Außerdem ist dies zu trennen von den oft problematischen medizinischen Auskünften die die generative AI gibt (siehe weiter unten).

Oder sie analysieren Fragmente römischer Inschriften, klassifizieren archäologische Funde, sagen die Proteinfaltung voraus (dafür gab es einen Nobelpreis in Medizin) oder spielen besser Schach als jeder Mensch. Das alles ist NICHT gemeint, diese Systeme sind viel weniger energie-hungrig und haben ihre jeweiligen Geschäftsmodelle - es geht bei diesem Artikel nur um generative AI-Systeme wie ChatGPT.

Hier die mehr oder weniger vollständige Liste der derzeitigen Geschäftsmodelle für generative AI-Systeme:

Das heißt, die Geschäftsmodelle sind begrenzt. Und für jede Aufgabe gibt es reichlich Anbieter, die das teilweise als kostenlosen Zusatz anbieten können und damit ein mögliches Geschäftsmodell für andere komplett verhindern, zB in der Websuche. Ob die sog. 'Agenten', die angeblich viele Arbeitsplätze ersetzen sollen, sich in den nächsten Jahren durchsetzen werden, wird im nächsten Abschnitt behandelt.

Das heißt, ich halte die riesigen Investitionen in die gigantischen AI-Rechenzentren und all die vielen teuren Nvidia-Chips für finanziell recht riskant (mal abgesehen von den Umweltfolgen). Niemand hat derzeit ein wirklich solides Geschäftsmodell - alle Firmen haben Angst, dass da etwas entstehen könnte, das ihr Angebot obsolet macht (so wie die Websuche, die durch die ungefragt gelieferten AI-Antworten evt. bereits langsam obsolet wird, mit drastischen Auswirkungen für die gesamte Finanzierung der Internet-Inhalte). Ganz viele der hier dargebrachten Punkte ist aus dem umfangreichen Artikel: The Hater's Guide To The AI Bubble von Ed Zitron.

Noch ein Artikel, in dem eine AI-Bubble vermutet wird: Warum der KI-Boom womöglich überschätzt ist. Laut dem Gartner Hype Cycle [wiki] befindet sich die KI im "Tal der Ernüchterung".

 

2. Was ist mit AI-Agenten?

AI-Agenten [wiki] sind Implementierungenn von generativen AI-Systemen, die mit einem Zugriff zum Internet erweitert sind, Zugriff zu den Daten des jeweiligen Nutzers haben und dadurch für diesen Nutzer Aufgaben, zB im Internet oder innerhalb von Unternehmen, erledigen sollen.

AI-Agenten sind so etwas wie der 'heilige Gral' der Industrie rund um generative AI. Würden solche 'Agenten' sicher funktionieren, dann könnten diese Systeme einen großen Teil der Arbeiten erledigen, die Büro-Angestellte heute tun.

In den ersten Demonstrationen versuchen die AI-Agenten zB das Buchen eines Fluges, eines Frisörtermins oder den Kauf einer Ware. Für viele dieser Aufgaben muss der AI-Agent natürlich Zugriff auf meine Kreditkarte haben, meinen Terminkalender, mein Email und vermutlich noch einige weitere Accounts.

Später sollen solche AI-Agenten dann auch selbständig Emails beantworten können und mehr oder weniger alles erledigen, was ein typischer Büro-Angestellter so erledigt.

Ein Aufgabengebiet, von dem viele AI-Begeisterte erwarten, dass dort bald sehr viele AI-Agenten eingesetzt werden, ist das Personalbüro. Der AI-Agent dort wird also Job-Anzeigen schalten (das kann ich mir noch vorstellen), dann Bewerbungen per Email empfangen, sie mit den Anforderungen aus der Fachabteilung vergleichen und bewerten (das kann ich mir nicht sinnvoll vorstellen - es geht ja nicht darum, Wort für Wort zu vergleichen, sondern zu erkennen, dass jemand der X bereits erfolgreich gemacht hat, bestimmt auch Y kann, aber wohl eher nicht Z). Dann muss der AI-Agent mit den Kandidaten Job-Interviews durchführen (so etwas findet wohl bereits statt, man liest von entsprechenden 'Horror-Storys' - ich kann mir jedoch nicht wirklich vorstellen, dass dabei etwas Vernünftiges herauskommt). Nach der Entscheidung für eine:n Kandidat:in muss die AI mit ihm oder ihr über das Gehalt, Arbeitszeit und ähnliches verhandeln (ich bin sehr skeptisch, dass das vernünftig klappt - wie kann eine generative AI die Probleme und Herausforderungen nachvollziehen, die wir Menschen nun mal haben?). Und wenn bis dahin der:die Kandidat:in immer noch nicht verzweifelt aufgegeben hat, so muss ein Angebot erstellt und versandt werden, auf eine Zusage gewartet und dann Verträge ausgearbeitet und unterschrieben werden. Dann würden der:die neue Mitarbeiter:in in die Personaldatenbank eingetragen, die Gehaltsabrechnung angestoßen und ähnliches. Meine Prognose: Generative AI-Systeme, ohne irgendein Grundverständnis unserer menschlichen Welt, werden so einen 'Job' in den nächsten 10 Jahren nicht wirklich erfolgreich und fehlerfrei ausfüllen können.

Mich selbst gruselt es ganz kräftig, wenn ich mir vorstelle, dass ich einem Chatbot-Agenten (mit allen seinen Halluzinationen) meine Passworte und Gelddaten anvertrauen sollte. Erste Tests (zB hier durch den Mitarbeiter von New Scientist: 'Flashes of brilliance and frustration': I let an AI agent run my day) bringen sehr gemischte Ergebnisse. Auch OpenAI-Chef Altman warnt vor der Nutzung des eigenen ChatGPT-Agenten, der sei nämlich derzeit noch experimentell. Er erläutert auch mögliche Angriffswege.

Bisherige Tests verliefen nicht wirklich gut. Hier noch ein Test: ChatGPTs Agent-Modus: Autonom, aber unausgereift. Der Artikel beschreibt das Konzept: "Die zentrale Idee des Agent-Modus: Nutzer formulieren ein Ziel, zum Beispiel "Plane einen Wochenendtrip nach Paris mit Wettervorhersage, Hotels und Restaurantempfehlungen" und überlassen der KI die Planung. Der Agent strukturiert die Aufgabe in logische Teilschritte, in sogenannte Operators; er entscheidet selbst, wann eine Webrecherche nötig ist, wann Daten gespeichert oder berechnet werden müssen oder welche Tools er einsetzen soll. . . . Die Ergebnisse waren aber nicht zu verwenden, weil oft falsch."

Ein weiterer Test, der nicht geklappt hat, diesmal von der Firma Anthropic. Als Test hatte Anthropic den internen Verkauf von Getränken ihrer AI Claude überlassen. Ergebnis: Anthropic tasked an AI with running a vending machine in its offices, and it not only sold some products at a big loss but it invented people, meetings, and experienced a bizarre identity crisis. Auch New Scientist fand die Ergebnisse lustig: AI goes rogue when trying to run a vending machine.

Als Risiko sehe ich zB, dass der Agent, auf der Suche nach einer Website um ein Produkt zu kaufen, auf einen Fake-Shop oder auf eine Phishing-Website hereinfällt und dort meinen Email-Zugriff und meine Finanzdaten hinterlegt. Hier ein Beispiel: Jemand hat bei der Google-KI die Kundendienstnummer einer Kreuzfahrtgesellschaft angefordert und ist an Betrüger verwiesen worden, das Geld ist futsch. ChatGPT verweist auf dieselbe Rufnummer, die scheint in allen Trainingsdaten zu sein. Noch ein Bericht über einen Angriff: AI Browsers Can Be Tricked Into Paying Fake Stores (AI browser = Web-Browser mit integrierter AI-Funktionalität).

Wir sind hier wieder bei dem Problem, dass alle diese generativen AI-Systeme keinen 'gesunden Menschenverstand' und kein 'Weltverständnis' haben. Dh sie können zwar klug und schlau klingende Texte verfassen, verstehen aber von den Zusammenhängen der Welt weniger als ein vierjähriges Kind.

Die AI-Agenten werden selbst auf solche Shopping-Fallen hereinfallen, die ein Mensch relativ einfach erkennt. Diese Systeme haben kein 'Gefühl' dafür, was zB ein bestimmtes Objekt kosten könnte, oder dass man selten genutzte Objekte nicht im Hunderter-Pack kauft, obwohl sie dann billiger sind.

Falls sich AI-Agenten wirklich durchsetzen, so wird für Betrüger das bewusste und gezielte Reinlegen von solchen Agenten zum einträglichen Erwerbszweig werden, einschließlich 'Verzicht auf Rücktrittsrecht' das zB durch weiße Schrift auf weißem Grund (für Menschen unsichtbar) auf solchen Trickseiten versteckt werden könnten.

Ebenfalls skeptisch: Are we ready to hand AI agents the keys? Der Artikel erinnert an die sog. Flash Crashs [wiki], die passieren können, wenn Computersysteme für automatisierten Börsenhandel genutzt werden. Dabei können, zB bei gleichzeitigem Einsatz mehrerer solcher Systeme, Effekte entstehen, die zu einem Börsencrash führen können. Und dies sind herkömmliche Computerprogramme, ganz ohne die Halluzinationen, die bei den generativen AI-Systemen wohl (system-bedingt) unvermeidbar sind.

Weitere Ergebnisse von AI Agenten Tests

Ein Gebiet, bei dem der kommerzielle Einsatz bereits ziemlich weit fortgeschritten erscheint, ist das Programmieren mit Hilfe von generativer AI, auch Vibe Coding [wiki] genannt. Da gibt es sensationelle Berichte, zB: Mit KI an die Spitze: Vibe-Coder ohne Coding-Skills dominiert Hackathons. Ein Mensch, der angeblich nicht mal programmieren kann, gewinnt Programmierwettbewerbe. Warum wurden nicht bereits alle menschlichen Programmierer gekündigt? Der Grund dafür scheint darin zu liegen, dass Programmierer viel mehr machen, als nur Programme zu schreiben. Sie führen Gespräche mit den Anwendern und dokumentieren die Anforderungen, sie entwerfen das Konzept und die Struktur der Anwendung. Dann wird programmiert und dann wird vor allem getestet, getestet und getestet. Dann wird der neue Programmcode in bestehende Lösungen integriert, dann irgendwann auch in die Produktion ausgerollt.

Der zweite Punkt, warum wir immer noch menschliche Programmierer haben, ist, dass offenbar kein guter stabiler Programmcode entsteht. Die AI-Systeme erzeugen Programmcode, der die Aufgabe (meist) erfüllt, der aber letztendlich als technical debt [wiki] bezeichnet wird. Das bezeichnet eine schnelle Lösung, die später den Entwicklern "auf den Kopf fällt", zB weil das Programm die Eingabe-Parameter nicht sicher überprüft und später Einfallstor für einen Hackerangriff wird, oder weil der Programmcode später nicht an neue Anforderungen angepasst werden kann. Ein Artikel dazu: AI in Software Development: Productivity at the Cost of Code Quality?. Die dort zitierte Studie verglich modernen Programmcode mit dem aus 'Vor-AI-Zeiten' und fand deutliche Qualitätsunterschiede. Das kann den Firmen noch mal kräftig "auf den Kopf fallen".

Die Sicherheitsprobleme des Programmierens mit generativer AI waren auch Thema bei der diesjährigen 'Black Hat'-Konferenz in Las Vegas. Die kurze Zusammenfassung: Wir treten uns da wohl ein ordentliches Sicherheitsproblem für die Zukunft ein.

Bei einem anderen Test wurden mehrere Agenten damit beauftragt, eine Buchhaltung für ein Unternehmen zu führen. Das hat auch grundsätzlich fast geklappt, von den 7 Systemen schafften aber nur 3 das ganze Jahr, aber ihre Fehler akkumulierten sich drastisch, siehe Grafik. Wir haben beim Programmieren und bei der Buchhaltung das gleiche Problem: Systeme, die "die Welt nicht verstehen" und statistische Ergebnisse produzieren ("autocomplete" [wiki] ) liefern keine korrekten Ergebnisse, auf die man sich verlassen könnte: Some AI agent customers say reality doesn’t match the hype. Die Researchfirma Gartner schätzt, dass in 2028 25% der Hacks in Firmensysteme auf Fehler in AI Agenten zurückzuführen sein könnten. Die Zeitschrift Futurism schätzt, dass derzeit Fehlerraten bis 70% gemessen werden.

Aktualisierung August 2025: KI-Browser fallen auf Betrüger leichter herein als Menschen. Der agenten-basierte AI-Browser Comet von Perplexity fällt auch auf sehr schlecht gefälschte Shopping-Fallen herein, die viele Menschen problemlos erkennen würden.

Der AI Profi Gary Marcus schreibt, dass er sehr wohl AI Agents für die Zukunft erwartet, aber nicht auf der Basis der bisherigen generativen AI-Systeme: AI Agents have, so far, mostly been a dud. Er schätzt, dass die sog. neurosymbolic AI-Systeme [wiki], die auch Komponenten enthalten, die logische Operationen beherrschen (und damit reproduzierbares logisches Denken beherrschen), dafür notwendig sein werden. Daran arbeiten heute aber nur sehr wenige - das große Feld fließt in die derzeitigen halluzinierenden generativen AI-Systeme, siehe der erste Artikel zum AI-Hype.

 

3. Ergänzungen früherer Beiträge

Deepfakes und Kriminalität

Das ist quasi eine Fortsetzung des vorigen Artikel zu Deepfake-Betrug. Dieser Fall aus den USA ist sehr gut dokumentiert: Die Tochter, die angeblich einen Unfall hatte und eine Kaution brauchte, hat auf einer Hilfe-Plattform alle Details geschildert und bittet um Spenden. Hier der deutsch-sprachige Artikel dazu: Mutter per KI-Stimme um 15.000 US-Dollar betrogen.

 

Zukunft der Websuche

Nicht furchtbar überraschend: Durch die schnelle und sofortige Beantwortung der Anfrage durch die generative AI in der Google-Such-Seite bricht der Verkehr, den Google zu den Webseiten mit den Inhalten weiterleitet, kräftig ein. Hier zur US-Studie: Googles KI-Übersicht halbiert die Klicks auf Suchergebnisse.

Dann, für mich eher überraschend: Eine europäische Studie zum Einkaufsverhalten bringt ähnliche Ergebnisse für Produktrecherchen und Kaufentscheidungen. Für mich überraschend, weil ich Kaufentscheidungen nicht einer teilweise halluzinierenden AI überlassen würde.

Hier der aktualisierte Übersichtsartikel zur Zukunft der Websuche in Zeiten der generativen AI-Systeme.

 

Medizinische Auskünfte

Im Mai hatte ich berichtet, dass Chatbots sich mit medizinischen Diplomen brüsten und hatte gehofft, dass das bald abgestellt würde. Die Hoffnung auf baldige Besserung der Auskünfte zu medizinischen Themen war unberechtigt. :-(

Die Betreiber der Chatbots übergehen die Frage der Qualifikationen ganz. Außerdem haben Tests ergeben, dass die Qualität der medizinischen Auskünfte stark von der Text-Qualität der Anfragen abhängt: AI models change their medical recommendations when people ask them questions that include colourful language, typos, odd formatting and even gender-neutral pronouns. Dh die Qualität der Antworten wurde schlechter, wenn zB Tippfehler in der Anfrage waren - nicht gut. Die falschen Antworten rieten zum Teil von einem Arztbesuch ab, obwohl ein solcher bei denselben Symptomen, aber anderer Ausdrucksweise, empfohlen wurde.

Hier ChatGPT im Einsatz als Paartherapeut: Die Ergebnisse sind offenbar gemischt. Offenbar werden die Chatbots von jüngeren Menschen recht oft bei Beziehungsproblemen und Datingfragen eingesetzt.

 

Legenden der Energiegeschichte

Die übliche Erzählung der Energiegeschichte ist, dass Kohle die Holznutzung zurückgedrängt hat, dann das billigere Öl die Kohle verdrängte und dass die noch günstigeren erneuerbaren Energien nun auch die Kohlenutzung zurückdrängen. Das entspricht aber nicht der Realität. Die Zahlen sind nämlich ganz anders: in absoluten Zahlen ist die Nutzung von Holz, Kohle, Erdöl immer weiter im Steigen.

Die Details, warum das so ist, finden sich in der Mai Ausgabe.

 

Palantir und Peter Thiel

In einem früheren Beitrag gibt es ausführliche Ergänzungen zu Palantir, Peter Thiel und der Palantir-Software Gotham für automatisierte Überwachung (der damalige Anlass war die Begeisterung deutscher Politiker für die Überwachungs-Software von Palantir).

Ich habe nun die unglaublich hohe Bewertung der Palantir-Aktien ergänzt. Wissen oder ahnen die Investoren da irgendwas, was ich noch nicht weiß? Sie erwarten auf jeden Fall gigantische Profite. Und ich verlinke auf Artikel zur m.E. extrem schlimmen politischen Einstellung des Palantir-Chefs Peter Thiel.

 

Mehr zu Enshittification

Den früheren Beitrag zu Enshittification habe ich noch mal überarbeitet, erweitert und präzisiert.

 

ChatGPT gibt gefährliche Ratschläge

ChatGPT und andere generative AI-Systeme geben oft verblüffend gute Antworten, aber das ist gar nicht gut: ChatGPT kann sehr gefährlich sein: ChatGPT gab Hilfestellung zu Selbstverletzung, Mord und Satanismus. Hier mein voriger Artikel zu gefährlichen virtuellen Freunden.

 

Kommen nun die smarten Brillen?

Smarte Brillen, der Schrecken aller datenschutz-besorgten Menschen, wurden seit spätestens 2014 'herbeigeredet', nun könnten sie wirklich kommen. Meta scheint derzeit recht erfolgreich zu verkaufen, nachdem Google, Apple, and Snap in den letzten Jahren alle gescheitert waren. Die neuen Brillen wurden angeblich benutzungsfreundlicher dank generativer AI, weniger klobig, die Verkaufszahlen scheinen erstmalig signifikant zu sein. Details an anderer Stelle.