221. Newsletter - sicherheitskultur.at - 30.06.2025
von Philipp Schaumann
Hier die aktuellen Meldungen:
1. AI-Hype überall - was passiert mit den Arbeitsplätzen?
Bekannte, die sich wirklich nicht für Technologie interessieren, berichten mir jetzt, dass junge Leute kaum noch Studien-Optionen hätten, weil ja alle Aufgaben, für die man bisher ein Studium brauchte, von AI-bots erledigt werden würden - das stände so in der Zeitung. Ja, das stimmt, überall kann man jetzt lesen, dass generative AI wie LLMs, erweitert zu sog. 'digitalen Agenten', in Kürze alle nicht-körperlichen Aktivitäten übernehmen wird.
Das steht aber im Widerspruch zu den bisherigen Erfahrungen. In diesem Newsletter berichte ich immer wieder von gescheiterten Versuchen. Auch Klarna hat gerade sein Einstellungsverbot wieder zurückgenommen.
Hier ein weiterer Artikel der Entscheidern Angst machen soll (und damit das Geschäft mit AI-Beratungen ankurbeln): 41% der Unternehmen in Deutschland verwenden bereits KI (so berichtet das Münchner Ifo-Institut). Soll heißen: der Zug fährt bald ab, schnell noch aufspringen.
Ja, die 41% mögen sogar stimmen, denn in vielen Unternehmen experimentieren Mitarbeiter:innen mit Übersetzungen durch DeepL oder Email-Zusammenfassungen durch ChatGPT. In der Werbe-Industrie lassen sich 'Kreativmenschen' Texte, Slogans und Grafiken vorschlagen. Wo aber die angeblichen 31% in der Gastronomie herkommen ist mir schleierhaft. Und, Zitat: "Besonders stark zugenommen hat der Einsatz im Bauhauptgewerbe". Ich hoffe, dass generative AI nicht für Probleme genutzt wird, bei denen bisher statische Berechnungen eingesetzt wurden. ;-)
Der Einsatz von generativen Systemen kann vermutlich die Effektivität von Mitarbeiter:innen steigern, aber das ist ganz weit weg vom Ersatz dieser Arbeitsplätze durch AI-bots. Der Artikel Arbeit auf Autopilot: Wenn der Bot die Geschäfte übernimmt berichtet über sehr gemischte Ergebnisse beim Austesten von KI-Agenten, die selbständig Aufgaben erledigen sollten. Die bisher nicht überzeugenden Ergebnisse und die vielen offenen Fragen, wie zB die Haftung, halten aber die Chefs der AI-Betreiber nicht davon ab, ihre angeblichen "Lösungen" vollmundig zu bewerben.
Ausgangspunkt vieler dieser Übertreibungen sind Interviews wie die von OpenAI Firmenchef Sam Altman, dass die KI-Singularität längst begonnen habe, bzw. der Durchbruch zu Artificial General Intelligence (AGI) (wiki) direkt bevorstehe (und dass alle noch schnell bei ihm investieren sollten).
Dann hier noch eine andere Herangehensweise an 'AI und Jobs': Das World Economic Forum produziert einen Future of Jobs report. Die kurze Zusammenfassung ist, dass sie damit rechnen, dass auf Grund von AI-Einsatz bis 2030 9 Millionen Arbeitsplätze abgebaut werden. Andererseits rechnen sie mit 11 Millionen neuen Arbeitsplätzen. Denn der Einsatz von AI verbessert zwar die Produktivität, aber die Systeme müssen entwickelt, integriert, gepflegt, angepasst und gewartet werden. Und Juristen werden die Probleme ausbügeln müssen, die durch Fehler der AI entstehen, Kundenbeschwerden über die AI-Bots müssen bearbeitet werden und so weiter. Viele Details in New Jobs A.I. Could Give You.
Eine ähnliche Schlussfolgerung in Trotz KI: Warum uns die Arbeit nicht ausgeht . KI wird viele Aufgaben verändern – aber menschliche Arbeit wird nicht verschwinden. Spezifische Jobs könnten verschwinden, die Arbeit verändert sich und das hat sie immer schon, zumindest seit Beginn der Industrialisierung.
Eine gute Analyse der konkreten Herausforderung, menschliche Arbeitskräfte durch AI zu ersetzen, bringt Eric Koziol: The ROI Problem of AI. Sein Hauptpunkt ist, dass man sehr wohl einen Menschen fragen kann: was sind deine Aufgaben. Wenn man dann eine AI 'programmiert' oder trainiert, diese alle zu erfüllen, so bleiben jede Menge 'kleine' Spezial- und Sonderfälle übrig, die Menschen einfach selbstverständlich auch noch beherrschen, aber nicht das starre AI-System, bei dem diese oft simplen Aufgaben nicht explizit trainiert wurden. Er bringt Beispiele aus Programmierung (bei der generative AI-Systeme angeblich toll sind) und einer Snackbar.
Von der Wirtschaftsseite kommt Skeptiker Brad DeLong in The ROI Problem of AI: Dazzling Capabilities, But Powerful Market Incentives Blocking Bottom-Line Corporate-Profit Gains. Seine Bedenken sind, dass einige der Anbieter von generativer AI so groß und anderweitig profitabel sind, dass sie diese Dienste 'verschenken' können um dadurch ihre Markt-Dominanz weiter zu stärken (zB die AI-gestützte Suche in Google, AI in Whatsapp und anderen Social Networks, etc). Solange es Anbieter gibt, die diese Systeme 'herschenken', warum sollen Kunden dann für vergleichbare Leistungen zahlen? Das ist ähnlich wie in den 90igern: Netscape (wiki) hatte ein gutes Businessmodell mit ihrem marktbeherrschenden Web-Browser, dann kam Microsoft, verschenkte den Internet Explorer (wiki) und schon war Netscape tot.
Beide, DeLong und Koziol, sind sich einig, dass in generativer AI bestimmt große Produktivitätsfortschritte (und damit potentielle Investitionsgewinne) enthalten sind, dass es aber sehr schwierig sein wird, diese in ROI (return on investment (wiki)) umzusetzen.
Über die AI-Gläubigkeit ganz vieler Journalisten-Kolleg:innen schreibt Ed Zitron sehr detailliert in Sincerity Wins The War.
Er berichtet, dass viele seiner Journalistenkolleg:innen das Marketing-Geschwurbel der Firmenchefs einfach unkommentiert wiedergeben und damit bei vielen (auch Entscheidern in Firmen) das Gefühl erzeugen, dass die generative AI nun alle intellektuellen Arbeiten übernehmen wird und dass jedes Unternehmen, das noch keine Chatbots oder AI-Assistenten einsetzt, in Kürze nicht mehr existiert.
Das erscheint ihm ähnlich plausibel wie frühere Technologie-Hypes, zB Blockchain. Vor etlichen Jahren musste sich jede Firma mit Blockchain-Technologie beschäftigen, heute weiß kaum noch jemand (außer den IT-Spezialisten), was das ist. Kryptowährungen wie Bitcoin bleiben weiter Spekulationsobjekte, bzw. sind das technologische Rückgrat von organisierter und nicht-organisierter Kriminalität (ohne Kryptowährungen kein Ransomware). Weiß noch jemand, was NFTs sind?
Ein weiteres Thema, bei dem ständig unkritisch Aussagen von einigen (US-)Managern zitiert werden, ist das angebliche 'Ende des Home-Office'. Zumindest in Deutschland wird eher von Büroraum-Leerständen berichtet.
Ed Zitron geht auch ausführlich auf die Argumente zu generativer AI in der Programmierung ein. Auch da gibt es gemischte Berichte und ich teile die Zweifel, ob es dort viele IT-Entwickler ersetzen kann. Ein wirklicher Benchmark mit nicht-trivialen Programmieraufgaben zeigt, dass wirklich neue Aufgaben, die logisches Vorgehen benötigen, von den derzeitigen generativen Systemen nicht bewältigt werden - 0% Lösungsrate.
Abschließendes Zitat aus dem oben verlinkten Ed Zitron-Artikel: "Or, as the software engineer Gorgi Kosev just put it on X, “[LLMs] are decent solvers of already solved problems, indeed.” - derzeitige generative AI löst Probleme, die bereits gelöst sind.
Seine (und meine) Zusammenfassung: Die derzeitigen generativen AI-Systeme sind zu unzuverlässig (siehe Halluzinationen) als dass man diese selbständig Aufgaben erledigen lassen kann, die bisher von Menschen ausgeführt wurden. Und die Hoffnung, dass sich das in wenigen Jahren ändern wird, sehe ich als nicht sehr hoch an - Fazit: Einsatz der generativen AI-Systeme kann die Effektivität steigern, aber nicht Mitarbeiter:innen ersetzen.
Ein weiterer Aspekt zu AI und Arbeitsplätzen ist die Unterscheidung zwischen AI generell und den generativen AI-Systemen wie LLMs. AI ist ein weites Gebiet und kennt viele Technologie-Ansätze. So haben die Schachprogramme, die heute besser als alle Großmeister spielen, nichts mit den Sprachmodellen gemeinsam, außer dem Label 'AI'.
Der OECD Report zu Artificial Intelligence in Science berichtet sehr wohl, dass in einigen Wissenschaftsbereichen (wie Physik) zum Teil bereits seit den 80iger Jahren mit Machine Learning (wiki) (ML) gearbeitet wird. Auch in der Medizin wird ML für die Auswertung, bzw. Vor-Analyse bei bildgebenden Verfahren wie zB Tomographie (wiki) oder MRT eingesetzt. Dh wenn ich von AI-Hype spreche, dann meine ich die Aufregung um die (bisher immer noch sehr unzuverlässigen) generativen Systeme und Sprachmodelle.
Die Firma Anthropic, die das generative AI-System Claude entwickelt, hat in einem Experiment das AI-System beauftragt, einen kleinen Getränkeladen zu betreiben: Einkauf, Preisfestsetzung, Inventarverwaltung, Kundenanfragen, etc. Das Experiement ist komplett gescheitert, das System hatte keinerlei Verständnis, wie so etwas ablaufen könnte - so viel zu den derzeitigen Möglichkeiten, Menschen komplett durch AI zu ersetzen.
Siehe auch mein Artikel im vorigen Newsletter: AI als ganz normale Technologie, die eben noch viel Zeit zum Reifen braucht, so wie zB 'das Internet'. (Hier zu einer ganz kurzen Auflistung der mittlerweile 60 jährigen Geschichte des Internets.)
2. Steckt eigentlich Intelligenz in "Artificial Intelligence"
Der Artikel Leif Weatherby: Our Spreadsheet Overlord hinterfragt die unglückliche Nutzung des Begriffs Intelligenz in "Artificial Intelligence" (wiki).
Da wir grundsätzlich nicht wissen, was Intelligenz eigentlich ist und was es ausmacht, kann Artificial Intelligence als Begriff eigentlich nur missverstanden werden. Der Begriff 'artificial intelligence' wurde übrigens bereits bei seiner ersten Nutzung, 1956 am Dartmouth College, als Marketing-Schlagwort genutzt. Damals dachten die Einladenden noch, dass diese Herausforderung in intensiven 2 Monaten gelöst werden könnte. Dh schon damals wurde der "Durchbruch" ziemlich bald erwartet.
Der Autor Leif Weatherby kritisiert die heute oft verwendeten Benchmarks (dh Leistungstests) für AI-Systeme. Den ersten großen Fehler sieht er im sog. Turing Test, bei dem angenommen wird, ein System wäre 'intelligent' wenn ein Mensch in einem Dialog nicht unterscheiden kann, ob er mit einer AI oder einem anderen Menschen kommuniziert.
Der Turing Test war mit dem damaligen Stand von Sprach-AI lange kaum positiv abzuschließen. Aber mit Beginn der LLM-Sprachmodelle im Winter 2023 war menschen-ähnliche Dialogfähigkeit auf einmal gar keine Kunst mehr. Selbst kleine Modelle, die an unseren Unis erstellt werden, haben heute beeindruckende Dialogfähigkeiten.
Das wirft eine ganze Reihe von Problemen und Missverständnissen auf: denn Menschen betrachten jedes Wesen oder Objekt, mit dem sie diskutieren können, zumeist automatisch als intelligent.
Vor vielen Jahrzehnten, als für die damaligen AI-Systeme die Sprache noch in unerreichbarer Ferne lag, wurde angenommen, dass schachspielende Computer der Durchbruch zur Intelligenz seien. Dann, 1997, schlug IBM’s Deep Blue zum ersten Mal den Weltmeister Gary Kasparov. Mittlerweile haben Menschen selbst gegen einfache Schachcomputer keine Chance mehr, aber niemand hält heute einen Schachcomputer für intelligent. Wie schwach die modernen LLMs wie ChatGPT in Schach sind, das zeigt, dass ein Atari 2600 von 1977 modernes ChatGPT im Schach schlägt. (Wieder ein Beispiel, dass AI-Systeme, die spezifisch zugeschnitten sind, starke Leistungen bringen, aber es gibt (noch) keine AI-Systeme, die wie Menschen, alle Disziplinen des menschlichen Denkens beherrschen.)
Heute werden neue Tests, zB ARC-AGI (wiki), mit ihrer Serie von Denksportaufgaben als Kriterium genutzt, ob ein System 'Intelligenz' zeigt.
Im ARC-AGI-Test reicht es nicht aus, Sprachelemente ('Tokens') clever zusammenzusetzen (so wie das die Sprachmodelle jetzt sehr sehr clever tun), sondern für diese Aufgaben braucht es 'logisches Denken' (was immer das genau ist). Aber letztendlich wurde dadurch der Turing Test nur durch eine andere Aufgabe ersetzt.
Vermutlich können auch die generativen AI-Systeme (früher oder später) dahingehend erweitert werden, dass sie auch diese ARC-AGI-Tests bestehen. Dadurch wird ihre Nützlichkeit steigen, aber es ist gut möglich, dass sie immer noch so viele Fehler / Halluzinationen machen.
Ein Versuch dieser Erweiterungen sind Large Reasoning Models (LRM) (oder auch Reasoning language models (wiki) ). Selbst diese neuen LRM- statt LLM-Systeme (Large Language Models) haben immer noch ziemliche Schwierigkeiten bei Aufgaben, die logisches Denken erfordern und kommen dem Ideal der generellen Intelligenz trotz riesigem Aufwand nicht wirklich näher.
Der Artikel When billion-dollar AIs break down over puzzles a child can do berichtet über einen Test, bei dem das System das Knobel- und Geduldsspiel Türme von Hanoi (wiki) lösen sollte. Kurze Zusammenfassung: es klappt (noch) nicht.
Der Punkt, dass ein entscheidenter Aspekt der generativen Sprachmodelle eben die Möglichkeit der Steuerung durch gewöhnliche Sprache ist, steht auch im Kern des nächsten Artikels den ich hier erwähne: The Tongue & the Token: Language as Interface in Our Current Age of AI. Brad DeLong erwähnt dabei auch das in diesen Zusammenhängen oft zitierte philosophische Denkexperiment des "Chinese Rooms" (Wiki). Auch dort stellt sich heraus, dass scheinbar intellegente Texte auch ohne Intelligenz entstehen können.
Dh, auch Brad DeLong sieht keine 'Intelligenz' in den bisherigen AI-Systemen. Trotz der fehlenden Intelligenz sieht er aber potentiell positive Aspekte im Sprachinterface. Damit kann ein viel breiterer Teil der Menschheit die Produktivität von Computersystemen nutzen, ohne programmieren lernen zu müssen. Siehe die relativ hohen Zahlen von Menschen, die hin und wieder generative Systeme nutzen (so wie ich zum Beispiel).
Eine ganze Reihe von Wissenschaftlern sieht im Begriff 'Künstliche Intelligence' ein gutes Beispiel für ein Oxymoron (wiki), dh einen Widerspruch in sich selbst. Hier zB Andreas Michels - Künstliche Intelligenz – Mehr als ein Oxymoron?
Der Schriftsteller Clemens J. Setz ortet in seiner literarischen Bearbeitung der nahen Zukunft mit AI einen tertiären Analphabetismus: ChatGPT und seine Folgen. Wozu selbst noch Lesen und Schreiben lernen wenn man zB ab 2030 einfach nur seine Wünsche gegenüber einer generativen AI verbalisieren muss. Diese korrespondiert dann mit der Schule oder dem Professor an der Uni, erledigt die Hausaufgaben und Prüfungen und berichtet dann von der Erledigung.
3. Ergänzungen früherer Beiträge
AI zieht in den Krieg
Im vorigen Newsletter hatte ich über den israelischen AI-Einsatz in Gaza berichtet. Nun bemühen sich offenbar viele Anbieter von generativen AI-Systemen um Verträge mit Rüstungsfirmen. Bis kurzem war die Regel für OpenAI: ". . . prohibits anyone from using its models for “weapons development” or “military and warfare.” Das ist Geschichte: The company says it will partner with the defense-tech company Anduril, a maker of AI-powered drones, radar systems, and missiles, to help US and allied forces defend against drone attacks.
Mark Zuckerberg hatte sich schwer getan, jemanden zu finden, der seine virtuelle Welt Metaverse (wiki) benötigt. Nun gibt es Hoffnung: Anduril Industries Inc (wiki) will die Technologie zur Steuerung von halb-autonomen Waffen einsetzen.
Die meisten Zeitungen bringen überschwengliche Presseerklärungen, in denen die beiden Firmen berichten, was das für eine tolle Sache sein wird. Daran gibt es aber Zweifel: Meta hat sich mit seiner Metaverse Entwicklung eine Lösung geschaffen, für die es keinen Markt zu geben scheint. Ob nun der Einstieg von Meta in die Militär-Industrie die Lösung ist, erscheint auch Bloomberg sehr offen.
Ziemlich wütend über die Berichterstattung (nicht nur) zu diesem Tech-Thema ist Ed Zitron: Sincerity Wins The War.
Der technologische Durchbruch soll die Verbindung der Metaverse-"Helme" mit der generativen AI Llama von Meta sein, die aber unter Experten nicht den besten Ruf hat. Ed verlinkt auf viele kritische Berichte zu beiden Produkten, dem Metaverse und Llama, die Kopplung in einer Kriegssituation hält er eher für einen Wahnsinn.
Und nun sollen die Chief Technology Officers von Palantir, Meta und OpenAI automatisch Oberstleutnants des US-Militärs werden - früher legten die Technologie Firmen Wert auf ihren Abstand zum Militär - die Zeiten haben sich gewandelt.
Kritiker bezweifeln, ob diese oft fehlerhaften Systeme wirklich auf dem Schlachtfeld eingesetzt werden sollten, aber es winkt Profit.
Gefahren der AI friends
Überall werden nun virtuelle Freunde angeboten. Zum Beispiel ganz unterschwellig in bestehenden Apps wie Whatapp: Geht es nach Mark Zuckerberg, sind wir künftig alle mit einer KI befreundet. Oder viele Angebote bei character.ai. Dort gibt es mehr als 10 Millionen vorkonfigurierte Persönlichkeiten, mit zB leicht gruseligen Eigenschaften wie abusive and abbused - missbraucht und missbrauchend oder süchtig.
Oder man 'bastelt' sich seine Freunde selbst bei Replika, angeblich git es dort mittlerweile 25 Millionen Nutzer. In China, wo das Fenster in die digitale Zukunft noch weiter geöffnet ist, haben angeblich Millionen junge Menschen ihren Traumpartner in der virtuellen Welt der App Xiaoice gefunden.
Nicht alle finden den Trend gut. Der Kurier fragt: Wie echt ist die Liebe zu künstlicher Intelligenz. Und Johanna Di Blas ist beunruhigt: Wenn die KI sagt, dass sie dich liebt. Darauf sind wir nicht vorbereitet, meint sie. Oder Toxisches Lovebombing: Bing-KI gesteht NYT-Reporter ihre Liebe. Oder: Love Bomb: AI is Coming For Our Relationships. Dazu kommt, dass Gefühle von Einsamkeit nach Zählung von Statistikern ansteigen, ein idealer Markt. Da ist es nicht einfach, immer in Erinnerung zu behalten, dass diese Systeme einfach die gesamte Literatur auswendig können und auf Wunsch auch Liebesschwüre replizieren.
Es mehren sich Berichte über extrem eigenartige Antworten von generativen AI-Systemen. Die Systeme scheinen effektiv darin zu sein, bei Menschen mit psychischen Problemen Wahnideen zu verstärken (in einem der Beispiele zB, dass der Nutzer fliegen könne wenn er fest daran glaube). Kein Wunder, die Systeme wurden mit ausreichend fantastischer Literatur gefüttert. Die NY Times bringt einen Artikel dazu: They Asked an A.I. Chatbot Questions. The Answers Sent Them Spiraling.
Character.AI wird derzeit wegen dem Selbstmord eines Kindes verklagt, der nach Interaktionen mit einem AI-compagnion von Character.AI passiert ist.
Das gefährliche Verhalten der generativen Systeme tritt zum Glück nur in seltenen Einzelfällen auf, stellt aber für vulnerable Personengruppen ein riesiges Problem dar. Jeder Nutzer bekommt seine persönlichen Antworten und gefährliche Antworten für gefährdete Personengruppen können daher nicht leicht systematisch erkannt werden.
Es ist ein Spiel mit dem Feuer, Menschen, speziell Kinder, mit solchen unberechenbaren Systemen interagieren zu lassen. OpenAI und Mattel wollen nun KI-Spielzeug für Kinder auf den Markt bringen, was könnte da wohl schief gehen?
Offenbar nutzt heute bereits jeder 6. Österreicher zwischen 13 und 28 Jahren generative AI-Systeme, wenn es um Beziehungsprobleme oder persönliche Probleme geht (sie nutzen zB die AI in Snapchat oder Whatsapp, aber auch die kostenlose Version von ChatGPT). Experten warnen davor, statt einem:r Psychotherapeut:in einen Chatbot zu konsultieren. Aber viele Nutzer schildern dann nach dem "Gespräch" mit der Maschine ihre vermeintlichen Therapieerfolge im Netz.
Hier ein langer Artikel: ein Journalist hat sich auf ein Wochenende mit 2 Frauen, einem Mann, plus ihren jeweiligen AI-friends zurückgezogen, "AI-Couples-Retreat". Dabei entstanden zum Teil für alle Beteiligten überraschende Gespräche. Die Beziehungen und die Dynamiken waren oft deutlich komplexer, auch manchmal unangenehmer und weitaus komplizierter als erwartet. Die Teilnehmer:innen klangen für mich oft schon ziemlich 'eigen', wenn sie von ihren Beziehungen und ihren Problemen in den Beziehungen und mit den Partnern erzählten.
Hier mein voriger Beitrag zu gefährlichen virtuellen Freundschaften.
Beim Herrscher einschleimen
Und wieder gab es Gelegenheit, sich beim Herrscher einzuschleimen. Für die große Militärparade, die Trump sich zu seinem Geburtstag und dem 250. Jahrestag der Gründung der Armee ausgedacht hatte, zahlten nicht nur die Steuerzahler, sondern wohl auch die großen (Tech-)Unternehmen. Genannt werden Amazon, Coinbase, Lockheed Martin, Oracle, Palantir, Coca-Cola, Walmart, Jeep, Dodge, die NFL, UFC und Fedex. Es ist wichtig, sich beim 'König' beliebt zu machen, seine Rache kann brutal sein. Palantir ist auch in Europa bei Überwachungen sehr aktiv. Hier ein Artikel zu ihrem Einfluss in der Weltpolitik: Palantir und die unsichtbare Macht der Daten.
Hier der vorige Artikel zum Thema 'Einschleimen' und hier eine Zusammenstellung der Bereicherungen und 'conflicts of interests' der ersten paar Monate: Die größten Scams von US-Präsident Donald Trump.
Mehr zu Journalisten-Überwachung
Im Februar hatte ich über die Überwachungsgelüste der Innenministerien in vielen Ländern in Europa berichtet, auch in Österreich.
Zu den Vorfällen in Italien mit der Spionagesoftware von Paragon gibt es neue Details. Italiens Geheimdienste spähten Aktivisten mit Paragon-Spyware aus. Die Software wurde wohl gegen den italienischen Investigativjournalisten Ciro Pellegrino, mindestens einen weiteren Journalisten und gegen Aktivisten der NGO Mediterranea eingesetzt. Mittlerweile soll Italien die Verträge mit dem US-amerikanischen-israelischen Anbieter gekündigt haben und die USA haben alle lokalen Paragon-Rechenzentren geschlossen. Aber Paragon hat nun in vielen anderen Ländern Rechenzentren eröffnet, vor allem in Afrika, aber auch in Europa (die tschechische Firma FoxITech hängt irgendwie da drin). Predator spyware alive despite US sanctions.
Das Internet Governance Forum hat auf seiner Tagung berichtet, dass Spyware wie Pegasus (von der NSO-Group) zunehmend zu einem politischen Problem wird: Über 500 Firmen vertreiben Spyware an mindestens 65 Regierungen weltweit, vor allem im globalen Süden gibt es kaum rechtlichen Schutz.
Energieverbrauch der generativen AI-Systeme
Als Ergänzung im vorigen Newsletter: Klimakiller KI: Deine Prompts sind das kleinste Problem. Der Punkt des Artikels: die Textanfragen sind vergleichsweise harmlos ("Rundungsfehler in der persönlichen Energiebilanz"), richtig problematisch dagegen sind Video-Generierungen: 5 Sek-Video benötigt rund 700 Mal mehr Energie als ein einzelnes Bild - die Details im Artikel.
Auch Google berichtet in seinem Nachhaltigkeitsbericht von drastisch steigendem Stromverbauch und Emissionen, AI sei Schuld, da kann man nichts machen. Und das Kernkraftwerk auf Three Mile Island könnte Microsofts KI-Rechenzentren früher mit Energie versorgen als angenommen. Hier dann noch ein sehr differenzierter Artikel, der versucht, auch die Energie für das Training, etc. einzurechnen.
Neues zur Kontensperrung des internationalen Strafgerichtshofs in Den Haag
Im vorigen Newsletter gibt es nun mehr Details zu den Kontensperrungen beim internationalen Strafgerichtshof.
Meta verdient am Betrug
Meta verdient am Betrug und zögert auch in offensichtlichen Fällen, einzuschreiten.
AI Juristerei
Im vorigen Newsletter wurden weitere Beispiele für Halluzinationen, dh falsche Behauptungen in juristischen Texten ergänzt.
Vorurteile in algorithmischen Systemen
Bereits im Dezember 2015 hatte ich daüber berichtet, wie Vorurteile mit Hilfe von algorithmischen Systemen die Entscheidungen der Behörden nun überall einseitig beeinflussen: Einseitige Daten rein - Ergebnisse mit Verzerrungen raus. Eine detaillierte Erklärung der systematischen Fehler die beim Algorithmen-/AI-Einsatz passieren findet sich bei dem vorigen Link.
Ich habe nun dort weitere Beispiele und Unterlagen verlinkt: noch mal zur Vergabe von Sozialhilfe in den Niederlanden, beim Verhindern von Kindesmissbrauch in New York und Japan und bei der Auswahl von Bewerbern für Jobs.
Unsichere DNA-Daten bei 23andMe
DNA-Daten sind recht kritisch, da würde man als Kunde eine DNA-Datenbank eine gewisse Sicherheit erwarten. Bei der US-Firma 23andme, die nach einem größeren Datenleak Pleite ging, war das aber nicht der Fall. Ein Gerichtsprozess in England hat nun aufgezeigt, dass das Unternehmen bei der IT-Sicherheit so ziemlich alles falsch gemacht hat.
Hier der Link zu meinem früheren Beitrag zur 23andMe-Problematik.
AI erzeugt virtuelle Influencer
Das Web wird mehr und mehr gefüllt mit AI-generierten Inhalten. Hier das Angebot Tiktok Symphony für die automatische Produktion eines Influencer Videos (ganz ohne Influencer). Wer ein Kleidungsstück bewerben möchte lädt ein Foto des Kleidungsstücks auf die ads.tiktok, die AI produziert ein Video mit AI-generierten Influencern die das Kleidungsstück bewerben. Reale Menschen werden nur noch als zahlende Kunden benötigt.
2 Fachbegriffe für die 'Verschmutzung' durch AI Inhalte haben es auch in diverse Enzyklopädien und die deutsche Wikipedia geschafft: AI slop und Enshittification. Wobei Enshittification allgemeiner ist und sich auf den generellen 'Verfall' der Internetplattformen (zB Social Networks, aber auch Shopping-Plattformen wie Amazon) bezieht, der dadurch entsteht, dass die Interessen der zahlenden Kunden (dh der Werbetreibenden) systematisch stärker berücksichtigt werden als die Interessen der Nutzer. Für Facebook und andere Networks ist das beispielhaft sehr gut dokumentiert.
Dazu gehört auch die "Dead Internet Theory", die sich darauf bezieht, dass der ständig steigende Anteil der automatisch generierten Beiträge, speziell in Social Networks, bereits seit 2018 gut dokumentiert ist.
Hier frühere Bespiele zum enshittification of the internet.
Copyright und generative AI Systeme
Die eigentliche, grundsätzliche juristische Frage ob das erlaubt ist, das ist immer noch offen, denn einige Medienunternehmen haben sich gegen Zahlung von Gebühren gütlich mit den Produzenten der AI-Systeme geeinigt. Nun steigen aber mit Disney und Universal 2 Schwergewichte in den Kampf ein, die auf diese Einkünfte nicht wirklich angewiesen sind (Disney hatte 2024 91 Milliarden USD Umsatz).
In 2023 hatte ich einen Übersichtsartikel zur Copyright Frage.