1. Begeisterung und Ängste in Bezug auf ChatGPT und andere generative AI-Systeme
Diese Themen werden uns wohl noch länger erhalten bleiben. Mein erstes Unterthema heute sind Beisterung vs Ängste. Die Ängste/Bedenken unterscheiden sich in kurzfristige und langfristige.
Nach GPT-3 ist nun GPT-4 in der Probephase. Einige Forscher machen sogenannte "Theory of Mind"-Tests, d.h. sie versuchen zu testen, ob das System 'denkt' (im Sinne von menschlichem Denken) und finden, was sie 'Ansätze von genereller Intelligenz' (AGI) nennen - diese Aussagen sind umstritten.
Einige weisen darauf hin, dass diese Systeme bereits konventionelle Tests für Menschen bestehen. Aber ich gehöre zu den Skeptikern, die sich auch nicht beeindrucken lassen, wenn solche Systeme alle möglichen Prüfungen bestehen, z.B. die Matura/Abitur-Aufgaben (recht und schlecht) erledigen kann oder die Prüfung zur US-Rechtsanwaltskammer. Die begeisterten Tester verdrängen meiner Meinung nach, dass das System mit solchen und ähnlichen Texten gefüttert wurde und diese wie ein Papagei bei Bedarf wieder aufsagen kann - das ist noch kein "Verständnis der Welt".
Andere Tester konzentrieren sich nicht auf mögliche Auswirkungen in der Zukunft, ihre Ängste betreffen kurzfristige Auswirkungen. Sie reproduzieren auch mit GPT-4 auch die Fehler und Probleme, die frühere Systeme gemacht haben (fehlerhafte Antworten, Missbrauchsmöglichkeiten).
Diese Experten befürchten, dass Social Networks und Chat-Gruppen mit falschen Informationen automatisiert überflutet werden (Fake News). Auch Deepfakes werden immer 'besser': KI-Stimmen lösen gefährliche Polizeieinsätze aus. Oder Virtual Kidnapping: Eine Mutter wird von KI-Stimme ihrer Tochter getäuscht - Die Tochter war gar nicht entführt, aber die Stimme der Tochter war sehr gut imitiert (woher könnte jemand Ihre Stimme bekommen? Zum Beispiel vom Anrufbeantworter). Auch für CEO-Betrug gibt es 'tolle' Möglichkeiten. Außerdem gibt es den ersten Fall eines Selbstmords, bei dem ChatGPT wohl eine Rolle gespielt hat.
Experten mit Langzeitbefürchtungen haben Angst, dass wir irgendwann 'aufwachen', und es existiert dann eine AGI, die alle Denkaufgaben schneller und besser kann als die besten Menschen und die in Blitzeschnelle alle menschlichen Probleme löst (Fusionsreaktor, interstellare Reisen, alle Energieprobleme, aber auch ganz neue Waffenkonzepte) und dann die Weltherrschaft übernimmt. Ich halte das für derzeit unrealistisch, wie Gary Marcus sagt: I am not afraid of robots. I am afraid of people.
Wegen vielfältigen Bedenken (kurzfristig und langfristig) gibt es den Vorschlag für eine Pause von 6 Monaten bei der Weiterentwicklung neuer Systeme, siehe der (umstrittene) offene Brief von 26 000 Menschen, initiiert vom 'Future of Life Institute'. Die Forderung: Zunächst soll über die sozialen Auswirkungen der Technologie nachgedacht und Strategien zur Risikominimierung definiert werden.
Einer der Kritikpunkte an dem offenen Brief (der sicher nicht perfekt ist und nicht alle Problemstellungen abdeckt) ist, dass er von einer Organisation initiiert wurde, die offenbar AUCH von Problemstellungen beunruhigt ist, die ich noch nicht für AKTUELL problematisch halte: Longtermism - Verbesserungen der FERNEN Zukunft als moralische Priorität. Andere kritisieren, dass Menschen wie Elon Musk unterschrieben haben, dann kann es ja nicht vernünftig sein. ;-) - Full disclosure: ich bin einer der 27 500, die unterschrieben haben.
Ein anderer Kritikpunkt bezieht sich auf die ebenfalls geforderte Regulierung (die in der EU ja bis 2025 versucht wird, mehr dazu siehe unten).
Die Kritiker sagen, dass Regulierung von Technologien nicht möglich sei. Aber da gibt es Gegenbeispiele: Autoverkehr wurde erfolgreich reguliert mit Anschnallpflicht, Kindersitzen, Alkoholbeschränkungen und in den meisten Ländern Geschwindigkeitsbegrenzungen (trotzdem extrem tödlich: 1 Tote alle 2 Minuten weltweit ). Andere erfolgreiche Regulierungen: Luftverkehrsicherheit, Feuersicherheit, Kernenergie-Regulierungen, elektrische Sicherheit durch VDE - ein privater deutscher Verein, ihre Regeln werden weltweit getestet ...)
Einige Gegner einer solchen Weiterentwicklungspause in der westlichen Welt befürchten, dass China diese 6 Monate nutzen könnte und schnell die AGI erfinden und die Weltherrschaft mit Hilfe dieses Systems übernehmen - für mich und viele andere komplett unrealistisch.
Gary Marcus erklärt an anderer Stelle, warum er trotz Elon Musk unterschrieben hat, auch wenn er selbst einen anderen offenen Brief mit ähnlichen Forderungen bereits in Arbeit hatte: I am not afraid of robots. I am afraid of people.
Gary Marcus verlinkt dabei auf den obigen Witz mit dem Rettungsboot.
Einen interessanten Aspekt fand ich in diesem Youtube-Video von Tom Scott: I tried using AI. It scared me. Er berichtet von einer kleinen Programmierübung, die ChatGPT mit Fehlern, aber eigentlich ganz ordentlich erledigt hat. Seine nachfolgenden Überlegungen sind, dass der derzeitige Stand der LLMs ganz ordentlich ist, aber nichts, was die Welt verändern wird. Aber wir können uns nicht sicher sein, ob dies nicht erst der erste winzige Anfang ist, so wie Napster als Musik-Download Service in 1999 die Musik-Industrie nur begrenzt erschreckt hatte, ein Problem, das man bis 2001 durch viele Prozesse 'behoben' hatte. Aber letztendlich war Napster nur der harmlose Beginn eine Revolution des Medien-Konsums, der zum Ende der Musik-CDs und Video-Disks, zum Niedergang der großen Labels und nun zu Spotify und Netflix geführt hat: Musik und Filme als Konsum statt als Besitz.
Der Punkt von Tom Scott: Falls ChatGPT nur der Napster-ähnliche Start des AI-Einsatzes ist, so hat er große Bedenken, dass sich unsere Gesellschaft, die Arbeitswelt und vieles was wir derzeit kennen (z.B. unsere Arbeitswelt) so drastisch verändern könnte, wie die Musik- und Film-Industrie sich in den 20 Jahren verändert hat.
Gary Marcus bringt sehr überraschende und mE recht logische Argumente für eine Regulierung generativen AI Systemen (wie ChatGPT). Seine Argumentation:
Eine Regulierung mit dem Zwang, dass diese Systeme nicht fabulieren dürfen sondern nur Fakten präsentieren lässt sich mit den jetzigen Konzepten nicht realisieren.
China verlangt von seinen AI-Forschern, dass generative Systeme immer die Positionen der Kommunistischen Partei wiedergeben müssen, auch das wird mit den jetzigen Konzepten kaum möglich sein (siehe Fabulieren)
Damit zwingt China seine AI Forscher, an neuen Konzepten zu arbeiten statt sich mit dem was derzeit Stand-der-Technik ist in Produktion zu gehen und sich damit zufrieden zu geben - wie die US-Firmen das derzeit tun
Ein Zwang zu generativen Systemen, die die Wahrheit berichten müssen und sich an ethische Regeln halten würde die westlichen Forscher zwingen, ähnlich kreativ zu werden wie die chinesischen Kolleg:innen
Hier zu meinem vorigen Artikel zu ChatGPT (and friends).
2. Im praktischen Einsatz: LLMs in Schulen und Hochschulen
Ich war bei einer Diskussion bei der FH St. Pölten zum Einsatz von ChatGPT. Ich staunte, wie viele der Lehrenden und Lernenden bereits mit ChatGPT experimentiert hatten und das System als ein recht praktisches Werkzeug verstehen.
Vieles wird sich bei der Lehre ändern (müssen), an Hochschulen und wohl auch in den Oberstufen der Schulen. Als Beispiel früherer Umbrüche Diskussion über Taschenrechner im Mathe-Unterricht genannt (Logarithmentafeln und Rechenschieber sind schon lange keine Thema mehr).
Hochschulen (und Schulen) müssen darüber nachdenken, welche Kompetenzen sie eigentlich vermitteln (und abprüfen) wollen
Manche Arten von Abschlussarbeiten werden sich erledigen, z.B. Literaturzusammenfassungen - Mehr tun lassen als Wissen abzufragen. Grundsätzliche Änderung der Prüfungsansätze - weniger Erinnern und Verstehen, besser ist Anwenden und Analysieren, optimal wäre mehr Erzeugen, Evaluieren. Evt auch mehr mündliche Prüfungen, zB sich die Arbeit erklären oder präsentieren lassen. (Details zu 'Prüfen', speziell auch digital prüfen zB auf Kompetenzorientiert Prüfen: Assessment auf allen Ebenen)
AI-Systeme können zum hilfreichen Tool für Lehrende und Studierende bei vielen Detailproblemen werden - aber der Einsatz muss (speziell am Rahmen von Prüfungen und studentischen Arbeiten) als eines der genutzten Hilfsmittel offen legt werden - Transparenz
Die Nutzung solcher Systeme wird Teil des Arbeitslebens für viele sein und muss daher auch Teil des Unterrichts sein (ab einem gewissen Alter) - der 'Werkzeugkasten' muss unterrichtet werden
AI dating profile optimizer
Auch außerhalb der Hochschulen gibt es immer mehr Anwendungsfälle. Viele Firmen bieten jetzt Services mit einer ChatGPT-Integration an: zB THERE'S AN AI FOR THAT - 3,366 Als for 938 tasks. Sponsored by LoveGenius - AI dating profile optimizer - In der NY Times war ein Erlebnisbericht zu AI-Dating: Generierung eines Profils auf Tinder und dann Durchführung der Dialoge mit Hilfe von ChatGPT: Seduced by a Charming AI Chatbot.
Update Mai 2023: Ein interessantes Buch mit vielen Überlegungen und Vorschlägen zum möglichen kommenden Einsatz von Large Language Models in vielen Situationen des Berufslebens behandelt in Kapitel 1 auch den Einsatz im Unterricht: Reid Hoffman - Amplifying Our Humanity Through AI. Hoffman ist ein Insider der Tech-Szene der USA, Unternehmer und Autor, Investor in viele bekannte Internet-Plattformen wie zB LinkedIn, Paypal, und OpenAI (aber trotzdem auch kritisch). Das PDF des Buchs ist kostenlos, die eBook-Versionen (auch bei Thalia) sehr erschwinglich.
2. Update Mai 2023:
Die FH St. Pölten hat ein m.E. sehr gutes Dokument als gemeinsamen Leitfaden für Lehrende und Studenten im Umgang mit ChatGPT herausgegeben: Umgang mit KI-Anwendungen, wie ChatGPT: Empfehlungen für Lehrende und Studierende. Ein Artikel aus den USA berichtet von einer immensen Verunsicherung viele Lehrenden. AI ‘Cheating’ Is More Bewildering Than Professors Imagined. Der Artikel bezieht sich primär auf College, das entspricht ungefähr der Oberstufe unserer Gymnasien und etwas höher. Was tut ein Lehrerender, wenn eine andere AI-Software ('turnitin') sagt die Arbeit sei 100% AI-generated, aber kann dafür keine Belege bringen und der Student sagt, ja, eine Rechtschreibprüfung wäre genutzt worden aber sonst selbst geschrieben? Die Zukunft der schriftlichen Hausarbeit scheint mir in Oberstufen fraglich. Oder läuft das auf das Üben des geschickten 'Prompt-Generierens' hinaus, siehe mein nächster Newsletter.
3. AI-Systeme besser verstehen: Selbst testen oder wirklich studieren
Die wie ich finde verständlichste Erklärung von Large Language Models:
So funktioniert ChatGPT.
Wer es noch genauer und umfassender wissen will: Ein kostenloser Online-Kurs zu AI-Konzepten und -Systemen
Ein umfassender kostenloser Online-Kurs der Universität von Helsinki: The Elements of AI.
Der Kurs ist auf Uni-Niveau, Anfängervorlesung, es gibt auf Wunsch auch ECTS-Punkte (dann fallen Gebühren an).
Es sind weder fortgeschrittene Mathematik oder Programmierkenntnisse nötig.
Für jedes der sechs Kapitel muss man 5 bis 10 Stunden rechnen. Einige Übungen fordern aber einige Gehirnarbeit, Skizzieren aufs Papier und sorgfältiges Lesen der Kursinhalte und Aufgabenstellungen. Es gibt keinen Zeitstress - es wird empfohlen, 6 Wochen als eigenes Ziel zu setzen - aber man kann sich auch mehr Zeit nehmen. Ich bin übrigens irgendwo in der Mitte des Kurses.
Es gibt auch Teil II, der heißt 'Building AI' und ist wohl technischer - weitere 50 Std.
Update Mai 2023: Einem ganz kleinen Language Model beim 'Lernen' zusehen
Ganz im Sinne von AI Is a Waste of Time (und, wie der Autor meint, ein sehr großer Teil aller anderen Erfindungen der Menschen dienen primär dem Vermeiden von Langeweile) gibt es in der NY Times recht interessante Übungen zum Selbstexperimentieren nicht mit einem Large Language Modell, sondern einem winzig kleinen (dh das System kann nicht, wie ChatGPT, in jedem Stil schreiben, sondern nur ganz spezfisch.
Das System wurde nicht am 'gesamten Internet' trainiert, sondern nur an Shakespeare oder Jane Austen oder Harry Potter oder Star Trek- Next Generation. Die Nutzer können eines der Modelle wählen und dann sehen, wie das Modell mit mehr Trainingsrunden immer bessere Texte schreibt: Watch an A.I. Learn to Write by Reading Nothing but Harry Potter.
Bei der graduelle Verbesserung der generierten Texte werde Konzepte wiee Backpropagion, Dropout und Validation. Außerdem lernt man dabei, dass nicht die Trainingstexte übernommen werden, sondern 'analysiert' und frisch zusammengesetzt - was natürlich trotzdem Copyright-Fragen aufwirft (siehe etwas weiter unten).
Generative AI-Systeme selbst testen: Zuerst die Anleitung für ChatGPT
Zuerst noch ein ganz interessanter Motivationsartikel: Soll mein Kind ChatGPT, Dall-E & Co. verwenden? (kurze Zusammenfassung: Ja, denn die Systeme werden nicht weggehen und jede:r sollte sie, ihre Bedienung, ihre Möglichkeiten und Limitierungen, irgendwie kennen), dann die
Zuerst die simple Methode, ChatGPT über die Microsoft Suchmaschine Bing zu nutzen. Diese nutzt das ältere ChatGPT 3.5 und ist auf 20 Fragen pro Tag begrenzt. Zuerst muss man den Browser Edge installieren, dann dort auf bing.com gehen.
Dort gibt es oben eine Zeile, die bietet Suchen (das ist die normale Suche mit Ergebnislisten) und rechts daneben Chat. Wenn man dort klickt, so bekommt man beim ersten Aufruf einen Prompt, dass man sich einloggen muss. Ich weiß nicht, ob jede Email-Adresse klappt, ich habe meine hotmail-Adresse genutzt.
Dann geht es los: man kann eine Frage eintippen und bekommt eine Textantwort. Im Gegensatz zum Standard-ChatGPT ist dabei jede der Sätze auf eine Website als Quelle referenziert, dh diese Version erfindet nicht Quellen sondern verlinkt sie.
Der zweite Test nutzt die 'richtige' ChatGPT-Version von OpenAI.
Der erste Schritt ist SignUp (und zwar mit Email + Phone). Damit ist man in der (leicht veralteten) und kostenlosen Version, Menschen die das System beruflich einsetzen empfehlen die Plus-Version für 20 $ pro Monat. Ich bleibe bei kostenlos.
Dann geht es schon los und Fragen können auf deutsch oder englisch gestellt werden, auf Wunsch wird auch übersetzt. Hier die Antwort auf die Frage nach den Risiken von generative AI:
Generative KI hat wie jede Technologie das Potenzial für positive und negative Auswirkungen. Eine mögliche Gefahr von generativer KI besteht darin, dass sie verwendet werden kann, um überzeugende gefälschte Inhalte wie gefälschte Nachrichtenartikel, Videos und Bilder zu erstellen, die zur Verbreitung von Fehlinformationen und Manipulation der öffentlichen Meinung verwendet werden können.
Eine weitere mögliche Gefahr besteht darin, dass generative KI verwendet werden könnte, um realistische Deepfake-Videos zu erstellen, die dazu verwendet werden könnten, den Ruf von Personen zu schädigen oder Propaganda zu verbreiten. Darüber hinaus könnte generative KI neue Formen von Cyberangriffen erstellen, z.B. durch das Erstellen von gefälschten Profilen und deren Verwendung zur Verbreitung von Malware oder zum Diebstahl sensibler Informationen.
Es besteht auch das Risiko, dass generative KI verwendet wird, um Aufgaben auf eine Weise zu automatisieren, die menschliche Arbeiter verdrängt, was zu Arbeitsplatzverlusten und wirtschaftlicher Ungleichheit führt.
Schließlich besteht auch die Möglichkeit, dass generative KI zur Schaffung autonomer Waffen verwendet wird, die potenziell Entscheidungen ohne menschliche Eingabe treffen und Schaden verursachen können.
Es ist wichtig, diese möglichen Gefahren zu berücksichtigen und Maßnahmen zu ergreifen, um sie zu mildern, während wir weiterhin die Entwicklung und Implementierung von generativer KI-Technologie vorantreiben.
Das habe ich mir dann als Text für 5 PPT-Slides strukturieren lassen. Ich könnte den Text auch für eine bestimmte Zielgruppe oder Altersgruppe anpassen lassen.
Hier noch einige Tools die hilfreich sein können:
ChatGPT Splitter - es geht darum, dass die Textmenge die man in einen Prompt posten kann, begrenzt ist. Wenn man seine ganze Master-Arbeit hochladen und überarbeiten lassen will, so splittet man die. Die Ergebnisse des ChatGPT Splitters können direkt eingefügt werden, sie enthalten jeweils bereits die Kommandos die sagen, dass noch mehr kommt.
Hilfestellungen zum Formulieren von Prompts, viele Beispiel-Prompts
eines der Chrome-Plugins, das ein Transcript von Youtube-Videos erstellt. Diesen Text kann man dann splitten und von ChatGPT zusammenfassen und/oder übersetzen lassen: Das Plugin im Chrome Store
der Artikel enthält auch prakische Tipps für Plugins, wie z.B. die Möglichkeit, sich eine Textzusammenfassung von Youtube-Videos erstellen zu lassen, ohne dass man diese ansehen muss.
Hier erst mal ein Überblicksartikel: 16 kostenlos testbare online Bilder-KIs im Vergleich. Da muss man aber das 'kostenlos' mittlerweile mit Vorsicht genießen, siehe meine Beispiele jetzt gleich im Test.
Ich habe mich dann zuerst mal an Midjourney gewagt, Midjourney sei das derzeit beste der 16, sagen einige Kenner (zB geringste Zahl von Artefakten). Midjourney kostenlos hat bei mir aber nicht wirklich geklappt (es wird wohl nicht mehr kostenlos angeboten), aber ich bin bis zur Prompt-Eingabe gekommen und habe (da es in der Gaming Social Platform Discord gehostet wird) anderen beim Generieren zuschauen können, das ist ganz lustig.
Der zweite Test war dann DALL·E 2, das so wie ChatGPT von OpenAI erstellt wurde und ebenfalls nicht kostenlos ist. Ich fand es aber übersichtlicher und einfacher zu nutzen und für mich zum reinen Rumspielen absolut ausreichend und lustig (siehe Beispiele).
Midjourney ist vom gleichnamigen Forschungsinstitut. Die Nutzung beginnt so: midjourney.com
Dort steht 'join the beta'. Einen Account auf Discord anlegen (das ist die Gaming Plattform auf der die letzten Pentagon-Leaks waren)
Dann kommt Verification des Emails und des Telefons.
Wenn man dann drin ist (ich musste neu einsteigen) gibt es links eine Leiste, die bietet Midjourney an.
Nächster Schritt ist, einen Server auszuwählen (das scheint so was wie eine virtuelle Community sein). Oder einen eigenen starten (was ich getan habe). Dann kommen noch einige recht verwirrende Schritte (terms of service, etc).
Man musste ich einen Kanal auswählen (zB newbies-123), dann geht es los.
Jetzt sieht man die vielen Kreationen die andere auf dem System in diesem Kanal gerade erzeugen, recht interessant.
Ganz unten auf dem verwirrenden Hauptschirm ist eine Prompt-Zeile.
/imagine eingeben, dann kommt eine Aufforderung für einen Prompt. Ich habe gewählt
'a family with a dog in the rain' (deutsche Sprache wäre auch gegangen)
Ich habe leider bekommen
'Due to extreme demand we can't provide a free trial right now. Please /subscribe or try again tomorrow.'
Hier der vermutliche Hintergrund: Midjourney ends free trials - Die Angebote starten bei monatlich 10 $ pro Monat.
Das Tool ist auf der Website von OpenAI. Dort kommt das Angebot "Try DALL·E 2" und dann muss man einen Account anlegen oder einloggen.
Wer noch keinen OpenAI-Account hat, muss den an dieser Stelle anlegen und verifizieren, siehe meine Anleitung für ChatGPT.
Dann kommt die Ernüchterung: Auch das ist nicht (mehr) kostenlos, man muss Credits kaufen. Minimum ist 15 US$ + Steuern = 18$. Ich habe mir das geleistet. Dafür gibt es 115 Eingaben, die jeweils 4 Bilder generieren, das ist 'zum Rumspielen' für einen Nicht-Profi wie mich mE reichlich.
Nun geht es schon los, der Bildschirm zeigt 'Start with a detailed description' oder 'Surprise me'. Oder
'upload an image to edit'. Eingaben auf deutsch werden übrigens nicht akzeptiert. Ich mache den ersten Versuch:
Zitat: " . . Die Basis der Bildgeneratoren sind riesige Datensätze: Milliarden von Bildern, mit denen Modelle wie Dall-E, Midjourney und Stable Diffusion trainiert wurden. Einer dieser Datensätze ist Laion-5B. Er umfasst 5,85 Milliarden Text-Bild-Paare, wovon 2,3 Milliarden auf Englisch und 2,2 Milliarden in anderen Sprachen verfasst sind.
"Enthalten sind Unmengen von Bildern, die eigentlich unter das Urheberrecht fallen. Der gemeinnützige Verein, der Laion-5B zur Verfügung stellt, beruft sich auf eine rechtliche Sonderstellung, die Forschende vom normalen Urheberrecht ausnimmt.
"Die kommerziell orientierten Firmen hingegen, die Bilder auf Grundlage von Laion-5B erzeugen, argumentieren, dass die entstandenen Werke keine exakten Kopien von vorhandenen Bildern seien. Es sind im Übrigen die gleichen Unternehmen, die dem Verein die finanziellen Mittel zur Verfügung stellen, die er für seine Arbeit benötigt.
Anne Lauber-Rönsberg, Professorin für Recht an der TU Dresden: "Die Nutzung bestehender Inhalte für das Training von KI-Systemen wird grundsätzlich von den Regelungen zum Text- und Data-Mining im europäischen Urheberrecht erfasst (§ 44 b und § 60 d UrhG), wonach eine automatisierte Analyse zur Extraktion von Informationen zulässig ist. Wenn eine Software Daten erfasst, um sie zum Beispiel als Trainingsdaten aufzubereiten, dann ist das grundsätzlich zulässig, sofern diese Daten nach der Verarbeitung wieder gelöscht werden."
Wem gehören die resultierenden Bilder? Midjourney gibt die Rechte an die Menschen ab, die den Text eingegeben haben, bei Dall-E hingegen verbleiben sie bei der Mutterfirma OpenAI. Das United States Copyright Office negiert beide Möglichkeiten. In einer Entscheidung über das Urheberrecht eines KI-generierten Comics befand die Regierungsorganisation, dass die enthaltenen Illustrationen nicht das Produkt menschlicher Urheberschaft seien. Hier zur Urheberrechtsfrage, die österreiche juristische Lage - Wer ist Urheber eines KI-Werkes?
In der Spielebranche wirkt sich das alles bereits aus: Grafiker:innen berichten, dass sie nur noch für das Ausbessern von AI-generierten Bildern eingesetzt werden, mit geringerer Bezahlung.
EU AI-Act Entwurf (frühestes 'In Kraft treten' 2025)
Die EU-Regulatoren sind von der Konsumentenfreundlichkeit und Attraktivität von 'generativer AI' wie ChatGPT und den bildgebenden Systemen überrascht worden. Generative KI wird derzeit vom EU-Kommissionsvorschlag nur begrenzt abgedeckt, aber die Änderungen sind in Arbeit. Die Details, wie die EU derzeit versucht, generative Systeme zu regulieren, findet sich im AI Act Newsletter #28 und in den zukünftigen Ausgaben des AI Act Newsletters. Bis 2025 wird sich noch viel tun.
Produkthaftung für Software
Produkthaftung für Software, das ist eine Verallgemeinerung der AI Liability Directive der EU, in dem ein erleichtertes Einklagen von Haftung für alle Produkte mit elektronischen Elementen geplant wird: Cyber Resilience Act, der umgesetzt werden soll mit einer REGULATION on horizontal cybersecurity requirements for products with digital elements. Es geht darum, dass die Hersteller von 'Produkten mit IT-Komponenten' für die Sicherheit ihrer Produkte verantwortlich sind, dass sie zB verpflichtende Softwareaktualisierungen und Haftung für Schäden.
Meine Punkte: Wir wissen seit Jahrzehnten, wie man sichere Software entwickeln könnte, aber die finanziellen Anreize sprechen dafür, schnell billige Software auf den Markt zu werfen, auch wenn das später zu Problemen führt, aber die Probleme hat ja der Kunde.
5. Analyse eines algorithmischen Verfahren zur Vorhersage von Sozialhilfebetrug
2017 wurde von der Stadtverwaltung von Rotterdam die Firma Accenture beauftragt, einen Algorithmus zu entwerfen der errechnet, bei welchen Bezieher:innen von Sozialhilfe mit größerer Wahrscheinlichkeit Unregelmäßigkeiten zu finden sind, dh einen Risk-Score für einzelne Personen zu erstellen. Als Trainingsdaten wurden die Ergebnisse von früheren Untersuchungen zu Sozialhilfe-Betrug und deren Ergebnisse herangezogen. 2021 wurde die Nutzung des Systems nach viel Kritik (u.a. von der Ethik-Komission der Regierung) wieder eingestellt.
Die Organisation Lighthouse Reports
(eine Investigationskooperation von 100 Medienpartnern) bekam Gelegenheit, 2 Jahre die Modellierung, den Algorithmus und die Trainingsdaten zu analysieren.
Das System ist sehr gründlich, es analysiert 315 Input-Variable, z.B. Alter, Geschlecht, Beziehungsstatus, Sprachkenntnisse, ob die Person Kind(er) hat, ob allein wohnt, in welcher Umgebung, wie viele Mitbewohner, finanzielle Situation, Verdacht auf Drogenkonsum, Zugang zum Arbeitsmarkt, etc. Die 'Herkunft' (ethnicity, Migrationshintergrund) wird nicht explizit abgefragt, aber dies wird über die Qualität ihrer Holländisch-Kenntnisse miterfasst. Viele dieser Variablen wurden durch Sozialarbeiter subjektiv abgeschätzt.
Ein Kritikpunkt ist, dass Variable für den Risk Score verwendet werden, die genau der Grund für ihre Notsituation sind: schlechte Sprachkenntnisse, Kinder-allein-erziehen, zu wenig Geld um ohne Mitbewohner wohnen zu können, Drogen-Probleme. Der Kritikpunkt ist, dass dies genau die Problemstellungen sind, die Hilfe brauchen, z.B. Kinderbetreuung, Sprachkurse, Entziehungskurse.
Die Analyse des Algorithmus ergab (wenig überraschend), dass der Risk Score am höchsten war bei jungen Frauen mit Kind. Andere Variable die eine negative Prognose ergaben sind das Wohnen in einer Umgebung mit hohem Ausländeranteil und engen Wohnverhältnissen, kombiniert mit schlechten Sprachkenntnissen (was für den Migrationshintergrund steht).
Die Unterlagen der Stadt Rotterdam besagen, dass der Einsatz eine Verbesserung von 50% gegenüber einer Zufallsauswahl bringt. Dies wird von Experten als 'nicht wirklich besser als Zufall' kategorisiert. Das System enthält sogar ein Check auf 'Voreingenommenheit' (sind spezifische Gruppen überrepräsentiert bei den Verdächtigen), diese Daten wurden aber von der Stadt nie ausgewertet.
Hier der Artikel dazu: Inside the Suspicion Machine und hier die ausführliche Analyse Lighthouse Reports Methodology - Andere Städte setzen übrigens dieses oder ähnliche System ebenfalls ein, aber nur Rotterdam hatte einer Analyse zugestimmt.
Ein grundsätzlicher schwerwiegender Kritikpunkt an dem ganzen Verfahren ist, dass als Trainingsdaten nur Empfänger von Sozialhilfe genutzt wurden, die in der Vergangenheit verdächtigt wurden und daher untersucht wurden, nicht alle Sozialhilfe-Empfänger. Dh die Selektion der Trainingsdaten beruht bereits auf dem 'Bauchgefühl' der früheren Verdachtsmomente, dh der Algorithmus wurde bereits mit dem 'Bauchgefühl' der früheren Jahre 'trainiert'.
Bessere Ergebnisse (fairere) könnten sich evt. ergeben, wenn die Daten aller Sozialhilfe-Empfänger verwendet würden. Hier ist wieder der Effekt (der auch bei Predictive Policing auftritt), dass man dort etwas findet, wo man gezielt sucht - wo nicht gesucht wird, wird auch nichts gefunden.
Ein weiterer Kritikpunkt ist, dass ein hoher Risk Score nicht durch 'auffälliges Verhalten' entsteht, sondern auf Grund von Variablen an denen die Person oft nicht mal etwas ändern kann. Dh das System repliziert Vorurteile, die Forscher, die es untersuchten nannten es daher 'Suspicion Machine' - 'Verdächtigungsmaschine'. Das nächste problematische Beispiel im nächsten Newsletter, ebenfalls von Lighthouse Reports.
6. Ein winziges Symbol setzen: für sich selbst personalisierte Werbung auf Facebook + Instagram abdrehen
Die Organisation hinter Max Schrems, noyb, hat einen Erfolg gegen Meta/Facebook verbuchen können. Die Rechtsgrundlage auf der in Facebook und Instagram personalisierte Werbung geschaltet wird, hält juristisch nicht. Nutzer:innen können personalisierter Werbung widersprechen, es gibt ein Formular von noyb und eine einfache Anleitung der Futurezone zum Abdrehen der Facebook-Werbung.
7. Fast schon wieder lustig: CryptoGPT als allerneuster Hype bei Internetbetrügern
Crypto ist toll für Betrügereien aller Art, GPT ist der neuste Hype, wie gut muss dann CryptoGPT erst sein ?!?
Auch dabei werden viele Menschen ihr Geld verlieren. :-(
Die EU versucht das nun, einzubremsen: Regeln für Bitcoin & Co.: EU-Parlament besiegelt Aus für anonyme Kryptozahlungen. ABER: "Beide Verordnungen müssen vom Rat noch förmlich gebilligt werden, bevor sie im Amtsblatt der EU veröffentlicht werden und 20 Tage später in Kraft treten. Nach anderthalbjährigen Umsetzungsfristen greifen die Vorschriften dann." Dh die Wildwest-Zeiten bleiben noch eine Weile erhalten.
8. Kostenlos: ÖIAT-Online-Schulungen
Weitherhin kostenlose Online Schulungen beim Österreichischen Institut für angewandte Telekommunikation (ÖIAT). Hier die Termine und Themen für dieses Jahr - alle diese Schulungen sind empfehlenswert.
Die Termine und Themen: (jeweils 18:00 - 20:00 oder 18:30 - 20:00)
02. Mai | Wie wehre ich mich gegen Hass im Netz?
09. Mai | Recherchetools im Internet richtig nutzen
10. Mai | Sicher bezahlen im Internet
16. Mai | Sicher (ver)kaufen über Willhaben, Shpock & Co.
23. Mai | Smartphone, Tablet & Co. sicher nutzen
30. Mai | Wie schütze ich mich vor Love Scams?
06. Juni | Zwischen Glücksspiel und Computerspiel – Jugendliche und Mobile Games
13. Juni | Sicher bezahlen im Internet
14. Juni | Wie funktioniert Amazon? Über die Mechanismen des Online-Riesen
20. Juni | Jugendliche im Fake News Dilemma
12. September | Betrugsfallen im Internet erkennen
13. September | Smartphone, Tablet & Co. sicher nutzen
19. September | Medienkompetenz – was ist das eigentlich?
26. September | Wie schütze ich mein Kind vor Cyber-Grooming?
03. Oktober | Manipulation durch Dark Patterns – wie kann ich mich schützen?
17. Oktober | Was kann ich gegen Cyber-Mobbing tun?
24. Oktober | Wie erkenne ich Fake-News?
31. Oktober | Meine digitale Identität - Von der Handysignatur bis zum digitalen Nachlass
07. November | Männersache – Frauensache: Vorurteile in digitalen Medien
14. November | Sicheres Online-Shopping
21. November | Digitale Mediennutzung: Wie kann ich mein Kind gut begleiten?
Anmeldung auf academy.oiat.at - der Zoom-Link kommt dann per Email - wie gesagt: m.E. sehr empfehlenswert.