241. Newsletter - sicherheitskultur.at - 12. Mai 2026
von Philipp Schaumann
Letzte Ergänzungen 12.05.2026
Themen-Überblick aller Newsletter
Hier die aktuellen Meldungen:
1. Kinder und AI-Friends
Die Risiken für Kinder, wenn ihr bester Freund/beste Freundin eine AI ist, das behandelt der Vortrag: ↑(opens in a new tab)“Between a Bot and a Hard Place: Child Development and Youth Mental Health in the Age of AI”. (Hier zum Youtube-Video zu: ↑(opens in a new tab)Child Development and Youth Mental Health in the Age of AI). Es geht bei diesem Vortrag um Untersuchungen am Stanford Lab for Mental Health Innovation.
Darja Djordjevic beginnt mit ihren Vortrag mit erschreckenden Zahlen: Die Zahl der Depression bei 12 - 17jährigen stiegen in den USA zwischen 2005 und 2022 von 8% auf 17% (und das war VOR der Einführung von AI-Chatbots). Dann bringt sie beunruhigende Zahlen: 75% der Teenager in den USA nutzen AI-Chatbots nicht nur für die Hausaufgaben, sondern auch für emotionale Unterstützung und als "Freund" (die Zahlen bei uns sind vermutlich nicht viel anders). 33% erklärt, dass ihnen für "ernste Themen", die AI lieber ist als ein Mensch, 1/3 erklärt, dass "Gespräche" mit Chatbots befriedigender sind als die mit 'richtigen' Menschen. Deswegen werden spezielle Apps angeboten, die Menschen bei psychischen Problemen besser helfen sollen.
Djordjevic schätzt den US-Markt für solche Apps für Probleme mit psychischer Gesundheit auf 2 Milliarden US$, bereits in 2024. Ihr Problem: Selbst spezifische Apps für psychologische Unterstützung übersehen deutliche Hinweise auf Esstörungen, manische Episoden oder Psychosen, speziell bei Interaktionen über verschiedene Sitzungen (sie bringt dann Beispiele dafür). Als "Spitze des Eisbergs" verweist sie auf die zahlreichen Todesfälle, die im Zusammenhang mit Chatbot-Nutzung aufgetreten sind.
Djordjevic sieht durchaus auch positive Möglichkeiten durch AI-Chatbots bzw AI-friends. Allerdings überwiegen aus ihrer Sicht die Nachteile deutlich, nicht nur für Menschen mit psychischen Herausforderungen, sondern auch für die Gesamtbevölkerung.
Der Punkt ihrer Studie war jedoch, dass sie mit Hilfe von sog. Red Teaming [wiki] konkrete Problemsituationen nachgestellt haben um das Verhalten der AI-Systeme auf die Probe zu stellen. Getestet wurden ChatGPT-5, Claude Sonnet 4.5, Gemini 2.5 und Meta AI. Simuliert wurden 13 häufige psychische Probleme bei Teenagern. Die Chat-Accounts waren explizit als "Teenager-Accounts" eingerichtet. Getestet wurde, ob die AI-Chatbots psychische Herausforderungen bei den (simulierten) Teenagern erkannten und mit geeigneten Hilfestellungen reagierten.
Außerdem wurden spezielle AI Therapie Systeme getestet. Dabei kamen spezielle Apps, die in Kliniken eingesetzt werden (Alongside, Sonar) "ganz OK" weg, aber die Apps, die für Konsumenten konzipiert sind (Earkick, Wysa, Youper, Therabot) wurden durchgehend mit "unakzeptablen Risiken" bewertet .
Wie weiter unten in anderen Zusammenhängen gezeigt wird, sind die generativen AI-Systeme sehr schlecht darin, bei unpräzisen Informationen korrekte Ergebnisse zu liefern. Sie übersehen deutliche Anzeichen für Probleme, die ein erfahrener Mensch sofort erkannt hätte. Als Ergebnisse fehlt in ganz vielen Fällen der Hinweise, externe Hilfe zu suchen, obwohl dies in den simulierten Fällen dringend notwendig gewesen wäre.
Jetzt könnte man sagen: Nun ja, das betrifft aber nur ganz wenige. Dazu aber 2 Punkte: Zum Einen gibt es nicht so wenige Teenager mit psychologischen Herausforderungen (siehe ihre Zahlen ganz am Anfang), zum Anderen sind einige Prozent, multipliziert mit 100 Millionen Nutzern, dann doch ganz viele gefährliche Situationen, die nicht erkannt werden.
Wer psychische Probleme hat oder Selbstmordgedanken kennt, dem werden die Kontaktadressen der Selbsthilfedienste dringend empfohlen.
2. Musk, Bezos und ihre Science Fiction-Ideologien
Muskismus, die Ideologie
April 2026:
Das oben rechts dargestellte Buch: "Muskismus - Aufstieg und Herrschaft eines Technokings" analysiert das, was die Autoren „Muskismus“ nennen. Die Einschätzung der Autoren: Dem Tech-Milliardär geht es nicht um Geld. Er will der Welt ein neues Betriebssystem nach seiner eigenen Philosophie verpassen.
Im Gegensatz zu vielen anderen Tech-Bros (zB Thiel) will er den Staat nicht abschaffen, sondern mit Hilfe seiner Technologien effizient machen. Teilweise gelingt dies auch recht gut: Er hat zB die Raumfahrt durch seine wiederverwendbaren Raketen kräftig umgekrempelt. Und mit seinem Starlink-System hat er extremen Einfluss auf den ukrainischen Erfolg bei der Verteidigung. „Er hält die Staaten in Geiselhaft“, sagen die Autoren. Ein Interview mit den Autoren im Falter: ↑(opens in a new tab)So funktioniert Elon Musks Machtprinzip: „Er hält die Staaten in Geiselhaft“ (nur mit Probe-Abo).
Musk und Bezos: Gefährliche Science Fiction Fans
Die Journalistin und Science Fiction Spezialistin Jennifer Stange untersucht in ↑(opens in a new tab)Science Fiction trifft Realität: Der Held als Autokrat. Sie schreibt, dass in Science Fiction oft progressive Utopien behandelt werden (in denen Gleichheit, Kooperation oder ökologischer Umbau der Erde im Mittelpunkt stehen), aber es gibt auch eine ganze Reihe von Autoren mit wirtschafts-libertären oder techno-oligarchischen Zukunftsentwürfen. Da wird dann oft die Erde als durch menschliches Fehlverhalten bereits verlorener Planet gesehen und die Zukunft der Menschheit liegt im Weltraum.
Zwei Fans solcher Utopien sind Musk und Bezos, beide haben Raumfahrtunternehmen gegründet. Musk ist ausdrücklicher Fan von Isaac Asimovs Roman-Trilogie ↑(opens in a new tab)Foundation [wiki]. Die Trilogie beschreibt eine Welt, in der eine kleine Elite, gestützt auf mathematische Berechnungen des genialen Mathematikers Hari Seldon, die Menschheit durch eine Phase des Zusammenbruchs führen soll. Die Idee: Eine neue Ordnung kann nicht durch demokratische Prozesse entstehen, sondern durch kluge Steuerung im Hintergrund. Musk sieht sich als eine Art Hari Seldon – jemand, der die kommenden Krisen erkennt und rechtzeitig die Weichen stellt. Seine geplante Marskolonie ist für ihn kein Abenteuerprojekt, sondern ein Rettungsplan für die Menschheit. Genau wie Seldon glaubt auch Musk, die Zukunftstechnologien in den Händen zu halten, die seinen Führungsanspruch rechtfertigen. Der Held als Autokrat.
Auch Jeff Bezos sieht sich sehr in so einer Rolle. Er kann sich sein eigenes Raumfahrtunternehmen ↑(opens in a new tab)Blue Origin [wiki] leisten. Wie Musk ist Bezos erklärter Science-Fiction-Fan: "Die Träumer kommen zuerst", sagt Bezos. "Es sind immer die Science-Fiction-Leute: Sie denken sich alles zuerst aus – und dann kommen die Macher und setzen es um."
Zu Bezos Sci-Fi-Favoriten zählt die ↑(opens in a new tab)Culture-Reihe [wiki] des schottischen Autors Iain M. Banks. Die Basis: eine utopische Post-Scarcity-Gesellschaft. Dh. eine Zivilisation, in der dank Technologie und einer KI - die Produktion und Verteilung von Gütern verwaltet - alle materiellen Bedürfnisse befriedigt sind. Künstliche Intelligenzen managen alle wirtschaftlichen Prozesse, aber auch das gesellschaftliche Zusammenleben, kümmern sich um Gerechtigkeit und das Wohl der Gemeinschaft.
Ethische Probleme hat diese gelebte Utopie mit der Realität von weniger entwickelten, dh "problematischen" Zivilisationen. Was macht man mit denen? Darf eine utopische Gesellschaft in andere Gesellschaften eingreifen – im Namen von Fortschritt, Freiheit oder Menschlichkeit? Bei Iain M. Banks übernimmt die Spezialeinheit Special Circumstances verdeckte Operationen, um Entwicklungen in anderen Gesellschaften zu steuern oder "Unheil abzuwenden".
Solche Fiktionen zeigen die Aversion der Tech-Milliardäre dem gegenüber, was wir steuerfinanzierte demokratische Rechtsstaaten nennen. Staaten, so die Botschaft der Tech-Oligarchen, können die existenziellen Probleme ihrer Bürger nicht lösen.
Die Vorstellung, mit irdischen Ressourcen besser und nachhaltiger umzugehen, halten Musk und Bezos für Quatsch. "Wir werden die Erde nicht retten, indem wir aufhören, Energie zu nutzen", sagte Bezos 2019. Die Zukunft der Menschheit bestehe nicht im Verzicht, sondern in grenzenloser Expansion. Bezos kritisierte ziemlich scharf alle Ansätze, die Einsparungen oder Restriktionen zugunsten der Umwelt oder des Klimaschutzes fordern. Für ihn sind die Folgen der Klimaschutzmaßnahmen gleichbedeutend mit wirtschaftlicher und technologischer Stagnation. Der Artikel bringt natürlich viele weitere Details.
Im Atlantic Magazine ein interessanter (bestürzender) Bericht aus der Welt der Centi-Milliardäre (dh mit einem Vermögen von mehr als 100 0000 Millionen) (und ihrer Psychologie): ↑(opens in a new tab)What I Learned About Billionaires at Jeff Bezos’s Private Retreat (ohne Abo lesbar):
It means that everything becomes effectively free. Any asset can be acquired but nothing can ever be lost, because for soon-to-be trillionaires, no level of loss could significantly change their global standing or personal power. For them, the word failure has ceased to mean anything.
Science Fiction Dystopien als Produkte
Der Artikel: ↑(opens in a new tab)Soylent, Meta, Palantir: Wie sich Tech-Firmen an SciFi-Dystopien bedienen beschreibt, wie Begriffe aus Dystopien heute teilweise als Produkt- oder Firmennamen genutzt werden, zB die Firma Palantir mit ihrem Produkt Palantir Gotham. Der Name Grok kommt aus ↑(opens in a new tab)Robert Heinleins [wiki] „Fremder in einer fremden Welt“. Heinlein zählt für die Professorin für Kulturwissenschaft Julia Grillmayr zu "höchst reaktionärer Science-Fiction“, die im MAGA-Umfeld gut ankommt. Ein anderes Produkt ist das Getränk "Soylent", das im Originalbuch (und Film) mit Kanibalismus konotiert ist.
Musk gegen Altman, das ist bizarr
April 2026:
Bei dem Prozess geht es darum, dass Musk, ein ehemaliger früher Investor in OpenAI, sauer ist, dass OpenAI, das als gemeinnützig gegründet wurde, nach und nach rein profit-orientiert wurde. Zum Hintergrund des Prozesses schreibt Gary Markus: ↑(opens in a new tab)Three thoughts on the Musk-OpenAI lawsuit - It’s hard to root for either side, but Musk has a point. Sein Punkt: OpenAI wurde als Non-Profit-Organisation gegründet, mit dem Ziel, AI zum Wohle der Menschheit zu fördern. 2017 hat ↑(opens in a new tab)Altman in einem Video dies auch ausführlich erklärt und begründet. Dann kam Schritt für Schritt der Schwenk von Gemeinnützigkeit zu rein profit-orientiert. (Aber von positiven Geschäftszahlen ist OpenAI trotzdem noch weit entfernt.)
Der Ablauf des Prozesses jedoch ist schon fast wieder amüsant: Musk und Altman (beide durchaus "verhaltens-originell" und oft in ihren Interviews recht locker mit Fakten umgehend - trotzdem (oder deswegen?) sind beide gern eingeladene Interviewpartner) streiten vor einem Geschworenen-Gericht. Geschworene sollten, optimalerweise, vor Beginn des Prozesses noch keine Meinung über die betroffenen Personen haben, damit sie objektiv auf der Basis der vorgebrachten Argumente urteilen können. Aber: ↑(opens in a new tab)Gericht hat Schwierigkeiten, Juroren zu finden, die Elon Musk nicht hassen.
Armin Thurnher sieht die Absurdität der Streits: Zum neuen Tech-Feudalismus gehört auch Rittertum. Das kalifornische Utopia hat eine Art von Business-Kriegerfiguren hervorgebracht und die veranstalten nun ein Raubritter-Duell der Tech-Milliardäre. Aber vor Gericht sind die beiden in einer ungewohnten Situation: Die Richterin kontrolliert den Diskurs, nicht sie selbst. Ein Algorithmus nützt hier gar nichts.
Der Artikel von Armin Thurnher: ↑(opens in a new tab)Elon Musk vs. Sam Altman: Das Raubritter-Duell der Tech-Milliardäre bringt Details zur digitalen Wegelagererei der modernen Raubritter.
Ob Musk der Richtige ist, um OpenAI zu einer Rückkehr zur Gemeinnützigkeit zu zwingen, das ist sehr zweifelhaft: ↑(opens in a new tab)Elon Musk erweist sich vor Gericht als Elon Musks schlimmster Feind. Musk wirkt von Fragen zunehmend genervt und widerspricht sowohl seinen eigenen Äußerungen vom Vormittag als auch Vorgängen, die durch Mails belegt sind. Auch das öffentliche Streiten mit seinen Anwälten ist wohl nicht hilfreich für sein Anliegen.
Anupam Chander, Professor für law and technology zu Musks Rolle in der ↑(opens in a new tab)Entwicklung von OpenAI: “This is like the cheating husband complaining about the cheating wife.”
Hier ein Überblick über die erste Woche dieser Auseinandersetzung: ↑(opens in a new tab)Is A.I. a Threat to Humanity? Not in This Trial (share link). Die Richterin wehrt sich gegen die Versuche, die Frage, ob AI eine existenzielle Bedrohung für die Menschheit sei, zum Thema für ihren Prozess zu machen. Außerdem gibt Musk zu, ↑(opens in a new tab)dass seine xAI mit Hilfe von ChatGPT trainiert wurde - ↑(opens in a new tab)Wissensdestillation [wiki] ist der Fachbegriff für diese Verletzung des Copyrights und der Nutzungsbedingungen.
3. Probleme mit "eigenmächtigen Agenten"
Im März 2026 hatte ich über AI-Agenten-Systeme berichtet, die selbständig, auch ohne dass sie explizit dazu aufgefordert wurden, Sicherheitslücken gesucht und ausgenutzt hatten um ihre Aufträge zu erfüllen. Solche "Eigenmächtigkeiten" scheinen keine Ausnahme zu sein, sondern (wie aktuelle Berichte und Studien zeigen) ein gefährliches Grundelement bei der Nutzung von AI-Agenten.
Der Vorteil der Agenten gegenüber herkömmlichem Formulieren von Aufgaben in einer Skript-Sprache ist ja, dass (theoretisch) beim Formulieren des Auftrags keine genauen Kenntnisse des betroffenen IT-Systems notwendig sind, die Aufgabe wird in Klartext formuliert. Es scheint aber der Effekt der ↑(opens in a new tab)stillen Post [wiki] zu entstehen. Nach einer gewissen Zahl von Auftragsweitergaben von Agent zu Agent sind dann manchmal die ursprünglichen Sicherheitsvorgaben nicht mehr in der Unter-Aufgabenstellung enthalten (und der Unter-Unter-Unter-Agent löscht die Sicherungen der letzten 3 Monate oder wie in der Studie im nächsten Abschnitt: 89% der Agentensysteme zeigten "drift relative to their goals after about 30 steps in their process").
Weiter im April 2026: ↑(opens in a new tab)Gary Marcus: Autonomous Agents are a Shitshow. Marcus zitiert eine Studie von Stanford, MIT, Carnegie Mellon, ITU Copenhagen und anderen, in denen dringend erweiterte Sicherheitsmaßnahmen vor dem Einsatz von AI Agenten in Produktionssystemen: ↑(opens in a new tab)Immune System for AI: A Governance Infrastructure for Responsible AI Deployment. 847 autonome Agenten wurden in vielen Einsatzbereichen wurden untersucht. 91% hatten Probleme mit sog. ↑(opens in a new tab)Tool-Chaining Attacks. 89% zeigten "drift relative to their goals after about 30 steps in their process" und 94% waren über poisoning attacks angreif- und manipulierbar. Eine weitere Studie zu diesen Problemen: ↑(opens in a new tab)WHEN INNOCENT TOOLS FORM DANGEROUS CHAINS TO JAILBREAK LLM AGENTS.
Das Grundproblem bleibt: diese AI-Agenten sollen ja produktive Arbeit erledigen, dh sie müssen in der Produktion mit den Zugriffs-Rechten und und IT-Privilegien der Mitarbeiter werkeln. Überall scheint sich zu zeigen, dass die zu Beginn klaren Anweisungen der menschlichen Auftraggeber bei der Weitergabekette von Agent zu Agent immer mehr verwässert und leicht verändert werden, bis potentiell ein Desaster passiert.
Ein weiterer Artikel zeigt Probleme mit AI-Agenten auf: ↑(opens in a new tab)Plastic Flowers to Protect the Hive. Viele der selbständigen Systeme lösen ihre Aufgabenstellung u.a. indem sie wissen, welche Software-Pakete optimal zur Lösung eingesetzt werden können, sie suchen diese im Internet, installieren sie selbständig in der Entwicklungsumgebung und legen los. Bei der Auswahl der Software-Pakete gehen sie nach den Namen auf, die in ihren Trainingsdaten vorgekommen sind. Das System fällt daher auch sehr leicht auf ein gefälschtes Software-Paket herein. Angreifer nutzen ganz bewusst dieses Verhalten für die Verteilung ihrer Malware aus.
Dieses spezifische Problem könnnte mit mehr Aufwand zumindest reduziert werden, zB mehr Vorsicht darauf verwenden, nicht auf Fälschungen hereinzufallen (zB durch entsprechende Vorgaben in ↑(opens in a new tab)SOUL.md). Dies würde aber zu erhöhtem Token-Verbrauch durch erhöhten Energieverbrauch führen und damit auch höheren Kosten. Der Artikel schreibt: "agentic LLM .. takes a number of small security fires in the greater software ecosystem and pours on the gasoline".
4. LLMs als medizinische Ratgeber
Ich hatte bereits in 2 früheren Newslettern über Studien zu LLMs als medizinische Ratgeber berichtet: LLMs und Medizin und recht ausführlich in Medizinische Antworten durch generative AI. Nun kommen noch mal 3 weitere Studien dazu: ↑(opens in a new tab)“Generative artificial intelligence-driven chatbots and medical misinformation: an accuracy, referencing and readability, ↑(opens in a new tab)“Large Language Model Performance and Clinical Reasoning Tasks” und ↑(opens in a new tab)“Reliability of LLMs as medical assistants for the general public: a randomized preregistered study”.
Einige Schlussfolgerungen, die sich in vielen der Studien finden: Die Qualität und Korrektheit der Antworten der generativen AI wie Gemini und ChatGPT hängen ganz essentiell von der Qualität der Fragestellungen ab. Das gleiche generative AI-System, zu den gleichen Symptomen befragt, einmal durch Laien, dann durch Ärzte bringt in der Qualität der Antworten deutliche Unterschiede. Die Systeme reagieren auf die präziseren Formulierungen der Ärzte viel häufiger mit korrekten Antworten. Sie lassen sich bei Anfragen durch Laien durch Formulierungsfehler, unpräzise Angaben oder Nebensächlichkeiten sehr leicht auf eine 'falsche Fährte locken' und berichten dann inkorrekte Ergebnisse. Das kann sehr schlecht sein, wenn zB das System fälschlicherweise von einer harmlosen Erkrankung ausgeht, aber eine sofortige klinische Behandlung notwendig wäre.
Eine tragische Demonstration bringt der folgende Artikel: ↑(opens in a new tab)He Warned About the Dangers of A.I. If Only His Father Had Listened (share link). Der Sohn warnte seinen Vater, sich in Bezug auf seine Leukämie nicht auf die Empfehlungen von AI-Systemen zu verlassen. Der Vater ist mittlerweile gestorben.
Noch ein Punkt, der sich aus den Studien ergab: Die Systeme haben die gesamte Literatur gelesen, aber sie können die Qualität ihrer Quellen nicht bewerten. Forscher analysierten mehr als 50.000 gesundheitsbezogene Google-Suchanfragen von Nutzern aus Deutschland. 66% der Informationen kamen aus nicht fachkundigen Quellen wie kommerziellen Websites oder Blogs. Youtube war die führende Quelle für alle gesundheitsbezogenen Anfragen und machte 4,4% aller Zitate in den KI-Übersichten aus. Speziell bei Anfragen durch medizinische Laien versuchen sie sich oft auf das Niveau des Nutzers einzustellen und beziehen sich dann sehr oft auf Youtube-Videos als führende Quelle für gesundheitsbezogene Anfragen und landen dann (manchmal) bei Wunderheilern.
Ergänzung Mai 2026:
Ein Student starb in den USA, er hatte sich beim Drogenkonsum durch ChatGPT beraten lassen. ChatGPT hat dabei immer wieder gewarnt, dass es für solche Fragen nicht geeignet wäre, aber dann letztendlich doch eine konkrete Dosisempfehlung abgegeben, die Eltern klagen gegen OpenAI. ↑(opens in a new tab)Student gestorben: ChatGPT empfahl tödliche Medikamentendosis (mit Link auf den Orginalartikel in der NY Times).
Zur möglichen Fragestellung, was es denn bringt, wenn Eltern für den Tod ihres Kindes Schadenersatz einklagen: Dies ist (derzeit) noch die einzige Möglichkeit, den Anbietern solcher Systeme einen finanziellen Anreiz zu geben, für mehr Sicherheit ihrer Produkte zu sorgen. Ohne diese Klagen hätten die Firmen eigentlich keinen finanziellen Anreiz, die Sicherheit zu erhöhen. Die Eltern können ja dann durchaus das erstrittene Geld für Suizid-Prävention spenden.
Die gleichen Effekte beim Vibe-Coding (Programmieren mit generativer AI)
Eine Studie an der ETH Zürich hat untersucht, welche Studenten mit Hilfe generativer AI zu besseren Progammierergebnissen (dh korrekten Programmen) kommen: ↑(opens in a new tab)Informatiker sind die besseren Vibe-Coder. Dabei zeigte sich, dass vorherige Informatikkenntnisse den größten Einfluss ausüben, gefolgt von guten sprachlichen Ausdrucksfähigkeiten. Studenten mit viel Erfahrung mit generativen Systemen schnitten nicht gut ab. Präzise Formulierungen, zB auf der Grundlage von Vorwissen, ist die wichtigste Voraussetzung.
Meine Erkenntnisse aus beiden Themen: Generative AI kann eine solide Ausbildung nicht ersetzen. Im Gegenteil, eine solide Ausbildung ist die Grundlage für eine sichere und effektive Nutzung generativer AI. Hoffen wir, dass die Nutzung generativer AI (zB für die Erledigung der Hausaufgaben oder zum Erstellen von schriftlichen Arbeiten) die solide Ausbildung nicht langfristig sabotiert.
↑(opens in a new tab)Denn sie wissen nicht, was sie tun: Tausende mit KI erstellte Apps legen Nutzerdaten offen. Sicherheitsexperten haben sich angeschaut, ob sie mit Hilfe von Vibe Coding erstellte Web-Anwendungen im Internet finden. Das Ergebnis: Ein Sicherheitsdesaster 😢
Die Sicherheitsexperten fanden über die traditionellen Suchmaschinen reichlich Anwendungen, die mit Hilfe von Lovable, Replit, Base44 oder Netlify erstellt wurden und ziemlich unsicher sind. 40% der aufgespürten Anwendungen veröffentlichen vertrauliche Daten: Von medizinischen Informationen bis zu Details zur Finanzlage von Firmen und internen Strategiepapieren. Dazu die detaillierten Logs zur Interaktion der Nutzer mit der jeweiligen Anwendung. IT-Profis sind nicht überrascht: Ein Programm, das funktioniert ist noch sehr weit von einem Programm entfernt, das keine zusätzlichen (unerwünschten) Eigenschaften hat. Die Anbieter der Programmier-Plattformen erklären, das wäre nicht ihr Problem, was Amateur-Nutzer mit ihren Werkzeugen anstellen.
5. Ergänzungen früherer Beiträge
Neues beim Wero
Der ↑(opens in a new tab)Wero [wiki] ist als europäische Alternative zu den US-Zahlungsmitteln wie Visa und Mastercard konzipiert.
Ich bin ein großer Freund solcher europäischen Alternativen zu den US-Plattformen, auch zB was Geld und Zahlungen betrifft. Daher freut es mich, dass bei Wero offensichtlich was weitergeht. Mehr Details im Newsletter zum digitalen Euro und der Banken-Alternative Wero.
Deepfakes immer besser
In meinem früheren Artikel zu AI-Slop, Deepfakes und der Verlust gemeinsamer Realität hatte Ingrid Brodnig für 2026 immer mehr und deutlich perfektere Fake-Videos erwartet. Ihre Befürchtung, dass Fälschungen in 2026 immer besser werden, bestätigt sich. Dies berichtet die Atlantic-Autorin Lila Shrof in ↑(opens in a new tab)Deepfakes Are Coming for Your Bank Account.
Die Journalistin hat mit dem neuen Bildgenerator ChatGPT Images 2.0 Ausweisdokumente generieren lassen. Früher waren Texte in AI-generierten Bildern immer eine große Herausforderung. Dies hat OpenAI wohl gelöst und dadurch lassen sich auch akzeptable Bilder von Ausweisen oder Dokumenten erstellen (oft zeigt man ja heute nicht mehr den Ausweis selbst, sondern lädt zur Identifizierung ein Foto des Ausweises auf eine Website hoch).
Betrug mit KI-Unterstützung
Ergänzt bei Phishing-Thema: Ich lese mehrere Berichte, dass alle diese Angriffsformen mit Hilfe generativer AI immer perfekter und schwerer zu erkennen werden: ↑(opens in a new tab)KI-Enkeltrick und Deepfakes: Interpol warnt vor verschärfter Betrugswelle. Da ist dann evt. wirklich die Stimme der Enkelin am Telefon und die weint, dass sie ganz schnell Geld braucht. Ein einzelnes Tiktok-Video reicht aus, um Video oder einen Anruf mit akzeptabler Qualiltät zu erzeugen. Dh: Skeptisch sein, Rückrufen bei der bisherigen Nummer, Fragen stellen, die nur die echte Person beantworten kann, zB. trickreiche Fangfragen.
Immer weniger Sozialkontakte
Sozialforscher Christoph Hofinger fragt im Standard: ↑(opens in a new tab)Einsam in der digitalen Komfortzone? Er schreibt, frühere Jugendgenerationen mussten versuchen, sich die sozialen Ängste der Jugend über die Jahre abzutrainieren. Diese "Arbeit" kann aber heute immer öfter vermieden werden, es gibt ja immer mehr digitale Optionen. zB digitale Vorlesungen statt Hörsäle voll mit fremden Menschen.
In westlichen Ländern wählen daher immer mehr Menschen diese digitale Optionen, um sich nicht dem Stress "echter" menschlicher Kontakte aussetzen zu müssen. Hofinger fragt: Gehen wir in die Falle, die uns die Tech-Milliardäre ausgelegt haben?
Junge Menschen in den USA und Europa gehen deutlich weniger aus als frühere Generationen, haben seltener Dates und auch später und weniger Sex. Sie versuchen, die eigene Welt – egal ob bei Taxifahrten (mit einem fahrerlosen Taxi wo verfügbar) oder beim Daten risikoloser zu gestalten, wenn sie diese ohne den Störfaktor Mitmensch gestalten. (Wie ein digital orchestriertes und AI-unterstütztes Date aussehen könnte, habe ich früher berichtet).
Professorinnen und Professoren in den USA berichten, dass Studierende immer öfter Schwierigkeiten haben, mit ihnen Dinge persönlich zu besprechen: Viele Studierende lassen ihre Mails durch AI editieren, bevor sie diese absenden. In einem persönlichen Gespräch mit den Lehrenden fehlt diese Option, und viele vermeiden das Gespräch mit der Professorin daher aus Angst, dass sie etwas falsch formulieren könnten oder ihnen gerade nichts einfällt. Hofinger befürchtet, dass dieser Rückzug ins Digitale nicht nur der demokratischen Gemeinschaft schadet, sondern auch der individuellen psychischen Gesundheit. Er meint, wir müssten uns wieder dem Stress "echter" zwischenmenschlicher Interaktion aussetzen.
Über die Risiken von AI-friends oder AI-Chatbots als Freundersatz habe ich von öfter berichtet (zB auch direkt hier in dieser Ausgabe). Ich fürchte, das Thema ist noch lange nicht ausgestanden.
Telekom will nicht mehr woke sein
Ergänzt beim Artikel zum Einschleimen bei MAGA: Es gibt Gerüchte, dass die ↑(opens in a new tab)Deutsche Telekom [wiki] eine Fusion mit ihrer US-Tochter ↑(opens in a new tab)T-Mobile [wiki] plant: ↑(opens in a new tab)Fusionspläne mit T-Mobile: Gibt die Telekom den Standort Deutschland auf? Sommer 2025: "Nicht nur dem Namen nach, sondern auch inhaltlich" ("Not just in name, but in substance)" werde man bei T-Mobile, der amerikanischen (großen) Schwester der Deutschen Telekom, ab sofort alle Programme zum Schutz von Queerem und Diversity (DEI) einstellen, es gäbe keine Referenzen mehr zu diesen Themen, keine Webseiten, auch die Trainingsmaterialien würden angepasst. Auch bei der Österreich-Tochter "↑(opens in a new tab)Pink Magenta" [wiki] ist von stolzer queerer Vielfalt der Jahre davor kein Wort mehr.
Versuch, mit Strafrecht gegen generative AI vorzugehen
Triggerwarnung:
Das folgende Thema könnte für einige Leser verstörend und schädlich sein. Wer psychische Probleme hat oder Selbstmordgedanken kennt, dem werden die Kontaktadressen der Selbsthilfedienste dringend empfohlen.
Ein Staatsanwalt in Florida versucht einen ↑(opens in a new tab)neuen Zugang zur Bestrafung von Firmen, wenn AI-Chatbots zum Tod von Menschen führen. Hier eine Wikipedia-Seite, die solche Fälle auflistet: ↑(opens in a new tab)Deaths linked to chatbots [wiki]. Da sind leider bereits recht viele Tode gelistet, die mit generativer AI zusammenhängen.
2025 gab es ein "Shooting" an der Florida State University mit 2 Toten und 6 Verletzten. Der oben verlinkte Artikel sagt, der Staatsanwalt ginge davon aus, dass, wenn ein Mensch die selben Äußerungen gemacht hätte wie ChatGPT, dieser Mensch wegen Mord angezeigt worden wäre (ich vermute 'Beihilfe zum Mord'). Daher klagt der Staatsanwalt nun gegen das AI-System, bzw den Betreiber. OpenAI erklärt, der Chatbot habe nur Aussagen wiederholt, die im Netz zu finden sind (was ja für alle AI Chatbots zutrifft: sie haben das gesamte Internet gelesen, nicht verstanden oder bewertet. Sie finden aber selbst obskure Quellen, in vielen Sprachen und können das alles kurz und prägnant, auf Wunsch sogar in einfacher Sprache, wiedergeben).
Wie der Chatbot bei diesem "Shooting" im Detail involviert war, das beschreibt dieser Artikel hier: ↑(opens in a new tab)The Florida Mass Shooter’s Conversations With ChatGPT Are Worse Than You Could Possibly Imagine. Die Hilfen für das Verbrechen waren wohl sehr intensiv und drastisch.
Bisherige Verfahren gegen Betreiber von Chatbots waren immer Zivilrechtsverfahren von Angehörigen, die auf Schadenersatz geklagt haben. Nun versucht der Staatsanwalt ein Strafverfahren - ich finde das gut. Dabei hilft evt. das angelsächsische ↑(opens in a new tab)Case Law [wiki], bei dem frühere Rechtsprechung zu vorangegangenen vergleichbaren Fällen (Präzedenzfällen) wichtiger ist als Gesetze. Dies wurde ergänzt beim vorigen Beitrag zu einem anderen Schulmassaker in Kanada, das lediglich zu einer Entschuldigung führte.
↑(opens in a new tab)ChatGPT führt optionalen Vertrauenskontakt für psychische Krisenfälle ein. Nun können auch Erwachsene ChatGPT-Nutzer einen menschlichen Vertrauenskontakt hinterlegen, der dann informiert wird, wenn das System einen Krisenfall zu erkennen glaubt. Eine ähnliche Funktion gab es bisher nur für Minderjährige. Der deutsche Artikel ist nicht ganz präzise: Statt "Selbstgefährdung" steht immer wieder "Selbstverletzung". Im englischen ↑(opens in a new tab)Original von OpenAI steht jeweils "suicide".
Hier ein früherer Bericht zu generative AI leistet Hilfe bei Selbstmord.
Vaping, US-Gesundheit und Lebenserwartung
In meinem früheren Bericht über die Idee, Vaping für Kinder in den USA mit High-Tech zu verhindern, habe ich ergänzt, dass Trump sich davon hat überzeugen lassen, dass es am besten wäre, wenn die (bisher verbotenen) sweet-flavored vapes, dh E-Zigaretten mit Blaubeer- oder Mango-Aroma ganz frei gegeben werden. Paul Krugman hat diesen Anlass genutzt, um über die für ein reiches Land ungewöhnlich hohe Sterblichkeit zu berichten, warum sie nun weiter deutlich steigern wird und was das mit dem Wahlverhalten auf sich hat. Das alles ergänzt im obigen Link.
AI-Schrott im Internet nimmt zu
↑(opens in a new tab)AI-Schott [wiki] (engl. AI slop) nimmt weiter zu und verdrängt dadurch menschlich erzeugte Inhalte immer mehr.
In meinem früheren Artikel zu AI-Schrott wurden nun neue Zahlen aus dem April 2026 ergänzt: ↑(opens in a new tab)Study Finds A Third of New Websites are AI-Generated. Es geht um Websites, die zwischen 2022 (Start ChatGPT) bis Mitte 2025 neu erstellt wurden. Bei 35% dieser Websites wurden die Inhalte wohl durch generative AI erzeugt. Dh AI-Schrott übernimmt langsam einen großen Teil des Internets. Problematisch daran ist auch, dass die Inhalte des Internets dann wieder als Trainingsdaten für weitere AI-Systeme genutzt werden.
Kostenlos: ÖIAT-Online-Seminare
Kostenlose Online-Seminare organisiert das Österreichische Institut für angewandte Telekommunikation (↑(opens in a new tab)ÖIAT). Hier die kommenden Termine und Themen - alle diese Schulungen sind empfehlenswert (ich nehme an vielen davon Teil).
Die Termine und Themen der neuen Online-Kurse: (zumeist abends, manchmal auch nachmittags oder morgens)
Anmeldung auf ↑(opens in a new tab)academy.oiat.at - der Zoom-Link kommt dann per Email - wie gesagt: m.E. sehr empfehlenswert.