226. Newsletter - sicherheitskultur.at - 3x.09.2025
von Philipp Schaumann
Hier die aktuellen Meldungen:
1. xxx
2. UESCHRIFT
3. UESCHRIFT
4. UESCHRIFT
5. UESCHRIFT
6. Ergänzungen früherer Beiträge
KI-Hype auf der Kippe
Mittlerweile schließen sich mehr und mehr auch der prominenten 'AI-Größen' den Skeptikern an. Skeptik, was den baldigen AGI-Durchbruch [wiki] betrifft (... jede intellektuelle Aufgabe zu verstehen oder zu lernen, die ein Mensch ausführen kann ..), aber auch skeptisch in Bezug auf kommerziellen Durchbruch und sogar skeptisch in Bezug auf 'Verschmutzung' des Internets durch AI-Inhalte ("enshittification"). Ein umfassender Artikel dazu: KI-Hype an der Kippe: Große Träume treffen auf wachsende Zweifel.
Hier meine 2 vorigen Artikel dazu: GPT-5 Enttäuschung und der große Übersichtsartikel dazu: AI-Hype, haben wir eine generative AI Bubble?
Auf dünnem Eis
Ebenfalls zum AI-Hype: Nun ist auf einmal auf der Basis von immer großartigeren Investitionsplänen für generative AI und der damit verbundenen Finanzakrobatik der Oracle-Chef Larry Ellison zum reichsten Menschen der Welt geworden. Die US KI-Industrie begibt sich mit dem Projekt Stargate von OpenAI und Oracle auf immer dünneres Eis. Alle diese geplanten Investitionen und die durch die Verkündung der Pläne ausgelösten Börsenbewegungen basieren auf der Idee, dass OpenAI in einigen Jahren richtig viel Geld verdienen könnte, eine kühne Annahme. Die Details in OpenAI und Oracle gehen mit Stargate ein enormes Risiko ein. Da werden Gewinne erwartet, die weit weg von den derzeitigen Umsätzen liegen. Alleine die jährlichen Zahlungen an Oracle sollen ein vielfaches von dem betragen, das derzeit an Umsatz, nicht an Gewinn, gemacht wird. Das kann noch spannend werden.
Hier einige Auszüge:
"OpenAI hat sich nun verpflichtet, über fünf Jahre hinweg Rechenleistung im Wert von 300 Milliarden Dollar von Oracle zu beziehen. Das entspricht jährlichen Zahlungen von durchschnittlich 60 Milliarden Dollar, die das KI-Unternehmen ab 2027 aufbringen muss.
Der Vertrag bezieht sich auf das bereits im Juli angekündigte gemeinsame Rechenzentrum mit einer Leistung von 4,5 Gigawatt – genug Strom, um vier Millionen Haushalte zu versorgen.
"Die Dimensionen des Vertrags verdeutlichen das Missverhältnis zwischen OpenAIs aktueller Finanzlage und seinen Zukunftsplänen. Das Unternehmen erwartet für 2025 einen Umsatz von 12,7 Milliarden Dollar – nur ein Bruchteil der 60 Milliarden, die es jährlich an Oracle zahlen soll, wie das Wall Street Journal berichtet. Zum Vergleich: Im Vorjahr machte OpenAI einen Jahresumsatz von 10 Milliarden US-Dollar.
"Das Problem: OpenAI wird bis 2029 insgesamt 115 Milliarden Dollar benötigen, will es seine ambitionierten Pläne umsetzen, wie The Information berichtet. Das sind 80 Milliarden Dollar mehr als geplant. Allein 2024 soll der Cash-Burn über acht Milliarden Dollar betragen, 1,5 Milliarden mehr als zu Jahresbeginn erwartet, schreibt Heise.
AI und Urheberrechte / Copyright
Ein weiterer Stolperstein für die Firmen hinter generativer AI: Ein erster juristischer Vergleich: KI-Firma Anthropic will Autoren 1,5 Milliarden Dollar zahlen - jeder Schriftsteller soll rund 3.000 US$ pro Buch erhalten. Aber die Verfahren der anderen Kläger, zB Disney, laufen weiter. Hier mein 2023-Artikel zu AI und geistiges Eigentum.
Der globale Spyware-Markt
Meinen Artikel zu Spyware habe ich durch eine neue Studie zum globalen Spyware-Markt ergänzt. Die US-Organisation Atlantic Council veröffentlicht eine umfassende Studie zum weltweiten Spyware-Markt 2025: Mythical Beasts: Diving into the depths of the global spyware market. Einige Details: Isreal, USA, Italien und UK haben die meisten Firmen, aber auch Deutschland und Österreich ist vertreten.
Die Beteiligungen durch amerikanische Investoren gehen 'durch die Decke'. Ich fürchte, die Investoren erwarten für die USA einen riesigen Einsatz, zB durch die ICE-Behörde [wiki]. Hier mein Übersichtsartikel.
Mehr Details zu Halluzinationen
2 Artikel zum Thema der unvermeidlichen Halluzinationen. Der erste Artikel OpenAI Paper: Halluzinationen offenbar unumgänglich bringt eine kurze Zusammenfassung einer OpenAI-Studie. Der zweite Artikel Warum KI Fakten erfindet geht stärker auf das Warum ein und bringt am Ende auch Vorschläge zur Reduzierung der Halluzinationen. Hier einige Details:
Es klingt kontraintuitiv, aber größere Modelle halluzinieren häufiger. Dieses Paradoxon lässt sich dadurch erklären, dass sie stärker auf Korrelationen in riesigen Textmengen trainiert werden und nicht auf überprüfbare Fakten.
Der Umfang der Halluzinationen kann übrigens in den Einstellung des Modells teilweise gesteuert werden. Sogenannte Temperatur- und Sampling-Einstellungen steuern, wie deterministisch oder kreativ ein Modell antwortet. Eine Einstellungen zu mehr Kreativität führt oft zu originelleren, aber auch weniger verlässlichen Antworten. Hier 3 der Details:
- Overconfidence Bias: Selbst bei geringer Wahrscheinlichkeit des erzeugten Textes werden Aussagen mit hoher sprachlicher Sicherheit formuliert (was Nutzer in falscher Sicherheit wiegen kann).
- Fehlendes Faktenmodell: Sprachmodelle modellieren Sprache, nicht Fakten, dh Wahrheit. Sie kombinieren Sprach-Tokens ohne externe Validierung und ohne Rücksicht auf Fakten.
- Prompt-Sensitivität: Kleine Änderungen in der Fragestellung können zu stark unterschiedlichen Ausgaben führen. So zeigte sich, dass Antworten auf medizinische Fragen sehr stark von der Sprachqualität des Prompts abhängen.
Der Artikel geht dann auch auf neue Konzepte ein, die die Korrektheit der Antworten erhöhen sollen, zB RAG (Retrieval-Augmented Generation - mehr Details im Artikel).
Außerdem gibt es hilfreiche Tipps, wie durch entsprechende Details in Prompts die Antworten näher an die Fakten geführt werden können, zB indem detaillierte Quellenangaben (möglicherweise mit Seitenzahlen) verlangt werden. Halluzinationen bleiben aber eine grundlegende system-bedingte Schwäche der Sprachmodelle. Und bei Medizin- oder Rechtsauskünften können falsche Auskünfte zu sehr problematischen Situationen führen (siehe zur Medizin).
7. UESCHRIFT
8. UESCHRIFT