205. Newsletter - sicherheitskultur.at - 29.02.2024

von Philipp Schaumann

Zum Archiv-Überblick

 

Hier die aktuellen Meldungen:

 

1. Der DSA ist nun flächendeckend in Kraft

Der DSA (Digital Services Act der EU) und der DMA (Digital Market Act) sind 2 EU-Gesetze, die ähnliche Ziele verfolgen. Der DSA soll vor illegalen Aktivitäten im Netz und vor Desinformation schützen, der DMA soll verhindern, dass Onlineriesen Quasi-Monopole schaffen.
Eine sehr gute Übersicht über das DSA (für Anwender und Betreiber) gibt es bei der österreichischen RTR.

Der DSA gilt seit einer Weile für die 19 großen Plattformen (VLOPS) und zwei Suchmaschinen (Google und Bing). Nun gilt der DSA für ALLE Onlineplattformen bei denen Benutzer Kommentare oder Bewertungen posten können, vorausgesetzt die Plattformen/Websites beschäftigen mehr als 50 Mitarbeiter und haben einen Jahresumsatz von mehr als 10 Mio Euro in der EU.

Alle EU-Bürger haben nun bessere Beschwerdemöglichkeiten: Zuerst muss ein illegaler Beitrag (z.B. Beleidigung, Drohung, sexistische Kommentare, rassistische Schmähungen, ungewollte Verbreitung von Nacktaufnahmen) bei der jeweiligen Plattform selbst gemeldet werden, dafür gibt es dort jeweils entsprechend Buttons (die Meldung muss auch anonym möglich sein). Dann hat die Plattform typischerweise 24 Std um zu reagieren. HateAid erklärt das sehr gut (auf deutsch). Das deutsche NetzDG und das österreichische Pendant „Hass im Netz“-Gesetz sind damit Geschichte (diese Alleingänge haben der EU und den Plattformen nie gefallen - Plattformen haben gern einheitliche Regeln für alle EU-Länder). Der zweite Beschwerdefall betrifft das Löschen eines eigenen Beitrags durch die Plattform - auch dagegen kann man sich beschweren und die Plattform muss innerhalb von 24 Stunden reagieren.

Neu ist nun, dass es in jedem Land der EU eine Behörde gibt, bei der man sich beschweren kann, wenn man der Meinung ist, die Plattform handelt inkorrekt (fehlendes Löschen oder Löschen eines Beitrags der ok ist). beschwerde.rtr.at ist das AT-Beschwerdeportal. In Deutschland muss die lokale Beschwerdestelle erst noch eingerichtet werden, dort gibt es wohl noch Kompetenzgerangel. Alle diese nationalen Stellen finden sich bald auf digital-strategy.ec.europa.eu. Die nationalen Behörden prüfen, ob die Plattform sich korrekt verhalten hat, z.B. schnell genug löscht und nicht Dinge gelöscht hat, die eigentlich legal und korrekt sind.

Alle Aktionen der Plattformen (Löschungen und Nicht-Löschungen) müssen im Transparenzportal dokumentiert werden: DSA Transparency Database. Die großen Plattformen müssen übrigens schon eine Weile Transparency-Reports veröffentlichen. Hier z.B Instagram

Gegen den Täter, z.B. Hassposter muss immer noch der:die Betroffene selbst bei der Polizei vorgehen, möglicherweise unterstützt von Organisationen wie Zara oder HateAid (siehe Hilfe im Internet). Die (lokalen staatlichen) Gesetze definieren, was im Netz erlaubt ist, nicht die EU- oder staatliche Beschwerdebehörde.

Meta, Zalando und Amazon wehren sich gegen einen Teilaspekt des DSA. Die Firmen sollen nämlich die Kosten, die der EU durch die Überwachung der Firmen und Durchsetzung des Digital Services Acts anfallen, selbst bezahlen - und zwar bis zu 0,05% ihrer jährlichen weltweiten Einnahmen (d.h. eigentlich Portokasse), außer sie melden einen Verlust, wie X und Amazon das getan haben (siehe der vorige Link).

Im November war der vorige Beitrag zum DSA und im März die Fortsetzung zur DSA Umsetzung.

 

2. Werden die AI-Chatbots die zwischen-menschliche Kommunikation verändern?

Verändert die Kommunikation mit AI-basierten Bots die menschliche Kommunikation? Die Autoren von Don’t Talk to People Like They’re Chatbots haben die Befürchtung.

Die These des Artikels lautet, dass die Nutzung von Chatbots unseren Kommunikationstil ganz langsam (aber sicher) verändern könnte. Beispiele für die Nutzung der Chatbots sind z.B. direkte Abfragen in ChatGPT oder die Nutzung der Assistenten wie z.B. Googles Gemini oder Microsofts 'everyday AI companion' Copilot oder die 'Hilfsbots' rechts unten auf immer mehr Websites. Oder auch die Dialoge mit den (offenbar recht populären) virtuellen Girl- oder Boyfriends [die nebenbei kräftig die Daten der Benutzer sammeln].

Eine solche Veränderung des Kommunikationsstil könnte auf subtile Art erfolgen, aber letztendlich unseren Stil ähnlich verändern wie die Kürze der SMS und die Nutzung von Messaging Apps unsere Sprache geprägt haben.

Die erste Beobachtung einer anderen Kommunikation zielt in die Gegenrichtung: Die Autoren (und auch ich) neigen dazu, bei Anfragen an ChatGPT das Wort 'bitte' zu verwenden, obwohl ich weiß, dass ich mit einer Maschine kommuniziere. Beim Kommunizieren in realer Sprache (statt Programmiersprache oder dem Klicken von Buttons) habe ich das Gefühl, 'das gehört sich einfach so'. Wenn ich mit meinem Gegenüber in realer Sprache kommuniziere, dann versuche ich, höflich zu sein.

Das könnte sich auf die Kommunikation mit den vielfältigen Assistenz-Bots die derzeit in Arbeit sind auch übertragen. Immer öfter werden wir verbale Anweisungen an Computersysteme geben, nicht nur bei Alexa und Siri, sondern bald auch Navis oder vielleicht Fahrkartenautomaten oder Selbstbedienungsregistrierkassen. D.h. die Kommunikation mit Menschen und Maschinen wird immer ähnlicher.

Irgendwann kommt es uns das evt. dann doch komisch vor, dass wir gegenüber den Maschinen 'Bitte' sagen, und dann gewöhnen wir uns diese Höflichkeit vielleicht auch gegenüber den Menschen ab - die Dialogformen vermischen sich immer mehr.

Umgekehrt könnten Menschen sich angewöhnen, auch in der Kommunikation von Bitten gegenüber anderen Menschen die notwendige Präzision und 'Schärfe' von ChatGPT-Prompts zu nutzen. Das würde, zumindest zu Beginn, zu Irritationen mit 'altmodischen' Menschen wie mir führen. Und wer längere 'Beziehungen' mit virtuellen Girl- oder Boyfriends gepflegt hat, wird vermutlich bei der Kommunikation mit 'richtigen Menschen' auch irgendwann eher Irritationen erzeugen.

 

3. DMA-Nachrichten (Digital Markets Act)

Beim DMA (Digital Markets Act) geht es um 'Zähmung' der große Tech-Oligopole (siehe frühere Beiträge). Wenig überraschend versuchen einige, dies zu unterlaufen, sehr gut darin ist Apple: Apples gefeierte "Öffnung" des App Store grenzt an Verhöhnung. Apple wird gezwungen, alternative App-Stores zu erlauben. Unter anderen sollen damit Wege geschaffen werden, den hohen Anteil den Apple an allen App-Verkäufen haben will, zu reduzieren. Apple will aber nun auch für die alternativen App-Stores Gebühren berechnen, die kaum niedriger sind.

Ein anderes DMA-Thema ist das Erzwingen der Kompatibilität zwischen den Messaging Diensten /Chatdiensten (z.B. Whatsapp). Die großen Anbieter müssen in Zukunft Schnittstellen anbieten, über die kleine Dienste, z.B. Matrix oder Signal mit Whatsapp interagieren können. Die Öffnung stößt vor allem bei Signal auf begrenzte Begeisterung (der Zwang ist einseitig: die Großen müssen geeignete Schnittstellen anbieten, die Kleinen dürfen entscheiden, ob sie das nutzen möchten). Auch die 'gemischten Zugriffe' sollen weiter ende-zu-ende-verschlüsselt sein. Meta erklärt, dass die Arbeiten gut voran kommen, sie testen wohl derzeit mit Matrix.

Über die Herausforderungen bei der Durchsetzung des DMA berichte ich im nächsten Monat.

Gary Marcus: "ich forsche seit 4 Jahrzehnten zu AI, habe mir aber nie vorstellen können, dass der wichtigste Anwendungsfall einmal 'derivative mimicry' sein könnnte: die Übertragung von Werten, die Künstler und andere Kunst-Schaffende erzeugt haben, hin zu Megafirmen und das mit massivem Energieaufwand.

Das ist sein Kommentar zum ungefragten 'Abernten' von Texten, Bildern und nun auch Videos, zur Generierung von mehr oder weniger korrekten Derivaten, die dann ohne Zahlungen an die ursprünglichen Künstler genutzt werden können. Hier ein Beispiel zur Schwemme an AI-generierten Rezepten auf Instacart.

Ich finde auf Thalia immer mehr AI-generierte Buchzusammenfassungen - Beispiel hier Chip War. Das Buch ist übrigens sehr interessant, wenn man sich für die turbulenten Firmen-Geschichten rund um IT-Hardware interessiert.

Noch ein Bericht: Die Website einer kleinen Zeitung in Iowa ist neuerdings wohl voll von AI-generiertem Unsinn. Die Enshittification des Webs schreitet voran.

April 2024: Die generativen Systeme sind ideal, um den Buchmarkt mit Fake-'Literatur' zu überschwemmen. Der folgende Artikel besagt, dass geschaut wird, was derzeit 'trendet' und dann wird der Markt mit ähnlichen Titeln als eBooks geflutet, basierend wohl auf der Vermutung, dass dann auch Käufer auf die Fälschungen hereinfallen: Amazon is filled with garbage ebooks. Here’s how they get made. Was tut Amazon dagegen: diese virtuellen Autoren dürfen nun nur noch 3 Bücher pro Tag einreichen - na dann! ;-)

Auch die wachsende Zahl der wissenschaftlichen Fake-Artikel wird zum Problem.

 

4. Der Video-Generator Sora und die Billionen, die OpenAI 'anfordert'

OpenAI hat nun den wirklich tollen Video-Generator Sora vorgestellt (der bisher noch nicht getestet werden kann, aber die Werbe-Videos sind wirklich beeinruckend). Komplexe Szenen, gute Kamerafahrten, teilweise HD-Qualität, der Stil teilweise ein wenig wie Computerspiele.

So weit, so nett, aber OpenAI versucht nun, ihre Bilder und Videos als erste Ansätze von AGI (Artificial General Intelligence) zu verkaufen - das ist als Marketing OK, aber sie versuchen gleichzeitig, an riesige Geldsummen zu kommen - was bedeuten würde, dass sie mit vielen anderen sinnvollen Projekten (wie z.B. Klimarettung) konkurrieren.

Die Summe, die sie angeblich für einen 'Durchbruch' brauchen sind 7 Billionen US$ (deutsche Billionen, d.h. 1000 Milliarden) - das Geld soll in Rechenzentren, Energieversorgung (ja, eigene Großkraftwerke werden benötigt) und dutzende Halbleiterfabriken (Fabs) investiert werden. Ihre Begründung ist, dass sie glauben, damit AGIs entwickeln zu können, die dann eh alle Probleme der Menschheit lösen würden. Daher sind diese 7 Billionen ihrer Meinung nach die derzeit wichtigste Investition für die Menschheit, Klima, Hunger, etc könnten noch etwas warten.

Die Summe entspricht der eineinhalb fachen Wirtschaftsleistung von Deutschland oder 20 bis 28% des Bruttoinlandsprodukts der USA. Manche Kommentatoren sprechen von Realitätsverlust bei OpenAI.

Nun zu den Details der Videos. So faszinierend sie sind, im Detail beweisen sie, dass das System immer noch Null Verständnis für unsere Welt hat. Die sind einmal jede Menge Probleme mit Kontinuität von Objekten, diese kommen und gehen in den Videos (ganz bizarr ist es bei dem Plastikstuhl am Strand).

Im nächsten Beispiel geht es um einen Affen, der Schach spielt. Die Fehler sind diesmal kein Physikproblem, sondern sie zeigen, dass das System keine Ahnung von Schach hat: das Brett ist 7x7 und auf dem Bild sind 3 Könige. AGI würde bedeuten, dass das System ALLES (besser?) kann, was Menschen können. Das nächste Beispiel ist eine Ameise im Ameisenbau, tolle Bilder, aber Ameisen haben 6 Beine, nicht 4. Anderseits sollte ein Affe nur 2 Beine und 2 Arme haben und Tiger keine 5 Beine.

Das System zeigt auch beim Generieren der Videos, dass viele der gefunden Lösungen auf den ersten Blick vernünftig aussehen, aber letztendlich falsch sind. D.h. wohl, dass das 'statistische Verdauen' von immer mehr Texten, Bildern und Videos nicht zu einem Verständnis der Welt führt, d.h. AGI-Systeme sind noch ein weiter Ferne.

Um beim Bizarren zu bleiben: der Chef von OpenAI, Sam Altman, hat vorgeschlagen, dass das System effektiver arbeiten könnte, wenn die Menschen dem AI-System Zugriff zu ihren Geräten geben würde:

"OpenAI is developing a form of agent software to automate complex tasks by effectively taking over a customer’s device. . . . requests [that] would trigger the agent to perform the clicks, cursor movements, text typing and other actions humans take as they work with different apps." Was könnte da wohl schief gehen?

Google Gemini findet (noch) nicht die richtige Gewichtung bei 'politischer Korrektheit' / Wokeness - dies soll die historische Apollo 11-Besatzung sein - Armstong, Aldrin and Collins - Quelle: Gary Marcus on AI
Noch ein ausführlicher Artikel: Zu '"woke": Google korrigiert Gemini Bildgenerator' bringt viele Beispiele wo auf einmal historische Situationen nun 'divers' dargestellt werden, auch Päpste werden weiblich und nicht-europäisch dargestellt. -
Das erinnert an den xkcd-Witz: 'wenn eine generative AI falsche Ergebnisse liefert, einfach so lange die Trainingsdaten umrühren, bis die Ergebnisse besser werden'.

 

5. Deepfake-Betrug und Haftung für Chatbot-Fehler

Ein Beispiel was mit den generativen Systemen schief gehen kann haben wir hier: Die Weiterentwicklung des sog. CEO-Betrugs. In Ergänzung des Emails vom Chef, dass der Buchhalter dringend eine große Summe überweisen soll, haben die Betrüger eine Video-Konferenz angeboten. Dort waren der Chef und viele Kollegen, alle als Deepfakes simuliert und haben ihm versichert, dass alles korrekt sei. Der Buchhalter, der nach dem Email fest von einem Betrug überzeugt war, hatte nach dem Video keine Zweifel mehr und überwies 25 Millionen. Da kommt noch was auf uns zu! Hier noch ein deutschsprachiger Artikel dazu: Wie Kriminelle mit KI-Avataren Firmen abzocken.

Noch ein Punkt aus der schönen neuen AI-Welt: Der Chatbot von Air Canada hat halluziniert und erklärt, ein Kunde könnte einen sog. ermäßigten Trauertarif zum Besuch einer Beerdigung auch nachträglich beantragen. Air Canada weigerte sich, obwohl der Kunde einen Screenshot vorlegte. Sie sagen: ("the chatbot is a separate legal entity that is responsible for its own actions".

Der Richter hat dem widersprochen, was für mich die einzig sinnvolle Lösung ist. Das heißt, Halluzinationen von Chatbots können Firmen teuer kommen.

Wie soll der Chatbot eine eigene juristische Person sein, die selbst haftet? Womit denn? Dann gäbe es keinen Sinn für Kunden, mit einem Chatbot irgendwas zu besprechen oder auszumachen.

Zur Erheiterung oder zum Gruseln: "absolutely no polar bear" - Quelle: Gary Marcus on AI
Er bringt noch viele ähnliche Beispiele - auch 'kein Elefant' verstehen die generativen Systeme nicht wirklich, ebenso den Unterschied zwischen Rechtshänder und Linkshänder, weder beim Schreiben noch beim Gitarrespielen. Siehe auch die aussichtslosen Versuche, die Uhr zu verstehen.
Wenn dabei lustige Bilder rauskommmen, so kann ich das gern tolerieren, Angst macht es mir, wenn OpenAI die bisherige Verweigerung eines Kriegseinsatzes aufgibt. Der Unterschied zwischen 'schießen' und 'nicht schießen' ist signifikanter.

 

6. Aktualisierungen früherer Beiträge