191. Newsletter - sicherheitskultur.at - 31.12.2022

von Philipp Schaumann

Zum Archiv-Überblick

 

Hier die aktuellen Meldungen:

 

1. ChatGPT, die heißeste AI des Monats

Diesen Monat ist ChatGPT das AI-System, das es auch in die Nicht-Techie-Presse geschafft hat. Es gehört in die Klasse der sog. Large Language Models. Dies sind sog. Neuronale Netzwerke die mit Hilfe einer sehr großen Menge Trainingstexten (Bücher + Wikipedia und mehr) trainiert wurden und die in der Lage sind, auf Grund statistischer Methoden Texte zu formulieren. Sie 'verstehen' die Inhalte nicht, sondern sie 'berechnen' das wahrscheinlichste Wort, mit dem ein Satz zu dem vorgegebenen Thema oder der gestellten Frage weitergehen könnte. Nochmals gefragt, kann durchaus eine ganz andere Antwort kommen.

Wer ChatGPT mal selbst ausprobieren möchte, hier die Anleitung: ChatGPT: Wie Sie die KI ausprobieren können. Mittlerweile hört man aber, dass die Antwortzeiten der kostenlosen Variante sehr schlecht geworden seien und es gibt Bezahlangebote.

Und wer verstehen möchte, wie es funktioniert? Die beste / 'verständlichste' Erklärung wie denn ChatGPT wirklich funktioniert, wie es trainiert wurde und was dahinter steckt findet sich in So funktioniert ChatGPT. Der Autor verwendet anschauliche und gut illustrierte Beispiele. Sehr empfehlenswert!

Ganz wichtig zur Einordnung: Diese Systeme sind nicht intelligent, haben Null Verständnis wie die Welt funktioniert oder unsere Physik und können nicht 'Denken', sie 'berechnen' mit komplexen Matrix-Operationen das jeweils wahrscheinlichste nächste Wort eines Satzes. Das ist bereits das gesamte Konzept. Das machen die Systeme aber bereits jetzt sehr sehr gut. So gut, dass Menschen die Antworten als 'intelligent' einordnen.

So ein System hat keinen 'moralischen Kompass', hat kein Konzept von Gut und Böse, von richtig oder falsch. Die Antworten basieren auf Statistik. Unethische oder kriminelle Antworten sollen verhindert werden indem bestimmte Fragen blockiert werden, aber das lässt sich durch sog. 'prompt-engineering' austricksen (z.B. durch einen Rollenwechsel - indem explizit erwähnt wird, dass es darum geht, ein Verbrechen oder eine Mogelei zu verhindern oder aufzuklären - das System hilft auf Anforderung bei seinem eigenen Ausgetrickst-Werden. Oder durch ein 'rein theoretisch' oder 'fiktiv').

Die möglichen Auswirkungen haben mich dann aber doch überrascht: Ich hatte mir bisher schon viele Szenarien vorgestellt, in denen AI-Systeme unser Leben verändern werden, aber die Abschaffung des Schulaufsatzes oder der studentischen Arbeit hatte ich nicht im Fokus. Die Antworten von ChatGPT sind nicht perfekt (und oft auch fehlerhaft), aber als Schulaufsatz oder Seminararbeit geht es doch bereits durch.

Lehrende an Schulen und Universitäten werden sich Gedanken machen müssen, wie sie die Skills die bisher durch das Schreiben von Aufsätzen erlernt werden sollten (logisches Denken, Strukturieren und Begründen von Überlegungen, vernüftiges Argumentieren) irgendwie anders vermitteln. Das muss kein Problem sein - die Taschenrechner haben das schriftliche Dividieren großer Zahlen oder die Nutzung von Rechenschiebern und Logarithmentafeln als wichtiges Unterrichtsthema abgeschafft ohne dass ein Verlust entstanden ist. Vieles wird einfach anders werden müssen.

Die NY Times berichtet über Experimente von Schulen und Lehrern zu ChatGPT: Don't Ban ChatGPT in Schools. Teach With It. Der Artikel berichtet über Blockieren in einigen Schulnetzen - ChatGPT hat auf Anfrage sofort 5 gute Tipps wie das umgangen werden kann. Der Artikel bringt aber auch interessante Beispiele von Lehrern die ChatGPT aktiv im Unterricht einsetzen. Entweder indem Schüler:innen es nutzen müssen und dann mit den Ergebnissen weiterarbeiten. Außerdem kann das Programm bei der Stunden-Vorbereitung genutzt werden, z.B. bei der Erstellung von Testfragen für die Schüler oder sogar ein hilfreiches Tool beim Korrigieren von Arbeiten der Schüler sein. ;-)

Der oben verlinkte Artikel (... Abschaffung des Schulaufsatzes..) zeigt aber auch eine wirkliche Gefahr für die Gesellschaft: ChatGPT ist ein begnadeter Fake News Generator. Das System erfindet auf Wunsch ganz neue Theorien und Fakten und begründet diese auf Wunsch auch mit (nicht existierenden) Quellenangaben. Wie der vorige Link erklärt sind solche Fälschungen durch Laien kaum zu erkennen. Noch ein Beispiel für Fake News Generierung durch ChatGPT: ChatGPT is OpenAI's latest fix for GPT-3. It's slick but still spews nonsense.

Hier der Link zu einem hilfreichen 11 Min. Video mit vielen Beispielen wo ChatGPT richtig lag, oder auch falsch: Warum ChatGPT die Welt verändern wird. Der Tenor: Aufsätze als Hausaufgabe wird es in Zukunft wohl nicht mehr geben, denn ChatGPT schreibt diese in Sekunden - das meiste davon ist korrekt, aber einiges ist einfach gut ausgedacht. Der Autor erklärt: . . . Es reichen ja schon 5 Prozent Falschaussagen, um das ganze System ziemlich unbrauchbar zu machen -- denn man weiß ja dummerweise nicht, WAS falsch ist, wenn man sich mit einem Themengebiet nicht auskennt.

Auch für Verleumdungen und andere Bosheiten bieten sich leider 'tolle' neue Möglichkeiten. Außerdem gibt es sehr gemischte Berichte über die ethischen Einstellungen von ChatGPT (obwohl da viel unternommen wurde, die schlimmsten Probleme zu verhindern): AI Proposes Torturing Iranians and Surveilling Mosques.

Entspannt ist einer der Kommentatoren auf heise.de: ChatGPT - keine Intelligenz, keine Panik!. Eigentlich ist das fast schon wieder menschlich: Was Sprachmodelle nicht wissen, das erfinden sie. Ehe das Sprachmodell eine Wissenslücke eingesteht, gibt es lieber eine falsche Antwort. "Mansplaining as a service" hat das jemand genannt. Gefährlich dabei ist, dass die Antwort sehr oft plausibel wirkt und auf Wunsch auch mit erfundenen Quellen belegt wird.

Noch ein paar Kostproben: Chatbot im Test: ChatGPT macht meine Hausübung in 5 Sekunden. Und einige intelligente Überlegungen: The College Essay Is Dead - Nobody is prepared for how AI will transform academia. Und noch ein Artikel eines österreichischen Lehrers: Chat GPT: Künstliche Intelligenz in der Schule? Und natürlich kommen gleich Vorschläge das 'Problem' einfach durch Verbote zu regeln: Schule und Wissenschaft: Nutzungsverbote für ChatGPT - ich weiß nicht, ob das Leben wirklich so einfach ist.

Viel mehr zu solchen Themen gibt es auf meiner Seite zum Turing Test. Außerdem gibt es im nächsten Newsletter viel mehr zur Frage, ob und wie Google oder Microsoft AI-Technologien einsetzen (können).

 

2. Apple, gut oder böse?

In einem früheren Newsletter hatte ich berichtet, dass Apple die Geräte der Kunden nach 'sexuelle Gewalt gegen Kinder' scannt, bzw. scannen will. Hier das Update: Apple stellt die Nutzung des CSAM-Scanners wieder ein (CSA=child sexual abuse) (bzw. macht sie als Teil der 'Kindersicherungen' optional) - im vorigen Newsletter gab es einen Artikel zu Problemen mit False Positives bei Chatcontrol-Techniken, bei denen Apple Vorreiter war.

Positiv ist auch, dass Apple nun für Backups und Fotos in der iCloud Ende-zu-Ende-Verschlüsselung einführt. Beides sind gute wichtige Schritte für mehr Privatsphäre.

Falls aber jemand glaubt, damit sei Apple ganz klar 'auf der Seite der Guten' gelandet, hier die schlechten Nachrichten: Wie Apple die Proteste in China erschwert. Zitat: "Wie sehr Technologie auch das Wesen von Protest verändern kann, das zeigt die Firma Apple derzeit sehr unrühmlich in China. Offenbar auf Druck der Regierung hat sie in ihren neuesten Smartphones in China die Airdrop-Funktion eingeschränkt. Mit Airdrop kann man anonym Daten teilen. Sie wurde auch benutzt, um sich bei Protesten zu verständigen oder Flugblätter auszutauschen. Mit den neuesten Versionen seines Betriebssystems iOS hat Apple diesen Dienst nun auf 10 Minuten beschränkt, danach lassen sich Daten nur noch mit Kontakten teilen. Die Einschränkung betrifft nur iPhones, die in China gekauft wurden."

Es bleibt abzuwarten, ob die lobenswerte End-to-End-Verschlüsselung der iCloud auch in China aktiviert wird, da gibt es Zweifel. :-(

Und wenn jetzt jemand sagt 'OK, aber das betrifft ja nur die Chinesen' dann kommt dieser Kommentar aus den USA: Why we can't trust Apple. Der Autor Mark Hurst beobachtet, dass bereits 2018 die Summe der Apple-Aktien größer als 1 Billion US$ (engl. Trillion), d.h. Tausend Milliarden, war. Jetzt Ende 2022 sind das über 2 Tausend Milliarden. Mark Hurst fragt sich, warum so ein Unternehmen jetzt unbedingt den Gewinn weiter steigern muss und zwar auf Kosten der Privatsphäre ihrer Kunden durch personen-bezogene Werbung? "Apple currently brings in roughly $4 billion from advertising and is forecasted to bring in as much as $30 billion by 2026". Das geht nur durch extremes Datensammeln - der verlinkte Beitrag ist lesenswert für alle, die glaub(t)en, dass Apple 'anders sei' als Google, Amazon und der Rest.

Auch der Standard berichtet: Apple verdient dank Privatsphäre-Features Milliarden mit personalisierter Werbung. Ihre Punkte: Clever, aber nicht ganz ethisch. Tim Cook propagiert Privatsphäre als fundamentales Menschenrecht, erschwert daher allen anderen Firmen das Tracking der Apple Nutzer. Aber Apple darf 'seine' Nutzer weiterhin tracken und verkauft dann personalisierte Werbung. Damit trickst er die Marktführer in diesem Bereich, Google, Meta und Amazon aus. Vier Milliarden Dollar setzt Apple bisher mit dem Werbegeschäft um. In Frankreich und Deutschland löste dies kartellrechtliche Untersuchungen aus, und die französische Datenschutzbehörde verpflichtete Apple im Jänner zur Zahlung von acht Millionen Euro Strafe.

Im nächsten Newsletter gibt es mehr zu Apple, mehr zu Chatcontrol im Dezember 2023.

 

3. Wie schnell werden unsere Smartphones obsolet?

Dieses Thema behandele ich seit vielen Jahren auf der sicherheitskultur, z.B. das Problem der Fragmentierung bei Android. Dabei geht es darum, dass es bei Android-Geräten neben Google und Samsung noch sehr viele kleinere Anbieter gibt, die ebenfalls jährlich neue Geräte auf den Markt werfen, es sich aber kaum leisten können, für die älteren Modelle über mehrere Jahre hinweg Sicherheits-Updates zu liefern.

Hier jetzt eine neuere Untersuchung und da gibt es durchaus Überaschungen: Android vs. iPhone: Wie viel besser ist Apple bei Updates wirklich? Die kurze Zusammenfassung des längeren Artikels: "Einen umfassenden Schutz gibt es bei den besten Android-Herstellern (Samsung und Google und noch ein paar andere) für fünf Jahre, bei Apple über einen Zeitraum von 6 - 7 Jahren. Danach gibt es bei beiden Systemen zwar noch weiterhin Updates, aber diese sind sowohl in Hinblick auf Sicherheit als auch Funktionalität nur mehr unvollständig." Bei Apple sind die 6 - 7 Jahre allerdings auch mit Vorsicht zu genießen: Apple stellt in seiner offiziellen Policy klar, dass nur die aktuelle iOS-Generation auch wirklich sämtliche Sicherheitsaktualisierungen erhält. D.h. Apple bietet umfassenden Schutz derzeit für iOS 16, danach ist es so wie bei Android und Samsung nach dem Ende des offiziellen Supports. Noch ein Artikel zu Updates bei Android 13.

Die EU möchte alle Smartphone-Hersteller zu fünf Jahren Updates verpflichten. Die neue Vorschrift soll Ende 2024 in Kraft treten und betrifft sowohl Sicherheitsaktualisierungen als auch funktionelle Updates. Ersatzteile müssen künftig sieben Jahre lang angeboten werden. So wie das hier aussieht, erfüllen die großen Anbieter das bereits, für kleine Anbieter kann das herausfordernd werden - vielleicht müssen die aber nicht jedes Jahr ein neues Modell anbieten, so groß sind die derzeitigen technologischen Fortschritte bei Handys ja nun nicht wirklich.

 

4. Es geht was weiter beim AI Act und AI Liability Directive

Dies ist die Fortsetzung meines früheren Beitrags zum geplanten AI Act der EU. Es geht um eine Zertifizierung von möglicherweise riskanten AI Systemen die kritische Entscheidungen (meist über Menschen) fällen, wie z.B. Kredit-Bewertungen. Anwendungsbeispiele sind die kritische Infrastruktur, das Bildungssystem, der Arbeitsmarkt und die Strafverfolgung als Lebensbereiche, in denen künstliche Intelligenz ein hohes Risikopotenzial birgt. Es sollen vier verschiedene Risikolevels festgelegt werden: minimales Risiko, begrenztes Risiko, hohes Risiko und unannehmbares Risiko. Im Prinzip muss so etwas wie eine 'Risikofolgen-Abschätzung' durchgeführt werden.

Ergänzt wird dies durch die ebenfalls geplante AI Liability Directive. Eine Einigung wird im ersten Quartal 2023 erwartet. Erst dann können die Trilogverhandlungen aller drei EU-Institutionen beginnen. Voraussichtlich 2025 muss die Verordnung dann umgesetzt werden.

Einer der Streitpunkte ist dabei, dass EU-Staaten Ausnahmen für Massenüberwachung durch Behörden wollen (ich bin nicht überrascht).

Mehr zur Implementierung des AI-Acts in einem späteren Newsletter.

 

5. Spyware auch auf unseren Smartphones

Einige der Leser:innen haben evt. in der Presse gelesen, dass für Gäste der Fußballweltmeisterschaft und bei der Klimakonferenz in Ägypten jeweils eine App mehr oder weniger notwendig war, die die Gäste durchgehend überwacht hat. Nun ja, könnte man sagen, beide Events haben mich nur sehr peripher betroffen.

Wenn man sich aber die Liste der Apps durchschaut, die die Pushwoosh-Programmierbibliothek aus Russland nutzen, so fühlt man sich schon eher bedroht. Solche Programmierbibliotheken werden von App-Entwicklern gern benutzt denn sie erleichtern die App-Programmierung sehr. Diese (meist kostenlose) Software rentiert sich für die Anbieter, denn sie sammelt typischerweise Daten von den Handys die dann verkauft werden können. Fast alle Apps verwenden Bibliotheken von Google, aber einige eben auch diese russische Software. Die Frage ist, was man selbst als gruseliger empfindet. Hier ein Hintergrundartikel dazu: Pushwoosh-Software aus Russland.

Die Liste der Apps enthält Dinge wie 123 Pizzeria Hainburg, Mein Sachverständiger, A. Riedel Kfz-Reparatur GmbH, A.P.P. Verlag, Aalräucherei Janssen, ABC-Jalousien, Academy Fahrschule Lübow, . . . (und immer so weiter im Aphabet).

 

6. Kryptowinter und digitaler Euro

Ein neues Schlagwort: Kryptowinter. Damit wird umschrieben, dass es derzeit für die Kryptowährungen nicht gut aussieht (siehe FTX-Absturz im vorigen Newsletter und die Verhandlung im Oktober 2023 Newsletter). Die Kurse stürzen ab, wohl hauptsächlich ausgelöst durch eine Kombination von aufgedeckten Spekulationen und Betrügereien, die dann wiederum 'Bankruns' bei den Kryptobörsen auslösen (das gleichzeitige 'Geld abheben' vieler Kunden), die die Kurse abstürzen lassen was wiederum zu Bankrott bei Kryptominern führen kann und so weiter.

Eine Schätzung des Wirtschaftsmagazins Forbes zeigt, dass mehr als 116 Milliarden US-Dollar an Eigenkapital verloren gingen. Jetzt könnte man darüber spekulieren ob das Vermögen je existiert hat, oder wirklich weg ist, oder nun einfach nur anderen Menschen gehört. Hier die Fortsetzung der Krypto-Saga.

Die Pläne zum digitalen Euro

Noch eine kleine Beobachtung: Ich konnte mir lange nicht erklären, warum die deutsche Industrie beim digitalen Euro drängelt. Überweisungen funktionieren doch eigentlich sehr gut, seit einiger Zeit im gesamten SEPA-Raum und oft sogar in 25 Sekunden mittels SEPA Instant Payment.

Was die deutsche Industrie gern hätte, das ist ein 'programmierbarer Euro'. Die Industrie erwartet, dass "mit der Einführung eines digitalen und programmierbaren Euros die Transaktionskosten im währungsrauminternen und übergreifenden Zahlungsverkehr weiter sinken und positive Effekte auf die Geschwindigkeit in der wechselseitigen Wertstellung erzielt würden". Das soll wohl so was wie Smart Contracts von Ethereum werden.

Aktualisierung Sommer 2023: Ein 'programmierbarer Euro' ist von der EZB so nicht geplant. Netzpolitik.org erklärt was da geplant ist und wie anonym der digitale Euro wirklich geplant wird.

Aus Anlass der Diskussion um Sinn des digitalen Euros hier noch eine interessante (und recht verständliche) Diskussion zu einem kompletten Umdenken bei Geld - Vollgeld vs. Giralgeld.

Der Autor weist auf die grundlegenden Unterschiede zwischen 'richtigem Geld' wie Bargeld (bzw. dem geplanten digitalen Euro) als gesetzliches Zahlungsmittel und dem von den Banken 'geschaffenen' Giralgeld hin (das Geld auf Girokonto oder Sparkonto ist eine private Forderung an die Bank, kein 'richtiges' gesetzliches Zahlungsmittel. Das gilt auch für alle unsere Debit- oder Kreditkarten - private Forderungen. Der digitale Euro wäre ein gesetzliches Zahlungsmittel so wie Bargeld, was aber beim Zahlen mit einer 'Karte' keinen praktischen Unterschied machen würde. Wie weit eine solcher Weg in Richtung auf 'richtiges Geld' gehen sollte ist eine komplexe Frage mit Vor- und Nachteilen die über meinen Finanzwissen-Horizont hinausgehen.

Eine Fortsetzung gibt es im Juli 2023.

 

7. Wie funktioniert denn dieses Internet?

Das fand ich interessant: Ein Video, in dem ein Professor "das Internet" auf 5 unterschiedlichen Niveaus/Komplexitäten erklärt. Das beginnt mit einem Kind, einem Jugendlichen, einem Studenten, etc. Das Internet" zu erklären ist ja eine Aufgabe, die man als 'Techniker' durchaus immer wieder mal selbst zu tun hat. Die ersten 3 Komplexitätslevel fand ich, hat er recht gut erklärt: Professor Explains the Internet in 5 Levels of Difficulty.