231. Newsletter - sicherheitskultur.at - 18. Dezember 2025
von Philipp Schaumann
Letzte Ergänzungen 25.03.2026
Themen-Überblick aller Newsletter
Hier die aktuellen Meldungen:
1. Algorithmische Auswahl auf Social Media fördert Polarisierung
Meta, TikTok, Google und Co. bestimmen über unsere digitale Öffentlichkeit: Die Algorithmen auf ihren Social-Media-Plattformen prägen, was wir sehen, worüber wir sprechen und wie sich unsere Wirklichkeit formt. Eine im November 2025 veröffentlichte ↑(opens in a new tab)Studie der Bertelsmann Stiftung und der Universität Potsdam zeigte, dass Parteien im Bundestagswahlkampf 2025 in Deutschland durch Plattformalgorithmen unterschiedlich stark begünstigt oder benachteiligt wurden.
Ein alter Diskussionspunkt: Ist die algorithmische Auswahl dessen, was jedem Nutzer in Social Media (wie Instagram, Tiktok, Youtube, etc.) gezeigt wird, nun verantwortlich für eine Radikalisierung der Ansichten und für Meinungsblasen in denen jede:r nur seine eigenen Positionen verstärkt bekommt?
Darüber kann man trefflich streiten, socialmediawatchblog berichtet nun über ein ↑(opens in a new tab)Experiment rund um 'algorithmisch-bestimmte Inhalte auf Social Media'. Das Experiment fand im Sommer 2024, also mitten im Wahlkampf vor der US-Wahl statt, und zwar auf X, wo es oft recht heftig zugeht.
Mittels einer Browser-Erweiterung bekam ein Teil der 1500 Teilnehmer mehr Beiträge gezeigt, die als `polarisierend`eingestuft wurden, andere Teilnehmer bekamen weniger `polarisierende` Beiträge und die Kontrollgruppe den 'normalen' Feed.
Alle Teilnehmer wurden vorher und nachher zu ihren Einstellungen bezüglich Menschen mit anderen Meinungen gefragt. Sie gaben an, wie sie über die Anhängerïnnen der jeweils anderen Partei denken und welche Gefühle sie hatten, während sie X nutzten.
Ergebnis: Mehr `polarisierende` Beiträge führten zu negativeren Meinungen, die Anhänger der anderen Partei betreffend. Gleichzeitig führte eine Reduktion der `polarisierenden` Beiträge zu einer Reduktion der Verweildauer auf X und zu weniger Reaktionen auf Posts.
Das Resumé von socialmediawatchblog (mit Verweis auf Limitierungen einer solchen Studie): Eine Reduktion von `polarisierenden` Beiträgen wäre möglich, würde aber wegen verkürzter Verweildauer auch zu weniger Einnahmen durch Werbung führen, dh ist für die Betreiber nicht wirklich erstebenswert.
Um die Komplexität des Themas zu verdeutlichen verweist socialmediawatchblog noch auf 2 Positionen:
2. Wie ist das denn mit 'Peak Social Media'?
Im Oktober hatte ich berichtet, dass bei jungen Menschen in den USA (angeblich) die Nutzungsdauer für Social Media abnimmt. Die Wiener Zeitung hat die Untersuchungen nun für Österreich recherchieren lassen, weshalb ich nun in der Oktober-Ausgabe die US-Grafiken durch die österreichischen ersetzt habe.
Die Zahlen aus Österreich: Seit 2020 gibt es ein Plateau von 2,5 Std. täglich in Social Media (Tiktok, Instagram, Snapchat, Youtube), Online-Zeit insgesamt 3,5 Std, in der Altersgruppe 16-24 Jahre. Das überrascht mich weniger als der angebliche Rückgang, der aus den USA gemeldet worden war. Ich denke, das Plateau lässt sich recht leicht aus der begrenzten Zeit erklären, die nun mal für solche Aktivitäten zur Verfügung steht. Außerdem sind das Mittelwerte. Da bestimmt einige junge Menschen weniger lang online sind, kommen andere wohl auf deutlich höhere Zahlen.
Hier der Link auf die Wiener Zeitung: ↑(opens in a new tab)Social Media: Ist das Ende erreicht? Alle Details, auch dazu, wie sich die Social Media-Interessen vom eigenen Umfeld zu den Influencer:innen verschoben haben, finden sich in der oben verlinkten Oktober-Ausgabe.
3. Social Media, Sucht und psychische Gesundheit
Eigentlich schon keine Neuigkeiten mehr, aber wir sollten das nicht vergessen: Der US Surgeon General (Wikipedia übersetzt das mit ↑(opens in a new tab)Sanitätsinspekteur der Vereinigten Staaten) hatte bereits 2023 eine Warnung veröffentlicht: ↑(opens in a new tab)“Social Media and Youth Mental Health”. Thema sind die zahlreichen Studien zum Zusammenhang zwischen mentaler Gesundheit von Jugendlichen und starker Social Media Nutzung.
Das Wallstreet Journal berichtete bereits 2021: ↑(opens in a new tab)Facebook Knows Instagram is Toxic for Teen Girls. Der Artikel ist über Meta-interne Studien, die Meta aber lieber nicht veröffentlichte. Oder 2022 aus Großbritannien: ↑(opens in a new tab)Facebook & Co.: 12-jährige Mädchen und 14-jährige Jungen besonders verletzlich. Oder 2017 wieder Großbritannien: ↑(opens in a new tab)Facebook and Twitter 'harm young people's mental health'.
Nobelpreisträger Paul Krugman hat die USA als ↑(opens in a new tab)Digital Narco-State bezeichnet. Grund ist, dass in den USA süchtig-machendes Social Media ohne Einschränkungen möglich ist und die Betreiber (die Tech-Oligarchen) sehr guten Zugang zur US-Regierung haben. Wie Krugman es sieht, haben die Social Media Giganten die Regierung 'gekauft' und die US-Regierung macht nun in deren Interesse Druck auf die EU. Gewünscht ist eine Aufweichung unserer Gesetze zu Datenschutz und Online-Plattformen (siehe den digitalen Omnibus, entstanden primär auf Druck der USA). Und es läuft gut für die Tech-Oligarchen: ↑(opens in a new tab)Trump hat gerade den US-Staaten verboten, Gesetze zu erlassen, die AI-Systeme einschränken könnten.
Weil wir vorher gerade bei Meta waren - Meta nimmt wohl gern mal 'leicht schmutziges Geld'. Ich hatte in diesem Jahr unter Meta verdient angeblich riesig an Scams darüber berichtet, dass Meta bereits 2024 16 Milliarden durch Werbung für betrügerische Aktivitäten verdient hatte. Nachdem dies intern diskutiert worden war, hat Meta dann die Preise für solche Werbung deutlich erhöht (wenn das Ziel der Werbung ist, andere Menschen zu betrügen, so darf die Gewinnspanne auch etwas höher sein {Sarkasmus off}).
4. Das australische Social Media-Verbot für Kinder und Jugendliche unter 16
Wir kommen von Thema "Social Media" nicht weg. Australien hat nun zum Schutz von Kindern und Jugendlichen unter 16 Jahren ein ziemlich umfassendes Verbot für Social Media verhängt. Die Meinungen der weltweiten Öffentlichkeit sind gespalten. M.E. spricht einiges für ein Verbot, die Details sind aber (wie üblich) kompliziert. Details zu Australien findet sich auf der offiziellen Website der ↑(opens in a new tab)eSafety Commissioner. Der Artikel ↑(opens in a new tab)Social-Media-Bann in Australien beschreibt einige der Details: Verboten sind folgende Plattformen für Kinder unter 16 Jahren:
- Metas Dienste Facebook / Instagram / Threads
- Snapchat
- Tiktok
- Youtube
- Twitc
- X
- Kick
Die Betreiber müssen "reasonable steps" zu ergreifen, um Unter-16-jährige auszuschließen. Praktisch müssen sie bereits existierende Accounts von Unter-16-jährigen pausieren und neue Anmeldungen von ihnen unterbinden. Weiter verfügbar bleiben Messenger- und Gaming-Dienste wie Whatsapp, Roblox oder Telegram und auch Fotoplattformen wie Lemon8 oder Yope. (Dass die Spieleplattform Roblox nicht unter die Regelung fält, ist mE etwas eigenartig. Dort passiert viel "Ungutes", wie mir Schulklassen mit 11-jährigen berichten.)
Eine große Herausforderung ist die Feststellung des Alters bei möglichst gutem Datenschutz. Das australische Dokument beschreibt drei zentrale technische Verfahren zur Altersfeststellung (Age Assurance Methods), die Plattformen einzeln oder kombiniert anwenden dürfen, bzw. müssen:
- Age Estimation, dh Alterschätzung per Gesichtsanalyse, Stimme oder Verhalten
- Age Inference, dh Altersschlussfolgerung durch Mustererkennung in Inhalten, Freundesnetzwerken oder Tageszeiten der Nutzung
- Age Verification, dh Altersverifizierung über offizielle Ausweisdaten wie Geburtsurkunden oder Digital-ID-Systeme
Kein Anbieter darf ausschließlich Ausweise verlangen (weil damit der Datenschutz deutlich unterlaufen wäre), es muss immer eine "angemessene Alternative" angeboten werden, etwa ein Selfie-Abgleich oder eine Altersbestätigung durch Erziehungsberechtigte.
Fehleinstufungen sollen durch successive Validation vermieden werden: eine gestufte Prüfung über mehrere Datenquellen und Methoden hinweg. In kritischen Fällen, etwa wenn das System das Alter auf 15 bis 17 Jahre schätzt, sollen Nutzer automatisch zu weiteren Prüfungen weitergeleitet werden. Details der Implementierungen dürfen die Anbieter selbst wählen. Bei Zweifeln wird der Zugang nur eingeschränkt gewährt, bis eine genauere Verifikation möglich ist.
Die Datensammlungen, die bei jedem der Anbieter dadurch entstehen, gefährden natürlich die persönlichen Daten der Nutzer:innen, entsprechende Datenleaks in solchen Datensammlungen sind bereits früher vorgekommen.
Viele Jugendliche versuchen Umgehungen, zB durch ein Gesicht der Eltern, falsche Angaben durch die Eltern oder durch VPN-Nutzung (falls das nicht der jeweilige Anbieter verhindert, so wie sich die australische Regierung wünscht und was sich auch recht leicht implementieren lässt).
Im nächsten Newsletter berichte ich ausführlich über die Erfahrungen in Australien - kurze Zusammenfassung: es läuft nicht gut mit dem Verbot.
Und die EU?
Die EU arbeitet bereits seit einiger Zeit an einer technischen Lösung, die diese Datenschutzprobleme vermeiden würde: ↑(opens in a new tab)The EU approach to age verification. In einer zukünftigen ↑(opens in a new tab)EU Digital Identity Wallet wird es die Option geben, das Vorliegen eines bestimmten Alters zu beweisen, ohne Namen oder auch nur Geburtsdatum weiterzugeben (Dh der Server fragt, ob die Person älter als X ist, die Antwort ist lediglich Ja oder Nein, keine weiteren Daten über diese Person). Implementierungen werden derzeit in einigen Ländern getestet, die Software ist weitgehend Open Source, kann verifiziert und das Benutzer-Interface für jedes Land angepasst werden. Zur Gesamtkonzept der eIDAS gibt es natürlich auch kritische Stimmen und Verbesserungsvorschläge - ich beziehe mich hier auf die Idee einer selektiven Altersverifikation, für die es viele Anwendungen gibt, zB auch Alkoholverkauf an Jugendliche.
Eine ähnliche Lösung ist in Österreich bereits für das Verbot von Tabakwaren-Verkauf an Automaten für unter 16 umgesetzt. Die österreichischen Banken wurden gezungen, auf ihren Bankomat-, bzw. Girokarten (heute Debit-Karten) eine Funktion zu implementieren, mit deren Hilfe der Automat von einer österreichischen Karte testen kann, ob der Kartenbesitzer bereits 16 Jahre alt ist (Kurioses Detail: Manchmal warten vor den Bankomaten ausländische Touristen und bitten darum, dass ein Östereicher seine Karte kurz 'davor hält'. Sonst bekommen Touristen keine Zigaretten vom Automaten in Österreich).
Ergänzung: Pro und Contra staatliches Verbot
Kommunikationswissenschafter Marian Adolf ↑(opens in a new tab)sieht die Verantwortung bei den Social-Media-Unternehmen, die aber nicht genug gegen die negativen Aspekte unternehmen. Ein staatliches Verbot im Alleingang sieht er eher skeptisch, aber als Symbol könnte es doch positive Wirkung haben. Hier seine Punkte, ganz knapp zusammengefasst:
Ich schließe mich seiner Meinung an.
Ergänzung Jan. 2026:
Auch Macron in Frankreich wünscht ein Social Media-Verbot. Er möchte die ↑(opens in a new tab)Altersgrenze auf unter 15 Jahren setzen. Und Irland, das bald die rotierende EU-Ratspräsidentschaft inne haben wird, plant die Einführung einer EU-Identitätspflicht für Social Media. Damit wird die Diskussion um die Alterskontrolle für Social Media (die Irland bereits eingeführt hat, aber nicht konsequent umsetzen kann) durch eine Klarnamen-Pflicht auch für Erwachsene erweitert.
Leider zeigt sich aber, dass viele Menschen, die Hasspostings absetzen, oft keine Hemmungen haben, das auch mit Klarnamen zu tun. Außerdem kann bei verbotenen Aktivitäten sehr wohl die Identität geklärt werden, auch ohne Klarnamenpflicht für alle. Hier ein alter Artikel von mir zum Thema Klarnamenpflicht.
Das ↑(opens in a new tab)britische Oberhaus stimmt für Social-Media-Verbot unter 16 Jahren und verstärkt damit den Druck auf die Regierung, auch in Großbritannien ein Verbot einzuführen.
5. AI-Slop, Deepfakes und der Verlust gemeinsamer Realität
Im Oktober 2025 hatte ich das Thema "OpenAIs Sora, das Social Network mit Deepfake-Generator" bereits angerissen und dabei auch Ingrid Brodnig zitiert. Das Problem mit Deepfakes und Desinformation ist, dass die Realität immer mehr verschwimmt. Wenn viele Menschen sagen "Ich kenne mich überhaupt nicht mehr aus, was eigentlich real und was fake ist, was eigentlich die Fakten sind und was nur 'alternative Fakten', dann haben die Zerstörer gewonnen: ↑(opens in a new tab)Netzexpertin Brodnig: "Propaganda ist erfolgreich, wenn sich Leute nicht mehr auskennen".
Im Dezember 2025 wurde Ingrid Brodnig im österreichischen Fernsehen ↑(opens in a new tab)zu Deepfakes befragt (8 Minuten Video im Artikel verlinkt). Gefragt, warum die Plattformen nicht strikter dagegen vorgehen, weist sie auf die tollen Werbeprofite hin, die (auch mit so was) erzielt werden können.
Ingrid Brodnig erwartet für 2026 immer mehr und deutlich perfektere Fake-Videos. Sie hofft auf Verbesserungen der Wirksamkeit der europäischen Gegenmaßnahmen gegen Betrug auf den Social Media Plattformen. Brodnig hat auch Angst um unsere Demokratie durch noch bessere politische Fakes, zB vor Wahlen: "Die Grundsubstanz der Demokratie und unsere Realität gehen potentiell verloren".
Außerdem stellen Deepfake-Videos eine immense sexuelle Gewalt gegen Frauen dar. Eine Studie aus 2023 zeigte, dass ↑(opens in a new tab)98% aller Deepfake-Videos pornographisch sind und davon betreffen 99% Frauen. Zum Thema wird die Industrialisierung des digitalen Missbrauchs aber erst 2026.
Auch in Dokumentarfilmen
Der Artikel in der NY Times ↑(opens in a new tab)A.I. Video Is Threatening Our Ability to Trust Documentaries berichtet, dass sebst 'ernsthafte' Dokumentarfilmer immer stärker in Versuchung kommen, bei ihren Arbeiten generative AI, dh LLM-Systeme einzusetzen. Das sei ein schlüpfriger Pfad, meint die Autorin Alissa Wilkinson.
Das beginnt dann zB mit so 'Harmlosigkeiten', wie das Generieren eines Voice-over Hintergrundkommentars mit der Stimme des Protagonisten durch ein AI-System. Oder es werden historische Personen durch AI-Systeme 'wieder zum Leben erweckt', ohne dass die künstliche Generierung erwähnt wird (bzw. maximal im Abspann). Oder es werden Zeitungsartikel oder historische Objekte 'nachgestellt' - ohne die künstliche Generierung deutlich zu erwähnen.
Die Autorin meint, bisher habe es eine ungeschriebene Regel gegeben, dass in Dokumentationen immer klar sein müsste, welche Bilder real sind und was nachträglich 'gestellt' ist. Historische Fotos oder gar Filme zu finden ist aufwendig - das Generieren mit Hilfe von LLM-Systemen ist daher eine große Versuchung für Dokumentarfilmer, schreibt sie.
Die ↑(opens in a new tab)Archival Producers Alliance hat ↑(opens in a new tab)Guidelines für die Nutzung generativer AI-Systeme veröffentlicht. So sollten alle entsprechenden Stellen deutlich als 'AI-generiert' markiert werden (und nicht erst im Abspann) - denn oft werden kurze Sequenzen eines Dokumentarfilms später ausgeschnitten und anderweitig verwendet.
Die Autorin befürchtet, dass wir eine Situation bekommen, bei der jegliche Filmaufnahme als 'Fake News' abgetan werden kann (↑(opens in a new tab)"liars divident") und die Realität komplett geleugnet wird. Immer mehr Menschen wissen, wie einfach heute Bilder und Filme generiert oder verändert werden können. Dh die Annahme, das Bild könnte auch gefälscht sein, ist immer realer. Die Menschheit verliert die etwas über 100 Jahre währende Sicherheit, dass Fotografien mit einer hohen Wahrscheinlichkeit die Realität wiederspiegeln.
Die Autorin befürchtet /erwartet, dass Streaming-Plattformen (und andere) einen riesigen (und lukrativen) Markt für Dokumentarfilme (zB ↑(opens in a new tab)True Crime-Dokumentationen [wiki]) schaffen werden. Dies könnte eine große Versuchung für Dokumentarfilmer sein, sich die Arbeit mittels generativer AI leicht zu machen und dabei Fake-News zu generieren (mit allen Vorurteilen und Clichés, die in den Trainingsdaten drin stecken).
Ergänzung Dez. 2025:
"↑(opens in a new tab)AI Slop" [wiki] flutet das Internet, generiert Milliarden von Klicks und spült Millionen in die Kassen anonymer Produzenten: ↑(opens in a new tab)Jedes fünfte YouTube-Video für neue Nutzer ist KI-Schrott.
Ergänzung Jan. 2026:
Evt. ist alles noch viel dramatischer: Wir versuchen der Flut an Fake-News mit Schulungen im Erkennen von Deepfakes zu kontern (zumindest für die zukünftigen Schulkinder), aber evt. hilft auch das Erkennen der Fakes nur bedingt.
In nature gibt es eine Studie dazu: ↑(opens in a new tab)The continued influence of AI-generated deepfake videos despite transparency warnings. Den Testpersonen wurden ein (fiktives) Video-Geständnis einer Person gezeigt. Die Testpersonen wurden informiert, dass das Video ein Deepfake sei und nicht der Realität entspräche. Dann wurde das Video gezeigt, danach folgten Interviews mit den Testpersonen. Von einer großen Zahl der Testpersonen wurde die Person als schuldig betrachtet, obwohl die Testpersonen bestätigten, dass der Inhalt des Geständnisses nicht real sei.
Das heißt, die Tatsache, dass wir nachträglich erfahren, dass gewisse Videos auch den USA oder aus ↑(opens in a new tab)Sachsen deep fakes sind, reduziert nur begrenzt die Wirkung der Videos bei der Meinungsbildung.
6. Ergänzungen früherer Beiträge
Palantir CEO Alex Karp und Kriegsverbrechen in der Karibik
In meinem früheren ausführlichen Artikel zu Palantir hatte ich bisher nur einen der Gründer behandelt, Peter Thiel. Aber ein weiterer wichtiger Gründer ist Alex Karp. Karp und Thiel sind von ihren Ideologien her sehr unterschiedlich. Alex Karp (heute der Chef von Palantir) hat bei Jürgen Habermas Philosophie studiert, gehört eher zum 'linken Spektrum' und hat nicht Trump, sondern Kamala Harris bei der US-Wahl unterstützt. Karp steht heute ideologisch im Kreise der Tech-Oligarchen ziemlich allein da. Der Falter berichtet in einem ausführlichen Artikel über ↑(opens in a new tab)Leben und Einstellung von Alex Karp (mit Probe-Abo zu lesen).
Soweit klingt das ja gar nicht so schlimm (mal von der Palantir-Software abgesehen). Aber nun hat Karp in einem Interview zu den ↑(opens in a new tab)Angriffen auf die angeblichen Drogenboote in der Karibik Stellung genommen. Nach Zählungen von US-Medien wurden dabei inzwischen mehr als 90 Menschen getötet. Diese Tötungen ohne Gerichtsverfahren oder Nachweisen (speziell wenn das Boot bereits zerstört ist) werden von vielen als Kriegsverbrechen gesehen. Aus Sicht von UN-Menschenrechtsexperten etwa verstößt die US-Regierung damit gegen das Völkerrecht.
Karp erklärte, dass eine mögliche Verfassungskonformität der Angriffe auf die Boote gut für das Geschäft von Palantir wäre. Oder wie gizmodo.com es formuliert: Palantir-CEO meint, ↑(opens in a new tab)es wäre gut fürs Geschäft, Kriegsverbrechen für verfassungskonform zu erklären.
Der Artikel ↑(opens in a new tab)Fluch der Karibik mit den Drohnen Trumps beschreibt die juristische Situation und warum Kriegsrecht keine Anwendung finden kann (die Karibik ist kein Kriegsgebiet und es bestand auch keine Gefahr für Leib und Leben durch die angeblichen 'Schmuggler'). Schmuggler sind Zivilisten, dh Nichtkombattanten und damit kein legitimes Ziel militärischer Aktionen. Selbst wenn Kriegsrecht anwendbar wäre, so wäre die bewusste Tötung der Überlebenden trotzdem ein Kriegsverbrechen. Ein Experte: "Drogenhandel ist ein Verbrechen, kein bewaffneter Konflikt. Bei den Angriffen handelt es sich um willkürliche Tötungen auf hoher See. Das sind extralegale Hinrichtungen.” Der Artikel beschreibt, wie der US-Drohnenkrieg bereits seit einigen früheren US-Präsidenten, wie zB ↑(opens in a new tab)Friedensnobelpreistäger Barack Obama [wiki], auf ↑(opens in a new tab)juristisch sehr dünnem Eis steht. Hier ein früherer Artikel von mir zum problematischen Drohnenkrieg.
Ergänzung März 2026:
In einem Interview hält Palantir-CEO Alex Karp seine Software für gefährlich, aber notwendig. Sie sei ↑(opens in a new tab)unverzichtbar um die "amerikanische Lebensweise" zu schützen. Was er wohl damit meint wird gleich im Anschluss im nächsten Abschnitt erklärt: AI zur Überwachung von potentiellen Gegnern der Trump-Politik. Karp erklärt dann die angeblichen gesellschaftspolitischen Ziele seiner Software: Eine Schwächung von liberalen Akademikerinnen und eine Stärkung weißer Männer aus der Arbeiterklasse.
Trump and MAGA like this 😆
Copyright-Streit Disney gegen OpenAI
Zu dem Urheberrechtsthema beim Training von generativen LLM-Systemen hat es gerade eine leicht bizarre Einigung gegeben. Disney hatte gegen OpenAI geklagt, weil in deren Sora Social Media Plattform immer wieder Disney-Figuren wie Micky Maus oder Sponge Bob verwendet werden - ein Copryight-Alptraum.
Die überraschende Lösung: Disney investiert eine Milliarde in OpenAI und dafür dürfen Disney-Figuren wie Micky Maus in Sora verwendet werden - Nein, das ist kein Tippfehler: ↑(opens in a new tab)Disney zahlt UND gibt seine Rechte auf. Geniale Lösung für OpenAI!
Aber das ist nicht die große Lösung für die offenen Urheberrechtsfragen für die generativen LLM-Systeme. Diese Systeme funktionieren nur, wenn sie sich das gesamte Wissen der Menschheit einverleiben können, alles was in den letzten 2000+ Jahren publiziert wurde.
Viele weitere Prozesse sind noch offen. Die optimale Lösung für die AI-Firmen: Sie möchten eine generelle Freigabe für Trainingszwecke als ↑(opens in a new tab)'Fair Use'-Nutzung [wiki]. Einge Länder, zB Großbritannien, scheinen bereit zu sein, ihnen da entgegen zu kommen.