Internet ist kaputt, und die KI hat ein Problem mit Frauen (Ausgabe 10)
Heute ist Internationaler Frauentag. Und ich beschäftige mich einmal damit, was es bedeutet, dass kaum Frauen an den KI-Systemen bauen, die immer mehr über uns entscheiden. Dazu wie immer ein bisschen Buch und Streaming.
Heute ist Internationaler Frauentag.
Und wie überall gibt es auch im Bereich KI massiv strukturelle Probleme, wenn es um die Gleichberechtigung geht. Man schaue einmal nur in alle großen KI-Unternehmen: die werden von Männern geführt. OpenAI: Sam Altman. Anthropic: Dario Amodei. xAI: Elon Musk. Meta: Mark Zuckerberg. Amazon: Andy Jassy. Das ist keine schlechte Laune des Schicksals – das ist Struktur. Frauen stellen weltweit gerade mal ein Fünftel der KI-Fachkräfte, und ihr Anteil sinkt, je höher man in den Hierarchien schaut.
Das klingt nach einem HR-Problem. Ist es aber nicht nur.
KI-Modelle sind nicht nur in ihrer Technologie männlich geprägt, sondern auch in ihren Trainingsdaten.
Studien und feministische Technikforschung zeigen, dass die Machtasymmetrien und die Unterrepräsentation von Frauen systematisch in Daten, Modellen und Anwendungen eingeschrieben werden – und so patriarchale Strukturen nicht nur abbilden, sondern verstärken.
Mit eben diesen Problemen beschäftigen sich die ersten drei Artikel in dieser Ausgabe. Und kratzen indes nur an der Oberfläche. Aber vor allem wir Männer sollten uns damit beschäftigen – und schauen, wo wir gegensteuern können. „Feministische KI“ ist kein einzelnes Produkt, sondern Perspektive und Gestaltungsprinzip – und das können wir alle begreifen und beeinflussen (betrifft übrigens neben Frauen auch Randgruppen wie queere Personen, BIPoC etc.).
'Internet ist kaputt' ist mein kleiner Beitrag zur Rebellion gegen die Enshittification des Internets. Hier ist, womit ich meine Woche verbracht habe: Gelesen, Gesehen, Gehört. Du kannst per Blog, RSS oder Substack folgen.
Meine Artikel der Woche
1 | Das Geschlecht des Algorithmus
Die TU Delft betreibt ein „Feminist Generative AI Lab" – ein Forschungslabor, das explizit von einem feministischen Ansatz ausgeht. Klingt erstmal akademisch, ist aber handfest: Wer entscheidet, welche Daten gesammelt werden? Wer definiert, was ein „gutes" KI-Ergebnis ist? Wessen Lebensrealität fließt überhaupt in die Modelle ein?
Forscherin Sara Colombo nennt das Konzept dahinter „Data Feminism": keine feministische Nische, sondern eine Kritik an dem Anspruch, Daten seien neutral. Sie sind es nämlich nicht. Sie spiegeln die Perspektiven derer wider, die sie zusammengestellt haben – und das sind selten Frauen.
Ein Beispiel, das mich nicht losgelassen hat: Colombo hat ein Large Language Model gebeten, Namen für Ärzte und Pflegepersonal zu generieren. Ärzte: männliche Namen. Pflegepersonal: weibliche Namen. Das Modell hat schlicht reproduziert, was in den Trainingsdaten stand.
„Feminist AI" ist damit kein Produkt und keine politische Agenda – sondern eine schlichte Aufgabe der Sichtbarkeit und Gleichberechtigung. (TU Delft)
2 | Die fehlenden 78 Prozent
Frauen stellen 22 Prozent der KI-Fachkräfte weltweit. Gerade einmal.
Das ist nicht nur ein Diversitätsproblem – es ist ein Qualitätsproblem!
Weniger Perspektiven im Team bedeuten nämlich Lücken im Modell. Und Lücken treffen in der Praxis immer die, die ohnehin weniger Macht haben: Frauen, marginalisierte Gruppen, Menschen, die nicht dem trainierten Standard entsprechen.
SheCanCode bringt das auf eine einfache Formel: KI ist nur so gut wie die Daten, auf denen sie trainiert wurde – und nur so fair wie das Team, das sie baut. Wer das nicht versteht, baut weiter Systeme, die für alle nicht-weiß-männlichen Menschen suboptimal sind. (SheCanCode)
3 | Warum Siri immer schon die Assistentin war
Im Jahr 2024 gab es weltweit mehr als 8 Milliarden KI-Sprachassistenten, die bspw. in Geräten verbaut waren – mehr als einen pro Mensch. Und nahezu alle werden als weiblich gelesen, weil sie weibliche Namen und Stimmen haben. Und eine unterwürfige Persönlichkeit gleich dazu. Das ist ein Problem.
Siri ist ein schwedischer Frauenname, der so viel bedeutet wie „schöne Frau, die dich zum Sieg führt". IBMs Watson for Oncology – ein KI-System für Ärzte – bekam hingegen eine männliche Stimme. Ob so gewollt oder nicht, aber die Botschaft dahinter ist wenig subtil: Frauen dienen, Männer entscheiden.
Das ist nicht nur Symbolik. Eine Studie von 2025 fand, dass bis zu 50 Prozent der Interaktionen mit feminisierten KI-Systemen verbale Übergriffe enthielten. Die brasilianische Bradesco-Bank meldete 95.000 sexuell belästigende Nachrichten an ihren weiblichen Chatbot – in einem einzigen Jahr!
Man könnte sagen: Das sind Menschen, die sich schlecht benehmen, nicht die KI. Aber die Designentscheidungen – weibliche Stimme, servile Antworten, spielerische Ausweichreaktionen – schaffen erst die Umgebung, in der genau das normalisiert wird. Das ist keine Kleinigkeit. (The Conversation)
4 | Kriegs-KI: OpenAI mit Problemen
Die Geschichte um Anthropic und das Pentagon geht weiter – und hat heute eine neue Wendung bekommen.
Anthropic wurde aus dem Pentagon-Vertrag gekickt, weil die Firma ihre KI nicht für Massenüberwachung und autonome Waffen freigeben wollte. Trump nannte das „radikal links, woke". OpenAI sprang liebend gern ein – und bekommt in den letzten Tagen von der Öffentlichkeit ordentlich Haue, u.a. über die Aktion #QuitGPT.
Genau deswegen gehen nun auch Angestellte. So hat Caitlin Kalinowski, Leiterin für Robotik und Hardware bei OpenAI, ihren Rücktritt bekanntgegeben. Ihr Vorwurf: OpenAI habe den Pentagon-Deal zu schnell durchgewinkt, ohne die Sicherheitsleitplanken vorher ordentlich zu definieren. „Überwachung von Amerikanern ohne richterliche Aufsicht und tödliche Autonomie ohne menschliche Autorisierung sind Grenzen, die mehr Überlegung verdient hätten", schreibt sie.
Passt aber dummerweise genau in unser Thema heute: hier geht eine interne Stimme des Gewissens bei OpenAI – eine Frau. (RND, Zeit, Forbes)
5 | Sexarbeiter:innen schützen, Freier bestrafen?
Die CDU fordert zum Frauentag ein Sexkaufverbot nach dem Nordischen Modell: Freier und Zuhälter werden bestraft, Sexarbeiterinnen selbst bleiben straffrei. Die Logik: Kriminalisiert man die Nachfrage, verschwindet das Angebot.
Ich bin, ehrlich gesagt, hin- und hergerissen. Ja, ohne Zweifel weist die Branche ein massives Machtgefälle auf – Zwangsprostitution ist real und muss bekämpft werden. Das Problem ist aber: Wir können gesellschaftlich nicht so tun, als wäre Sex einfach ein "Nice to have", das man verbannen kann. Wir müssten das Thema einmal realistisch diskutieren: Sexualität ist ein Grundbedürfnis – und die Dienstleistung (egal ob für Männer oder Frauen) ist seit Tausenden Jahren nicht wegzubekommen. Die Frage ist: Gibt es ein Modell, das Sexarbeiter:innen die Macht gibt, freiwillig und selbstbestimmt?
Mal kühn gefragt: Muss man Sex als Dienstleistung staatlich sichern, statt zu verbieten?
Das Nordische Modell gilt als Vorzeigesystem, aber fragt man Sexarbeiter:innen selbst, zeigen sich Lücken. In Frankreich, Irland und Norwegen stiegen nach Einführung des Nordischen Modells die Gewalt, die Armut und die Abhängigkeit von Dritten. Irland: plus 92 Prozent gemeldete Gewalttaten im ersten Jahr. Das Modell reduziert Sexarbeit nicht – es macht sie gefährlicher, weil sie aus der Sichtbarkeit rutscht. (Zeit, SwarmCollective)
Dazu passt ein großes ZEIT-Magazin-Porträt dieser Woche: Drei OnlyFans-Creator:innen – eine Influencerin, eine Ingenieurin, ein Jazzmusiker – berichten über ihren Alltag auf der Plattform. In Schweden ist übrigens selbst virtueller Sexkauf mittlerweile illegal, wenn er "auf Bestellung" erfolgt, bspw. in Form von Livestreams, auf die Nutzer:innen direkt Einfluss haben. (Zeit (Geschenkartikel), SPIEGEL (Schweden))
Diese Woche gelernt
Wer jeden Tag 10 Minuten bei der Arbeit auf dem Klo verbringt, wird am Ende des Jahres für 42 Stunden auf dem Klo bezahlt. Eat this, Friedrich Merz!
Im Durchschnitt sind im menschlichen Blutkreislauf 0,2 mg Gold enthalten. Jeder Serienkiller hätte aber ordentlich zu tun, sollte es nur für eine kleine Zahngold-Füllung reichen, dafür braucht es mindestens 500 mg. Die Frage ist also einfach zu berechnen (2500). (MDR)
Diese Woche im Buch
Wenig Zeit diese Woche, deshalb der Verweis auf ein "altes" Buch, das mich letztes Jahr begeistert hat und das auch gerade in die Zeit passt, in der VW und das China-Geschäft der meisten Autohersteller in China viel diskutiert werden: In 'China, mein Vater und ich' setzt Felix Lee seinem Vater ein kleines Denkmal. Der wurde in China geboren, kam nach Deutschland und befand sich aufgrund seiner Herkunft als Ingenieur bei Volkswagen plötzlich in der Geschichte wieder, wie VW durch Zufall ein Milliardengeschäft in China etabliert und über Jahrzehnte hält. Es ist eine Geschichte, die Lee in einem wirklich berauschenden Tempo erzählt; wer sich für China, Politik und (Automobil-)Wirtschaft interessiert bekommt hier ein fantastisches Stück Zeitgeschichte präsentiert. Ob die alleinige Rolle des Vaters dann immer wirklich ganz so groß ist, wie beschrieben, ist dann fast nebensächlich.
Diese Woche gesehen
Ich habe mit 'Dead Like Me' angefangen – eine kleine Serie von Anfang des Jahrhunderts (wie das klingt!), entwickelt von Bryan Fuller. Die meiste Zeit diese Woche habe ich aber tatsächlich mit den letzten 2 Episoden der achten 'Formula 1: Drive to Survive'-Staffel und dem ersten Renn-Wochenende der Formel 1 verbracht.
Dein Kommentar