Auch ChatGPT ist nicht frei von sexistischen Mustern. [Foto: Anna Olivia Böke]
KI reproduziert menschliches Wissen und Verhaltensweisen. Es ist also kein Wunder, dass auch Computer patriarchale Verhaltensmuster an den Tag legen. Wie sexistisch sind die künstlichen Intelligenzen, die wir benutzen und woher kommt dieser Bias? Ein neues Forschungsprojekt an der UDE befasst sich mit frauenfeindlichem Verhalten in digitalen Chats.
Von Alltagssexismus bis böswilligem Missbrauch – mit neuen Technologien gehen auch altbekannte gesellschaftliche Probleme einher. So erschreckend wie erwartbar ist es, dass sich mit der allgemeinen Zugänglichkeit von KI auch Männer an Chatbots wenden, um Machtfantasien und misogynes Verhalten auszuleben. Ein Artikel von Futurism entblößte die beunruhigende Realität, dass KI-gestützte Chatbots, wie die App Replika, nicht nur als emotionale Begleiter genutzt werden, sondern auch Schauplatz für missbräuchliches Verhalten sind. Solche Plattformen erlauben es Nutzer:innen, virtuelle Partner:innen zu dominieren und beleidigende oder sexistische Interaktionen auszuleben, was potenziell gefährliche Geschlechterdynamiken verstärken kann. Dies wirft dringende Fragen über Ethik, Regulierung und die langfristigen Auswirkungen solcher Technologien auf Geschlechterverhältnisse auf.
Woher kommt der Bias in der KI?
Gender Bias in KI entsteht durch verzerrte Datensätze und unausgewogene Entwicklungsteams. Laut einer Studie der Universität Koblenz ist ChatGPT, eines der bekanntesten KI-Modelle, nicht frei von sexistischen Mustern. Analysen zeigen, dass Sprachmodelle häufiger männliche Stereotype mit professionellen Berufen und weibliche Stereotype mit häuslichen Rollen verknüpfen. Dies liegt daran, dass diese KI-Modelle mit historischen Daten trainiert werden, die patriarchale Strukturen widerspiegeln und somit weitergeben.
Ein weiteres Problem besteht darin, dass Entwicklungsteams oft homogen zusammengesetzt sind. Leena Simon beschreibt in ihrer Abhandlung Gewaltpotenzial von KI, dass fehlende Diversität in der Entwicklung von Algorithmen dazu führt, dass geschlechtsspezifische Diskriminierung unkritisch in den Technologien verankert wird.
Gefahren für Frauen und gesellschaftliche Konsequenzen
Die Auswirkungen sind nicht nur theoretisch: Laut einer Pressemitteilung des Bundeskriminalamts (BKA) finden Frauenfeindlichkeit und digitale Gewalt neue Ausdrucksformen durch KI. Hasskommentare, die auf Frauen abzielen, werden durch algorithmische Inhalte oft weiter verbreitet, da solche Systeme auf Engagement und nicht auf ethische Kriterien optimiert sind. Dadurch werden frauenfeindliche Narrative verstärkt und normalisiert.
Ein Bericht der Tagesschau warnt ebenfalls vor den Risiken, die durch den Einsatz solcher Technologien entstehen. Gerade in sozialen Netzwerken und digitalen Räumen führen unregulierte KI-Systeme dazu, dass Frauen in diesen Umgebungen verstärkt angegriffen oder ausgeschlossen werden. Ein Beispiel hierfür sind Sprachassistenten, die sexistische oder beleidigende Sprache nicht konsequent moderieren.
Was kann getan werden?
Trotz der Probleme gibt es Wege, KI-Modelle gerechter und inklusiver zu gestalten. Eine Möglichkeit besteht darin, Trainingsdaten gezielt zu diversifizieren und Algorithmen darauf zu programmieren, Verzerrungen zu erkennen und zu minimieren. Die Universität des Saarlandes schlägt in einer ihrer Studien vor, dass Regierungen und Institutionen klare Regularien für die Entwicklung und den Einsatz von KI schaffen müssen, um Diskriminierung zu verhindern.
Die Diskussion über KI und Misogynie zeigt, wie wichtig es ist, neue Technologien kritisch zu hinterfragen. KI bietet zweifellos enormes Potenzial, kann jedoch (ohne angemessene Regulierung und Bewusstseinsbildung) bestehende gesellschaftliche Ungerechtigkeiten verstärken. Studierende, Entwickler:innen und politische Entscheidungsträger:innen tragen gemeinsam die Verantwortung, diese Entwicklungen zu steuern und für eine gerechtere digitale Zukunft zu sorgen.
Darüber hinaus ist eine stärkere Beteiligung von Frauen und marginalisierten Gruppen in der KI-Entwicklung entscheidend, um die Perspektivenvielfalt zu erhöhen. Bildungsinitiativen wie das Forschungsprojekt Chat Misogynie an der UDE, das untersucht wie sich frauenfeindliches Verhalten in der Chat-Kommunikation äußert, könnten langfristig dazu beitragen, das Bewusstsein für die ethischen Dimensionen digitaler Räume zu stärken und Missbrauch zu verhindern.
Das Forschungsprojekt der UDE sucht dringend nach anonymisierten Daten. Alle Informationen werden streng vertraulich behandelt. Ihr könnt diese hier über die Projektseite hochladen. Bei Fragen könnt ihr euch auch über Instagram @chatmisogynie bei Vanessa Angenendt und Dr. Maximilian Krug melden.