KI, Vorurteile und Verantwortung – Wie wir diskriminierungssensible Systeme gestalten können

Dieser Beitrag ist im Rahmen des AI Impact Workshops zu stereotypen Diskriminierungen am 08.05.2025 mit Mike Breitbart vom Zentrum Bildung der EKHN entstanden

Ob beim Spaziergang durch die Stadt, bei der Wohnungssuche im Netz oder beim Online-Shopping – Künstliche Intelligenz (KI) ist längst Teil unseres Alltags. Sie schlägt uns passende Produkte vor, erstellt Bilder, übersetzt Texte in Sekundenschnelle oder beantwortet Fragen über Sprachmodelle wie ChatGPT. Was im Alltag oft als praktische Unterstützung oder clevere Hilfe erscheint, wird schnell für neutral gehalten – dabei ist genau das ein Trugschluss.

KI-Systeme sind nicht neutral – sie spiegeln die Wertesysteme, Vorannahmen und Vorurteile ihrer Entwickler*innen und der zugrunde liegenden Trainingsdaten wider. Sie übernehmen stereotype Muster, die aus gesellschaftlicher Realität stammen, und verfestigen diese – oft unbemerkt, aber mit spürbaren Konsequenzen für die Lebenswirklichkeit vieler Menschen.

Was aber bedeutet das konkret? Wie genau gelangen diese Verzerrungen in KI-Systeme? Welche Verantwortung tragen Entwicklerinnen – und auch Nutzerinnen? Und wie können wir KI so einsetzen, dass sie gesellschaftliche Vielfalt abbildet statt sie zu verzerren? Dieser Text geht diesen Fragen nach und zeigt Strategien für eine diskriminierungssensible KI-Nutzung auf.

Wie Bias in Künstlicher Intelligenz entsteht

KI-Modelle basieren auf riesigen Datenmengen, die aus unserer gesellschaftlichen Realität stammen. Diese Realität ist jedoch durchzogen von Ungleichheiten, Vorannahmen und Stereotypen. Wenn KI-Systeme aus solchen Daten lernen, übernehmen sie nicht nur Fakten, sondern auch soziale Verzerrungen. Stereotype Muster entstehen nicht erst im System, sondern werden in Form von unausgewogenen Darstellungen, diskriminierenden Sprachmustern oder einseitigen Kategorisierungen direkt in die Trainingsdaten eingeschrieben – oft unbemerkt, aber mit nachhaltiger Wirkung.
Maschinen lernen also aus Texten, Bildern oder anderen Datenquellen, in denen beispielsweise Führungskräfte fast ausschließlich männlich und weiß dargestellt werden. Sie übernehmen Begriffe und Formulierungen, die bestimmte Gruppen benachteiligen oder unsichtbar machen.
Bekannte Beispiele verdeutlichen die Auswirkungen solcher Verzerrungen in der Praxis:

  • Amazons Recruiting-KI bewertete Bewerbungen von Frauen systematisch schlechter, weil das Trainingsmaterial fast ausschließlich männlich geprägte Karriereverläufe enthielt.
  • Gesichtserkennungssysteme zeigten bei dunkelhäutigen Personen deutlich höhere Fehlerraten als bei weißen Personen – mit teils gravierenden Folgen im Sicherheitsbereich.
  • Die Apple Card gewährte Frauen geringere Kreditlimits als Männern, obwohl sie über vergleichbare finanzielle Voraussetzungen verfügten.

Diese Beispiele zeigen: KI erkennt zwar Muster, versteht aber keinn gesellschaftlichen Kontext. Die Systeme analysieren Korrelationen, ohne die Bedeutungen oder Diskriminierungsrisiken zu erfassen. Hinzu kommt, dass sogenannte Systemprompts – das sind systeminterne Anweisungen und Voreinstellungen, die festlegen, wie ein KI-Modell auf bestimmte Anfragen reagiert – erheblichen Einfluss auf die Ergebnisse haben. Sie bestimmen unter anderem, welche Themen priorisiert oder welche Formulierungen vermieden werden. Diese Prompts sind meist unsichtbar für die Nutzer*innen, können aber entscheidend dafür sein, ob eine Antwort stereotypen Mustern folgt oder Vielfalt abbildet. Auch die Zusammensetzung der Entwicklerteams spielt eine zentrale Rolle: Sind diese homogen – etwa überwiegend männlich, weiß und akademisch geprägt – fehlen diverse Perspektiven. Das Risiko, blinde Flecken und Vorurteile zu reproduzieren, steigt dadurch erheblich.

Wie Nutzer*innen den Bias selbst verstärken

Nicht nur die Technik selbst trägt Verzerrungen in sich. Auch wir als Nutzer*innen sind Teil des Problems – schließlich sind wir alle nicht frei von Vorurteilen. Ein zentrales Phänomen ist der sogenannte Confirmation Bias: die Tendenz, Informationen so auszuwählen und zu interpretieren, dass sie bestehende Überzeugungen und Wertemuster bestätigen. Wer in seinem Kopf bestimmte Bilder abgespeichert hat – etwa vom „typischen Chef“ als weißem Mann im Anzug – wird genau solche Darstellungen auch unbewusst als normal empfinden.

KI-Modelle wie ChatGPT lernen aus dem, was wir ihnen zeigen – und wie wir mit ihnen umgehen. Wer immer wieder ähnliche Fragen stellt, bekommt ähnliche Antworten. Die Gefahr: Die KI wird zur Echokammer. Sie reflektiert nicht nur unsere Erwartungen, sondern bestärkt sie – wie ein Spiegel, der nicht nur zeigt, was ist, sondern das Bild überzeichnet zurückwirft.

Wer Vielfalt sehen will, muss sie bewusst einfordern. Hier helfen sogenannte „sensible Prompts“. Anstatt von einer „normalen Familie“ zu sprechen, lässt sich gezielt formulieren: „Erstelle ein Bild einer Familie mit verschiedenen Konstellationen, Hautfarben, Altersstufen und Geschlechtern.“

Auch Reflexionsfragen an die KI können helfen, blinde Flecken sichtbar zu machen: „Welche Perspektiven fehlen in deiner Darstellung?“ oder „Welche möglichen Probleme siehst du selbst?“ – Solche Nachfragen öffnen den Raum für mehr Vielfalt und zeigen, dass es auch beim Umgang mit KI auf unsere Haltung ankommt.

Stereotype Reproduktion im Alltag

Dass diese Verzerrungen keine Theorie sind, zeigen zahlreiche Untersuchungen. Eine Analyse der UNESCO aus dem Jahr 2024 stellte fest, dass große Sprachmodelle wie ChatGPT und andere systematisch genderbezogene, rassistische und homophobe Stereotype reproduzieren.
KI-generierte Inhalte können dadurch Diskriminierung verstärken:

  • Frauen werden als weniger kompetent oder vor allem in häuslichen Rollen dargestellt.
  • BIPoC-Personen werden entweder ignoriert oder stereotyp dargestellt.
  • Menschen mit abweichender sexueller Orientierung werden unsichtbar gemacht oder diskriminierend beschrieben.
    Diese Beispiele zeigen, dass KI die Vielfalt der Gesellschaft nicht von selbst abbildet. Hier braucht es bewusste Steuerung und ein Bewusstsein für die stereotypischen Muster von KI-Systemen – sowohl auf technischer als auch auf gesellschaftlicher Ebene.

Verantwortung in Entwicklung und Anwendung

Verzerrungen entstehen nicht nur durch Daten, sondern auch durch Designentscheidungen. So können bestimmte Optimierungsziele – etwa maximale Reichweite oder Nutzerbindung – dazu führen, dass polarisierende Inhalte bevorzugt werden. Ein weiterer Einflussfaktor sind sogenannte „Systemprompts“ – Anweisungen, die das Verhalten der KI steuern. Hier entscheidet sich, welche Informationen die KI berücksichtigt und welche ausgeblendet werden. Fehlende Transparenz und verdeckte Verzerrungen in der Entwicklung verstärken diese Effekte.

Verantwortung bedeutet also nicht nur, gute Daten zu nutzen, sondern auch, Vielfalt im Entwicklerteam zu fördern und die Systeme kontinuierlich zu überprüfen. Denn nur ein diverses Team bringt auch eine Vielfalt an Erfahrungen, Blickwinkeln und Lebensrealitäten mit. Wo unterschiedliche Perspektiven zusammentreffen, entstehen andere Fragen, sensiblere Entscheidungsprozesse – und eine kritischere Auseinandersetzung mit potenziellen Verzerrungen. Ein diverses Team wirkt wie ein Schutzfilter gegen blinde Flecken: Es ist wahrscheinlicher, dass diskriminierende Strukturen auffallen, wenn Menschen mit unterschiedlichen Hintergründen gemeinsam an Lösungen arbeiten. Wer KI für alle bauen will, muss auch alle im Blick haben – und das beginnt bei den Menschen, die die Systeme entwickeln.

Strategien für eine diskriminierungssensible KI-Nutzung

Der Umgang mit Künstlicher Intelligenz ist kein rein technischer Vorgang – er ist eine Frage der Haltung. Wer glaubt, KI sei automatisch fair, unterschätzt, wie stark unsere eigenen Vorannahmen in die Ergebnisse einfließen. Deshalb beginnt diskriminierungssensible KI-Nutzung bei uns selbst – bei dem Bewusstsein dafür, dass wir mit jeder Anfrage, jedem Prompt und jeder Reaktion mitgestalten, was die KI für normal, relevant oder sichtbar hält.
Wer Vielfalt sehen will, muss sie bewusst einfordern. Denn ohne klare Impulse übernimmt die KI nur, was in den Daten am lautesten vertreten ist – und das sind oft stereotype Vorstellungen. Wer dagegen aktiv andere Perspektiven einbringt, kann dazu beitragen, dass KI nicht nur Bestehendes reproduziert, sondern neue Sichtweisen ermöglicht.
Das gelingt durch:

  • Vielfältige Prompts: gezielte Aufforderungen an die KI, verschiedene Perspektiven einzubeziehen.
  • Reflexionsfragen: die KI um Einschätzungen zu möglichen Verzerrungen bitten.
  • Bewusste Nutzung: sich nicht auf die erste Antwort verlassen, sondern gezielt nach Alternativen suchen. KI ist kein Ersatz für kritisches Denken. Sie kann ein Werkzeug sein, um neue Perspektiven zu entdecken – wenn wir sie dazu auffordern.

Künstliche Intelligenz ist weder objektiv noch neutral. Sie spiegelt die Werte und Vorurteile unserer Gesellschaft. Genau darin liegt die Chance – und die Herausforderung. Wenn wir lernen, verantwortungsvoll mit KI umzugehen, können wir Vielfalt sichtbar machen und Diskriminierung abbauen.

Dazu braucht es technische Verantwortung – etwa durch vielfältige Entwicklerteams, die ihre unterschiedlichen Erfahrungen und Perspektiven in die Systemgestaltung einbringen und auf gute, ausgewogene Daten achten. Ebenso entscheidend ist die gesellschaftliche Verantwortung: Nutzer*innen müssen lernen, KI bewusst, kritisch und reflektiert einzusetzen. Schließlich braucht es politische Verantwortung – also klare gesetzliche Rahmenbedingungen und verbindliche Standards, die faire und inklusive Systeme fördern.

Der Weg zu einer gerechteren KI beginnt bei uns selbst – mit jedem Prompt, jeder Frage und jeder Entscheidung, Vielfalt einzufordern und zu fördern.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert