Künstliche Intelligenz und Vorurteile – in einfacher Sprache

Künstliche Intelligenz ist ein Teil unseres Lebens. Wir begegnen ihr beim Einkaufen im Internet. Auch beim Spazierengehen oder bei der Wohnungssuche ist sie oft dabei. Sie schlägt uns Produkte vor oder übersetzt Texte. Sie beantwortet Fragen und erstellt Bilder. Viele Menschen finden das hilfreich. Manche glauben sogar, dass sie neutral ist. Doch das stimmt nicht.

Warum Künstliche Intelligenz nicht neutral ist

Künstliche Intelligenz ist nicht neutral. Sie übernimmt die Werte und Meinungen der Menschen, die sie gemacht haben. Diese Menschen bringen unbewusst ihre Sichtweisen in die Systeme ein. Künstliche Intelligenz lernt aus vielen Daten. Diese Daten zeigen oft einseitige Bilder. In der Realität gibt es viele Vorurteile. Diese Vorurteile stecken auch in den Daten. Die Systeme übernehmen sie, ohne sie zu hinterfragen. Das hat Folgen für viele Menschen.

Wie Vorurteile in die Systeme gelangen

Die Vorurteile kommen durch die Trainingsdaten in die Systeme. In diesen Daten steht zum Beispiel oft, dass Chefs Männer sind. Oder dass Frauen weniger verdienen. Auch Menschen mit dunkler Hautfarbe sind oft benachteiligt. Künstliche Intelligenz lernt diese Muster und wendet sie an. Das geschieht automatisch, ohne Verständnis für den sozialen Zusammenhang.

Beispiele aus der Praxis

Ein bekanntes Beispiel kommt von der Firma Amazon. Diese Firma nutzte ein Computerprogramm, um Bewerbungen zu bewerten. Das Programm sollte gute Bewerberinnen und Bewerber erkennen. Es lernte aber nur aus alten Daten. In diesen Daten waren fast nur Männer erfolgreich. Deshalb bewertete das Programm Bewerbungen von Frauen schlechter. Frauen hatten also weniger Chancen auf eine Einladung zum Gespräch.

Ein weiteres Beispiel ist die Gesichtserkennung. Diese Technik wird zum Beispiel von der Polizei oder an Flughäfen genutzt. Die Technik erkennt Gesichter auf Fotos oder Videos. Studien zeigen aber: Menschen mit dunkler Haut werden von der Technik schlechter erkannt. Es gibt häufiger Fehler bei der Erkennung. Das kann dazu führen, dass Menschen zu Unrecht verdächtigt werden.

Auch bei Kreditkarten gab es Probleme. Ein Beispiel ist die Apple Card. Diese Karte wurde Menschen mit ähnlichem Einkommen angeboten. Frauen bekamen dabei oft weniger Kredit als Männer. Das System hatte ungerechte Regeln übernommen. Es beurteilte Frauen schlechter, obwohl sie genauso viel Geld hatten wie Männer.

Diese Beispiele zeigen deutlich: Künstliche Intelligenz erkennt Muster. Aber sie versteht nicht, was fair oder gerecht ist. Sie trifft Entscheidungen nur auf Grundlage von Daten. Wenn die Daten ungerecht sind, sind auch die Ergebnisse ungerecht.

Einfluss durch Prompts und Entwickler-Teams

Die Systeme werden von Menschen programmiert. Diese Menschen entscheiden, wie die Systeme antworten. Sie geben sogenannte Prompts ein. Diese Prompts bestimmen, wie die Künstliche Intelligenz antwortet. Nutzerinnen und Nutzer sehen diese Vorgaben nicht. Trotzdem haben sie große Wirkung. Auch die Menschen, die die Systeme entwickeln, sind wichtig. Wenn fast nur Männer mit ähnlichem Hintergrund daran arbeiten, fehlen wichtige Sichtweisen. Dann entstehen blinde Flecken. Die Systeme werden einseitig.

Verantwortung der Nutzerinnen und Nutzer

Aber auch die Nutzerinnen und Nutzer haben Verantwortung. Viele Menschen haben feste Vorstellungen im Kopf. Zum Beispiel denken viele, dass ein Chef ein weißer Mann im Anzug ist. Wenn wir solche Bilder oft sehen, halten wir sie für normal. Das nennt man „Confirmation Bias. Das ist Englisch und bedeutet „Bestätigungsfehler. Wir suchen dann nach Informationen, die unsere Meinung bestätigen. Künstliche Intelligenz verstärkt diesen Effekt. Wenn wir ihr immer ähnliche Fragen stellen, bekommen wir auch immer ähnliche Antworten. Sie zeigt uns dann nur, was wir erwarten. Das kann gefährlich sein. Die KI wird so zu einem Spiegel, der Vorurteile verstärkt.

Vielfalt bewusst einfordern

Wir können die Systeme aber auch gezielt für mehr Vielfalt nutzen. Künstliche Intelligenz reagiert auf unsere Fragen. Wenn wir klug fragen, bekommen wir vielfältige Antworten. Zum Beispiel: Statt zu sagen „Zeige eine Familie“, können wir sagen „Zeige eine Familie mit Menschen unterschiedlicher Hautfarbe, verschiedener Altersgruppen und Geschlechter“. Mit solchen Fragen zeigen wir der KI, dass wir Vielfalt wichtig finden. Die KI lernt aus vielen Daten. Sie zeigt meist das, was häufig vorkommt. Das sind meist stereotype Bilder. Diese Bilder zeigen oft nur weiße, junge oder männliche Personen. Andere Lebensrealitäten fehlen.

Auch Reflexionsfragen helfen. Zum Beispiel: „Welche Sichtweisen fehlen in deiner Antwort?“ oder „Wen stellst du gerade nicht dar?“ Solche Fragen helfen, blinde Flecken sichtbar zu machen. Sie zeigen, dass wir eine bewusste Haltung zur Vielfalt haben. Das macht die Nutzung von KI besser und gerechter.

Studien zu Vorurteilen durch KI

Eine Studie der UNESCO aus dem Jahr 2024 zeigt: Künstliche Intelligenz verstärkt Vorurteile. Die UNESCO ist eine Organisation der Vereinten Nationen. Sie kümmert sich um Bildung, Wissenschaft und Kultur auf der ganzen Welt. Die Studie stellt fest: Frauen werden oft als weniger kompetent gezeigt. Menschen mit anderer Hautfarbe oder sexueller Orientierung werden benachteiligt. Sie kommen seltener vor oder werden schlecht dargestellt.

Drei Ebenen der Verantwortung

Wir brauchen Verantwortung auf drei Ebenen. Erstens: die technische Verantwortung. Entwicklerinnen und Entwickler müssen in vielfältigen Teams arbeiten. Sie sollen gute und faire Daten nutzen. Und sie müssen ihre Systeme regelmäßig prüfen. Zweitens: die gesellschaftliche Verantwortung. Nutzerinnen und Nutzer müssen kritisch denken. Sie sollen die KI nicht einfach benutzen, sondern genau hinschauen. Drittens: die politische Verantwortung. Es braucht klare Regeln und Gesetze. Diese sollen faire und inklusive Systeme fördern.

Künstliche Intelligenz ist kein Ersatz für unser Denken. Sie kann helfen, wenn wir sie richtig nutzen. Wer Vielfalt sehen will, muss Vielfalt einfordern. Wir entscheiden mit jeder Frage, was die Systeme lernen. So können wir mithelfen, die Welt gerechter zu machen.

Dieser Text wurde von einer Künstlichen Intelligenz (KI) in einfacher Sprache geschrieben.
Er basiert auf einem längeren und schwieriger geschriebenen Artikel.
Den Original-Artikel findet ihr hier:
https://wir-mit-ki.de/ki-vorurteile-und-verantwortung-wie-wir-diskriminierungssensible-systeme-gestalten-koennen/

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert