Die KI braucht ein Anti-Bias-Training!

Die Frage, ob die Nutzung von Künstlicher Intelligenz (KI) unsere Biases, Stereotypen und Vorurteile verstärkt, ist eine topaktuelle Debatte. Denn es ist Tatsache, dass KI-Systeme diskriminieren und das gleich aus mehreren Gründen:

Bias in Data

Da gibt es die Bias in Data – also die Datenverzerrung: Jedes KI-System lernt aus Daten, die wir Menschen generieren und sammeln. Wenn diese Daten verzerrt sind – beispielsweise durch überproportionale Vertretung bestimmter Gruppen oder durch historische Ungleichheiten – spiegeln die von der KI erzeugten Ergebnisse diese Verzerrungen wider.

Ein Beispiel dafür ist Gesichtserkennungssoftware. Einige Systeme dieser Art wurden primär mit Bildern von hellhäutigen Männern trainiert, weil diese in den zur Verfügung stehenden Datensätzen überrepräsentiert waren. Dies führte dazu, dass die Algorithmen Gesichter von Frauen und Menschen mit dunklerer Hautfarbe wesentlich schlechter erkennen und klassifizieren konnten. So ergab 2018 eine Studie des MIT Media Lab, dass kommerzielle Gesichtserkennungssysteme von führenden Tech-Unternehmen bei dunkelhäutigen Frauen Fehlerquoten von bis zu 34,7 % hatten, während die Fehlerquote bei hellhäutigen Männern unter 1 % lag. Das heißt, einige Systeme hätten für diese Frauen genauso gut das Geschlecht nach dem Zufallsprinzip erraten können! 

Hier hat sich schon etwas in die richtige Richtung getan, sprich, es werden vielfältigere und ausgewogenere Datensätze für das Training der Algorithmen eingesetzt. Zudem werden strengere Tests über verschiedene demografische Gruppen hinweg durchgeführt, um sicherzustellen, dass die KI ‚fairer‘ agiert.

Bias in Algorithms

Dann gibt es die Bias in Algorithms, also die Verzerrungen, die im Aufbau eines Algorithmus selbst zu Verzerrungen führen. Auch hier ist die Datengrundlage der Ausgang: Basieren diese Daten auf veralteten Annahmen, werden auch genau diese wieder reproduziert. Um diese Biases zu finden, ist das Einbeziehen von Expert*innen aus verschiedenen Fachgebieten sinnvoll, um die Algorithmen auf unbewusste Bias hin zu analysieren und dann kontinuierlich zu verbessern.

Ungünstige Feedbackschleifen durch KI

KI-Systeme, die in Echtzeit lernen und sich anpassen, können äußerst ungünstige Feedbackschleifen erzeugen. Hierfür ist ein prägnantes Beispiel die KI-unterstützte Kreditvergabe, bei der beispielsweise Frauen oder Menschen mit Migrationsgeschichte diskriminiert werden. Das System wird mit historischen Daten über Kreditnehmer*innen trainiert. Diese Daten könnten Informationen über frühere Kredite, Rückzahlungshistorie, geografische Daten und demografische Merkmale enthalten. Die KI analysiert diese Daten und erstellt Profile, die vorhersagen, wie wahrscheinlich es ist, dass Personen aus bestimmten demografischen Gruppen oder eben mit einem bestimmten Geschlecht ihren Kredit zurückzahlen. Basierend auf diesen Vorhersagen werden bestimmten Personengruppen Kredite verweigert oder nur zu schlechteren Konditionen gewährt. Die Rückkopplung sorgt nun wiederum dafür, dass Personen aus den benachteiligten Gruppen weniger Möglichkeiten haben, ihre finanzielle Situation zu verbessern, was wiederum ihre Kreditwürdigkeit negativ beeinflussen kann. Somit bestätigen diese ‚neuen‘ Daten die ursprünglichen Vorhersagen des KI-Systems, was zu einer weiteren und andauernden Benachteiligung dieser Gruppen führt.

Fehlende Diversität

Und dann sind da noch die Softwareentwickler, die überwiegend „western, educated, industrialized, rich and from democratic societies“ (WEIRD) sind. Softwareentwicklerinnen machen noch immer einen sehr geringen Anteil aus, so liegt dieser laut Statistik der ec.europa.eu aus dem Jahr 2021 in Deutschland bei 19 % – weltweit sieht es nicht viel besser aus! Die fehlende Diversität in Softwareentwicklungsteams hat erheblichen Einfluss auf die Entstehung und Verstärkung von Bias in Software- und KI-Anwendungen.

Denn dieser Mangel an Perspektiven und Erfahrungen führt dazu, dass Datenquellen und Variablen ausgewählt werden, die eigene Erfahrungen und Weltansichten widerspiegeln. Somit werden wichtige Aspekte, die nicht vertretene Gruppen betreffen, übersehen oder missverstanden. Im Bereich gesundheitsbezogener KI-Systeme, die hauptsächlich von Männern entwickelt wurden, wurden und werden Symptome, die spezifisch für Frauen sind, nicht angemessen berücksichtigt – die Folgen könnten tödlich sein!

Alle Entwickler*innen bringen ihre eigenen Vorurteile – bewusst oder unbewusst – in den Designprozess von Algorithmen ein. Hier helfen Weiterbildungen zum Thema, um sich der eigenen Biases überhaupt erstmal bewusst zu werden!
Homogene Teams führen zu mangelnder Inklusivität in der Produktentwicklung! Heißt konkret: Produkte, die ohne Berücksichtigung einer breiten Benutzer*innenbasis entwickelt werden, sind für die ‚vergessenen‘ Nutzergruppen weniger zugänglich. Dazu gehören Spracherkennungssysteme, die nicht mit einer großen Sprachenvielfalt oder mit vielfältigen Akzenten oder Dialekten trainiert wurden und so bestimmte Bevölkerungsgruppen diskriminieren.

Diversity bewusst fördern

Um diesen Herausforderungen zu begegnen, ist es essenziell, dass Teams – insbesondere in der KI-Entwicklung – bewusst divers und inklusiv zusammengesetzt werden. Dies hilft nicht nur, breitere Perspektiven in den Entwicklungsprozess einzubringen, sondern fördert auch die Schaffung gerechterer und ethisch verantwortungsvollerer Technologien. Diverse Teams helfen, vorhandene Verzerrungen zu identifizieren und zu reduzieren und tragen zu faireren und effektiveren Lösungen bei. Kombiniert mit technischen Ansätzen wie Bias-Audits, Fairness-Indikatoren und transparenter Dokumentation der Entwicklungsentscheidungen ermöglichen diese Werkzeuge es, Modelle kritisch zu evaluieren und gegebenenfalls anzupassen, um Fairness und Gerechtigkeit zu fördern.

Wer tiefer ins Thema einsteigen will, dem sei die Studie der Antidiskriminierungsstelle des Bundes ans Herz gelegt: Diskriminierungsrisiken durch die Verwendung von Algorithmen.

Foto von Mohamed Nohassi auf Unsplash