Auf dem Bild ist eine Frau zu sehen, die in mitten ihrer Kolleginnen und Kollegen steht und ihnen was sagt. Diese hingegen sitzen vor ihrem Computer und hören aufmerksam bei positiver Arbeitsatmosphäre zu.
AI & Data Driven Company

KI-Bias: Gefährliche Verzerrungen vermeiden

Artikel

17.09.2024

Wie Unternehmen kostspielige Bias-Risiken minimieren und künstliche Intelligenz optimal nutzen

Vorurteile, also vorgefasste Meinungen, beruhen meist nicht auf Tatsachen, sondern sind subjektiv und halten sich dennoch hartnäckig. Das kennen wir alle – von uns und von anderen. Im besten Fall sind Menschen durch Reflexion und hinzugekommene Erfahrungen in der Lage, diese zu überwinden. Aber was ist, wenn künstliche Intelligenz (KI) Vorurteile „verinnerlicht“ und automatisiert?  

Das Problem daran ist, dass die Folgen von KI-Bias mitunter dramatischer sind als die ungerechtfertigten Meinungen einzelner Personen. Denn sie lassen Systeme „ungerecht“ werden, verhindern Diversität und sorgen somit unter anderem dafür, dass Potenziale ungenutzt brachliegen. 

Was ist ein KI-Bias? 

Von KI-Bias wird gesprochen, wenn der Algorithmus einer künstlichen Intelligenz durch eine einseitige Datenlage verzerrt wird und dadurch voreingenommene Ergebnisse liefert. Dies führt wiederum zu unbeabsichtigten und potenziell schädlichen Ergebnissen. Ein bekanntes Beispiel dafür sind bestimmte Gruppen oder Individuen, die ungerecht bevorzugt oder benachteiligt werden.  

Sehr gut kann man KI-Bias im HR-Bereich beobachten: Wenn sich etwa die Personalverantwortlichen bei der Bewerberauswahl von KI unterstützen lassen, ein Alters-Bias auftritt und der Algorithmus jüngere Kandidat:innen bevorzugt. Auch beim Thema Hautfarbe können KI-Bias entstehen: Es gibt unter anderem Beispiele aus den Vereinigten Staaten, die zeigen, dass Menschen mit dunklerer Hautfärbung (PoC) oder asiatischen Phänotyps von vorneherein geringere Chancen in einem Bewerbungsprozess hatten. Es sind diese und weitere Situationen, die der AI Act in der EU verhindern will, um Diskriminierung durch KI-Vorurteile gar nicht erst entstehen zu lassen.  

Ursachen für KI-Bias 

Wodurch aber entsteht ein Bias in der Maschine? Es ist ein Folgefehler resultierend aus einem Ungleichgewicht in den Trainingsdaten. Zu menschlichen Vorurteilen kommen technologiebasierte hinzu. Beispielsweise dann, wenn domänenunspezifische Algorithmen anstatt solche von einer „unvoreingenommenen“ KI verwendet werden.  

Ein generelles Beispiel dafür, wie „Voreingenommenheit“ bei KI entsteht, sind Algorithmen basierend auf Social Media: In diesen werden Inhalte und auch Menschen mit höherem Klickpotenzial priorisiert, die Diskriminierung ist somit technologisch inhärent.  

Gefährliche Folgefehler entstehen 

Die Folge ist die bereits angesprochene Diskriminierung bestimmter Personengruppen. Die Transparenz der KI-Anwendung wird ad absurdum geführt. Aus Vorurteilen in Köpfen werden automatisierte, die, vereinfacht ausgedrückt, tief in den Daten stecken. Selbst wenn die KI-Bias produzierenden Attribute oft gar nicht bewusst programmiert wurden, so pflanzen sie sich – einmal in Gebrauch – immer weiter in Form eines Folgefehlers fort. 

Unternehmen, die auf KI setzen – und das sind über kurz oder lang die meisten – müssen sich darüber bewusst sein, dass die jüngst in Kraft getretene EU-Verordnung über künstliche Intelligenz („AI Act“) den verantwortungslosen KI-Einsatz vor allem bei den sogenannten Hochrisiko-Anwendungen unter Strafe stellt, dazu zählt auch ein diskriminierender Gebrauch. Verstöße gegen den AI Act können mit erheblichen Strafen geahndet werden, die bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Umsatzes reichen können. Deshalb ist es umso wichtiger, dass sich Unternehmen der sehr realistischen Gefahr der Bias-bedingten Verzerrung klar werden. Denn in Bereichen wie beispielsweise der biometrischen Identifizierungs- und Kategorisierungssysteme oder bei Bewertungsanwendungen kann ein Bias sogar gefährlich sein, da er Diskriminierungen, Fehler in der Entscheidungsfindung und ähnliches zur Folge haben kann

Mitarbeitende übergreifend sensibilisieren  

metafinanz hat sich deshalb darauf spezialisiert, entsprechende Anwenderunternehmen zu unterstützen. So kommen diese ihrer Verantwortung nach und erkennen sowie vermeiden Verzerrungen. Konkret bedeutet das, Bias-Risiken zu reduzieren und gemäß dem Prinzip der „responsible AI“ keine Gruppen zu benachteiligen, Transparenz über die verwendeten Daten zu bekommen und gefährliche Attribute auszumerzen.  

Wichtig: Transparenz bedeutet auch, die Mitarbeiter:innen entsprechend zu schulen und somit zu sensibilisieren, bestenfalls in interdisziplinären Teams. Das lässt sich beispielsweise fördern, indem eine Verzerrung selbsttätig rückgemeldet wird: „Warum bekomme gerade ich jetzt eine solche Mail für den HR-Auswahlprozess, obwohl ich aus objektiver Sicht gar nicht die Kriterien erfülle?“ 

Eigens für dieses Thema hat metafinanz das ganzheitliche Vorgehensmodell „House of AI“ entwickelt. Mit diesem Modell unterstützt das IT- und Business-Beratungsunternehmen Kunden bei der bestmöglichen und verantwortungsvollen Einführung von KI. Die metafinanz-Expert:innen schauen dafür nicht auf einzelne Abteilungen, sondern nehmen alle Unternehmensbereiche unter die Lupe, und prüfen so, welche Auswirkungen der KI-Einsatz konkret hat. Das ist umso wichtiger, da sich dadurch auch die Zukunft der KI-gestützten Netzwerkorganisation in Unternehmen durchspielen lässt. Denn die Digitalisierung schreitet unaufhörlich voran. Ständig entstehen neue Arbeitsformen, aus zentralen Arbeitsorten werden digital organisierte dezentrale, aus hierarchischen entstehen agile Strukturen, die Mitarbeiter:innen mit mehr Verantwortung hervorbringen. Und das betrifft auch den Punkt verantwortungsvoller Umgang mit KI.  

Wachsende Digitalisierung – zunehmende Bias-Risiken 

Eine solche übergreifende Herangehensweise ist äußerst wichtig, ist sie auch aus der Digitalisierung heraus begründet, und Unternehmen agieren branchenübergreifend immer stärker datenbasiert. Aber je datenintensiver Unternehmen werden, desto mehr Bias-Verzerrungen entstehen, Probleme können sich so potenzieren. Hierfür gilt es ebenfalls, ein Bewusstsein zu schaffen.  

KI: gekommen, um zu bleiben 

Der Nutzen künstlicher Intelligenz steht völlig außer Frage. Dennoch ist es im selben Zug entscheidend, Verzerrungen weitestgehend zu minieren. Gerade im Hinblick auf den AI Act ist dies ein wichtiges Thema. Viele Unternehmen starten gerade jetzt erst mit dem Thema und beginnen, KI zu implementieren oder planen, dies zu tun. Gerade in den Startphasen geht es oftmals um Leistungsmessung des KI-Einsatzes, um Datenschutz und ebenso um das Kosten-Nutzen-Verhältnis der Anwendungen.  

Als metafinanz unterstützen wir Sie dabei und stellen gemeinsam sicher, dass Ihr KI-Einsatz diskriminierungsfrei ist. In einem ersten Workshop können Sie und Ihre Mitarbeiter:innen Ihr Bewusstsein für den Umgang mit Bias-Risiken schärfen. Konkrete Best Practices und Handlungsempfehlungen unterstützen Sie beim KI-Einsatz. 

 

Sie möchten mehr zum Thema KI und Bias wissen?

Dann erleben Sie unsere metafinanz-Expert:innen sowie Geschäftsführer Rainer Göttmann bei der Synergiewerkstatt des Netzwerks „Synergie durch Vielfalt“ bei metafinanz am 16. Oktober 2024

Gemeinsam beleuchten wir die Chancen und Risiken, die sich aus dem Einsatz von KI bei der Verarbeitung personenbezogener Daten ergeben – denn die KI ist voreingenommen. Sie reproduziert unbewusste Vorurteile und erhöht damit das Risiko für Fehlentscheidungen wie z. B. den sogenannten "Thomas-Kreislauf". Wir wollen wissen: 

  • Welche KI-Tools sind vom Problem der unbewussten Vorurteile (Biases) betroffen? 
  • Wie sind diese Verzerrungen bei der Erstellung und Nutzung von KI aufzufangen? 
  • Wie kann das Business von ethischer und objektiver KI profitieren?

Melden Sie sich hier zur Synergiewerkstatt an!

Verwandte Einträge