Skip to main content

KI - Warum Diskriminierung ein ungelöstes Problem bleibt

Eine aktuelle Studie der DHBW Stuttgart hat die Fähigkeit von Künstlicher Intelligenz (KI) zur Erkennung diskriminierender Inhalte in Bildern und Werbeanzeigen untersucht und dabei sowohl beeindruckende Fortschritte als auch bestehende Grenzen aufgezeigt.

In der umfassenden Untersuchung unter Leitung von Prof. Dr. Ulrich Bucher (Studienzentrum Dienstleistungsmanagement) wurde die KI mit einer Vielzahl von Bildern und Werbeanzeigen konfrontiert und um eine Bewertung gebeten. Darunter befanden sich unter anderem 60 Werbeanzeigen, die der Deutsche Werberat in der jüngeren Vergangenheit gerügt hatte. Die erzielten Ergebnisse zeigen, dass die KI eine erstaunlich hohe Fähigkeit besitzt, Diskriminierungen in Werbeanzeigen mit einer beeindruckenden Treffsicherheit zu identifizieren. So wurden die vom Deutschen Werberat gerügten Werbeanzeigen in aller Regel von der KI als potenziell diskriminierend eingeschätzt. Gleichzeitig erfolgte bei den nichtdiskriminierenden Werbeanzeigen ein solcher Hinweis in den meisten Fällen nicht. 

Dies ist insbesondere vor dem Hintergrund beeindruckend, da die KI noch vor zehn Jahren erhebliche Schwierigkeiten hatte, die in einem Bild dargestellten Objekte korrekt zu klassifizieren. Die rasanten Fortschritte der KI werfen die Frage auf, wo derzeit die Grenzen der KI verlaufen. 

„Wir wollten wissen, inwiefern die KI ein diskriminierendes Verhalten erkennt, wenn man dieser nur eine Werbeanzeige zur Verfügung stellt und diese auffordert, die Anzeige zu bewerten“, erläutert Studentin Helen Beckers das Vorgehen bei der Studie.

Dies ist von besonderer Relevanz angesichts des massiven Anwachsens von Diskriminierung durch Algorithmen, die Menschen aufgrund von Geschlecht, Religion, Weltanschauung, Rassismus oder Herkunft benachteiligen können. Dieser Aspekt gewinnt an Bedeutung, da Diskriminierung durch Algorithmen zunehmend zu einem ernsten Problem wird, das verschiedene Bereiche wie Bewerbungsverfahren, Kreditvergabe, Medizin und die Berechnung der Rückfallwahrscheinlichkeit von Straftäter*innen betrifft.

Besonders aufschlussreich ist die Erkenntnis, dass ChatGPT Sexualisierung und stereotypisches Denken aufdecken kann. Eine modifizierte Anzeige mit vertauschten Geschlechterrollen zeigte, dass die KI auch in umgekehrten Konstellationen Diskriminierung identifizieren kann. 

An die Grenzen stieß die KI jedoch bei der Identifizierung weiterer Formen der Diskriminierung, wie der Objektivierung, der Respektlosigkeit sowie des Machtmissbrauchs. „Die Ergebnisse der Studie unterstreichen die Notwendigkeit, KI-Systeme weiterzuentwickeln, um Diskriminierung effektiver zu erkennen und zu verhindern“, berichtet Student Marius Funk.