Die Achillesferse der Künstlichen Intelligenz: Warum Diskriminierung ein ungelöstes Problem bleibt
In der umfassenden Untersuchung wurde die KI mit einer Vielzahl von Bildern und Werbeanzeigen konfrontiert und um eine Bewertung gebeten. Darunter befanden sich unter anderem 60 Werbeanzeigen, die der Deutsche Werberat in der jüngeren Vergangenheit gerügt hatte. Die erzielten Ergebnisse zeigen, dass die KI eine erstaunlich hohe Fähigkeit besitzt, Diskriminierungen in Werbeanzeigen mit einer beeindruckenden Treffsicherheit zu identifizieren (F1 Score: 0.949). So wurden die vom Deutschen Werberat gerügten Werbeanzeigen in aller Regel von der KI als potenziell diskriminierend eingeschätzt. Gleichzeitig erfolgte bei den nichtdiskriminierenden Werbeanzeigen ein solcher Hinweis in den meisten Fällen nicht.
Dies ist insbesondere vor dem Hintergrund beeindruckend, da die KI noch vor zehn Jahren erhebliche Schwierigkeiten hatte, die in einem Bild dargestellten Objekte korrekt zu klassifizieren. In der Zwischenzeit und dank Millionen von Bildern hat die KI gelernt, weitgehend treffsicher zwischen einem Hund und einer Katze zu unterscheiden. Die rasanten Fortschritte der KI werfen die Frage auf, wo derzeit die Grenzen der KI verlaufen. „Wir wollten wissen, inwiefern die KI ein diskriminierendes Verhalten erkennt, wenn man dieser nur eine Werbeanzeige zur Verfügung stellt und diese auffordert, die Anzeige zu bewerten“, erläutert Studentin Helen Beckers das Vorgehen bei der Studie.
Algorithmische Diskriminierung
Dies ist von besonderer Relevanz angesichts des massiven Anwachsens von Diskriminierung durch Algorithmen, die Menschen aufgrund von Geschlecht, Religion, Weltanschauung, Rassismus oder Herkunft benachteiligen können. Dieser Aspekt gewinnt an Bedeutung, da Diskriminierung durch Algorithmen zunehmend zu einem ernsten Problem wird, das verschiedene Bereiche wie Bewerbungsverfahren, Kreditvergabe, Medizin und die Berechnung der Rückfallwahrscheinlichkeit von Straftäter*innen betrifft.
ChatGPTs Fähigkeit zur Aufdeckung von Sexualisierung und Stereotypen
Besonders aufschlussreich ist die Erkenntnis, dass ChatGPT Sexualisierung und stereotypisches Denken aufdecken kann. Eine modifizierte Anzeige mit vertauschten Geschlechterrollen zeigte, dass die KI auch in umgekehrten Konstellationen Diskriminierung identifizieren kann. „Diese unterschiedliche Bewertung durch ChatGPT in den zwei Szenarien unterstreicht die Fähigkeit, Diskriminierung auch in umgekehrten Konstellationen zu identifizieren“, nennt Student Sven Peter als weitere Erkenntnis aus der Studie.
Grenzen und Herausforderungen bei der Diskriminierungserkennung durch KI
An die Grenzen stieß die KI jedoch bei der Identifizierung weiterer Formen der Diskriminierung, wie der Objektivierung, der Respektlosigkeit sowie des Machtmissbrauchs. „Die Ergebnisse der Studie unterstreichen die Notwendigkeit, KISysteme weiterzuentwickeln, um Diskriminierung effektiver zu erkennen und zu verhindern“, berichtet Student Marius Funk. Die Studie wirft wichtige Fragen auf, wie KI-Technologien in der Zukunft eingesetzt werden können, um Diskriminierung in verschiedenen Bereichen zu bekämpfen und die Gleichberechtigung zu fördern.
Studienzentrum Dienstleistungsmanagement
Die Studie wurde unter Leitung von Prof. Dr. U. Bucher am Studienzentrum Dienstleistungsmanagement an der DHBW Stuttgart durchgeführt. Das Studienzentrum Dienstleistungsmanagement bereitet die Studierenden auf verantwortungsvolle betriebswirtschaftliche Tätigkeitsfelder in innovativen und kundenorientierten Projekten sowie in vielfältigen Funktions- und Servicebereichen von Dienstleistungsunternehmen vor.
Abbildung 1: Serie zur KI-Analyse bezüglich Diskriminierung (Erstellt mit Adobe Firefly und analysiert mit ChatGPT)
Ansprechperson
Prof. Dr. Ulrich Bucher
Professor für BWL, insbesondere Marketing und Dienstleistungsmanagement
Duale Hochschule Baden-Württemberg (DHBW) Stuttgart
Theodor-Heuss-Str. 2
70174 Stuttgart
E-Mail: ulrich.bucher@dhbw-stuttgart.de
Mobil: 0177 / 2307 364