KI-generierte Bilder zeigen Muster von sexistischen, rassistischen und klassenbedingten Vorurteilen. Eva Gengler hat dazu eine Studie publiziert.
Ihre Übersicht (bei LinkedIn) zu den Ergebnissen:
📍 Gender Bias:
► Männer sind in Macht- und Erfolgskontexten überrepräsentiert
► Frauen hauptsächlich in schönheitsbezogenen Kontexten dargestellt, oft sexualisiert
► Im Kontext Macht wurden am häufigsten ältere Männer und jüngere Frauen dargestellt
📍Rassistischer Bias:
► People of Color waren unterrepräsentiert, insbesondere in Macht- und Erfolgsfunktionen
► Weiße Personen dominieren in allen Kategorien
► Leichte Zunahme der Vielfalt in Schönheitskontexten
📍Klassenbedingter Bias:
► Die Mehrheit der abgebildeten Personen stammt aus privilegierten sozioökonomischen Schichten mit wohlhabendem Aussehen (Geschäftskleidung, Eleganz)
► Geringe Repräsentation von Personen aus der Unterschicht oder von „Durchschnittspersonen“ (kein Modelkarriere …)
✴ Über „Feministische KI für eine gerechtere Welt“ hat Eva Gengler auf der herCAREER Expo 2024 referiert. „Wir haben heute die große Chance, Systeme, die überall zum Einsatz kommen, mit dem Ziel zu entwickeln und einzusetzen, Macht zu verändern.“
✴ Sie war auch eine der Referentinnen bei der Diskussionsveranstaltung „Unsere Zukunft der Arbeit mit künstlicher Intelligenz – Wie Frauen davon profitieren können“, präsentiert vom Bayerischen Staatsministerium für Familie, Arbeit und Soziales. Nachzuhören in Kürze als 🎧 Podcast (Link im Kommentar)!
✴ Außerdem fungierte Eva bei der herCAREER@Night als Table Captain 😊
Danke, liebe Eva, für deinen aktiven Part in der herCAREER Community zu so spannenden Themen!
Ein Beitrag von herCAREER,
veröffentlicht bei LinkedIn 13.11.2024