KI & Fairness: Wer bekommt den Job, wer den Hit?

Mit Janine Strotherm

Podcast: Autonomie & Algorithmen

Erschienen: 28.03.2025
Dauer: 01:08:52

Stellt euch ein KI-System vor, das automatisiert faire Entscheidungen über die Einladung zum Bewerbungsgespräch auf Basis von Bewerbungsunterlagen treffen soll. Klingeln da bei euch die Alarmglocken? Wenn ja: Zu Recht! Der EU AI Act stuft ein solches System als Hochrisikosystem ein. Wir schauen uns ein solches System heute genauer an und klären: Was bedeutet eigentlich Fairness in Bezug auf KI? Wie kann man prüfen, ob ein KI-System zu fairen Entscheidungen führt? Und was hat das alles mit menschlicher Autonomie zu tun?+++Janine Strotherm ist Mathematikerin und Mitarbeiterin der Universität Bielefeld. Im Projekt "Water Futures" beschäftigt Janine sich mit maschinellem Lernen in Bezug auf faire Verteilung von Wasserressourcen. +++LinklisteLee (2018), Understanding perception of algorithmic decisions: Fairness, trust, and emotion in response to algorithmic management. Big Data & Society.Starke et al. (2022), Fairness perceptions of algorithmic decision-making: A systematic review of the empirical literature. Big Data & Society.Strotherm et al. (2023), Fairness in KI-Systemen. arXiv.Fiske: Stereotype Content ModelEckes (2002), Paternalistic and Envious Gender Stereotypes: Testing Predictions from the Stereotype Content Model. Sex Roles.DuBois: The Philadelphia N-WortPaaßen et al. (2019), Dynamic fairness – Breaking vicious cycles in automatic decision making. ESANN 2019.Race NormingCOMPAS SoftwareKnibbe (2021), Fairness in Question: Do Music Recommendation Algorithms Value Diversity? Music Tomorrow.Torabi (2023), The Inner Workings of Spotify’s AI-Powered Music Recommendations: How Spotify Shapes Your Playlist. Medium.Henry et al. (2024), Impacts of AI on Music Consumption and Fairness. Emerging Media.+++Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.deUnser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.socialUnser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback+++"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Ingrid Rogalski und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.


Weitere Informationen und umfangreichere Shownotes gibt es ggf. auf der Podcast-Website.

Podcast-Website: Episode "KI & Fairness: Wer bekommt den Job, wer den Hit?"

Logo Podcast "Autonomie & Algorithmen"
Merken
QR-Code