Warum hat KI ein unvollständiges Bild von unserer Welt, Wiebke Hutiri?

#digdeep - Neues aus der digitalen Welt

Podcast: #digdeep - Neues aus der digitalen Welt

Erschienen: 09.04.2026
Dauer: 00:52:32

KI sieht überall hin — aber sieht sie uns wirklich alle? Millionen von KI-Systemen entscheiden täglich, wer ein Gesicht auf einem Foto ist, wer von einem selbstfahrenden Auto gesehen oder wessen Stimme erkannt wird. Die Grundlage dieser Entscheidungen sind Datensätze — und viele Trainingsdaten wurden im Internet zusammengekratzt: ohne Einwilligung, ohne Bezahlung, und vor allem ohne die Vielfalt, die die Menschheit tatsächlich ausmacht. Denn viele Gruppen fehlen schlichtweg. Das ist kein technisches Randproblem. Es ist eine strukturelle Lücke im Fundament moderner KI, denn wer nicht in den Daten ist, existiert für das Modell schlicht nicht — und das hat reale Konsequenzen für selbstfahrende Autos, Gesichtserkennung an Grenzen und Sprachassistenten für z.B. ältere Menschen. Wiebke Hutiri ist Senior Research Scientist bei Sony AI und leitet dort das Team für Responsible AI und Ethics. Mit einem globalen Team hat sie 2025 in der Fachzeitschrift Nature einen ethisch erhobenen, aus 81 Ländern stammenden Bilddatensatz veröffentlicht und dort die ganze Bandbreite der Menschen abgebildet. Im Gespräch mit uns erklärt Wiebke, warum KI Frauen mit neuen Haarschnitten schlechter erkennt als Männer mit Glatze, was der „Long Tail" der menschlichen Variabilität mit KI-Fehlern zu tun hat, und warum wir in der KI-Entwicklung vom Ende her denken sollten: von der Gesellschaft, die wir wollen — nicht von den Modellen, die wir bauen können. Unser Studio-Gast Wiebke Hutiri Wiebke Hutiri ist Senior Research Scientist bei Sony AI, dem globalen KI-Forschungslabor des Sony-Konzerns mit Standorten in Tokio, Zürich und New York. Dort leitet sie ein international aufgestelltes Team im Bereich Responsible AI und Ethics, das Methoden und Werkzeuge für ethische Datenerhebung, faire Modellbewertung und vertrauenswürdige KI-Systeme entwickelt und standardisiert. Sie promovierte cum laude an der Technischen Universität Delft (Niederlande) und war zuvor in der Forschung zu Sprachbiometrie und KI-Sicherheit tätig. Ihr Forschungsschwerpunkt verbindet technische Exzellenz mit gesellschaftlicher Verantwortung — von fairen Benchmarking-Verfahren für multimodale Systeme bis hin zu ethischen Fragen rund um Datenerhebung, Copyright und algorithmische Bias. Hutiri ist Mitautorin des 2025 in Nature erschienenen Papers „Fair Human-Centric Image Dataset for Ethical AI Benchmarking" (FHIBE) — einem Meilenstein für ethisch erhobene, global diverse Bilddatensätze mit Daten aus 81 Ländern. Darüber hinaus engagiert sie sich als Beraterin bei Lelapa AI, einem südafrikanischen Startup für Sprachtechnologien in ressourcenarmen Sprachen. 🔗 LinkedIn: https://www.linkedin.com/in/wiebkehutiri/  🌐 Website: https://wiebkehutiri.com/


Weitere Informationen und umfangreichere Shownotes gibt es ggf. auf der Podcast-Website.

Podcast-Website: Episode "Warum hat KI ein unvollständiges Bild von unserer Welt, Wiebke Hutiri?"

Logo Podcast "#digdeep - Neues aus der digitalen Welt"
Merken
QR-Code