Podcast "CAISzeit – In welcher digitalen Gesellschaft wollen wir leben?"
Mit Jasmin Baake
Aussehen und Stimme wirken echt, die Erklärung sitzt – aber irgendwas stimmt nicht. Genau in diesem Moment kippt Faszination in Unbehagen: Willkommen im sogenannten Uncanny Valley, dem „Gruselgraben" zwischen menschlich und menschenähnlich. In der neuen Folge unseres Podcast spricht Jasmin Baake mit Host Matthias Begenat über ihre aktuelle Forschung zu KI-generierten Avataren und deren Wirkung auf uns Menschen. Die zentrale Frage: Wie steht es um das Vertrauen in künstliche Avatare in der Wissenschaftskommunikation? Jasmin Baake untersucht, wann uns künstliche Avatare helfen und wann sie unser Vertrauen zerstören. Ihre Studie „Balancing Realism and Trust: AI Avatars In Science Communication", die sie gemeinsam mit Josephine B. Schmitt und Julia Metag veröffentlicht hat, liefert wichtige Erkenntnisse für den Umgang mit generativer KI in der Wissenschaftskommunikation. Zur Studie: Baake, J., Schmitt, J., & Metag, J. (2025). Balancing Realism and Trust: AI Avatars In Science Communication. Journal of Science Communication, 24(2). https://doi.org/10.22323/2.24020203 Empfehlungen zum Thema: dieFilmfabrik. (2015, Dezember 6). CGI des Grauens – Das ist das Uncanny Valley [Video]. YouTube. https://www.youtube.com/watch?v=Hxu9OYesTe8 Buolamwini, J. (2024). Unmasking AI: My mission to protect what is human in a world of machines. Random House. Block, E., & Lovegrove, R. (2021). Discordant storytelling, “honest fakery,” identity peddling: How uncanny CGI characters are jamming public relations and influencer practices. Public Relations Inquiry, 10(3), 265–293. https://journals.sagepub.com/doi/abs/10.1177/2046147X211026936 Stein, J. P., Breves, P. L., & Anders, N. (2024). Parasocial interactions with real and virtual influencers: The role of perceived similarity and human-likeness. New Media & Society, 26(6), 3433–3453. https://journals.sagepub.com/doi/full/10.1177/14614448221102900 Duckwitz, A. (2024, Oktober). „21-year-old robot living in LA“ – Die schöne neue Welt der KI-Influencer. Konrad-Adenauer-Stiftung – Die Politische Meinung. https://www.kas.de/de/web/die-politische-meinung/artikel/detail/-/content/21-year-old-robot-living-in-la
Erschienen: 16.02.2026
Dauer: keine Angabe
Mit Samuel T. Simon
In dieser Folge der CAISzeit spricht Host Dr. Matthias Begenat mit Samuel T. Simon über Agilität in der Wissenschaft. Gemeinsam diskutieren sie, wie Forschung mit Hilfe agiler Methoden organisiert werden kann, ohne dass Tiefe und wissenschaftliche Gründlichkeit verloren gehen. Außerdem werfen sie einen Blick auf experimentelle Formate und Tools, die gleichzeitig Prozesse strukturieren und Freiräume für interdisziplinäre Forschung schaffen können. Agilität in der Wissenschaft – ist das möglich? Samuel T. Simon argumentiert, dass agile Methoden nicht nur Buzzwords sind, sondern Vorteile für Forschungsprozesse bringen können. Ob bei CERN, NASA oder in der Nachhaltigkeitsforschung: Agile Ansätze können dabei helfen, Prozesse zu optimieren, Teams effizienter zusammenarbeiten zu lassen und Freiräume für die eigentliche Forschung zu schaffen. Dabei geht es vor allem um transparente Kommunikation, klare Strukturen und effiziente Prozesse: Scrum, Kanban und andere Tools machen Projektfortschritte und Zuständigkeiten sichtbar, schaffen Übersicht und ermöglichen eine gemeinsame Sprache. So kann Forschung trotz Agilität weiterhin sorgfältig und wissenschaftlich bleiben. Gleichzeitig erfordert agiles Arbeiten Kompetenzen wie Unsicherheitstoleranz, eine positive Fehlerkultur und transparente Kommunikation sowie eine verantwortliche Prozessbegleitung durch eine:n Facilitator.
Erschienen: 20.11.2025
Dauer: 00:35:55
Weitere Informationen zur Episode "Agile Wissenschaft – Forschung in Sprints?"
Mit Pauline Heger
Wie stehen Bürger:innen eigentlich zu umwelt- und klimafreundlichen Innovationen? Im "Pop-Up Citizen Lab" des CAIS untersucht ein Forschungsteam in Bochum, wie Menschen auf grüne Innovationen reagieren – und zwar nicht etwa durch klassische Umfragen, sondern durch innovative Bürgerlabore, die direkt vor Ort stattfinden und in denen neuartige Formen der Beteiligung entwickelt werden. Im Mittelpunkt stehen dabei die Wärmewende und die Frage: Wie können Bürger:innen besser in Entscheidungen einbezogen werden, die ihren Alltag und ihre Nachbarschaft direkt betreffen? Über die Herausforderungen der Bürgerbeteiligung, über kreative Forschungsmethoden und darüber, warum es bei Innovationen eben nicht nur um Technik, sondern auch um die soziale Akzeptanz und Einbettung geht, spricht Pauline Heger mit Host Matthias Begenat.
Erschienen: 02.10.2025
Dauer: 00:34:15
Mit Prof. Hendrik Heuer, Anna Ricarda Luther und David Hartmann
Hasskommentare, Aufrufe zur Gewalt oder rassistische Äußerungen – täglich werden Milliarden Inhalte in sozialen Medien veröffentlicht, darunter auch problematische Äußerungen. Doch wie werden diese Inhalte erkannt und wie moderiert? Warum bleiben hasserfüllte Postings in vielen Fällen online, während scheinbar harmlose Postings gelöscht werden? Wer entscheidet darüber? Wie funktioniert die Moderation der Inhalte genau? Und welche Rolle spielt Künstliche Intelligenz dabei? Gemeinsam mit den Forscher:innen Anna Ricarda Luther (Institut für Informationsmanagement Bremen, Universität Bremen), David Hartmann (Weizenbaum-Institut & TU Berlin) und Prof. Dr. Hendrik Heuer (CAIS, Forschungsprogramm "Design vertrauenswürdiger Künstlicher Intelligenz") spricht Host Dr. Matthias Begenat über die Moderation der Inhalte auf Social-Media-Plattformen. Ein besonderer Fokus liegt auf den sozialen Folgen. Hassrede bleibt nicht nur im digitalen Raum, sondern beeinflusst die Lebensrealität von Aktivist:innen, Lokalpolitiker:innen, Journalist:innen und engagierten Nutzer:innen. Wer regelmäßig angegriffen wird, zieht sich häufig zurück – mit direkten Auswirkungen auf politische Teilhabe und Meinungsvielfalt. Trotz der Herausforderungen gibt es Entwicklungen, die Anlass zur Hoffnung geben. Die Forscher:innen sprechen über neue gesetzliche Regulierungen wie den Digital Services Act, fordern mehr Transparenz und Kontrolle sowie besseren Zugang zu Plattformdaten. Außerdem diskutieren sie zivilgesellschaftliche Initiativen, die sich für sichere digitale Räume starkmachen: Wie kann Moderation besser, fairer und wirksamer werden? Welche Verantwortung tragen Plattformen – und welche Rechte sollten Nutzer:innen haben? Disclaimer: In dieser Folge wird über hasserfüllte Sprache, beleidigende Begriffe und diskriminierende Konzepte gesprochen – u.a. zum Genozid in Myanmar und Tigray und über rassistische Äußerungen. Aus Transparenzgründen haben wir uns entschieden, diese Begriffe im Original wiederzugeben. Wenn Euch das belastet, überspringt gerne die entsprechenden Passagen. 4:28 – 5:06: Genozid an den Rohingya in Myanmar 5:08 – 6:09: Bürgerkrieg in Äthiopien 10:44 – 11:14: Geleakte Dokumente von Meta mit Angabe von beleidigenden Äußerungen 38:30 – 38:50: Hass gegen Menschen mit Behinderung 40:00 – 40:36: Beleidigungen gegen Muslim:innen Service-Hinweis: Betroffene von Hassrede können sich an HateAid wenden: https://hateaid.org/ beratung@hateaid.org 030 / 252 088 38 (Mo 10–13 Uhr | Do 15–18 Uhr)
Erschienen: 16.07.2025
Dauer: 00:58:46
Mit Dr. Marco Wähner
Das Darknet gilt vielen als mysteriöser Ort voller illegaler Aktivitäten. Doch was steckt wirklich dahinter? Und wie unterscheidet es sich vom offenen Internet? In dieser Folge der CAISzeit gehen wir gängigen Klischees auf den Grund und besprechen mit Dr. Marco Wähner, kommissarischer Leiter des Teams „Research, Data & Methods“ am CAIS, die technischen Grundlagen, politischen Potenziale und gesellschaftlichen Herausforderungen des Darknet. Wie funktioniert das Tor-Netzwerk? Was sind Hidden Wikis und wie navigiert man überhaupt durch das Darkweb? Wir sprechen darüber, wie das Darknet als Schutzraum für Journalist:innen und Whistleblower in autoritären Regimen genutzt werden kann – und welche wichtigen Informationsangebote es dort tatsächlich gibt, etwa von der BBC oder der Deutschen Welle. Außerdem gibt Dr. Marco Wähner Einblicke in seine Forschung in Zusammenarbeit mit Felix Soldner vom GESIS - Leibniz-Institut für Sozialwissenschaften: Wie lässt sich das Darknet wissenschaftlich untersuchen? Welche Daten stehen zur Verfügung – und welche nicht? Was macht die Forschung besonders herausfordernd? Und wie werden Verschwörungserzählungen zum Argument für den Verkauf bestimmter Produkte?
Erschienen: 18.06.2025
Dauer: 00:39:51
Mit Dr. Charmaine Voigt und Birte Kuhle
Was macht einen erfolgreichen Wissenschaftspodcast aus? Und wie können Inhalte nachhaltig und wirkungsvoll in die Öffentlichkeit gebracht werden? Welche Themen eignen sich besonders für dieses Medium? In der 21. Episode der CAISzeit geht es darum, wie Podcasts Wissen nachhaltig in den gesellschaftlichen Diskurs einbringen können. Dr. Charmaine Voigt und Birte Kuhle vom GESIS - Leibniz-Institut für Sozialwissenschaften geben Einblicke in ihr Projekt Wi4impact zur Wirkung und Verbreitung von Wissenschaftspodcasts. Sie erklären, welche Verbreitungsstrategien den Erfolg beeinflussen – von Social Media bis zu ausführlichen Shownotes und der aktiven Einbindung der Hör-Community. Im Gespräch mit Host Dr. Matthias Begenat geht es außerdem darum, wie sich Wissenschaftspodcasts im Laufe der Zeit verändert haben und welche Rolle KI-Tools zukünftig spielen.
Erschienen: 25.03.2025
Dauer: 00:39:50
Weitere Informationen zur Episode "Hörbarer Impact? Wie Podcasts Forschung in die Welt tragen"
Zu Gast: Anne Goldmann und Aryan Shooshtari
Die Bundestagswahl 2025 steht kurz bevor, und die Parteien befinden sich im Endspurt des Wahlkampfs. Doch diese Wahl ist eine besondere: Durch den Bruch der Ampel-Koalition und die Vertrauensfrage wurde sie vorgezogen und findet deutlich früher statt als ursprünglich geplant. In dieser Folge der CAISzeit werfen wir einen Blick hinter die Kulissen der Wahlorganisation: Wie wird die Wahl organisiert und wer ist eigentlich im Hintergrund am Prozess beteiligt? Welche Herausforderungen haben Kommunen bei der Bereitstellung von Wahllokalen, Wahlhelfer:innen und Briefwahlunterlagen? Wie beeinflussen enge Fristen und fehlende Statistiken zur Briefwahl das Vertrauen in die Wahl? Welche Rolle spielen digitale Innovationen bisher im Wahlprozess, und welche Chancen sowie Risiken bringen sie mit sich? Zu Gast sind die Politikwissenschaftler:innen Anne Goldmann und Aryan Shooshtari, die bei uns am CAIS im Forschungsprogramm Digitale Demokratische Innovationen forschen. Gemeinsam mit ihnen diskutiert Host Matthias Begenat die Herausforderungen dieser besonderen Wahl.
Erschienen: 17.02.2025
Dauer: 00:27:11
Zu Gast: Miriam Fahimi
Algorithmen bestimmen unser Leben: Von den Inhalten, die wir in sozialen Medien sehen, bis hin zu den Krediten, die uns gewährt werden. Aber inwieweit sind Algorithmen fair und transparent? Und welche Folgen kann es haben, wenn sie es nicht sind? Ist Gerechtigkeit programmierbar? Diese Fragen und mehr besprechen wir in dieser CAISzeit mit Miriam Fahimi. Miriam ist von April bis September 2024 als Fellow am CAIS und promoviert derzeit in den Science and Technology Studies am Digital Age Research Center (D!ARC) der Universität Klagenfurt. Sie erforscht die „Fairness in Algorithmen“ und hat über eineinhalb Jahre in einem Kreditunternehmen beobachtet, wie dort über transparente und faire Algorithmen diskutiert wird. Empfehlungen zum Thema Forschung: · Digital Age Research Center (D!ARC), Universität Klagenfurt. https://www.aau.at/digital-age-research-center/ · Meisner, C., Duffy, B. E., & Ziewitz, M. (2022). The labor of search engine evaluation: Making algorithms more human or humans more algorithmic? New Media & Society. https://doi.org/10.1177/14614448211063860 · Poechhacker, N., Burkhardt, M., & Passoth, J.-H. (2024). 10. Recommender Systems beyond the Filter Bubble: Algorithmic Media and the Fabrication of Publics. In J. Jarke, B. Prietl, S. Egbert, Y. Boeva, H. Heuer, & M. Arnold (Hrsg.), Algorithmic Regimes (S. 207–228). Amsterdam University Press. https://doi.org/10.1515/9789048556908-010 Populärwissenschaftliche Literatur: · Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press. · Webseite von Kate Crawford. https://katecrawford.net Dokumentarfilm: · Coded Bias (dt. Vorprogrammierte Diskriminierung; abrufbar auf Netflix): In dieser Dokumentation werden die Vorurteile in Algorithmen untersucht, die die Forscherin am MIT Media Lab Joy Buolamwini in Systemen zur Gesichtserkennung offenlegte. https://www.netflix.com/de/title/81328723 Newsletter: · AI Snake Oil von Arvind Narayanan & Sayash Kapoor. https://www.aisnakeoil.com Ticker vom D64 –Zentrum für Digitalen Fortschritt: https://kontakt.d-64.org/ticker/
Erschienen: 27.08.2024
Dauer: 00:38:39
Zu Gast: Prof. Dr. Hendrik Heuer
Angefangen bei der eigenen Gesundheit bis hin zum Zusammenleben als Gesellschaft in einer Demokratie: Falsche Informationen stellen für viele Bereiche unseres Lebens eine Gefahr dar. Gerade im Internet – verteilt über soziale Medien – wird Desinformation auch in Krisenzeiten verstärkt produziert, geteilt und dringt so potenziell tief in unsere Gesellschaft ein. Was Desinformation ist und was man gegen sie tun, besprechen wir mit Prof. Dr. Hendrik Heuer. Henrik ist Informatiker und leitet seit April 2024 das Forschungsprogramm am CAIS zum „Design vertrauenswürdiger Künstlicher Intelligenz“.
Erschienen: 03.06.2024
Dauer: 00:42:36
Zu Gast: Dr. Sophie Rosenbohm und Dr. Fabian Hoose
Wenn sich Millionen Nutzer:innen täglich durch die aktuellen YouTube-, Instagram- oder Tik-Tok-Videos klicken, wird ein Aspekt häufig vergessen. Für viele, die dort die Inhalte und Videos bereitstellen, ist dies kein Hobby mehr. Ganz im Gegenteil ist die Contentproduktion für viele YouTuber:innen, Influencer:innen oder auch Podcaster:innen längst Arbeit geworden. Gleiches gilt für Menschen, die als Clickworker Mikrojobs übernehmen. Auch diese Personen bestreiten über Inhalte und Aufgaben auf digitalen Plattformen z.T. ihren Lebensunterhalt. Über die Merkmale dieser Art von Arbeit, über die Erwerbsstrukturen und Arbeitsbedingungen spricht Dr. Matthias Begenat in der CAISzeit mit Dr. Sophie Rosenbohm und Dr. Fabian Hoose vom Institut Arbeit und Qualifikation (IAQ) an der Universität Duisburg-Essen. Die beiden arbeiten in verschiedenen Kontexten zusammen und forschen gemeinsam im Projekt „Entgrenzte Arbeit im Netz: Bloggen und Vloggen als neue digitale Arbeitsformen“.
Erschienen: 29.01.2024
Dauer: 00:54:37