Dieses Video gehört zum openHPI-Kurs Digitale Medizin – Was ist ethisch verantwortbar?. Möchten Sie mehr sehen?
3.5 Historische Biases
Beim Laden des Videoplayers ist ein Fehler aufgetreten, oder es dauert lange, bis er initialisiert wird. Sie können versuchen, Ihren Browser-Cache zu leeren. Bitte versuchen Sie es später noch einmal und wenden Sie sich an den Helpdesk, wenn das Problem weiterhin besteht.
To enable the transcript, please select a language in the video player settings menu.
Über dieses Video
Weiterführende Hinweise und Literatur
Wir haben die Unfähigkeit von manchen KI-Generatoren gesehen, außerhalb von Stereotypen zu „denken“. Das Thema wurde vielfältig von populären Medien aufgegriffen. Zwei interessante Berichte verdeutlichen dabei das Thema gut:
- Nicoletti, L., & Equality, D. B. T. +. (2023, Juni 9). Humans Are Biased. Generative AI Is Even Worse. Bloomberg.Com. https://www.bloomberg.com/graphics/2023-generative-ai-bias/
Some image generators produce more problematic stereotypes than others, but all fail at diversity. (2023, November 2). AlgorithmWatch. https://algorithmwatch.org/en/image-generators-stereotypes-diversity/
Ein interessanter Podcast mit Lundy Braun zu ihrem Buch "Breathing Race into the Machine" gibt es hier: Breathing Race into the Machine: The Surprising Career of the Spirometer from Plantation to Genetics. (2021). Science, 373(6558), 972–972. https://doi.org/10.1126/science.abl8016