Dieses Video gehört zum openHPI-Kurs Digitale Medizin – Was ist ethisch verantwortbar?. Möchten Sie mehr sehen?
Beim Laden des Videoplayers ist ein Fehler aufgetreten, oder es dauert lange, bis er initialisiert wird. Sie können versuchen, Ihren Browser-Cache zu leeren. Bitte versuchen Sie es später noch einmal und wenden Sie sich an den Helpdesk, wenn das Problem weiterhin besteht.
Scroll to current position
- 00:01Mit dem letzten Video haben wir uns eine Spur gelegt.
- 00:04Wir haben gesehen, dass die Idee von der mathematischen Operationalisierung von Fairness und Gerechtigkeit ein guter Ansatzpunkt
- 00:14ist, aber wir haben auch gesehen, dass es unter Umständen nicht klug ist, alles Gewicht einer gerechten Behandlung durch
- 00:22und mit Daten auf diese Idee zu konzentrieren.
- 00:26Die Idee von Operationalisierung, von Fairness und Gerechtigkeit zielt vor allen Dingen auf die Vorstellung von Gerechtigkeit
- 00:34als etwas überparteiliche.
- 00:37Es gibt aber auch Autorinnen und Autoren, die argumentiert haben, dass wir Gerechtigkeit durchaus auch in einem breiteren
- 00:44Sinn verstehen sollten, und diese Autorinnen und Autoren akzentuieren beispielsweise die Vorstellung von Gerechtigkeit als
- 00:53eine Anerkennung im Sinne einer prinzipiellen Gleichheit.
- 00:58Das ist tatsächlich auf den ersten Blick erst mal ein komplizierter Gedanke.
- 01:04Die Grundidee, die dahinter steht, ist, dass Gerechtigkeit in fundamentaler Art und Weise symmetrische Beziehungen zwischen
- 01:12Personen voraussetzt.
- 01:14Und wenn wir uns kurz noch mal das Beispiel von John Rawls überlegen, der die Situation hinter dem Schleier des Nichtwissens,
- 01:22dann wird schnell klar, was damit eigentlich gemeint ist.
- 01:26Im Gedankenexperiment von Rawls können wir faire Verteilungsregeln ja tatsächlich nur dann aushandeln, wenn die Interessen
- 01:36aller Personen in gleicher Weise Gehör finden werden.
- 01:40Wenn also die Interessen einer Person, die weniger hat als eine andere Person, plötzlich auch weniger erzählen würden, dann
- 01:49würde das nicht mehr funktionieren.
- 01:52Damit wird implizit eine wichtige Facette von Gerechtigkeit aufgedeckt, nämlich die Vorstellung, dass Gerechtigkeit bedeutet
- 02:01sich unter Gleichen zu begegnen.
- 02:04Und jetzt kommt noch ein 2. schwieriger Schritt bei dem Gedanken dazu, nämlich, dass wir diese Vorstellung von Gerechtigkeit
- 02:12als Begegnung und dergleichen auch auf die Welt der Daten übertragen können.
- 02:18Dafür liefert uns beispielsweise Linnet Taylor ein interessantes Argument unter dem Stichwort Data Justice.
- 02:25Taylor argumentiert, dass wenn wir Dinge verdaten, wenn wir Daten produzieren und Daten generieren, diese Daten immer auch
- 02:34Spielfeld unserer Interessen sind.
- 02:36Wir haben es eingangs ja gehört, Daten sind nicht neutral.
- 02:40Dem Datum an sich geht immer der Prozess der Datafizierung voraus, und dieser Prozess ist interessensgeleitet.
- 02:50Wenn wir diese beiden Gedanken zusammendenken, den Gedanken von Gerechtigkeit als Anerkennung unter Gleichen und den Gedanken
- 02:57von Daten als Spielfeld von Interessen und Kräften, dann können wir daraus schließen, dass Sichtbarkeit in Daten ein wesentliches
- 03:08Gerechtigkeitskriterium sein kann.
- 03:13Denn wer wie sichtbar ist, das entscheidet letztendlich auch darüber, wer wie partizipieren kann an Daten.
- 03:22Aber das ist noch nicht alles, denn auch eigene Ansprüche und Interessen müssen dann im Sinne einer Gerechtigkeit als Anerkennung
- 03:31in und durch Daten zur Geltung gebracht werden können.
- 03:36Die Differenz, die damit entsteht zwischen ungerecht und gerecht, ist gewissermaßen die Differenz zwischen einer Person,
- 03:45die einfach nur behandeltes Objekt in den Daten ist und einer Person, die tatsächlich selber handeln kann, die Einfluss auf
- 03:55Daten nehmen kann, die ihre Interessen zur Geltung bringen kann.
- 04:00Wie wichtig diese Vorstellung ist, das zeigt sich tatsächlich an einem sehr einfachen und illustrativen Beispiel.
- 04:08Vielleicht habt ihr Grafiken wie diese schon mal gesehen. Das hier ist ein Kartograf, das gibt auf einer Weltkarte ein bestimmtes
- 04:18Gewicht wieder.
- 04:19Hier gibt es die Anzahl der trainingsdatensätze in der Machine Learning Community nach ihrer Herkunft wieder und verzerrt
- 04:28die Weltkarte entsprechend.
- 04:31Was wir sehen können an dieser Untersuchung ist, dass Datensätze vor allen Dingen aus Europa und aus vor allen Dingen aus
- 04:41den USA stammen.
- 04:43Wenn man die Frage der Sichtbarkeit hier auf eine globale Ebene überträgt, dann wird ganz schnell klar, warum sichtbar wichtig
- 04:50ist, denn wer nicht Teil dieser Datensätze ist, der kommt schlicht und ergreifend nicht vor.
- 04:57Der wird in dem Training der entsprechenden Algorithmen nicht berücksichtigt und Er kann auch entsprechend nicht an den Möglichkeiten
- 05:07und Chancen, die sich dadurch ergeben, partizipieren.
- 05:11Diese Grafik, die ihr hier seht, bezieht sich tatsächlich auf die gesamte Machine Learning Community.
- 05:17Es gibt aber auch Untersuchungen, die versucht haben, das für den Bereich der Medizin spezifisch nachzuvollziehen.
- 05:23Und hier ergibt sich tatsächlich ein sehr, sehr ähnliches Bild.
- 05:28Man kann hier sehen, das ist eine Untersuchung der zehn am häufigsten verwendeten trainingsdatensätze in der Radiologie
- 05:36und 40 % dieser Datensätze stammen aus den USA, 20 % stammen aus China, die restliche Welt läuft mehr oder weniger unter
- 05:46ferner liefen.
- 05:48Und auch hier kann man sehr gut sehen, warum die Frage der Sichtbarkeit im Sinne der Gerechtigkeit plötzlich relevant wird.
- 05:56Wer nämlich in diesen Datensätzen nicht vorkommt, der kann letztendlich auch nicht angemessen von den Möglichkeiten, die
- 06:04sich aus ihrer Verarbeitung ergeben, partizipieren.
To enable the transcript, please select a language in the video player settings menu.