Dieses Video gehört zum openHPI-Kurs Künstliche Intelligenz und Maschinelles Lernen in der Praxis. Möchten Sie mehr sehen?
Beim Laden des Videoplayers ist ein Fehler aufgetreten, oder es dauert lange, bis er initialisiert wird. Sie können versuchen, Ihren Browser-Cache zu leeren. Bitte versuchen Sie es später noch einmal und wenden Sie sich an den Helpdesk, wenn das Problem weiterhin besteht.
Scroll to current position
- 00:00Willkommen zur Einheit 4.7, Ergebnis und Auswertung. In dieser Einheit
- 00:04wollen wir uns einmal unsere trainierten Modelle im Detail ansehen und
- 00:08evaluieren beziehungsweise auswerten.
- 00:13Zunächst starten wir mit unserer Accuracy- beziehungsweise Loss-Kurve für die
- 00:17Trainings- und Testdaten.
- 00:20Wir sehen hierbei für das komplexe Modell mit Daten-Augmentierung, dass wir zunächst große
- 00:28Fortschritte haben in unserem Modell-Training, das heißt, die Accuracy
- 00:33steigt stark an und der Loss nimmt stark ab.
- 00:36Gegen Ende des Trainings, bei Epoche circa 35/ 40, sehen wir dann ein stagnierendes Verhalten, das heißt, wir
- 00:46haben keine großartigen Verbesserungen mehr.
- 00:51Das ist durchaus auch dadurch begründet, dass wir nahe an den 100 Prozent Accuracy
- 00:58dran sind. Das heißt, da ist nicht mehr viel Raum für Verbesserung.
- 01:06Wenn wir uns mal im Detail die Accuracy unseres Modells ausgeben lassen auf den Testdaten,
- 01:12so kommen wir auf 99,4 Prozent Accuracy.
- 01:15Das ist natürlich ein sehr Super-Ergebnis.
- 01:20Da wir für zwei Klassen, Klasse 9, also Symbol J und Klasse 25, also Symbol Z,
- 01:26keine Bilder haben, müssen wir unsere Ergebnisse etwas anpassen.
- 01:30Wir müssen die Ergebnis-Label jeweils um einen Zähler erhöhen, wenn sie an der Stelle 9
- 01:37beziehungsweise größer auftauchen.
- 01:38Denn nur dann stimmen die Label unserer Vorhersage wieder mit den realen Labels überein.
- 01:45Das machen wir mit folgendem Code. Das heißt, alles, was an Stelle 9 oder größer liegt, wird um 1
- 01:51nach rechts verschoben.
- 01:55Jetzt können wir uns auch eine detaillierte Analyse der gesamten Klassifikation
- 01:58ausgeben lassen, mit einer Auflistung aller Klassen, und deren Ergebnisse. Hierbei sieht man,
- 02:04dass nicht alle Klassen optimale Ergebnisse erzielen.
- 02:07Zum Beispiel Klasse 1, das sieht man nicht perfekte Ergebnisse, zum Beispiel
- 02:14bei Recall und dem F1-Score.
- 02:18Da das etwas schwer zu greifen ist, diese Art der Abbildung beziehungsweise
- 02:24Darstellung. Wollen wir uns nun auch einmal eine sogenannte Confusion Matrix ausgeben.
- 02:29Hier werden die tatsächlichen Klassen mit der vorhergesagten Klasse verglichen.
- 02:35Stimmen diese überein, dann befinden sich alle Einträge auf der Diagonalen
- 02:38von oben links nach unten rechts.
- 02:40Das wollen wir uns auch einmal ausgeben lassen.
- 02:45Das heißt, wir sehen hier jeweils die einzelnen
- 02:50Klassen und sehen das zum Beispiel, die
- 02:53die Farben sind nicht so ganz hell, aber wir sehen beispielsweise, dass bei Klasse 1 teilweise
- 02:59Überschneidungen sind mit Klasse 22.
- 03:03Das heißt, hier ist sich das Modell manchmal nicht ganz sicher, ob es eben Klasse 1 oder Klasse 22
- 03:10vorhersagen soll. Aber ein Großteil,
- 03:14deswegen sind auch die Farben in der Mitte so stark,
- 03:17ein Großteil der Daten ist eben richtig klassifiziert und liegt eben genau auf dieser Diagonalen
- 03:23von links oben nach unten rechts.
- 03:28Am Anfang haben wir uns einige Beispiel-Bilder ausgeben lassen.
- 03:32Da wir nun die Vorhersagen auch gemacht haben, können wir uns diese Bilder erneut einmal ausgeben
- 03:37mit jeweils dem realen Label und unserem vorhergesagten Label. Hier sehen wir, dass zumindest
- 03:46für diesen Teil oder diesen Ausschnitt unserer Daten, alle Label richtig vorhergesagt wurden.
- 03:52Das heißt, beispielsweise unten rechts wurde das Bild, was wirklich den Buchstaben H
- 04:00repräsentiert, auch mit H vorhergesagt.
- 04:07Hier wollen wir allerdings einmal festhalten, dass diese erreichten Ergebnisse
- 04:11natürlich keinesfalls gang und gäbe sind.
- 04:14Das ist sehr anwendungs- und datensatzspezifisch.
- 04:17Solche gute Ergebnisse lassen sich in realen Anwendungsfällen meist sehr selten erzielen.
- 04:23Wir müssen uns gerade hier auch vor Augen führen, dass der Datensatz unter sehr kontrollierten
- 04:27Bedingungen aufgenommen wurde. Wie wir sehen,
- 04:30sind die Bilder jeweils vor neutralem Hintergrund gemacht worden.
- 04:35Würde diese Bildanalyse in der Praxis eingesetzt werden, dann würden wir sicherlich
- 04:40auf einige Probleme stoßen, wie beispielsweise Hintergründe, ja, Problem oder andere Objekte
- 04:47im Hintergrund, Bewegungen durch verzerrte Bilder et cetera.
- 04:50Das heißt, man muss solche Ergebnisse immer mit Vorsicht genießen.
- 04:55Wir haben hier noch nicht die perfekte Bilderkennung für Gebärdensprache umgesetzt.
- 05:00Allerdings auf diesem Datensatz natürlich, haben wir mit unseren
- 05:04Möglichkeiten sozusagen ein bestmögliches Ergebnis erzeugt.
- 05:07Das war es auch schon zur Einheit, Ergebnisse und Auswertung, für den Anwendungsfall
- 05:12der Bilderkennung von Gebärdensprache. In der nächsten Einheit werden wir noch einmal
- 05:16die Ergebnisse beziehungsweise die Learnings unserer Woche zusammenfassen
- 05:20und anschließend abschließende Worte zu unserem Kurs formulieren.
To enable the transcript, please select a language in the video player settings menu.
Über dieses Video
- Auf GitHub haben wir alle Materialien für die praktischen Einheiten zusammengefasst und für Sie aufbereitet.