Machine Learning für Softwareentwickler. Paolo Perrotta
Probleme beim Gradientenverfahren
Praktische Übung: Über das Ziel hinaus
Die Vorhersagefunktion anpassen
Die Gradientenfunktion anpassen
Praktische Übung: Statistik in der Praxis
Grenzen der linearen Regression
Glätten
Den Gradienten anpassen
Was ist mit der Modellfunktion geschehen?
Klassifizierung in Aktion
Zusammenfassung
Praktische Übung: Gewichtige Entscheidungen
6 Eine Aufgabe aus der Praxis
Die Daten
MNIST
Trainings- und Testdatensatz
Unsere eigene MNIST-Bibliothek
Die Eingabematrizen vorbereiten
Die Daten aufbereiten
Anwendung in der Praxis
Zusammenfassung
Praktische Übung: Knifflige Ziffern
7 Die große Herausforderung
Von zwei zu mehr Klassen
1-aus-n-Codierung
1-aus-n-Codierung in Aktion
Die Antworten des Klassifizierers decodieren
Mehr Gewichte
Die Matrixdimensionen überprüfen
Der Augenblick der Wahrheit
Zusammenfassung
Praktische Übung: Minensucher
8 Das Perzeptron
Gestatten, das Perzeptron!
Perzeptrone kombinieren
Die Grenzen von Perzeptronen
Linear separierbare Daten
Nicht linear separierbare Daten
Die Geschichte des Perzeptrons
Der entscheidende Schlag
Nachwehen
Teil 2Neuronale Netze
9 Das Netz entwerfen
Ein neuronales Netz aus Perzeptronen zusammenstellen
Perzeptrone verketten
Wie viele Knoten?
Die Softmax-Funktion
Der Entwurf
Zusammenfassung
Praktische Übung: Auf eigene Faust
10 Das Netz erstellen
Die Forward-Propagation programmieren
Die Softmax-Funktion schreiben
Die Klassifizierungsfunktionen schreiben
Kreuzentropie
Zusammenfassung
Praktische Übung: Test durch Zeitreise
11 Das Netz trainieren
Wozu Backpropagation?
Von der Kettenregel zur Backpropagation
Die Kettenregel in einem einfachen Netz
Es wird komplizierter
Backpropagation anwenden
Auf Kurs bleiben
Den Gradienten von w2 berechnen
Den Gradienten von w1 berechnen
Die Funktion back() erstellen
Die Gewichte initialisieren