Deep Learning illustriert. Jon Krohn
href="#u9e86e8aa-131e-4465-9869-5e9bd40efde8">8.1.1Quadratische Kosten
8.2Optimierung: Lernen, um die Kosten zu minimieren
8.2.3Batch-Größe und stochastischer Gradientenabstieg
8.2.4Dem lokalen Minimum entkommen
8.4Die Anzahl der verborgenen Schichten und der Neuronen anpassen
8.5Ein mittleres Netz in Keras
Schlüsselkonzepte
9.1Die Initialisierung der Gewichte
9.1.1Xavier-Glorot-Verteilungen
9.2.1Verschwindende Gradienten
9.3Modellgeneralisierung (Überanpassung vermeiden)
9.3.1L1- und L2-Regularisierung
9.5Ein tiefes neuronales Netz in Keras
Schlüsselkonzepte
Teil IIIInteraktive Anwendungen des Deep Learning
10.1Convolutional Neural Networks
10.1.1Die zweidimensionale Struktur der visuellen Bilddarstellung
10.1.5Ein Beispiel für Konvolutionsschichten
10.2Hyperparameter von Konvolutionsfiltern
10.5AlexNet und VGGNet in Keras
10.6.1Schwindende Gradienten: Das Grauen der tiefen CNN
10.7Anwendungen des maschinellen Sehens