Tiefes Lernen kann komplexe Zusammenhänge erfassen

2020 
Bei komplexeren Problemem sind einfache lineare Modelle unzureichend. Ein Ausweg bieten Modelle mit mehreren nichtlinearen Schichten (Operatoren), welche beliebige Zusammenhange zwischen Ein- und Ausgaben reprasentieren konnen. Dieses Kapitel beschreibt die Eigenschaften derartiger tiefer neuronaler Netze und zeigt auf, wie sich mit Hilfe des Backproagation-Verfahrens die optimalen Parameter finden lassen. Anschliesend wird das Problem der Uberanpassung dargestellt und wie es sich mit Regularisierungsverfahren losen lasst. Zum Schlus wird ein Uberblick uber die unterschiedlichen Typen tiefer neuronaler Netze gegeben und Methoden zur Suche einer Netzwerk-Struktur diskutiert.
    • Correction
    • Source
    • Cite
    • Save
    • Machine Reading By IdeaReader
    22
    References
    0
    Citations
    NaN
    KQI
    []