ݺߣ

ݺߣShare a Scribd company logo
Metody Deep Learning
Wykład 2
http://arxiv.org/pdf/1502.01852.pdf
Przypomnienie
Artificial neuron c.d
● Neuron pre-activation
● Neuron activation
● - wagi
● - bias
● - funkcja aktywacji (activation function)
Funkcje aktywacji
Binarna klasyfikacja
Klasyfikacja
Klasyfikacja
Multi-layered neural networks
Metody Deep Learning - Wykład 2
Metody Deep Learning - Wykład 2
Zaczynamy
Mathematical Optimization
● wiki: “[...] finding "best available" values of
some objective function given [...] a set of
constraints [...]”
Gradient Descent
Gradient Descent
Gradient Descent
● gwarancja zbieżności do minimum lokalnego
● łatwe do implementacji
● działa dobrze w praktyce
Gradient Descent
NN objective (cost) function
Błąd średnio kwadratowy (mean square error)
Entropia krzyżowa (cross entropy)
Wyprowadzenie
Powtórka z analizy:
Wyprowadzenie
Powtórka z analizy:
Feedforward
Backpropagation
Warianty gradient descent
Homework

More Related Content

Metody Deep Learning - Wykład 2

Editor's Notes

  • #4: obliczanie wyjścia w dwóch fazach
  • #6: zbiór punktów dwuwymiarowych należących do dwóch klas, np. {0,1} rozpatrzenie jednego neuronu z sigmoidą jako funkcją aktywacji wyjście z sigmoidy można traktować jako prawdopodobieństwo, że punkt przynależy do klasy - np.1 zastanowić się, gdzie przebiega granica pomiędzy klasami - jest to linia prosta wniosek: jeden sztuczny neuron działa jako klasyfikator binarny liniowo separując klasy
  • #7: odchodzimy od sztucznego neuronu inne proste problemy liniowo separowalne
  • #13: na tablicy oblicz minimum (wyjdzie -3/2)
  • #14: obliczyć tutaj gradient tej funkcji na tablicy pokazać że niezależnie od pierwszego strzału zabawa ze styczną da dobre wyniki (narysować wykres tan x)