ݺߣ

ݺߣShare a Scribd company logo
Metody Deep Learning
Wykład 7
http://arxiv.org/pdf/1502.01852.pdf
Metody Deep Learning - Wykład 7
Metody Deep Learning - Wykład 7
Zaczynamy
Deep Autoencoders
Autoencoders -
przypomnienie
● głęboka, wielo-
warstwowa sieć
neuronowa
● podzielona na dwie
części - encoder i
decoder
● ostatnia warstwa ma taki
sam rozmiar jak
wejściowa
SDAE
SDAE - pre-training
● trenujemy DAE
warstwa po warstwie
w sposób
unsupervised
● możliwości RBM lub
DAE
SDAE - unrolling
● po pretrenowaniu
dodajemy kolejne
warstwy w odwrotnej
kolejności
● po dodaniu ostatniej,
wyjście sieci ma ten
sam wymiar co
wejście
SDAE - fine-tuning
● parametry z
pretrenowania
warstwa po warstwie
- inicjalizacja wag w
warstwach
● trenujemy cały,
głęboki autoencoder
minimalizując błąd
rekonstrukcji ->
backpropagation
SDAE - zastosowania
● ekstrakcja cech z zaobserwowanych
danych -> przydatne przy semantycznym
haszowaniu
● wizualizacja wielowymiarowych danych
Semantyczne haszowanie
PCA - przypomnienie
Neuronowy odpowiednik PCA
Deep Auto Encoder
DAE vs PCA
Hinton & Salakhutdinov, 2006
Semantic Hashing - Ruslan Salakhutdinov, Geoffrey
Hinton, 2006
Metody Deep Learning - Wykład 7
● Reuters RCV2
● ~ 400k dokumentów z różnych gałęzi
biznesu
● 20 bitowe kody
● retrieval w średnim czasie O(1)
Metody Deep Learning - Wykład 7
PCA
DAE
Metody Deep Learning - Wykład 7
Retrieval
Using Very Deep Autoencoders for Content-Based
image retrieval - Alex Krizhevsky, Geoffrey Hinton,
2007
● 80 mln obrazków TinyImages
● 32 x 32 piksele
Deep Auto Encoder
Demo
Ad

Recommended

Metody Deep Learning - Wykład 5
Metody Deep Learning - Wykład 5
Craftinity
Metody Deep Learning - Wykład 6
Metody Deep Learning - Wykład 6
Craftinity
Metody Deep Learning - Wykład 1
Metody Deep Learning - Wykład 1
Craftinity
Metody Deep Learning - Wykład 2
Metody Deep Learning - Wykład 2
Craftinity
Metody Deep Learning - Wykład 3
Metody Deep Learning - Wykład 3
Craftinity
(Azure) Machine Learning 2015
(Azure) Machine Learning 2015
Tomasz Kopacz
Predicting the risk of suicide using clinical notes
Predicting the risk of suicide using clinical notes
Żaneta Michalak
Metody Deep Learning - Wykład 4
Metody Deep Learning - Wykład 4
Craftinity
Machine learning - hot or not?
Machine learning - hot or not?
mjaskowski
To co powinniście wiedzieć o Machine Learning
To co powinniście wiedzieć o Machine Learning
3camp
Machine learning and Big Data (lecture in Polish)
Machine learning and Big Data (lecture in Polish)
Michal Iwanowski
Hacking Internet of Things
Hacking Internet of Things
SecuRing
Wyniki wyszukiwania Google w 2016 - XIX Semcamp Cezary Glijer
Wyniki wyszukiwania Google w 2016 - XIX Semcamp Cezary Glijer
Cezary Glijer
Prezentacja z Big Data Tech 2016: Machine Learning vs Big Data
Prezentacja z Big Data Tech 2016: Machine Learning vs Big Data
Bartlomiej Twardowski

More Related Content

Viewers also liked (6)

Machine learning - hot or not?
Machine learning - hot or not?
mjaskowski
To co powinniście wiedzieć o Machine Learning
To co powinniście wiedzieć o Machine Learning
3camp
Machine learning and Big Data (lecture in Polish)
Machine learning and Big Data (lecture in Polish)
Michal Iwanowski
Hacking Internet of Things
Hacking Internet of Things
SecuRing
Wyniki wyszukiwania Google w 2016 - XIX Semcamp Cezary Glijer
Wyniki wyszukiwania Google w 2016 - XIX Semcamp Cezary Glijer
Cezary Glijer
Prezentacja z Big Data Tech 2016: Machine Learning vs Big Data
Prezentacja z Big Data Tech 2016: Machine Learning vs Big Data
Bartlomiej Twardowski
Machine learning - hot or not?
Machine learning - hot or not?
mjaskowski
To co powinniście wiedzieć o Machine Learning
To co powinniście wiedzieć o Machine Learning
3camp
Machine learning and Big Data (lecture in Polish)
Machine learning and Big Data (lecture in Polish)
Michal Iwanowski
Hacking Internet of Things
Hacking Internet of Things
SecuRing
Wyniki wyszukiwania Google w 2016 - XIX Semcamp Cezary Glijer
Wyniki wyszukiwania Google w 2016 - XIX Semcamp Cezary Glijer
Cezary Glijer
Prezentacja z Big Data Tech 2016: Machine Learning vs Big Data
Prezentacja z Big Data Tech 2016: Machine Learning vs Big Data
Bartlomiej Twardowski

Metody Deep Learning - Wykład 7

Editor's Notes

  • #7: sieć neuronowa z jedną warstwą ukrytą aktywacja neuronów w warstwie ukrytej - encoder aktywacja na widocznej - dekoder rozmiar wejściowej == rozmiar dekodera cel: kompresja danych, ekstrakcja cech z danych
  • #8: budujemy głęboki model licząc na to, że wyekstrachuje nam lepsze cechy -> idea taka sama jak w przypadku innych modeli głębokich sieć zwęża się do pewnego momentu, później rozszerza się w taki sam sposób jak poprzednio się zwężała podobnie jak w autoencoderze na wyjściu chcemy uzyskać mały błąd rekonstrukcji problem z trenowaniem -> zwykłe backpropagation powoduje underfitting - błąd rekonstrukcji bardzo duży staramy się ratować tym samym czym się ratujemy w przypadku głębokich sieci FF
  • #9: pretrenowanie warstwa po warstwa mogą być autoencoder-y albo RBM-y ciekawostka: w przypadku sieci FF używanych przy Supervised Learning pretrenowanie działa jak dobry regularyzator - unikamy overfittingu w tym przyapdku pomagamy sobie osiągając lepsze minimum funkcji kosztu
  • #11: środkowa warstwa to warstwa kodu
  • #14: liniowy model redukcji wymiarowości intuicja: bierze n-wymiarowe dane i znajduje m ortogonalnych kierunków w których dane mają największą wariancję. To M kierunków tworzy mało wymiarową przestrzeń, do której rzutujemy dane działa kiepsko bo jest tylko liniowy
  • #15: sparse autoencoder liniowy