Siódma część wykładów na temat deep learning i uczenia maszynowego. Prowadzone były na AGH, przez firme Craftinity (Craftinity.com), razem z kołem naukowym BIT (http://knbit.edu.pl/pl/)
Metody Deep Learning - Wykład 5CraftinityPiąta część wykładów na temat deep learning i uczenia maszynowego. Prowadzone były na AGH, przez firme Craftinity (Craftinity.com), razem z kołem naukowym BIT (http://knbit.edu.pl/pl/)
Metody Deep Learning - Wykład 6CraftinitySzósta część wykładów na temat deep learning i uczenia maszynowego. Prowadzone były na AGH, przez firme Craftinity (Craftinity.com), razem z kołem naukowym BIT (http://knbit.edu.pl/pl/)
Metody Deep Learning - Wykład 1CraftinityPierwsza część wykładów na temat deep learning i uczenia maszynowego. Prowadzone były na AGH, przez firme Craftinity (Craftinity.com), razem z kołem naukowym BIT (http://knbit.edu.pl/pl/)
Metody Deep Learning - Wykład 2CraftinityDruga część wykładów na temat deep learning i uczenia maszynowego. Prowadzone były na AGH, przez firme Craftinity (Craftinity.com), razem z kołem naukowym BIT (http://knbit.edu.pl/pl/)
Metody Deep Learning - Wykład 3CraftinityTrzecia część wykładów na temat deep learning i uczenia maszynowego. Prowadzone były na AGH, przez firme Craftinity (Craftinity.com), razem z kołem naukowym BIT (http://knbit.edu.pl/pl/)
Predicting the risk of suicide using clinical notesŻaneta MichalakThe research aims to develop tools for predicting suicide risk by analyzing clinical notes from three patient groups. A machine-learning algorithm is trained on specific word patterns within these notes to identify predictive terms. The study highlights the model's performance in categorizing notes from control, psychiatric, and suicide groups.
Metody Deep Learning - Wykład 4CraftinityCzwarta część wykładów na temat deep learning i uczenia maszynowego. Prowadzone były na AGH, przez firme Craftinity (Craftinity.com), razem z kołem naukowym BIT (http://knbit.edu.pl/pl/)
Machine learning - hot or not?mjaskowski5-minutowa prezentacja o Machine Learningu i dlaczego warto zainwestować w tę interdyscyplinarną dziedzinę trochę swojego cennego czasu.
Hacking Internet of ThingsSecuRingKolejny startup stworzył nowe urządzenie: do automatycznego otwierania samochodu za pomocą smartfona. Przekonani iż użycie AES czyni komunikację niemożliwą do złamania, w celu promocji kampanii crowdfundingowej zorganizowali nietypowy konkurs - "hacking challenge": jeśli komuś uda się przełamać zabezpieczenia i "ukraść" samochód, wówczas legalnie trafi on do "złodzieja".
W trakcie prezentacji - przy aktywnej pomocy widowni, wspomaganej niezbędnym do zrozumienia nowej technologii wprowadzeniem - krok po kroku przeprowadzimy analizę bezpieczeństwa tego rozwiązania: zaczynając od aplikacji mobilnej, przez warstwę radiową Bluetooth Low Energy,
słabości stworzonego protokołu komunikacyjnego, niewłaściwe założenia i brak zrozumienia ograniczeń bezpieczeństwa użytych komponentów. Ostatecznie wspólnie odkryjemy nowy, zaskakujący dla twórców atak: złamiemy zabezpieczenia, przejmując pełną kontrolę nad samochodem, po
uprzednim jednokrotnym zbliżeniu się do nieświadomego właściciela.
Podzielę się prawdziwym doświadczeniem sukcesu i porażki udziału w konkursie "hacking challenge" - trudnych do spełnienia warunków, problemów technicznych, przeszkód organizacyjnych i kontaktu z organizatorem - przed i po upadku kampanii. Opowiem o ekonomii startup-ów podporządkowanej twardym zasadom crowdfundingu, oraz o
urządzeniach które wkrótce nieuchronnie staną się częścią otaczającej nas rzeczywistości.
Uczestnicy wyniosą wyczerpującą wiedzę dotyczącą bezpiecznego użycia najpopularniejszej technologii IoT: Bluetooth 4 (Low Energy) - na przykładzie nie tylko samochodu, ale także innych urządzeń - m.in. coraz
popularniejszych beacon-ów. Wspólnie zastanowimy się również nad warunkami wykorzystania potencjalnych słabości, oraz ich rzeczywistym wpływem na ryzyko.
Wyniki wyszukiwania Google w 2016 - XIX Semcamp Cezary GlijerCezary GlijerCo nowego w wynikach wyszukiwania Google w 2016: Google Answer Box, Knowledge Graph, Entity, sztuczna inteligencja, Machine Learning, RankBrain.
Prezentacja z Big Data Tech 2016: Machine Learning vs Big DataBartlomiej TwardowskiMachine Learning vs Big Data - od pomysłu do produkcji. Prezentacja: B.Twardowski, P.Zawistowski
Machine learning - hot or not?mjaskowski5-minutowa prezentacja o Machine Learningu i dlaczego warto zainwestować w tę interdyscyplinarną dziedzinę trochę swojego cennego czasu.
Hacking Internet of ThingsSecuRingKolejny startup stworzył nowe urządzenie: do automatycznego otwierania samochodu za pomocą smartfona. Przekonani iż użycie AES czyni komunikację niemożliwą do złamania, w celu promocji kampanii crowdfundingowej zorganizowali nietypowy konkurs - "hacking challenge": jeśli komuś uda się przełamać zabezpieczenia i "ukraść" samochód, wówczas legalnie trafi on do "złodzieja".
W trakcie prezentacji - przy aktywnej pomocy widowni, wspomaganej niezbędnym do zrozumienia nowej technologii wprowadzeniem - krok po kroku przeprowadzimy analizę bezpieczeństwa tego rozwiązania: zaczynając od aplikacji mobilnej, przez warstwę radiową Bluetooth Low Energy,
słabości stworzonego protokołu komunikacyjnego, niewłaściwe założenia i brak zrozumienia ograniczeń bezpieczeństwa użytych komponentów. Ostatecznie wspólnie odkryjemy nowy, zaskakujący dla twórców atak: złamiemy zabezpieczenia, przejmując pełną kontrolę nad samochodem, po
uprzednim jednokrotnym zbliżeniu się do nieświadomego właściciela.
Podzielę się prawdziwym doświadczeniem sukcesu i porażki udziału w konkursie "hacking challenge" - trudnych do spełnienia warunków, problemów technicznych, przeszkód organizacyjnych i kontaktu z organizatorem - przed i po upadku kampanii. Opowiem o ekonomii startup-ów podporządkowanej twardym zasadom crowdfundingu, oraz o
urządzeniach które wkrótce nieuchronnie staną się częścią otaczającej nas rzeczywistości.
Uczestnicy wyniosą wyczerpującą wiedzę dotyczącą bezpiecznego użycia najpopularniejszej technologii IoT: Bluetooth 4 (Low Energy) - na przykładzie nie tylko samochodu, ale także innych urządzeń - m.in. coraz
popularniejszych beacon-ów. Wspólnie zastanowimy się również nad warunkami wykorzystania potencjalnych słabości, oraz ich rzeczywistym wpływem na ryzyko.
Wyniki wyszukiwania Google w 2016 - XIX Semcamp Cezary GlijerCezary GlijerCo nowego w wynikach wyszukiwania Google w 2016: Google Answer Box, Knowledge Graph, Entity, sztuczna inteligencja, Machine Learning, RankBrain.
Prezentacja z Big Data Tech 2016: Machine Learning vs Big DataBartlomiej TwardowskiMachine Learning vs Big Data - od pomysłu do produkcji. Prezentacja: B.Twardowski, P.Zawistowski
7. ● głęboka, wielo-
warstwowa sieć
neuronowa
● podzielona na dwie
części - encoder i
decoder
● ostatnia warstwa ma taki
sam rozmiar jak
wejściowa
SDAE
8. SDAE - pre-training
● trenujemy DAE
warstwa po warstwie
w sposób
unsupervised
● możliwości RBM lub
DAE
9. SDAE - unrolling
● po pretrenowaniu
dodajemy kolejne
warstwy w odwrotnej
kolejności
● po dodaniu ostatniej,
wyjście sieci ma ten
sam wymiar co
wejście
10. SDAE - fine-tuning
● parametry z
pretrenowania
warstwa po warstwie
- inicjalizacja wag w
warstwach
● trenujemy cały,
głęboki autoencoder
minimalizując błąd
rekonstrukcji ->
backpropagation
11. SDAE - zastosowania
● ekstrakcja cech z zaobserwowanych
danych -> przydatne przy semantycznym
haszowaniu
● wizualizacja wielowymiarowych danych
#7: sieć neuronowa z jedną warstwą ukrytą
aktywacja neuronów w warstwie ukrytej - encoder
aktywacja na widocznej - dekoder
rozmiar wejściowej == rozmiar dekodera
cel: kompresja danych, ekstrakcja cech z danych
#8: budujemy głęboki model licząc na to, że wyekstrachuje nam lepsze cechy -> idea taka sama jak w przypadku innych modeli głębokich
sieć zwęża się do pewnego momentu, później rozszerza się w taki sam sposób jak poprzednio się zwężała
podobnie jak w autoencoderze na wyjściu chcemy uzyskać mały błąd rekonstrukcji
problem z trenowaniem -> zwykłe backpropagation powoduje underfitting - błąd rekonstrukcji bardzo duży
staramy się ratować tym samym czym się ratujemy w przypadku głębokich sieci FF
#9: pretrenowanie warstwa po warstwa
mogą być autoencoder-y albo RBM-y
ciekawostka: w przypadku sieci FF używanych przy Supervised Learning pretrenowanie działa jak dobry regularyzator - unikamy overfittingu
w tym przyapdku pomagamy sobie osiągając lepsze minimum funkcji kosztu
#14: liniowy model redukcji wymiarowości
intuicja: bierze n-wymiarowe dane i znajduje m ortogonalnych kierunków w których dane mają największą wariancję. To M kierunków tworzy mało wymiarową przestrzeń, do której rzutujemy dane
działa kiepsko bo jest tylko liniowy