Druga część wykładów na temat deep learning i uczenia maszynowego. Prowadzone były na AGH, przez firme Craftinity (Craftinity.com), razem z kołem naukowym BIT (http://knbit.edu.pl/pl/)
#6: zbiór punktów dwuwymiarowych należących do dwóch klas, np. {0,1}
rozpatrzenie jednego neuronu z sigmoidą jako funkcją aktywacji
wyjście z sigmoidy można traktować jako prawdopodobieństwo, że punkt przynależy do klasy - np.1
zastanowić się, gdzie przebiega granica pomiędzy klasami - jest to linia prosta
wniosek: jeden sztuczny neuron działa jako klasyfikator binarny liniowo separując klasy
#7: odchodzimy od sztucznego neuronu
inne proste problemy liniowo separowalne
#14: obliczyć tutaj gradient tej funkcji
na tablicy pokazać że niezależnie od pierwszego strzału zabawa ze styczną da dobre wyniki (narysować wykres tan x)