Gdy patrzymy na świat, nasz mózg natychmiast zamienia postrzegane przez nas obrazy w informacje, intuicję i odczucia. Czyni to z ogromnym wysiłkiem obliczeniowym, wykorzystując olbrzymią sieć z niezbadaną dotąd architekturą. Nie jesteśmy nawet bliscy stworzenia maszyny o porównywalnych możliwościach, ale krok po kroku, usprawniając zarówno sprzęt, jak i podejście algorytmiczne, sprawiamy, że maszyny coraz lepiej rozumieją obrazy, które widzą.
Nasz wykład będzie właśnie o tym, jak to działa. Przejdziemy od podstaw działania konwolucyjnych sieci neuronowych, poprzez zaawansowane, praktyczne wskazówki, aż po zastosowanie najnowocześniejszych architektur w praktyce. Zobaczysz przykłady, jak szalenie skomplikowane problemy można rozwiązać za pomocą komputera przenośnego. W międzyczasie zrozumiesz, co się dzieje, dlaczego nowe warstwy są dodawane, dlaczego wprowadzane są nowe koncepcje. Choć prezentacja skierowana jest głównie do osób początkujących lub systematyzujących swoją wiedzę, dosyć płynnie przechodzimy do projektów dotykająch zagadnień zaawansowanych. Zapraszamy wszystkich!
1 of 65
Downloaded 11 times
More Related Content
infoShare AI Roadshow 2018 - Krzysztof Kudryński & Błażej Kubiak (TomTom) - Deep learning in computer vision
2. Plan
• Get excited (7 min)
about the world we live in
• Understand CNN (18 min)
from fundamentals to state-of-the art approach
• Apply CNN (15 min)
by walk-through a challenging computer-vision project.
• Get scared (1 min)
about the world we’ll live in
Deep Learning in Computer Vision
Krzysztof Kudryński
47. • Smart initialization
• Regularization
• Gradient clipping
• New activation functions
• Huge training sets
• Deep networks
Sophisticated
problems
Clever solutions
• Hard to train
• Vanishing gradient
• Exploding gradient
Deep Learning in Computer Vision
Krzysztof Kudryński
48. • Smart initialization
• Regularization
• Gradient clipping
• New activation functions
• Intermediate training paths
• Huge training sets
• Deep networks
• Hard to train
• Vanishing gradient
• Exploding gradient
Sophisticated
problems
Clever solutions
Deep Learning in Computer Vision
Krzysztof Kudryński
49. • Smart initialization
• Regularization
• Gradient clipping
• New activation functions
• Intermediate training paths
• Residual connections
• Huge training sets
• Deep networks
• Hard to train
• Vanishing gradient
• Exploding gradient
Sophisticated
problems
Clever solutions
Deep Learning in Computer Vision
Krzysztof Kudryński
55. RGB Image
Convolution
Max pooling
X X
Convolution
Max pooling
A
B
C
||A – B||
||B – C||
L = ||A – Ex||2
L = ||B – C||2 – ||A – B||2
Deep Learning in Computer Vision
Krzysztof Kudryński
62. model = Sequential()
model.add(Dense(rowSize, input_dim=rowSize, activation='relu'))
model.add(Dense(rowSize, activation='relu'))
model.add(Dense(1, activation='sigmoid'))
adam = optimizers.adam()
model.compile(loss='binary_crossentropy',
optimizer=adam,
metrics=['accuracy'])
model.fit_generator(generate_arrays_from_file(trainArr, tranLabelMap, 30),
steps_per_epoch=2000, epochs=100,
validation_data=(valData, valDataLabels))
Training Network in Keras
Deep Learning in Computer Vision
Krzysztof Kudryński