Мы все с вами наблюдаем сейчас ажиотаж вокруг машинного обучения (ML). Компьютеры научились стилизовать фотографии под художников, идеально генерировать человеческую речь, писать тексты песен, управлять автомобилем, рекомендовать товары и так далее. Но почему именно сейчас всё это так раскрутилось, а не 50 лет назад, когда придумали нейронные сети? Что это за наука такая и с чего начать изучение? И так ли это всё сложно, как кажется на первый взгляд?
В своем докладе я постараюсь ответить на эти вопросы, объясню постановку задачи ML, расскажу историю развития этой науки и конечно же на примерах объясню основы. Осторожно, после этого доклада вам захочется что-нибудь обучить!
3. Термины
● Объекты – это цветы
● Признаки (feature) – характеристики
чашелистика, длина, ширина
● Скрытая переменная – это вид цветка
● Целевая функция – закон природы,
сопоставляющий объекту целевую
переменную
● Классификация – поиск скрытой
переменной из конечного множества
7. Термины
● Обучающая выборка
● Тестовые данные
● Выбросы – объекты-шумы,
случайные отклонения от закона
природы
● Евклидова метрика между точками
8. Метод 5 ближайших соседей
https://habrahabr.ru/company/yandex/blog/206058/
9. Метод 5 ближайших соседей
https://habrahabr.ru/company/yandex/blog/206058/
Выбросы
10. Метод k ближайших соседей
● Метрический алгоритм
● Чем больше k, тем сильнее
сглаживание
● Плохо работает в многомерных
пространствах
● Трудно выбрать метрику
12. Примеры регрессии
● Предсказание температуры воздуха
● Прогнозирование продаж товара
● Прогнозирование стоимости
недвижимости
● Определение длительности игры
17. Линейный классификатор
● a(x,w) = sign<w,x> =
sign(w0
+w1
x1
+...+wd
xd
)
● <...> - скалярное произведение
● w0
– порог принятия решения
● wi
– веса признаков xi
18. Решающее дерево
Titanic dataset:
● Пол
● Возраст
● Класс (1, 2, 3)
● Тариф
● Порт отбытия
● Родственники
на борту
https://habrahabr.ru/post/171759/
25. Критерий качества
Как сравнить какой алгоритм лучше?
● L(a, x) – функция потерь
● ∑ [yi
!= a(xi
)] -> min
● ∑ (yi
- a(xi
))2
-> min
● logLoss - для оценки вероятностей
● Абсолютное отклонение
● … тысячи их
27. Термины
● Переобучение – эффект, когда алгоритм
подгоняется под обучающую выборку, но
очень плохо предсказывает на новых
данных
● Недообучение – алгоритм не уловил
закономерностей в данных
32. Почему нет одного РЕШЕНИЯ?
● Человек подбирает признаки
● Человек выбирает подходящий
класс алгоритмов ML
● Человек эвристически подбирает
параметры алгоритмов
Машина ищет закономерности в данных
33. Какие предметы надо знать?
● Математический анализ
● Теория вероятностей и статистика
● Теория информации
● Линейная алгебра
● Дифференциальные уравнения
● Методы оптимизации
34. С чего начать?
● www.coursera.org/learn/vvedenie-mashinn
oe-obuchenie/home/welcome
● www.coursera.org/specializations/machine-
learning-data-analysis
● datamininginaction.ru/
● habrahabr.ru/company/ods/
● yandexdataschool.ru/edu-process/courses/
machine-learning
35. Спецкурс в 7bits
Группа в ВК: vk.com/7bitsml
Регистрация: bit.ly/7bits-ml-2017
Старт: октябрь 2017-го