Слайды: http://bit.ly/2t2QRvV
Лекция является частью курса: https://habr.com/post/414165/
0:35 — Начало
1:20 — Краткое повтороение прошлой лекции
4:16 — О разделении датасета на части
4:49 — Распознавание образов на примере датасета CIFAR-10
8:39 — Метод ближайших соседей (Nearest neighbor)
13:24 — Метод K-ближайших соседей (k-nearest neighbor)
14:29 — (off) Вопросы (не было) и истории (были) 🙂
16:22 — Продолжение о методе K-ближайших соседей
16:39 — Гиперпараметры, их подбор и как это связано с разделением датасета на части
24:25 — Кросс-валидация
27:57 — Недостатки метода K-ближайших соседей
33:04 — Вопросы
34:00 — Линейный классификатор
39:53 — Вопросы и истории
43:48 — Интерпретация результатов работы классификатора (softmax)
51:09 — Принцип максимального правдоподобия
55:20 — Вопросы о методе максимального правдоподобия + перерыв в лекции
1:07:03 — Продолжение о принципе максимального правдоподобия (cross entropy loss)
1:10:09 — Регуляризация
1:15:29 — Градиентный спуск
1:23:18 — Стохастический градиентный спуск
1:28:10 — Что будет дальше?
1:29:11 — Вопросы и истории