Рецензия на лекции первого семестра ШАД: Машинное обучение.

Alexey Zinoviev
5 min readAug 27, 2019

--

Этот пост является Appendix к более художественному посту о моем опыте изучения Воронцовского курса.

1 лекция: Основные понятия и примеры прикладных задач

Количество просмотров: 130 995

Оценки лекции: хардкор-4, практичность-10, актуальность-10.

Мое мнение о лекции: Эта лекция обязательна к просмотру любому ML-щику, тут за 1,5 часа все основные вещи рассказываются.

Важные понятия для понимания лекции: методы оптимизации, понятие функционала, эмпирический риск.

Полезные ссылки: Текст лекций 1 семестра, Презентация

2 лекция: Метрические методы классификации

Количество просмотров: 39 434

Оценки лекции: хардкор-5, практичность-6, актуальность-9.

Мое мнение о лекции: Метрические методы — традиционно самые простые в понимании и имплементации, но совершенно не популярные во фреймворках. Вторую половину смотреть только тем, кто сам пишет модификации метрических алгоритмов..

Важные понятия для понимания лекции: метрика Минковского, расстояние Левенштейна, понятие метрического пространства, понимание функций argmax / sign, линейная алгебра (азы), МНК, ядра функций.

Полезные ссылки: Презентация

3 лекция: Логические методы классификации и решающие деревья

Количество просмотров: 19 438

Оценки лекции: хардкор-7, практичность-9, актуальность-10.

Мое мнение о лекции: В этой лекции разобрано сразу несколько способов построения деревьев, даже тех, которых вы никогда не встретите в своей жизни. Лектор идет далеко и показывает всевозможные техники выращивания, ветвления, усечения, сбора в ансамбль. Местами небольшой перекос под нужды Яндекса.

Важные понятия для понимания лекции: матлогика: предикаты, конъюнкции, дизъюнкции; пороговые функции; функции свертки нескольких критериев в один; теория информации: энтропия; понятие жадного алгоритма.

Полезные ссылки: Текст лекции, Презентация

4 лекция: Градиентные линейные методы классификации

Количество просмотров: 14 909

Оценки лекции: хардкор-8, практичность-7, актуальность-10.

Мое мнение о лекции: В этой лекции вы увидите много псевдокода и еще больше теорем и доказательств. Это лекция о простейших линейных моделях является камнем преткновения. Если вы пришли поглядеть на линейную регрессию и не готовы говорить о тюнинге SGD, вам будет очень тяжело. Вторая половина лекции обрушится на головы нехилым заплывом в тервер.

Важные понятия для понимания лекции: Вычислительные методы, методы оптимизации, МНК, задание кусочно-линейных функций, доопределение функций, градиентный спуск, понятие сходимости, принцип максимума правдоподобия, априорное распределение, принцип максимума апостериорной вероятности, распределение Гаусса и Лапласа.

Полезные ссылки: Презентация

5 лекция: Метод опорных векторов

Количество просмотров: 14 031

Оценки лекции: хардкор-9, практичность-7, актуальность-8.

Мое мнение о лекции: Неожиданный подход к SVM как к двухслойной нейросети удивляет, раскрытие полного семейства алгоритмов, использующих опорные вектора — поразителен, я уверен, что вы и не подозревали как можно отбирать признаки в таких алгоритмах..

Важные понятия для понимания лекции: мультиколлинеарность, гиперплоскость, зайчатки линалгебры, условия Каруша-Куна-Таккера и двойственная задача математического программирования, функция Лагранжа, лагранжиан и седловые точки; гильбертово пространство и ядра функций.

Полезные ссылки: Презентация

6 лекция: Многомерная линейная регрессия

Количество просмотров: 9 784

Оценки лекции: хардкор-6, практичность-5, актуальность-7.

Мое мнение о лекции: Данная лекция была максимально насыщена универовской терминологией 1–2 курсов и полна матричных преобразований. Скучновато, долговато, все разжевано. Но без нее следующая лекция будет местами непонятной.

Важные понятия для понимания лекции: МНК, дисперсия, максимум правдоподобия, система уравнений, обращение и транспонирование матрицы, частные производные, сингулярное разложение, понятие плохо обусловленной матрицы.

Полезные ссылки: Презентация

7 лекция: Нелинейная и непараметрическая регрессия, нестандартные функции потерь

Количество просмотров: 7 024

Оценки лекции: хардкор-7, практичность-6, актуальность-8.

Мое мнение о лекции: Любите сводить нелинейщину к линейщине? Много матричных преобразований, замен, гессиан и увуля, вы уже в линейном мире. В любом случае эта лекция венчает трек из 3 лекций про линейные модели, на этом с ними будет покончено, чтобы никогда вам не пригодится в проде.

Важные понятия для понимания лекции: градиент, гессиан, функционал, функционал среднеквадратичного отклонения, метод Ньютона-Рафсона, МНК, сплайны, ядерное сглаживание; экспоненциальное семейство распределений.

Полезные ссылки: Презентация

8 лекция: Прогнозирование временных рядов

Количество просмотров: 18 571

Оценки лекции: хардкор-5, практичность-4, актуальность-6.

Мое мнение о лекции: Не самая хардкорная лекция о временных рядах, методы представлены самые простые, и в целом, эту лекцию можно смотреть как вводную лекцию по временным рядам отдельно. В проде у вас скорее всего будут более сложные модели. Для меня это был еще один повтор лекций по эконометрике.

Важные понятия для понимания лекции: МНК, авторегрессия, экспоненциальное скользящее среднее, формула Надарая-Ватсона, знание функции argmin, сглаживание.

Полезные ссылки: Презентация

9 лекция: Байесовские методы классификации

Количество просмотров: 6 972

Оценки лекции: хардкор-8, практичность-9, актуальность-10.

Мое мнение о лекции: Дальше идут три лекции, которые больше всего подвергаются изменениям от года к году. В первом видео дается сразу ворох теорем и кусков выводов. Без этих выводов и вправду тяжело даются следующие два. Моей ошибкой было сначала пропустить эти выводы, пришлось к ним вернуться. Параллельно хорошо рассказывается идея скользящего контроля. После этой лекции понимаешь, на какой почве зыбких допущений стоит много рабочих техник в ML.

Важные понятия для понимания лекции: понятие плотности распределения и независимой случайной величины, условная вероятность, функция правдоподобия, принцип максимума апостериорной вероятности, эмпирические оценки; понятие четности, нормированности, невозрастания, неотрицательности функции; понятие ядра, понятие Парзеновского окна; многомерное нормальное распределение; понятие квадратичного дискриминанта и линейного дискриминанта Фишера

Полезные ссылки: Презентация

10 лекция: Байесовская теория классификации и методы восстановления плотности

Количество просмотров: 3 459

Оценки лекции: хардкор-7, практичность-10, актуальность-9.

Мое мнение о лекции: Эта лекция на 30% состояла из повтора предыдущей, а вот затем пошли конкретные практические техники, я бы сказал, это была одна из самых полезных лекций, с точки зрения работы в проде с байесовскими классификаторами.

Важные понятия для понимания лекции: То же, что и ранее плюс понятие разделяющей поверхности (линейной или нелинейной), мультиколлинеарности, регуляризации; ковариационная матриц; распределение Стьюдента; понятие жадного алгоритма.

Полезные ссылки: Презентация

11 лекция: Логическая регрессия. Восстановление смеси плотностей

Количество просмотров: 3 809

Оценки лекции: хардкор-8, практичность-8, актуальность-7.

Мое мнение о лекции: Мне показалось излишним подача HEM или SEM или даже SHEM модификаций EM-алгоритма, кажется их никто нигде особо не использует (но надо проверить). Однако, тот же EM, рабочая лошадка ML, был очень хорошо показан и объяснен.

Важные понятия для понимания лекции: То же, что и ранее плюс понятие локального экстремума и метода простых итераций для его поиска; лагранжиан оптимизационной задачи; гауссовские плотности.

Полезные ссылки: Презентация

12 лекция: Поиск ассоциативных правил

Количество просмотров: 3 490

Оценки лекции: хардкор-5, практичность-9, актуальность-9.

Мое мнение о лекции: Это была самая простая, как в плане алгоритмов, так и в плане подачи лекция во всем курсе. Однако, методы описанные в ней, одни из самых популярных и лекция практически целиком закрывает потребность в теории на эту тему. Можно сразу садиться и программировать, хоть локальную, хоть распределенную версии.

Важные понятия для понимания лекции: конъюнкция, дизъюнкция, понятие поддержки; условная вероятность; свойство антимонотонности; поиск в ширину, построение префиксного дерева, рекурсивный обход дерева.

Полезные ссылки: Презентация

--

--

Alexey Zinoviev

Apache Ignite Committer/PMC; Machine Learning Engineer in JetBrains