5.6 Чему вы научились

В этой главе мы прошли путь от базовых строительных блоков — множеств и операций над ними — до понимания глобальных проблем машинного обучения, таких как «проклятие размерности». Вы получили не просто набор формул, а способ мышления, который помогает оценивать сложность задач и понимать масштаб пространства возможных решений.

Давайте подведём итоги и вспомним, какие инструменты теперь есть в вашем арсенале.

Что вы изучили:

  • Язык множеств. Умеете оперировать множествами и подмножествами, работать с объединением, пересечением, разностью, симметрической разностью и декартовым произведением. Понимаете, что такое мощность множества и пустое множество.
  • Фундаментальные правила подсчёта. Умеете применять правило суммы и произведения для решения комбинаторных задач, а также знаете, как принцип Дирихле помогает быстро получить жёсткую оценку.
  • Классический инструментарий. Умеете вычислять перестановки, размещения и сочетания (с повторениями и без). Понимаете их глубокую связь с биномиальными коэффициентами, треугольником Паскаля и формулой разложения бинома.
  • Продвинутые техники. Умеете применять метод включений-исключений для аккуратного учёта пересечений. Понимаете, что такое множество всех подмножеств (power set) и почему его размер растёт экспоненциально, удваиваясь с каждым новым элементом.

Самое главное — вы увидели, что комбинаторика в машинном обучении не абстрактная теория, а суровая практика. Теперь вы понимаете:

  • Почему подбор гиперпараметров дорогой. Видно, как быстро раздувается сетка перебора с каждым новым параметром и как на практике помогают случайный поиск и байесовская оптимизация.
  • Откуда берётся комбинаторный взрыв. На примерах отбора признаков, аугментаций и архитектур WANN вы увидели экспоненциальный рост числа конфигураций — полный перебор быстро становится бессмысленным.
  • Интуиция проклятия размерности. С ростом числа признаков данных нужно несоразмерно больше. Отсюда и важность структурных предположений и учёта симметрий в моделях.

До сих пор мы отвечали на вопрос «Сколько вариантов?». Но в реальных задачах так же важно найти ответ на вопрос «Насколько это вероятно?». Поэтому мы переходим от комбинаторики к теории вероятностей: события — это те же множества, а подсчёты превращаются в оценку вероятности.

В следующей главе мы введём случайный эксперимент и пространство исходов, разберём вероятность и условную вероятность, независимость и формулу Байеса, поговорим о математическом ожидании и дисперсии — и продолжим увязывать всё это с практикой анализа данных и машинного обучения.

Чтобы добавить в заметки выделенный текст, нажмите Ctrl + E
Предыдущий параграф5.5. Комбинаторика в машинном обучении: от перебора гиперпараметров до проклятия размерности
Следующий параграф6.1. О чём мы поговорим в этой главе