Занятие 1

📄 Презентация👷‍♂️ Seminar

Вспоминаем линейную алгебру. Некоторые матричные разложения. Скорость сходимости.

Занятие 2

📄 Презентация👷‍♂️ Seminar

Одномерная оптимизация. Неточная одномерная оптимизация. Градиент. Гессиан. Матрично-векторное дифференцирование.

Занятие 3

📄 Презентация👷‍♂️ Seminar

Автоматическое дифференцирование. Вычислительный граф.

Занятие 4

📄 Презентация👷‍♂️ Seminar

Выпуклость. Выпуклые множества. Выпуклые функции. Неравенство Йенсена. Сильно выпуклые функции. Условие Поляка - Лоясиевича. Минимумы линейных нейронных сетей.

Занятие 5

📄 Презентация👷‍♂️ Seminar

Условия оптимальности. Функция Лагранжа. Задачи с ограничениями-равенствами. Задачи с ограничениями-равенствами. Теорема Каруша - Куна - Таккера.

Занятие 6

📄 Презентация👷‍♂️ Seminar

Двойственность.

Занятие 7

📄 Презентация👷‍♂️ Seminar

Задача линейного программирования. Симплекс метод.

Занятие 8

📄 Презентация👷‍♂️ Seminar

Градиентный спуск. Теоремы сходимости в гладком случае (выпуклые, сильно выпуклые, PL). Верхние и нижние оценки сходимости.

Занятие 9

📄 Презентация👷‍♂️ Seminar

Ускоренные градиентные методы. Метод Поляка, Нестерова.

Занятие 10

📄 Презентация👷‍♂️ Seminar

Метод сопряженных градиентов.

Занятие 11

📄 Презентация👷‍♂️ Seminar

Метод Ньютона. Квазиньютоновские методы.

Занятие 12

📄 Презентация👷‍♂️ Seminar

Градиентные методы в условных задачах оптимизации - метод проекции градиента. Метод Франк - Вульфа. Идея метода зеркального спуска.

Занятие 13

📄 Презентация👷‍♂️ Seminar

Субградиент. Субдифференциал. Субградиентный спуск. Теоремы сходимости в негладком случае. Особенности работы градиентного метода в практических негладких задачах.

Занятие 14

📄 Презентация👷‍♂️ Seminar

Проксимальный градиентный метод.

Занятие 15

📄 Презентация👷‍♂️ Seminar

Стохастический градиентный спуск.

Занятие 16

📄 Презентация👷‍♂️ Seminar

Методы редукции дисперсии: SAG, SVRG, SAGA. Адаптивные стохастические градиентные методы.

Занятие 17

📄 Презентация👷‍♂️ Seminar

Обучение нейронных сетей с точки зрения методов оптимизации. Обобщающая способность моделей машинного обучения. Double Descent. Grokking. Mode connectivity.

Занятие 18

📄 Презентация👷‍♂️ Seminar

Вопросы обучения больших моделей. Lars, Lamb. Learning rate schedulers. Warm-up. MultiGPU training.

Занятие 19

📄 Презентация👷‍♂️ Seminar

Введение в двойственные методы оптимизации. Метод двойственного градиентного подъёма. Метод модифицированной функции Лагранжа. ADMM.

No matching items