Главная » Хабрахабр » [Из песочницы] Обзор градиентных методов в задачах математической оптимизации

[Из песочницы] Обзор градиентных методов в задачах математической оптимизации

Предисловие

В этой статье речь пойдет о методах решения задач математической оптимизации, основанных на использовании градиента функции. Основная цель — собрать в статье все наиболее важные идеи, которые так или иначе связаны с этим методом и его всевозможными модификациями.

Примечание от автора

На момент написания я защитил диссертацию, задача которой требовала от меня глубокое понимание теоретических основно методов математической оптимизации. Тем не менее, у меня до сих пор (как и у всех) расплываются глаза от страшных длинных формул, поэтому я потратил немалое время, чтобы вычленить ключевые идеи, которые бы характеризовали разные вариации градиентных методов. Моя личная цель — написать статью, содержащую минимальное количество информации, необходимое для более менее подробного понимания тематики. Но будьте готовы, без формул так или иначе не обойтись.

Постановка задачи

Прежде чем описывать метод, следует сначала описать задачу, а именно: «Даны множество $inline$\mathcal$inline$ и функция $inline$f:\mathcal{K}\rightarrow \mathbb{R}$inline$, требуется найти точку $inline$x^*\in \mathcal{K}$inline$, такую что $inline$ f(x)\geq f(x^*)$inline$ для всех $inline$x\in \mathcal{K}$inline$», что обычно записывается например вот так

$$display$$f(x)\rightarrow \min_{x\in \mathcal{K}}.$$display$$

В теории обычно предполагается, что $inline$f$inline$ — дифференцируемая и выпуклая функция, а $inline$\mathcal{K}$inline$ — выпуклое множество (а еще лучше, если вообще $inline$\mathcal{K}=\mathbb{R}^n$inline$), это позволяет дать какие-то гарантии успешности применения градиентного спуска. На практике градиентный спуск успешно применяется даже когда у задачи нет ни одного из вышеперечисленных свойств (пример дальше в статье).

Немного математики

Допустим пока что нам нужно просто найти минимум одномерной функции

$$display$$f(x)\rightarrow \min_{x\in \mathbb{R}}.$$display$$

Еще в 17 веке Пьером Ферма был придуман критерий, который позволял решать простые задачи оптимизации, а именно, еcли $inline$x^* $inline$ — точка минимума $inline$f^* $inline$, то

$$display$$f'(x^*)=0 $$display$$

где $inline$f'$inline$ — производная $inline$f$inline$. Этот критерий основан на линейном приближении

$$display$$ f(x)\approx f(x^*)+f'(x^*)(x-x^*).$$display$$

Чем ближе $inline$x$inline$ к $inline$x^*$inline$, чем точнее это приближение. В правой части — выражение, которое при $inline$f'(x^*)\neq 0$inline$ может быть как больше $inline$f(x^*)$inline$ так и меньше — это основная суть критерия. В многомерном случае аналогично из линейного приближения $inline$f(x)\approx f(x^*)+\nabla f(x^*)^T(x-x^*)$inline$ (здесь и далее $inline$x^Ty=\sum_{i=1}^nx_iy_i$inline$ — стандартное скалярное произведение, форма записи обусловлена тем, что скалярное произведение — это то же самое, что матричное произведение вектор-строки на вектор-столбец) получается критерий

$$display$$ $$display$$\nabla f(x^*)=0.

Величина $inline$\nabla f(x^*)$inline$ — градиент функции $inline$f$inline$ в точке $inline$x^*$inline$. Также равенство градиента нулю означает равенство всех частных производных нулю, поэтому в многомерном случае можно получить этот критерий просто последовательно применив одномерный критерий по каждой переменной в отдельности.

Стоит отметить, что указанные условия являются необходимыми, но не достаточными, самый простой пример — 0 для $inline$f(x)=x^2$inline$ и $inline$f(x)=x^3$inline$

Этот критерий является достаточным в случае выпуклой функции, во многом из-за этого для выпуклых функций удалось получить так много результатов.

Квадратичные функции

Квадратичные функции в $inline$\mathbb{R}^n$inline$ — это функция вида

$$display$$ f(x) = f(x_1, x_2, \ldots, x_n)=\frac{1}{2}\sum_{i,j=1}^na_{ij}x_ix_j-\sum_{i=1}^n b_ix_i+c $$display$$

Для экономии места (да и чтобы меньше возиться с индексами) такую функцию обычно записывают в матричной форме:

$$display$$ f(x) = \frac{1}{2}x^TAx-b^Tx+c, $$display$$

где $inline$x=(x_1, \ldots, x_n)^T$inline$, $inline$b=(b_1, \ldots, b_n)^T$inline$, $inline$A$inline$ — матрица, у которой на пересечении $inline$i$inline$ строки и $inline$j$inline$ столбца стоит величина
$inline$\frac{1}{2}(a_{ij}+a_{ji})$inline$ ($inline$A$inline$ при этом получается симметричной — это важно). Далее. при упомянании квадратичной функции я буду иметь указанную выше функцию.

Дело в том, что квадратичные функции важны в оптимизации по двум причинам: Зачем я об этом рассказываю?

  1. Они тоже встречаются на практике, например при построении линейной регрессии методом наименьших квадратов
  2. Градиент квадратичной функции — линейная функция, в частности для функции выше

    $$display$$ \frac{\partial}{\partial x_i} f(x_1, x_2, \ldots, x_n) = a_{ii} x_i + \sum_{j\neq i}\frac{1}{2}(a_{ij}+a_{ji})x_j -b_i, $$display$$

    Или в матричной форме

    $$display$$ \nabla f(x) = Ax-b, $$display$$

    Таким образом система $inline$\nabla f(x)=0$inline$ — линейная система. Системы, проще чем линейная, просто не существует. Мысль, к которой я старался подобраться — оптимизация квадратичной функции — самый простой класс задач оптимизации. С другой стороны, тот факт, что $inline$\nabla f(x^*)=0$inline$ — необходимые условия минимума дает возможность решать линейные системы через задачи оптимизации. Чуть позже я постараюсь вас убедить в том, что это имеет смысл.

Полезные свойства градиента

Хорошо, мы вроде бы выяснили, что если функция дифференцируема (у нее существуют производные по всем переменным), то в точке минимума градиент должен быть равен нулю. А вот несет ли градиент какую-нибудь полезную информацию в случае, когда он отличен от нуля?

Давайте возьмем точку рядом с $inline$x$inline$, опять же используя линейное приближение $inline$\nabla f(\bar{x})=f(x)+\nabla f(x)^T(\bar{x}-x)$inline$. Попробуем пока решить более простую задачу: дана точка $inline$x$inline$, найти точку $inline$\bar{x}$inline$ такую, что $inline$f(\bar{x})<f(x)$inline$. Если взять $inline$\bar{x}=x-\alpha\nabla f(x)$inline$, $inline$ \alpha>0$inline$ то мы получим

$$display$$ $$display$$ f(\bar{x})\approx f(x)-\alpha\|\nabla f(x)\|^2>f(x).

Аналогично, если $inline$ \alphaградиент указывает направление наибольшего локального увеличения функции.

Такого рода картинки можно часто увидеть в демонстрациях градиентного спуска. Вот два примера для двумерных функций. Я обозначил синими линии уровня с более низким значением, красными — с более высоким. Цветные линии — так называемые линии уровня, это множество точек, для которых функция принимает фиксированное значений, в моем случае это круги и эллипсы.

Также обратите внимание, что хоть градиент и показывает в направлении наибольшего увеличения функции, нет никакой гарантии, что по направлению, обратному к градиенту, можно найти минимум (пример — левая картинка). Обратите внимание, что для поверхности, заданной уравнением вида $inline$f(x)=c$inline$, $inline$\nabla f(x) $inline$ задает нормаль (в простонародии — перпендикуляр) к этой поверхности.

Градиентный спуск

До базового метода градиентного спуска остался лишь малый шажок: мы научились по точке $inline$x$inline$ получать точку $inline$\bar{x}$inline$ с меньшим значением функции $inline$ f$inline$. Что мешает нам повторить это несколько раз? По сути, это и есть градиентный спуск: строим последовательность

$$display$$ $$display$$ x_{k+1}=x_k-\alpha_k\nabla f(x_k).

Величина $inline$\alpha_k$inline$ называется размером шага (в машинном обучении — скорость обучения). Пару слов по поводу выбора $inline$\alpha_k$inline$: если $inline$\alpha_k$inline$ — очень маленькие, то последовательность медленно меняется, что делает алгоритм не очень эффективным; если же $inline$\alpha_k$inline$ очень большие, то линейное приближение становится плохим, а может даже и неверным. На практике размер шага часта подбирают эмпирически, в теории обычно предполагается липшицевость градиента, а именно, если

$$display$$ \|\nabla f(x)-\nabla f(y)\|\leq L\|x-y\| $$display$$

для всех $inline$x,y$inline$, то $inline$\alpha_k

Анализ для квадратичных функций

Если $inline$A$inline$ — симметричная обратимая матрица, $inline$Ax^*=b$inline$, то для квадратичной функции $inline$f(x)=\frac{1}{2}x^TAx-b^Tx+c$inline$ точка $inline$x^*$inline$ является точкой минимума, а для метода градиентного спуска можно получить следующее

$$display$$ x_{k+1}-x^* = x_k-\alpha_kf(x_k)-x^* = x_k-\alpha_k(Ax_k-b)-x^*= $$display$$

$$display$$ (x_k-x^*)-\alpha_kA(x_k-x^*)=(I-\alpha_k A)(x_k-x^*), $$display$$

где $inline$ I $inline$ — единичная матрица, т.е. $inline$ Ix=x$inline$ для всех $inline$ x$inline$. Если же $inline$\alpha_k\equiv\alpha$inline$, то получится

$$display$$ $$display$$ \|x_{k}-x^*\|=\|(I-\alpha_k A)^k(x_0-x^*)\|\leq \|I-\alpha\|^k \|x_0-x^*\|.

Выражение слева — расстояние от приближения, полученного на шаге $inline$k$inline$ градиентного спуска до точки минимума, справа — выражение вида $inline$\lambda^k \beta$inline$, которое сходится к нулю, если $inline$|\lambda|

Модификации градиентного спуска

Теперь хотелось бы рассказать немного про часто используемые модификации градиентного спуска, в первую очередь так называемые

Инерционные или ускоренные градиентные методы

Все методы такого класса выражаются в следующем виде

$$display$$ $$display$$ x_{k+1}=x_k-\alpha_k\nabla f(x_k)+\beta_k(x_k-x_{k-1}).

Последнее слагаемое характеризует эту самую «инерционность», алгоритм на каждом шаге старается двигаться против градиента, но при этом по инерции частично двигается в том же направлении, что и на предыдущей итерации. Такие методы обладают двумя важными свойствами:

  1. Они практически не усложняют обычный градиентный спуск в вычислительном плане.
  2. При аккуратном подборе $inline$\alpha_k, \beta_k$inline$ такие методы на порядок быстрее, чем обычный градиентный спуск даже с оптимально подобранным шагом.

Один из первых таких методов появился в середине 20 века и назывался метод тяжелого шарика, что передавало природу инерционности метода: в этом методе $inline$\alpha_k, \beta_k$inline$ не зависят от $inline$k$inline$ и аккуратно подбираются в зависимости от целевой функции. Стоит отметить, что $inline$\alpha_k$inline$ может быть какой угодно, а $inline$\beta_k$inline$ — обычно лишь чуть-чуть меньше единицы.

При этом, на мой взгляд, самый первый метод довольно важен для понимания сути этих методов. Метод тяжелого шарика — самый простой инерционный метод, но не самый первый.

Метод Чебышева

Да да, первый метод такого типа был придуман еще Чебышевым для решения систем линейных уравнений. В какой-то момент при анализе градиентного спуска было получено следующее равенство

$$display$$ x_{k+1}-x^* = (I-\alpha_k A) (x_k-x^*)=\ldots= $$display$$

$$display$$ (I-\alpha_kA)(I-\alpha_{k-1}A)\ldots(I-\alpha_1A)(x_0-x^*)=P_k(A)(x_0-x^*), $$display$$

где $inline$P_k$inline$ — некоторый многочлен степени $inline$k$inline$. Почему бы не попробовать подобрать $inline$\alpha_k$inline$ таким образом, чтобы $inline$P_k(A)(x_0-x^*)$inline$ было поменьше? Один уз универсальных многочленов, которые меньше всего отклоняются от нуля — многочлен Чебышева. Метод Чебышева по сути заключается в том, чтобы подобрать параметры спуска так, чтобы $inline$P_k$inline$ был многочленом Чебышева. Есть правда одна небольшая проблема: для обычного градиентного спуска это просто невозможно. Однако для инерционных методов это оказывается возможным. В основном это происходит из-за того, что многочлены Чебышева удовлетворяют рекуррентному соотношению второго порядка

$$display$$ T_{n+1}(x)=2xT_n(x)-T_{n-1}(x), $$display$$

поэтому их невозможно построить для градиентного спуска, который вычисляет новое значение лишь по одному предыдущему, а для инерционных становится возможным за счет того, что используется два предыдущих значения. При этом оказывается, что сложность вычисления $inline$\alpha_k,\beta_k$inline$ не зависит ни от $inline$k$inline$, ни от размера пространства $inline$n$inline$.

Метод сопряженных градиентов

Еще один очень интересный и важный факт (следствие теоремы Гамильтона-Кэли): для любой квадратной матрицы $inline$A$inline$ размера $inline$n\times n$inline$ существует многочлен $inline$P$inline$ степени не больше $inline$n$inline$, для которого $inline$P(A)=0$inline$. Чем это интересно? Все дело в том же равенстве

$$display$$ $$display$$ x_{k+1}-x^* = P_k(A)(x_0-x^*).

Если бы мы могли подбирать размер шага в градиентном спуске так, чтобы получать именно этот обнуляющий многочлен, то градиентный спуск сходился бы за фиксированное число итерации не большее размерности $inline$A$inline$. Как уже выяснили — для градиентного спуска мы так делать не можем. К счастью, для инерционных методов — можем. Описание и обоснование метода довольно техническое, я ограничусь сутью:на каждой итерации выбираются параметры, дающие наилучший многочлен, который можно построить учитывая все сделанные до текущего шага измерения градиента. При этом

  1. Одна итерация градиентного спуска (без учета вычислений параметров) содежит одно умножение матрицы на вектор и 2-3 сложения векторов
  2. Вычисление параметров также требует 1-2 умножение матрицы на вектор, 2-3 скалярных умножения вектор на вектор и несколько сложений векторов.

Самое сложное в вычислительном плане — умножение Матрицы на вектор, обычно это делается за время $inline$\mathcal{O}(n^2)$inline$, однако для со специальной реализацией это можно сделать за $inline$\mathcal{O}(m) $inline$, где $inline$m$inline$ — количество ненулевых элементов в $inline$A$inline$. Учитывая сходимость метода сопряженных градиентов не более, чем за $inline$n$inline$ итерации получаем общую сложность алгоритма $inline$\mathcal{O}(nm)$inline$, что во всех случаях не хуже $inline$\mathcal{O}(n^3)$inline$ для метода Гаусса или Холесского, но намного лучше в случае, если $inline$m

Метод сопряженных градиентов хорошо работает и в случае, если $inline$f$inline$ не является квадратичной функцией, но при этом уже не сходится за конечное число шагов и часто требует небольших дополнительных модификаций

Метод Нестерова

Для сообществ математической оптимизации и машинного обучения фамилия «Нестеров» уже давно стало нарицательной. В 80х годах прошлого века Ю.Е. Нестеров придумал интересный вариант инерционного метода, который имеет вид

$$display$$ x_{k+1}=x_k-\alpha_k\nabla f(x_k+\beta_k(x_k-x_{k-1}))+\beta_k(x_k-x_{k-1})), $$display$$

при этом не предполагается какого-то сложного подсчета $inline$\alpha_k,\beta_k$inline$ как в методе сопряженных градиентов, в целом поведение метода похоже на метод тяжелого шарика, но при этом его сходимость обычно гораздо надежнее как в теории, так и на практике.

Стохастический градиентный спуск

Единственное формальное отличие от обычного градиентного спуска — использование вместо градиента функции $inline$g(x, \theta)$inline$ такой, что $inline$E_\theta g(x,\theta)=\nabla f(x)$inline$ ($inline$E_\theta$inline$ — математическое ожидание по случайной величине $inline$\theta$inline$), таким образом стохастический градиентный спуск имеет вид

$$display$$ $$display$$ x_{k+1}=x_k-\alpha_kg(x_k, \theta_k).

$inline$\theta_k$inline$ — это некоторый случайный параметр, на который мы не влияем, но при этом в среднем мы идем против градиента. В качестве примера рассмотрим функции

$$display$$ f(x)=\frac{1}{2m}\sum_{j=1}^m\|x-y_j\|^2,~~\nabla f(x)=\frac{1}{m}\sum_{j=1}^m(x-y_j) $$display$$

и

$$display$$ $$display$$ g(x, i)=x-y_i.

Если $inline$i$inline$ принимает значения $inline$1,\ldots, m$inline$ равновероятно, то как раз в среднем $inline$g$inline$ — это градиент $inline$f$inline$. Этот пример показателен еще и следующим: сложность вычисления градиента в $inline$m$inline$ раз больше, чем сложность вычисления $inline$g$inline$. Это позволяет стохастическому градиентному спуску делать за одно и то же время в $inline$m$inline$ раз больше итераций. Несмотря на то, что стохастический градиентный спуск обычно сходится медленней обычного, за счет такого большого увеличения числа итераций получается улучшить скорость сходимости на единицу времени. Насколько мне известно — на данный момент стохастический градиентный спуск является базовым методом обучения большинства нейронных сетей, реализован во всех основных библиотеках по ML: tensorflow, torch, caffe, CNTK, и т.д.

Стоит отметить, что идеи иннерционных методов применяются для стохастического градиентного спуска и на практике часто дают прирост, в теории же обычно считается, что асимптотическая скорость сходимости не меняется из-за того, что основная погрешность в стохастическом градиентном спуске обусловлена дисперсией $inline$g$inline$.

Субградиентный спуск

Эта вариация позволяет работать с недифференцируемыми функциями, её я опишу более подробно. Придется опять вспомнить линейное приближение — дело в том, что есть простая характеристика выпуклости через градиент, дифференцируемая функция $inline$f$inline$ выпукла тогда и только тогда, когда выполняется $inline$f(y)\geq f(x)+\nabla f(x)^T(y-x)$inline$ для всех $inline$x, y$inline$ . Оказывается, что выпуклая функция не обязаны быть дифференцируемой, но для любой точки $inline$x$inline$ обязательно найдется такой вектор $inline$g$inline$, что $inline$f(y)\geq f(x)+g^T(y-x)$inline$ для всех $inline$y$inline$. Такой вектор $inline$g$inline$ принято называть субградиентом $inline$f$inline$ в точке $inline$x$inline$, множество всех субградиентов в точки $inline$x$inline$ называют субдифференциалом $inline$x$inline$ и обозначают $inline$\partial f(x)$inline$ (несмотря на обозначение — не имеет ничего общего с частными производными). В одномерном случае $inline$g$inline$ — это число, а вышеуказанное свойство просто означает, что график $inline$f$inline$ лежит выше прямой, проходящей через $inline$(x, f(x))$inline$ и имеющей тангенс угла наклона $inline$g$inline$ (смотрите рисунки ниже). Отмечу, что субградиентов для одной точки может быть несколько, даже бесконечное число.

Оказывается — этого достаточно, в теории скорость сходимости при этом падает, однако например в нейронных сетях недифференцируемую функцию $inline$ReLU(x)=\max(0, x)$inline$ любят использовать как раз из-за того, что с ней обучение проходит быстрее (это кстати пример невыпуклой недифференцируемой функции, в которой успешно применяется (суб)градиентный спуск. Вычислить хотя бы один субградиент для точки обычно не очень сложно, субградиентный спуск по сути использует субградиент вместо градиента. В качестве примера, для функции $inline$f(x)=|x|$inline$ субдифференциал вычисляется очень просто Сама по себе функция $inline$ReLU$inline$ выпукла, но многослойная нейронная сеть, содержащая $inline$ReLU$inline$, невыпукла и недифференцируема).

\end{cases} $$display$$ $$display$$ \partial f(x)=\begin{cases} 1, & x>0, \\ -1, & x < 0, \\ [-1, 1], & x=0.

Это проще всего увидеть для указанной выше функции $inline$f(x)=|x|$inline$. Пожалуй, последняя важная вещь, которую стоит знать, — это то, что субградиентный спуск не сходится при постоянном размере шага. Даже отсутствие производной в одной точке ломает сходимость:

  1. Допустим мы начали из точки $inline$x_0$inline$.
  2. Шаг субградиентного спуска:

    & x=0. $$display$$ x_{k+1}=\begin{cases} x_{k}-1, & x>0, \\ x_k+1, & x < 0, \\ ??? \end{cases} $$display$$

  3. Если $inline$x_0>0$inline$, то первые несколько шагов мы будет вычитать единицу, если $inline$x_0<0$inline$, то прибавлять. Так или иначе мы в какой-то момент окажемся на интервале $inline$[0, 1)$inline$, из которого попадем в $inline$[-1, 0)$inline$, а дальше будем прыгать между двумя точками этих интервалов.

В теории для субградиентного спуска рекомендуется брать последовательность шагов

$$display$$ $$display$$ \alpha_k=\frac{1}{(k+1)^c}.

Где $inline$c$inline$ обычно $inline$1$inline$ или $inline$\frac{1}{2}$inline$. На практике я часто видел успешное применение шагов $inline$\alpha_k=e^{-ck}$inline$, хоть и для таких шагов вообще говоря не будет сходимости.

Proximal методы

К сожалению я не знаю хорошего перевода для «proximal» в контексте оптимизации, поэтому просто так и буду называть этот метод. Proximal-методы появились как обобщение проективных градиентных методов. Идея очень простая: если есть функция $inline$f$inline$, представимая в виде суммы $inline$f(x)=\varphi(x)+h(x)$inline$, где $inline$\varphi$inline$ — дифференцируемая выпуклая функция, а $inline$h(x)$inline$ — выпуклая, для которой существует специальный proximal-оператор $inline$prox_h(x)$inline$ (в этой статье ограничусь лишь примерами, описывать в общем виде не буду), то свойства сходимости градиентного спуска для $inline$\varphi$inline$ остаются и для градиентного спуска для $inline$f$inline$, если после каждой итерации применять этот proximal-оператор для текущей точки $inline$x_k$inline$, другими словами общий вид proximal-метода выглядит так:

$$display$$ x_{k+1}=prox_{\alpha_kh}(x_k-\alpha_k\nabla \varphi(x_k)) $$display$$

Думаю, пока что совершенно непонятно, зачем это может понадобиться, особенно учитывая то, что я не объяснил, что такое proximal-оператор. Вот два примера:

  1. $inline$h(x)$inline$ — индикатор-функция выпуклого множества $inline$\mathcal{K}$inline$, то есть

    $$display$$ h(x)=\begin{cases} 0, & x\in \mathcal{K},\\ +\infty, & x\notin \mathcal{K}.\\ \end{cases} $$display$$

    В этом случае $inline$prox_{\alpha_kh}(x)$inline$ — это проекция на множество $inline$\mathcal{K}$inline$, то есть «ближайшая к $inline$x$inline$ точка множества $inline$\mathcal{K}$inline$». Таким образом, мы ограничиваем градиентный спуск только на множество $inline$\mathcal{K}$inline$, что позволяет решать задачи с ограничениями. К сожалению, вычисление проекции в общем случае может быть еще более сложной задачей, поэтому обычно такой метод применяется, если ограничения имеют простой вид, например так называемые box-ограничения: по каждой координате

    $$display$$ l_i\leq x_i\leq r_i $$display$$

  2. $inline$h(x)=\lambda \|x\|_1=\lambda\sum_{i=1}^n|x_i|$inline$ — $inline$\ell_1$inline$-регуляризация. Такое слагаемое любят добавлять в задачи оптимизации в машинном обучении, чтобы избежать переобучения. Регуляризация такого вида еще и имеет тенденцию обнулять наименее значимые компоненты. Для такой функции proximal-оператор имеет вид (ниже описано выражение для одной координаты):

    $$display$$ [prox_{\alpha h}(x)]_i=\begin{cases} x_i-\alpha, & x_i>\alpha,\\ x_i+\alpha, & x_i <-\alpha,\\ 0, & x_i\in [-\alpha, \alpha], \end{cases} $$display$$

    что довольно просто вычислить.

Заключение

На этом заканчиваются основные известные мне вариации градиентного метода. Пожалуй под конец я бы отметил, что все указанные модификации (кроме разве что метода сопряженных градиентов) могут легко взаимодействовать друг с другом. Я специально не стал включать в эту перечень метод Ньютона и квазиньютоновские методы (BFGS и прочие): они хоть и используют градиент, но при этом являются более сложными методами, требуют специфических дополнительных вычислений, которые обычно более вычислительно затратны, нежели вычисление градиента. Тем не менее, если этот текст будет востребован, я с удовольствием сделаю подобный обзор и по ним.


Оставить комментарий

Ваш email нигде не будет показан
Обязательные для заполнения поля помечены *

*

x

Ещё Hi-Tech Интересное!

Прогнозирование продаж недвижимости. Лекция в Яндексе

Успех в проектах по машинному обучению обычно связан не только с умением применять разные библиотеки, но и с пониманием той области, откуда взяты данные. Отличной иллюстрацией этого тезиса стало решение, предложенное командой Алексея Каюченко, Сергея Белова, Александра Дроботова и Алексея ...

Как IaaS приходит в ритейл и производство: кто и зачем перешел на виртуальную инфраструктуру

Есть мнение, что «облако» — это лишь маркетинговое название. Оно часто упоминается к месту и не к месту, а что скрывается под этим понятием люди не из бизнеса и не из ИТ не всегда знают. У себя в блоге мы ...