Нейронные сети. Эволюция. Каниа Алексеевич Кан

Нейронные сети. Эволюция - Каниа Алексеевич Кан


Скачать книгу
подсвеченного фонарем участка). Затем повторяем те же действия, но уже с новыми (обновлёнными) значениями.

      Для понимания как мы будем обновлять наши коэффициенты (делать шаги в нужном направлении), прибегнем к помощи так уже нам хорошо знакомой – иллюстрации. Напомню, величина шага зависит от крутизны наклона прямой (tgφ).       А значит величина, на которую мы обновляем наши веса, в соответствии со своим входом, и будет величиной производной по функции ошибки:

      Вот теперь иллюстрируем:

      Из графика видно, что для того чтобы обновить вес в большую сторону, до значения (w2), нужно к старому значению (w1) прибавить дельту (∆w), откуда: (w2 = =w1+∆w). Приравняв (∆w) к производной ошибки (величину которой уже знаем), мы спускаемся на эту величину в сторону уменьшения ошибки.

      Так же замечаем, что (E2 – E1 = -∆E) и (w2 w1 = ∆w), откуда делаем вывод:

      w = -∆E/∆w

      Ничего не напоминает? Это почти то же, что и дельта линейного классификатора (∆А = E/х), подтверждение того что наша эволюция прошла с поэтапным улучшением математического моделирования. Таким же образом, как и с обновлением коэффициента (А = А+∆А), линейного классификатора, обновляем весовые коэффициенты:

      новый wij = старый wij -(– ∆E/∆w)

      Знак минус, для того чтобы обновить вес в большую сторону, для уменьшения ошибки. На примере графика – от w1 до w2.

      В общем виде выражение записывается как:

      новый wij = старый wij dE/dwij

      Еще одно подтверждение, постепенного, на основе старого аппарата, хода эволюции, в сторону улучшения классификации искусственного нейрона.

      Теперь, зайдем с другой стороны функции ошибки:

      Снова замечаем, что (E2 – E1 = ∆E) и (w2 w1 = ∆w), откуда делаем вывод:

      w = ∆E/∆w

      В этом случае, для обновления весового коэффициента, в сторону снижения функции ошибки, а значит до значения находящееся левее (w1), необходимо от значения (w1) вычесть дельту (∆w):

      новый wij = старый wij -E/∆w

      Получается, что независимо от того, какого знака производная ошибки от весового коэффициента по входу, вычитая из старого значения – значение этой производной, мы движемся в сторону уменьшения функции ошибки. Откуда можно сделать вывод, что последнее выражение, общее для всех возможных случаев обновления градиента.

      Запишем еще раз, обновление весовых коэффициентов в общем виде:

      новый wij = старый wij dE/dwij

      Но мы забыли еще об одной важной особенности… Сглаживания! Без сглаживания величины дельты обновления, наши шаги будут слишком большие. Мы подобно кенгуру, будем прыгать на большие расстояния и можем перескочить минимум ошибки!


Скачать книгу