Оптимізаційний метод AMSGrad в багатошарових нейронних мережах

Найпоширенішим способом оптимізації нейронних мереж є метод градієнтного спуску. Градієнтний спуск - це алгоритм оптимізації, який відслідковує негативне значенням градієнта цільової функції, щоб знайти мінімум функції похибки. Обмеження градієнтного спуску полягає в тому, що даний метод застосов...

Full description

Saved in:
Bibliographic Details
Main Authors: Сергій Свелеба, Наталя Свелеба
Format: Article
Language:English
Published: Oles Honchar Dnipro National University 2023-06-01
Series:Challenges and Issues of Modern Science
Online Access:https://cims.fti.dp.ua/j/article/view/87
Tags: Add Tag
No Tags, Be the first to tag this record!
_version_ 1823858793807609856
author Сергій Свелеба
Наталя Свелеба
author_facet Сергій Свелеба
Наталя Свелеба
author_sort Сергій Свелеба
collection DOAJ
description Найпоширенішим способом оптимізації нейронних мереж є метод градієнтного спуску. Градієнтний спуск - це алгоритм оптимізації, який відслідковує негативне значенням градієнта цільової функції, щоб знайти мінімум функції похибки. Обмеження градієнтного спуску полягає в тому, що даний метод застосовує одну швидкість навчання для всіх вхідних змінних. Розширення градієнтного спуску, як-от алгоритм Adaptive Movement Estimation (Adam), використовує різну швидкість навчання для кожної вхідної змінної, але в результаті цього швидкість навчання може швидко зменшуватися до дуже малих значень [3]. Метод AMSGrad є розширеною версією метода Adam, який намагається покращити властивості конвергенції алгоритму, уникаючи великих різких змін у швидкості навчання для кожної вхідної змінної. Технічно градієнт спуску називають алгоритмом оптимізації першого порядку, оскільки він явно використовує похідну першого порядку цільової функції.
format Article
id doaj-art-bab0d343c28b4a318c73b49f145329a3
institution Kabale University
issn 3083-5704
language English
publishDate 2023-06-01
publisher Oles Honchar Dnipro National University
record_format Article
series Challenges and Issues of Modern Science
spelling doaj-art-bab0d343c28b4a318c73b49f145329a32025-02-11T09:56:15ZengOles Honchar Dnipro National UniversityChallenges and Issues of Modern Science3083-57042023-06-011Оптимізаційний метод AMSGrad в багатошарових нейронних мережахСергій Свелеба0https://orcid.org/0000-0002-0823-910XНаталя Свелеба1https://orcid.org/0009-0004-2886-3921Львівський національний університет імені Івана ФранкаЄвропейський університет, Львівська філія Найпоширенішим способом оптимізації нейронних мереж є метод градієнтного спуску. Градієнтний спуск - це алгоритм оптимізації, який відслідковує негативне значенням градієнта цільової функції, щоб знайти мінімум функції похибки. Обмеження градієнтного спуску полягає в тому, що даний метод застосовує одну швидкість навчання для всіх вхідних змінних. Розширення градієнтного спуску, як-от алгоритм Adaptive Movement Estimation (Adam), використовує різну швидкість навчання для кожної вхідної змінної, але в результаті цього швидкість навчання може швидко зменшуватися до дуже малих значень [3]. Метод AMSGrad є розширеною версією метода Adam, який намагається покращити властивості конвергенції алгоритму, уникаючи великих різких змін у швидкості навчання для кожної вхідної змінної. Технічно градієнт спуску називають алгоритмом оптимізації першого порядку, оскільки він явно використовує похідну першого порядку цільової функції. https://cims.fti.dp.ua/j/article/view/87
spellingShingle Сергій Свелеба
Наталя Свелеба
Оптимізаційний метод AMSGrad в багатошарових нейронних мережах
Challenges and Issues of Modern Science
title Оптимізаційний метод AMSGrad в багатошарових нейронних мережах
title_full Оптимізаційний метод AMSGrad в багатошарових нейронних мережах
title_fullStr Оптимізаційний метод AMSGrad в багатошарових нейронних мережах
title_full_unstemmed Оптимізаційний метод AMSGrad в багатошарових нейронних мережах
title_short Оптимізаційний метод AMSGrad в багатошарових нейронних мережах
title_sort оптимізаційний метод amsgrad в багатошарових нейронних мережах
url https://cims.fti.dp.ua/j/article/view/87
work_keys_str_mv AT sergíjsveleba optimízacíjnijmetodamsgradvbagatošarovihnejronnihmerežah
AT natalâsveleba optimízacíjnijmetodamsgradvbagatošarovihnejronnihmerežah