За технічних причин Електронний архів Харківського національного університету радіоелектроніки «ElAr КhNURE» працює тільки на перегляд. Про відновлення роботи у повному обсязі буде своєчасно повідомлено.
 

Публікація:
Адаптация активационных функций в глубоких нейронных сетях

dc.contributor.authorСлепанская, В. Д.
dc.date.accessioned2023-02-28T20:48:44Z
dc.date.available2023-02-28T20:48:44Z
dc.date.issued2019
dc.description.abstractIn this paper the modification of PReLU used in Deep Neural Networks (DNN) is proposed. This modification called Adaptive Parametric Rectifier Linear Unit (AdPReLU) tunes both synaptic weights of neuron and parameters of activation function that permits to accelerate the learning process of DNN in whole and to reduce the amount of network`s hidden layers. The proposed AdPReLU is generalization of activation functions usually used in known DNN.
dc.identifier.citationСлепанская В. Д. Адаптация активационных функций в глубоких нейронных сетях / В. Д. Слепанская // Радіоелектроніка та молодь у ХХІ столітті : матеріали 23 Міжнар. молодіж. форуму, 16–18 квітня 2019 р. – Харків : ХНУРЕ, 2019. – Т. 6. – С. 33–34.
dc.identifier.urihttps://openarchive.nure.ua/handle/document/22215
dc.language.isoother
dc.publisherХНУРЕ
dc.titleАдаптация активационных функций в глубоких нейронных сетях
dc.typeConference proceedings
dspace.entity.typePublication

Файли

Оригінальний пакет
Зараз показано 1 - 1 з 1
Завантаження...
Зображення мініатюри
Назва:
RiM_2019_T6-33-34.pdf
Розмір:
464.27 KB
Формат:
Adobe Portable Document Format
Ліцензійний пакет
Зараз показано 1 - 1 з 1
Немає доступних мініатюр
Назва:
license.txt
Розмір:
9.64 KB
Формат:
Item-specific license agreed upon to submission
Опис: