Публікація: Аналіз рекурентних штучних нейронних мереж, їх структура
Завантаження...
Дата
2024
Автори
Назва журналу
ISSN журналу
Назва тома
Видавництво
ХНУРЕ
Анотація
This conference paper provides insights into Recurrent Neural Networks (RNNs) in various domains like language modeling and speech recognition. It discusses key concepts such as «Backpropagation Through Time» and «Long Short-Term Memory Units» essential for understanding RNNs. Recent advancements like «Attention Mechanism» and «Pointer Networks» are also explored, showcasing improved performance in RNN-based techniques. Challenges like vanishing gradients are addressed, and solutions like Deep Recurrent Neural Networks (DRNNs) and Bidirectional Recurrent Neural Networks (BRNNs) are discussed. The Encoder-Decoder architecture, exemplified by Sequence to Sequence (seq2seq) models, is examined, and Pointer Networks (Ptr-Nets) are introduced as effective solutions for combinatorial optimization problems.
Опис
Ключові слова
Recurrent Neural Networks (RNNs)
Бібліографічний опис
Греков О. О. Аналіз рекурентних штучних нейронних мереж, їх структура / О. О. Греков ; наук. керівник д. т. н., проф. Є. В. Бодянський // Радіоелектроніка та молодь у XXI столітті : матеріали 28-го Міжнар. молодіж. форуму, 16–18 квітня 2024 р. – Харків : ХНУРЕ, 2024. – Т. 6 – С. 47-49. – DOI : https://doi.org/10.30837/IYF.IIS.2024.047.