Публікація:
Аналіз рекурентних штучних нейронних мереж, їх структура

Завантаження...
Зображення мініатюри

Дата

2024

Назва журналу

ISSN журналу

Назва тома

Видавництво

ХНУРЕ

Дослідницькі проекти

Організаційні підрозділи

Видання журналу

Анотація

This conference paper provides insights into Recurrent Neural Networks (RNNs) in various domains like language modeling and speech recognition. It discusses key concepts such as «Backpropagation Through Time» and «Long Short-Term Memory Units» essential for understanding RNNs. Recent advancements like «Attention Mechanism» and «Pointer Networks» are also explored, showcasing improved performance in RNN-based techniques. Challenges like vanishing gradients are addressed, and solutions like Deep Recurrent Neural Networks (DRNNs) and Bidirectional Recurrent Neural Networks (BRNNs) are discussed. The Encoder-Decoder architecture, exemplified by Sequence to Sequence (seq2seq) models, is examined, and Pointer Networks (Ptr-Nets) are introduced as effective solutions for combinatorial optimization problems.

Опис

Ключові слова

Recurrent Neural Networks (RNNs)

Бібліографічний опис

Греков О. О. Аналіз рекурентних штучних нейронних мереж, їх структура / О. О. Греков ; наук. керівник д. т. н., проф. Є. В. Бодянський // Радіоелектроніка та молодь у XXI столітті : матеріали 28-го Міжнар. молодіж. форуму, 16–18 квітня 2024 р. – Харків : ХНУРЕ, 2024. – Т. 6 – С. 47-49. – DOI : https://doi.org/10.30837/IYF.IIS.2024.047.