Бессонов, А. А.Олейник, К. О.Романюк, О. С.Руденко, О. Г.Сердюк, Н. Н.2024-05-232024-05-232020Факторизованные алгоритмы обучения персептрона в задаче построения нелинейной модели / А. А. Бессонов, К. О. Олейник, О. С. Романюк, О. Г. Руденко, Н. Н. Сердюк // Бионика интеллекта. – 2020. – № 1(94). – С. 23–29.https://openarchive.nure.ua/handle/document/26582С целью улучшения вычислительных свойств процедур обучения искусственных нейронных сетей (ИНС), которые, являясь универсальными аппроксиматорами, позволяют восстановить с заданной точностью любую сколь угодно сложную непрерывную нелинейную функцию, разработаны их факторизованные формы, основанные на преобразованиях Холесского, Хаусхолдера и ортогонализации Грамма-Шмидта. Проведенный анализ их свойств показал, что наиболее эффективным способом повышения устойчивости алгоритма обучения является применение преобразования Хаусхолдера.ukискусственная нейронная сетьперсептронная моделькритерий оцениванияортогонализацияустойчивость алгоритма обученияфакторизацияФакторизованные алгоритмы обучения персептрона в задаче построения нелинейной моделиArticlehttps://doi.org/10.30837/ bi.2020.1(94).04