Please use this identifier to cite or link to this item: https://elib.psu.by/handle/123456789/36160
Full metadata record
DC FieldValueLanguage
dc.contributor.authorМацкевич, В. В.ru_RU
dc.contributor.authorMatskevich, V.en_EN
dc.date.accessioned2022-12-01T07:31:22Z-
dc.date.available2022-12-01T07:31:22Z-
dc.date.issued2022
dc.identifier.citationМацкевич, В. В. Обучение нейронных сетей на основе случайного поиска / В. В. Мацкевич // Вестник Полоцкого государственного университета. Серия C, Фундаментальные науки. - 2022. - № 11. - С. 21-29. 10.52928/2070-1624-2022-39-11-21-29ru_RU
dc.identifier.urihttps://elib.psu.by/handle/123456789/36160-
dc.description.abstractРассматривается актуальная проблема, связанная с обучением нейронных сетей. Предлагается оригинальный алгоритм (со специальной процедурой распараллеливания), реализующий метод отжига. Эффективность обучения демонстрируется на примере архитектуры нейронной сети, ориентированной на параллельную обработку данных. Для задачи сжатия цветных изображений показано, что предложенный алгоритм существенно превосходит градиентные методы по эффективности. Полученные результаты позволяют повысить качество обучения нейронных сетей в целом и могут быть использованы для решения широкого класса прикладных задач.ru_RU
dc.language.isoruru
dc.publisherПолоцкий государственный университет имени Евфросинии Полоцкойru_RU
dc.rightsopen accessru_RU
dc.titleОбучение нейронных сетей на основе случайного поискаru_RU
dc.title.alternativeNeural Networks Training Based on Random Searchru_RU
dc.typeArticleru_RU
dc.citation.spage21ru_RU
dc.citation.epage29ru_RU
dc.identifier.doi10.52928/2070-1624-2022-39-11-21-29
local.description.annotationThe paper deals with a state-of-art problem, associated with neural networks training. Training algorithm (with special parallelization procedure) implementing the annealing method is proposed. The training efficiency is demonstrated by the example of a neural network architecture focused on parallel data processing. For the color image compression problem, it is shown that the proposed algorithm significantly outperforms gradient methods in terms of efficiency. The results obtained make it possible to improve the neural networks training quality in general, and can be used to solve a wide class of applied problems.ru_RU
Appears in Collections:2022, № 11

Files in This Item:
File SizeFormat 
21-29.pdf735.78 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.