Please use this identifier to cite or link to this item:
https://elib.psu.by/handle/123456789/36160
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.author | Мацкевич, В. В. | ru_RU |
dc.contributor.author | Matskevich, V. | en_EN |
dc.date.accessioned | 2022-12-01T07:31:22Z | - |
dc.date.available | 2022-12-01T07:31:22Z | - |
dc.date.issued | 2022 | |
dc.identifier.citation | Мацкевич, В. В. Обучение нейронных сетей на основе случайного поиска / В. В. Мацкевич // Вестник Полоцкого государственного университета. Серия C, Фундаментальные науки. - 2022. - № 11. - С. 21-29. 10.52928/2070-1624-2022-39-11-21-29 | ru_RU |
dc.identifier.uri | https://elib.psu.by/handle/123456789/36160 | - |
dc.description.abstract | Рассматривается актуальная проблема, связанная с обучением нейронных сетей. Предлагается оригинальный алгоритм (со специальной процедурой распараллеливания), реализующий метод отжига. Эффективность обучения демонстрируется на примере архитектуры нейронной сети, ориентированной на параллельную обработку данных. Для задачи сжатия цветных изображений показано, что предложенный алгоритм существенно превосходит градиентные методы по эффективности. Полученные результаты позволяют повысить качество обучения нейронных сетей в целом и могут быть использованы для решения широкого класса прикладных задач. | ru_RU |
dc.language.iso | ru | ru |
dc.publisher | Полоцкий государственный университет имени Евфросинии Полоцкой | ru_RU |
dc.rights | open access | ru_RU |
dc.title | Обучение нейронных сетей на основе случайного поиска | ru_RU |
dc.title.alternative | Neural Networks Training Based on Random Search | ru_RU |
dc.type | Article | ru_RU |
dc.citation.spage | 21 | ru_RU |
dc.citation.epage | 29 | ru_RU |
dc.identifier.doi | 10.52928/2070-1624-2022-39-11-21-29 | |
local.description.annotation | The paper deals with a state-of-art problem, associated with neural networks training. Training algorithm (with special parallelization procedure) implementing the annealing method is proposed. The training efficiency is demonstrated by the example of a neural network architecture focused on parallel data processing. For the color image compression problem, it is shown that the proposed algorithm significantly outperforms gradient methods in terms of efficiency. The results obtained make it possible to improve the neural networks training quality in general, and can be used to solve a wide class of applied problems. | ru_RU |
Appears in Collections: | 2022, № 11 |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.