Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс: https://elib.psu.by/handle/123456789/48491
Название: WaveStyleGAN: вейвлет-генеративная состязательная сеть
Авторы: Воробей, В. А.
Малевич, А. Э.
Varabei, U.
Malevich, A.
Другие названия: Wavestylegan: Wavelet-Generative Adversarial Network
Дата публикации: 2025
Издатель: Полоцкий государственный университет имени Евфросинии Полоцкой
Библиографическое описание: Воробей, В. А. WaveStyleGAN: вейвлет-генеративная состязательная сеть / В. А. Воробей, А. Э. Малевич // Вестник Полоцкого государственного университета. Серия C, Фундаментальные науки. - 2025. - № 2 (45). - С. 2-8. - DOI: 10.52928/2070-1624-2025-45-2-2-8
Аннотация: Разработана модель генеративной состязательной сети WaveStyleGAN для работы с изображениями на основе семейства архитектур StyleGAN. Ключевыми особенностями предложенной архитектуры являются переход к обработке вейвлет-признаков изображений, использование в дискриминаторе само-модулируемых сверток, а также модифицированных блоков Fast Fourier Convolution. Внесенные изменения позволили уменьшить сложность и размер модели по сравнению с базовыми версиями. Полученная модель была обучена на наборе данных человеческих лиц FFHQ в разрешении 1024*1024 и смогла сохранить высокое качество генерации изображений при значительно уменьшенном количестве итераций обучения. Время работы обученной сети на CPU сократилось примерно втрое по сравнению с оригинальной моделью, что существенно расширяет возможности по ее встраиванию в окружения, где отсутствует доступ к вычислениям на графическом процессоре.
Аннотация на другом языке: In this paper a novel generative adversarial network for images WaveStyleGAN that is based on StyleGAN-like architectures, was developed. Key features of the model suggested are processing of wavelet features of im-ages, usage of self-modulated convolutions and modified blocks of Fast Fourier Convolutions in the discriminator. The changes implemented helped to reduce model complexity and its size when compared to the base models’ versions. The model was trained on a dataset of human faces FFHQ in 1024*1024 resolution. It was able to keep a high quality of generated images with considerable decrease in a number of training iterations. Additionally, inference time on CPU was reduced by up to 3 times when compared to the original model, which significantly expands its capabilities for deployments to environments which don’t provide access to computations on GPU.
URI (Унифицированный идентификатор ресурса): https://elib.psu.by/handle/123456789/48491
Права доступа: open access
DOI: 10.52928/2070-1624-2025-45-2-2-8
Располагается в коллекциях:2025, № 2 (45)

Файлы этого ресурса:
Файл РазмерФормат 
2-8.pdf1.25 MBAdobe PDFПросмотреть/Открыть


Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.