Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс: http://hdl.handle.net/11701/32445
Полная запись метаданных
Поле DCЗначениеЯзык
dc.contributor.advisorВольф Дмитрий Александровичru_RU
dc.contributor.advisorVolf Dmitrij Aleksandrovicen_GB
dc.contributor.advisorВольф Дмитрий Александровичru_RU
dc.contributor.advisorVolf Dmitrij Aleksandrovicen_GB
dc.contributor.authorПахомов Максим Юрьевичru_RU
dc.contributor.authorPahomov Maksim Urevicen_GB
dc.contributor.editorПогожев Сергей Владимировичru_RU
dc.contributor.editorPogozev Sergej Vladimirovicen_GB
dc.date.accessioned2021-08-07T09:11:40Z-
dc.date.available2021-08-07T09:11:40Z-
dc.date.issued2021
dc.identifier.other063110en_GB
dc.identifier.urihttp://hdl.handle.net/11701/32445-
dc.description.abstractНейросети, основанные на GAN фреймворке, в последнее время демонстрируют высокое качество в решении задачи Super Resolution. Однако данный класс алгоритмов страдает от ряда недостатков, таких как: большой размер, как следствие медленная скорость, нестабильный и долгий тренировочный процесс. Данная работа предлагает использовать метод дистилляции знаний для решения вышеописанных проблем. В результате был реализован фреймворк, который позволяет производить данный процесс для модели ESRGAN и получены несколько конкурентоспособных моделей с точки зрения соотношения качества и скорости.ru_RU
dc.description.abstractNeural networks based on the GAN framework have recently demonstrated high-quality results in Super Resolution task. However, this class of algorithms suffer from a variety of limitations such as their size leading to slow inference speed, unstable and slow training process. This work suggests using knowledge distillation method to deal with aforementioned problems. As a result, a framework for knowledge distillation based on ESRGAN model was implemented, as well as a couple of models trained by it competitive in terms of accuracy and speed trade off.en_GB
dc.language.isoru
dc.subjectНейросетиru_RU
dc.subjectгенеративно-состязательные моделиru_RU
dc.subjectэффективное улучшение качества изображенияru_RU
dc.subjectдистилляция знанийru_RU
dc.subjectNeural Networksen_GB
dc.subjectGenerative Adversarial Networksen_GB
dc.subjectEfficient Super-resolutionen_GB
dc.subjectKnowledge Distillationen_GB
dc.titleEfficient super-resolution with knowledge distillation of GANsen_GB
dc.title.alternativeДистилляция генеративно-состязательных моделей для эффективного улучшения качества изображенияru_RU
Располагается в коллекциях:BACHELOR STUDIES

Файлы этого ресурса:
Файл Описание РазмерФормат 
Pahomov_Maksim_VKR.pdfArticle3,98 MBAdobe PDFПросмотреть/Открыть
reviewSV_Otzyv.pdfReviewSV199,48 kBAdobe PDFПросмотреть/Открыть


Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.