Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс:
http://hdl.handle.net/11701/12238
Полная запись метаданных
Поле DC | Значение | Язык |
---|---|---|
dc.contributor.advisor | Амелин Владислав Владимирович | ru_RU |
dc.contributor.author | Ращенко Дмитрий Владимирович | ru_RU |
dc.contributor.author | Rashchenko Dmitrii | en_GB |
dc.contributor.editor | Козынченко Владимир Александрович | ru_RU |
dc.contributor.editor | Kozynchenko Vladimir Аleksаndrovich | en_GB |
dc.date.accessioned | 2018-07-26T15:17:25Z | - |
dc.date.available | 2018-07-26T15:17:25Z | - |
dc.date.issued | 2018 | |
dc.identifier.other | 013098 | en_GB |
dc.identifier.uri | http://hdl.handle.net/11701/12238 | - |
dc.description.abstract | В данной магистерской диссертации предложены несколько критериев для оценки качества архитектуры ИНС с одним скрытым слоем, с помощью которых возможно выявить недостаток нейронов, а в некоторых случаях и избыток. Было показано, что сделать вывод об оптимальности архитектуры можно не только после окончания, но и на более ранних этапах обучения. Хотя возможность применения данных критериев имеет ряд ограничений, в некоторых задачах использование предложенных характеристик позволит значительно увеличить эффективность процедуры поиска оптимального количества нейронов. Также рассмотрены пути дальнейшего развития методов выбора оптимальной архитектуры, среди которых объединение с методами динамического изменения ширины слоев, не прерывающих процесс обучения, а также применение в глубоких и сверточных нейронных сетях. | ru_RU |
dc.description.abstract | The master's thesis proposes several criteria of the ANN architecture quality assessment on an example of a one-hidden-layer network. These criteria help to identify a lack of neurons and in some cases an excess. It was shown that a conclusion about the architecture may be drawn not only after training, but also at earlier stages of learning. Although the applicability of the proposed criteria has a number of limitations, in some problems they can significantly increase the efficiency of network architecture optimization. Also further ways of the method development were considered: they include application to deep and convolutional neural networks as well as combining with the methods of dynamical architecture changing not interrupting the learning process. | en_GB |
dc.language.iso | ru | |
dc.subject | искусственные нейронные сети | ru_RU |
dc.subject | оптимизация архитектуры | ru_RU |
dc.subject | artificial neural networks | en_GB |
dc.subject | architecture optimization | en_GB |
dc.title | Learning methods of artificial neural networks in pattern recognition problems | en_GB |
dc.title.alternative | Методы обучения искусственных нейронных сетей в задачах распознавания образов | ru_RU |
Располагается в коллекциях: | MASTER'S STUDIES |
Файлы этого ресурса:
Файл | Описание | Размер | Формат | |
---|---|---|---|---|
document.pdf | Article | 907,07 kB | Adobe PDF | Просмотреть/Открыть |
reviewSV_Recenziya_Rashhenko_DV.pdf | ReviewRev | 356,1 kB | Adobe PDF | Просмотреть/Открыть |
reviewSV_stt06391_Amelin_Vladislav_Vladimirovich_(reviewer)(Ru).txt | ReviewRev | 3,44 kB | Text | Просмотреть/Открыть |
reviewSV_st006748_Kozynchenko_Vladimir_Aleksandrovich_(supervisor)(Ru).txt | ReviewSV | 3,2 kB | Text | Просмотреть/Открыть |
Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.