Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс: http://hdl.handle.net/11701/12238
Полная запись метаданных
Поле DCЗначениеЯзык
dc.contributor.advisorАмелин Владислав Владимировичru_RU
dc.contributor.authorРащенко Дмитрий Владимировичru_RU
dc.contributor.authorRashchenko Dmitriien_GB
dc.contributor.editorКозынченко Владимир Александровичru_RU
dc.contributor.editorKozynchenko Vladimir Аleksаndrovichen_GB
dc.date.accessioned2018-07-26T15:17:25Z-
dc.date.available2018-07-26T15:17:25Z-
dc.date.issued2018
dc.identifier.other013098en_GB
dc.identifier.urihttp://hdl.handle.net/11701/12238-
dc.description.abstractВ данной магистерской диссертации предложены несколько критериев для оценки качества архитектуры ИНС с одним скрытым слоем, с помощью которых возможно выявить недостаток нейронов, а в некоторых случаях и избыток. Было показано, что сделать вывод об оптимальности архитектуры можно не только после окончания, но и на более ранних этапах обучения. Хотя возможность применения данных критериев имеет ряд ограничений, в некоторых задачах использование предложенных характеристик позволит значительно увеличить эффективность процедуры поиска оптимального количества нейронов. Также рассмотрены пути дальнейшего развития методов выбора оптимальной архитектуры, среди которых объединение с методами динамического изменения ширины слоев, не прерывающих процесс обучения, а также применение в глубоких и сверточных нейронных сетях.ru_RU
dc.description.abstractThe master's thesis proposes several criteria of the ANN architecture quality assessment on an example of a one-hidden-layer network. These criteria help to identify a lack of neurons and in some cases an excess. It was shown that a conclusion about the architecture may be drawn not only after training, but also at earlier stages of learning. Although the applicability of the proposed criteria has a number of limitations, in some problems they can significantly increase the efficiency of network architecture optimization. Also further ways of the method development were considered: they include application to deep and convolutional neural networks as well as combining with the methods of dynamical architecture changing not interrupting the learning process.en_GB
dc.language.isoru
dc.subjectискусственные нейронные сетиru_RU
dc.subjectоптимизация архитектурыru_RU
dc.subjectartificial neural networksen_GB
dc.subjectarchitecture optimizationen_GB
dc.titleLearning methods of artificial neural networks in pattern recognition problemsen_GB
dc.title.alternativeМетоды обучения искусственных нейронных сетей в задачах распознавания образовru_RU
Располагается в коллекциях:MASTER'S STUDIES



Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.