Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс: http://hdl.handle.net/11701/25568
Полная запись метаданных
Поле DCЗначениеЯзык
dc.contributor.advisorЧаунин Михаил Павловичru_RU
dc.contributor.advisorCaunin Mihail Pavlovicen_GB
dc.contributor.authorКисляков Владислав Сергеевичru_RU
dc.contributor.authorKislakov Vladislav Sergeevicen_GB
dc.contributor.editorМатросов Александр Васильевичru_RU
dc.contributor.editorMatrosov Aleksandr Vasilevicen_GB
dc.date.accessioned2021-03-24T15:07:15Z-
dc.date.available2021-03-24T15:07:15Z-
dc.date.issued2019
dc.identifier.other010191en_GB
dc.identifier.urihttp://hdl.handle.net/11701/25568-
dc.description.abstractЗадача идентификации человека по биометрическим данным актуальна в последние годы. Распознавание личности по изображению лица является одним из наиболее удобных способов идентификации, так как не требует близкого контакта человека с прибором и может проводиться без ведома объекта анализа, что бывает полезно для различных охранных структур. Так же существуют методы идентификации по отпечаткам пальцев, голосу, радужке глаза и анализам биоматериалов. Однако, они не обладают в полной мере указанными выше преимуществами. Сверточные нейронные сети были наиболее успешным подходом к проблеме классификации изображений за последнее десятилетие. В последнее время несколько предварительно обученных сетей были опубликованы и стали открытыми. Все эти сети прошли обучение по большому количеству изображений лиц, собранных с онлайн-ресурсов, таких как the Internet Movie Database и результаты поиска Google. Системы идентификации личности часто используются для проверки допуска человека к различным данным или объектам. Для систем, применяемых подобным образом важной характеристикой, является сведение к минимуму вероятности ложноположительных ответов, т.е. предоставление допуска лицам, немеющим такового. В данной работе будут проанализированы предобученные свёрточные сети, использующиеся для идентификации человека по изображению лица и находящиеся в открытом доступе.ru_RU
dc.description.abstractThe task of identifying a person by biometric data is relevant in recent years. Identification of a person by a face is one of the most convenient methods of identification, since it does not require close contact of a person with the device and can be carried out without the knowledge of the object of analysis, which is useful for various security structures. There are also methods of fingerprint identification, voice, iris and biomaterial analysis. However, they do not have the full benefits of the above. Convolutional neural networks have been the most successful approach to the problem of image classification over the past decade. Recently, several pre-trained networks have been published and become open. All of these networks have been trained in a large number of images of people collected from online resources such as the Internet Movie Database and Google search results. Personal identification systems are often used to check a person’s access to various data or objects. For systems used in this way, an important characteristic is to minimize the likelihood of false-positive responses, i.e. the granting of admission to those who are not swearing. In this paper, we will analyze the pre-trained convolutional networks that are used to identify a person from the face and are in the public domain.en_GB
dc.language.isoru
dc.subjectсверточные нейронные сетиru_RU
dc.subjectобработка изображенийru_RU
dc.subjectидентификация человекаru_RU
dc.subjectconvolutional neural networksen_GB
dc.subjectimage processingen_GB
dc.subjecthuman identificationen_GB
dc.titleBiometric human identificationen_GB
dc.title.alternativeИдентификация человека по биометрическим даннымru_RU
Располагается в коллекциях:MASTER'S STUDIES

Файлы этого ресурса:
Файл Описание РазмерФормат 
VKR_Kislakov.docxArticle1,54 MBMicrosoft Word XMLПросмотреть/Открыть
reviewSV_Kislakov_otzyv.pdfReviewSV131,28 kBAdobe PDFПросмотреть/Открыть


Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.