Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс:
http://hdl.handle.net/11701/32548
Полная запись метаданных
Поле DC | Значение | Язык |
---|---|---|
dc.contributor.advisor | Бойко Алина Владимировна | ru_RU |
dc.contributor.advisor | Bojko Alina Vladimirovna | en_GB |
dc.contributor.author | Козлова Анна Олеговна | ru_RU |
dc.contributor.author | Kozlova Anna Olegovna | en_GB |
dc.contributor.editor | Петросян Ованес Леонович | ru_RU |
dc.contributor.editor | Petrosan Ovanes Leonovic | en_GB |
dc.date.accessioned | 2021-08-07T09:11:58Z | - |
dc.date.available | 2021-08-07T09:11:58Z | - |
dc.date.issued | 2021 | |
dc.identifier.other | 079086 | en_GB |
dc.identifier.uri | http://hdl.handle.net/11701/32548 | - |
dc.description.abstract | В последние годы искусственный интеллект набирает все большую популярность в роли инструмента решения различных задач для улучшения качества жизни человека. Примерами таких систем являются отрасль беспилотных автомобилей, здравоохранение и другие. Однако, у многих пользователей формируется недоверие к системам подобного рода, так как нет четкого объяснения как тот или иной алгоритм принимает решения. Также возникают правовые и этические вопросы: «Кто несет ответственность за принятые решения?» Проблемы лежащие в основе интерпретации работы алгоритмов относят к области XAI. В этой работе будут исследованы методы объяснения искусственного интеллекта на основе обученной модели для распознавания речи. В перспективе эта работа может быть использована для формирования рекомендаций при постановке медицинских диагнозов для людей с психическими отклонениями. | ru_RU |
dc.description.abstract | In recent years, artificial intelligence is gaining more and more popularity as a tool for solving various problems to improve the quality of human life. Examples of such systems are the self-driving car industry, healthcare, and others. However, many users develop a distrust of systems of this kind, since there is no clear explanation of how this or that algorithm makes decisions. Legal and ethical questions also arise: "Who is responsible for the decisions made?" The problems underlying the interpretation of the algorithm's work belong to the XAI area. This paper will investigate methods of explaining artificial intelligence based on a trained model for speech recognition. In the future, this work can be used to form recommendations for making medical diagnoses for people with mental disabilities. | en_GB |
dc.language.iso | ru | |
dc.subject | объяснимый искусственный интеллект | ru_RU |
dc.subject | машинное обучение | ru_RU |
dc.subject | глубокое обучение | ru_RU |
dc.subject | распознавание речи | ru_RU |
dc.subject | нейронная сеть | ru_RU |
dc.subject | explainable artificial Intelligence | en_GB |
dc.subject | machine learning | en_GB |
dc.subject | deep learning | en_GB |
dc.subject | speech recognition | en_GB |
dc.subject | neural network | en_GB |
dc.title | Explainable artificial intelligence for speech recognition | en_GB |
dc.title.alternative | Объяснимый искусственный интеллект для распознавания речи | ru_RU |
Располагается в коллекциях: | MASTER'S STUDIES |
Файлы этого ресурса:
Файл | Описание | Размер | Формат | |
---|---|---|---|---|
Magisterskaa_dissertacia_Kozlova_A.O..pdf | Article | 1,62 MB | Adobe PDF | Просмотреть/Открыть |
reviewSV_Kozlova_review_Petrosyan_OL.pdf | ReviewSV | 439,95 kB | Adobe PDF | Просмотреть/Открыть |
Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.