Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс:
http://hdl.handle.net/11701/46389
Полная запись метаданных
Поле DC | Значение | Язык |
---|---|---|
dc.contributor.advisor | Головкина Анна Геннадьевна | ru_RU |
dc.contributor.advisor | Golovkina Anna Gennadevna | en_GB |
dc.contributor.author | Кириллов Роман Борисович | ru_RU |
dc.contributor.author | Kirillov Roman Borisovic | en_GB |
dc.contributor.editor | Кривовичев Герасим Владимирович | ru_RU |
dc.contributor.editor | Krivovicev Gerasim Vladimirovic | en_GB |
dc.date.accessioned | 2024-07-25T11:50:04Z | - |
dc.date.available | 2024-07-25T11:50:04Z | - |
dc.date.issued | 2024 | |
dc.identifier.other | 087727 | en_GB |
dc.identifier.uri | http://hdl.handle.net/11701/46389 | - |
dc.description.abstract | Выпускная квалификационная работа посвящена разработке и анализу новых численных методов оптимизации на основе метода Рунге — Кутты с разложением Лагранжа — Бюрмана. В настоящее время методы оптимизации широко используются во многих областях науки и техники. Эти методы активно применяются в задачах машинного обучения, теории управления и линейной алгебры. На практике большинство задач оптимизации можно решить только численно. В связи с этим разработка и исследование численных методов оптимизации являются актуальными задачами в вычислительной математике. Целью работы является разработка и анализ новых численных методов минимизации выпуклых функций с использованием методов Рунге — Кутты с разложением Лагранжа — Бюрмана. Для достижения поставленной цели необходимо было решить следующие задачи: построение новых градиентных методов; получение условий сходимости; программная реализация и решение тестовых задач; сравнение построенных методов с другими известными методами оптимизации. Работа состоит из введения, трех глав, заключения и списка использованной литературы. В первой главе приводится обзор литературы. Рассмотрена аналогия между градиентным спуском и задачей Коши, а также осуществлен обзор статей, связанных с тематикой работы. Представлено семейство методов Рунге — Кутты и методы, основанные на разложении Лагранжа — Бюрмана. Сформулированы цель и задачи работы. Во второй главе приводится построение и анализ новых градиентных методов минимизации, сформулированы и доказаны теоремы о сходимости для случая квадратичной и возмущенной квадратичной функции. В третьей главе проводится сравнение построенных методов с другими известными методами оптимизации на примере задач из различных областей. По результатам расчетов показано, что построенные методы могут сходиться быстрее, чем широко используемые методы минимизации выпуклых функций. В заключении приведены основные результаты работы и выводы. | ru_RU |
dc.description.abstract | The graduate work is devoted to the development and analysis of new numerical optimization methods based on the Runge — Kutta method with Lagrange — Burmann decomposition. Currently, optimization methods are widely used in many fields of science and technology. These methods are actively used in machine learning, control theory, and linear algebra problems. In practice, most optimization problems can only be solved numerically. In this regard, the development and research of numerical optimization methods are urgent tasks in computational mathematics. The aim of the work is to develop and analyze new numerical methods for minimizing convex functions using Runge — Kutta methods with Lagrange — Burmann decomposition. To achieve this goal, it was necessary to solve the following tasks: building new gradient methods; obtaining convergence conditions; software implementation and solving test problems; comparing the constructed methods with other known optimization methods. The work consists of an introduction, three chapters, a conclusion and a list of references. The first chapter provides an overview of the literature. The analogy between gradient descent and the Cauchy problem is considered, as well as a review of articles related to the topic of the work. A family of Runge — Kutta methods and methods based on Lagrange — Burmann decomposition are presented. The purpose and objectives of the work are formulated. The second chapter provides the construction and analysis of new gradient minimization methods, formulated and proved convergence theorems for the case of quadratic and perturbed quadratic functions. In the third chapter, the constructed methods are compared with other well-known optimization methods using the example of problems from various fields. Based on the results of calculations, it is shown that the constructed methods can converge faster than widely used methods for minimizing convex functions. In conclusion, the main results of the work and conclusions are presented. | en_GB |
dc.language.iso | ru | |
dc.subject | Методы Рунге – Кутты | ru_RU |
dc.subject | разложение Лагранжа – Бюрмана | ru_RU |
dc.subject | выпуклая оптимизация | ru_RU |
dc.subject | Runge – Kutta methods | en_GB |
dc.subject | Lagrange – Burmann expansion | en_GB |
dc.subject | convex optimization | en_GB |
dc.title | Gradient descent methods based on the Runge — Kutta method with Lagrange — Buhrman decomposition | en_GB |
dc.title.alternative | Методы градиентного спуска на основе метода Рунге — Кутты с разложением Лагранжа — Бюрмана | ru_RU |
Располагается в коллекциях: | BACHELOR STUDIES |
Файлы этого ресурса:
Файл | Описание | Размер | Формат | |
---|---|---|---|---|
vkr_kirillov.pdf | Article | 1,28 MB | Adobe PDF | Просмотреть/Открыть |
reviewSV_st087727_Kirillov_Roman_Borisovic_(supervisor)(Ru).txt | ReviewSV | 3,58 kB | Text | Просмотреть/Открыть |
Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.