Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс:
http://hdl.handle.net/11701/44675
Полная запись метаданных
Поле DC | Значение | Язык |
---|---|---|
dc.contributor.advisor | Ковальчук Сергей Валерьевич | ru_RU |
dc.contributor.advisor | Kovalcuk Sergej Valerevic | en_GB |
dc.contributor.author | Омельченко Максим Андреевич | ru_RU |
dc.contributor.author | Omelcenko Maksim Andreevic | en_GB |
dc.contributor.editor | Булычев Дмитрий Юрьевич | ru_RU |
dc.contributor.editor | Bulycev Dmitrij Urevic | en_GB |
dc.date.accessioned | 2024-01-23T13:54:22Z | - |
dc.date.available | 2024-01-23T13:54:22Z | - |
dc.date.issued | 2023 | |
dc.identifier.other | 075972 | en_GB |
dc.identifier.uri | http://hdl.handle.net/11701/44675 | - |
dc.description.abstract | С приходом больших генеративных моделей появилась возможность автоматической генерации программного кода. Это позволяет сэкономить время миллионов разработчиков а также автоматизировать процессы разработки. Цель этой работы --- улучшить качество генерации кода для уже существующих генеративных моделей. Для достижения этой цели, предлагается метод дообучения больших языковых моделей, который заключается в добавлении специальных ключевых слов к входу в качестве подсказки. В работе были проведены эксперименты в области ответов на вопросы на платформе Stack Overflow. Эксперименты показали эффективность предложенного метода, а лучшая дообученная модель набрала 0.44 BLEU на публичном датасете по генерации кода CoNaLa, опережая предыдущий лучший результат на 0.10 BLEU. | ru_RU |
dc.description.abstract | With the advent of Large Language Models (LLM), it became possible to automatically generate program code. This saves time for millions of developers and automates development processes. The purpose of this work is to improve the quality of code generation for already existing generative models. To achieve this goal, a method for fine-tuning LLMs is proposed, which consists in adding special keywords to the input as a prompt. Further, experiments were conducted in the field of answering questions on the Stack Overflow platform. The experiments showed the effectiveness of the proposed method, and the best fine-tuned model scored 0.44 BLEU on the public code generation CoNaLa dataset, ahead of the previous best result by 0.10 BLEU. | en_GB |
dc.language.iso | ru | |
dc.subject | Машинное обучение | ru_RU |
dc.subject | CQA платформы | ru_RU |
dc.subject | Глубокое обучение | ru_RU |
dc.subject | Генерация кода | ru_RU |
dc.subject | Большие языковые модели | ru_RU |
dc.subject | Machine Learning | en_GB |
dc.subject | CQA sites | en_GB |
dc.subject | Deep Learning | en_GB |
dc.subject | Code Generation | en_GB |
dc.subject | Large Language Models | en_GB |
dc.title | The investigation of generative models in the problem of finding the optimal answer to specialized questions with application to StackOverflow | en_GB |
dc.title.alternative | Исследование генеративных моделей в задаче поиска оптимального ответа на специализированные вопросы на примере StackOverflow | ru_RU |
Располагается в коллекциях: | BACHELOR STUDIES |
Файлы этого ресурса:
Файл | Описание | Размер | Формат | |
---|---|---|---|---|
diploma.pdf | Article | 1,29 MB | Adobe PDF | Просмотреть/Открыть |
reviewSV_review.pdf | ReviewSV | 104 kB | Adobe PDF | Просмотреть/Открыть |
reviewSV_st075972_Omelcenko_Maksim_Andreevic_(supervisor)(Ru).txt | ReviewSV | 2,98 kB | Text | Просмотреть/Открыть |
Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.