:: ECONOMY :: МЕТОДИ ОПТИМІЗАЦІЇ ФОРМУВАННЯ КОНТЕКСТУ ДЛЯ ВЕЛИКИХ МОВНИХ МОДЕЛЕЙ У ЗАДАЧАХ ГЕНЕРАЦІЇ КОДУ В УМОВАХ ОБМЕЖЕНИХ РЕСУРСІВ :: ECONOMY :: МЕТОДИ ОПТИМІЗАЦІЇ ФОРМУВАННЯ КОНТЕКСТУ ДЛЯ ВЕЛИКИХ МОВНИХ МОДЕЛЕЙ У ЗАДАЧАХ ГЕНЕРАЦІЇ КОДУ В УМОВАХ ОБМЕЖЕНИХ РЕСУРСІВ
:: ECONOMY :: МЕТОДИ ОПТИМІЗАЦІЇ ФОРМУВАННЯ КОНТЕКСТУ ДЛЯ ВЕЛИКИХ МОВНИХ МОДЕЛЕЙ У ЗАДАЧАХ ГЕНЕРАЦІЇ КОДУ В УМОВАХ ОБМЕЖЕНИХ РЕСУРСІВ
 
UA  PL  EN
         

Світ наукових досліджень. Випуск 51

Термін подання матеріалів

21 квітня 2026

До початку конференції залишилось днів 0



  Головна
Нові вимоги до публікацій результатів кандидатських та докторських дисертацій
Редакційна колегія. ГО «Наукова спільнота»
Договір про співробітництво з Wyzsza Szkola Zarzadzania i Administracji w Opolu
Календар конференцій
Архів
  Наукові конференції
 
 Лінки
 Форум
Наукові конференції
Наукова спільнота - інтернет конференції
Світ наукових досліджень www.economy-confer.com.ua

 Голосування 
З яких джерел Ви дізнались про нашу конференцію:

соціальні мережі;
інформування електронною поштою;
пошукові інтернет-системи (Google, Yahoo, Meta, Yandex);
інтернет-каталоги конференцій (science-community.org, konferencii.ru, vsenauki.ru, інші);
наукові підрозділи ВУЗів;
порекомендували знайомі.
з СМС повідомлення на мобільний телефон.


Результати голосувань Докладніше

 Наша кнопка
www.economy-confer.com.ua - Економічні наукові інтернет-конференції

 Лічильники
Українська рейтингова система

МЕТОДИ ОПТИМІЗАЦІЇ ФОРМУВАННЯ КОНТЕКСТУ ДЛЯ ВЕЛИКИХ МОВНИХ МОДЕЛЕЙ У ЗАДАЧАХ ГЕНЕРАЦІЇ КОДУ В УМОВАХ ОБМЕЖЕНИХ РЕСУРСІВ

 
18.04.2026 17:03
Автор: Вакулов Іван Олексійович, магістрант факультету інформаційних технологій Київський національний університет імені Тараса Шевченка; Гайна Георгій Анатолійович, кандидат технічних наук, професор кафедри інтелектуальних технологій, Київський національний університет імені Тараса Шевченка
[2. Інформаційні системи і технології;]

У сучасних умовах розвитку програмної інженерії великі мовні моделі активно інтегруються у процес розробки програмного забезпечення як інтелектуальні асистенти. Вони здатні виконувати генерацію коду, пояснення логіки, рефакторинг та інші задачі, що традиційно виконуються розробником. Проте ефективність їх використання значною мірою обмежується ресурсними факторами, зокрема вартістю обробки токенів та обмеженнями контекстного вікна.

Одним із ключових аспектів, що визначає якість роботи LLM, є формування контексту, який передається моделі. Надмірний обсяг контексту призводить до збільшення вартості inference та може містити нерелевантну інформацію, тоді як недостатній контекст обмежує здатність моделі генерувати коректні результати. У зв’язку з цим виникає задача оптимального відбору та структурування контексту.

У межах дослідження було розроблено експериментальну систему, що моделює процес генерації змін до коду з використанням LLM. Система включає модуль формування контексту, підсистему взаємодії з мовними моделями та автоматизований eval-harness для виконання задач і перевірки результатів. Взаємодія з моделлю реалізована через структурований JSON-протокол редагувань, що дозволяє детерміновано застосовувати зміни та мінімізувати помилки формату.

Для проведення експерименту було реалізовано набір стратегій формування контексту, які відрізняються обсягом і способом відбору інформації: від відсутності контексту до використання повного файлу, залежностей та retrieval-орієнтованих підходів із ранжуванням. 

Оцінювання результатів здійснювалося за допомогою інтегрованої системи метрик, що враховує як якість виконання задач (успішність, проходження перевірок), так і ресурсні показники (обсяг токенів).

Результати дослідження показали, що збільшення обсягу контексту не забезпечує пропорційного покращення якості генерації. Найбільш ефективними виявилися стратегії, що використовують локальний структурований контекст, зокрема цільовий файл та його імпорти. 

Retrieval-орієнтовані підходи демонструють збільшення витрат ресурсів, однак не завжди забезпечують покращення результатів через наявність нерелевантного контексту.

Таким чином, отримані результати підтверджують необхідність оптимізації процесу формування контексту як ключового чинника ефективного використання великих мовних моделей. Практичне значення роботи полягає у можливості застосування запропонованих підходів при розробці інтелектуальних систем підтримки програмістів для зниження вартості використання LLM та підвищення якості генерації коду.

Список використаних джерел:

1. Chen M. et al. Evaluating Large Language Models Trained on Code [Electronic resource]. arXiv preprint arXiv:2107.03374, 2021. URL: arXiv.org/abs/2107.03374 (date of access: 15.04.2026).

2. Brown T. B. et al. Language Models are Few-Shot Learners // Advances in Neural Information Processing Systems. 2020. Vol. 33. P. 1877–1901.

3. Ouyang L. et al. Training Language Models to Follow Instructions with Human Feedback // Advances in Neural Information Processing Systems. 2022. Vol. 35. P. 27730–27744.

4. Lewis P. et al. Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks // Advances in Neural Information Processing Systems. 2020. Vol. 33. P. 9459–9474.

5. Liu T., Xu C., McAuley J. RepoBench: Benchmarking Repository-Level Code Auto-Completion Systems [Electronic resource]. arXiv preprint arXiv:2306.03091, 2023. URL: arXiv.org/abs/2306.03091 (date of access: 15.04.2026).



Creative Commons Attribution Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License

допомогаЗнайшли помилку? Виділіть помилковий текст мишкою і натисніть Ctrl + Enter


 Інші наукові праці даної секції
КОМБІНАЦІЙНИЙ МЕТОД РЕАЛІЗІЦІЇ НЕРЕКУРСИВНИХ ГРЕБІНЧАСТИХ ФІЛЬТРІВ
22.04.2026 23:21
A WEB-BASED FRAMEWORK FOR ACADEMIC DOCUMENT WORKFLOW AUTOMATION WITH ANGULAR AND FIREBASE
22.04.2026 22:24
ПОРОГОВИЙ АНАЛІЗ РОЗПІЗНАВАННЯ РАДІОСИГНАЛІВ CNN ПРИ ЕКСТРЕМАЛЬНОМУ СТИСНЕННІ ВЕЙВЛЕТ-СПЕКТРІВ
14.04.2026 00:57




© 2010-2026 Всі права застережені При використанні матеріалів сайту посилання на www.economy-confer.com.ua обов’язкове!
Час: 0.205 сек. / Mysql: 2038 (0.169 сек.)