DSpace Регистрация
 

Institutional Repository of Polissia National University >
Кваліфікаційні роботи здобувачів вищої освіти >
122 – Комп'ютерні науки >

Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс: http://ir.polissiauniver.edu.ua/handle/123456789/17933

Название: Адаптивна система навчання поведінки NPC на основі Q-learning
Другие названия: Adaptive NPC Behavior Learning System Based on Q-learning
Авторы: Островський, В. В.
Ostrovskyi, V.
Ключевые слова: навчання з підкріпленням
reinforcement learning
адаптивна поведінка
adaptive behavior
марківський процес прийняття рішень
Markov decision process
табличний Q-learning
table Q-learning
epsilon-greedy стратегія
epsilon-greedy strategy
штучний інтелект у іграх
artificial intelligence in games
системи потреб NPC
NPC needs systems
Дата публикации: 2025
Издатель: Поліський національний університет
Библиографическое описание: Островський В. В. Адаптивна система навчання поведінки NPC на основі Q-learning : кваліфікаційна робота, спец. 122 «Комп’ютерні науки» / Поліський нац. ун-т, каф. комп’ютерних технологій і моделювання систем ; наук. кер. Ковальчук М. О. – Житомир, 2025. – 44 с.
Аннотация: Кваліфікаційна робота присвячена дослідженню методів створення адаптивної поведінки неігрових персонажів у відеоіграх із використанням алгоритму Q-learning. Проведено аналіз традиційних підходів та обґрунтовано перевагу методів навчання з підкріпленням. Побудовано математичну модель віртуального середовища як марківського процесу прийняття рішень, розроблено функцію винагороди для управління множинними потребами персонажа, реалізовано табличний Q-learning з epsilon-greedy стратегією. Модель реалізовано в Unreal Engine 5 на C++. Виконано експериментальне дослідження протягом 252 поколінь, виявлено нелінійний характер збіжності з трьома фазами навчання та феномен перенавчання на пізніх етапах. Проведено порівняльний аналіз альтернативних конфігурацій, що підтвердив критичну важливість коректного підбору параметрів. Практичне значення полягає у створенні готового рішення з відкритою архітектурою, адаптованого для широкого спектру ігрових механік.
The qualification work is dedicated to researching methods for creating adaptive behavior of non-player characters in video games using the Q-learning algorithm. An analysis of traditional approaches was conducted and the advantage of reinforcement learning methods was substantiated. A mathematical model of the virtual environment as a Markov decision process was built, a reward function for managing multiple character needs was developed, and tabular Q-learning with epsilon-greedy strategy was implemented. The model was implemented in Unreal Engine 5 using C++. Experimental research was conducted over 252 generations, revealing a non-linear convergence pattern with three learning phases and an overfitting phenomenon in later stages. A comparative analysis of alternative configurations was performed, confirming the critical importance of correct parameter tuning.
URI: http://ir.polissiauniver.edu.ua/handle/123456789/17933
Располагается в коллекциях:122 – Комп'ютерні науки

Файлы этого ресурса:

Файл Описание РазмерФормат
Ostrovskyi_VV_122_2025.pdf1,26 MBAdobe PDFПросмотреть/Открыть
View Statistics

Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.

 

ISSN 2414-519X © 2014-2024 Полесский университет