EIRNUZP – Електронний інституційний репозитарій Національного університету «Запорізька політехніка»

Інституційний репозитарій Національного університету «Запорізька політехніка» – це електронний архів, що накопичує, систематизує, зберігає та забезпечує довготривалий відкритий доступ до електронних публікацій та електронних версій документів наукового та навчально-методичного призначення, авторами яких є співробітники, аспіранти, докторанти та студенти Національного університету «Запорізька політехніка».

Положення про репозитарій >>

 

Recent Submissions

Item
Deep reinforcement learning optimization methods for traffic lights at signalized intersections
(Національний університет "Запорізька політехніка", 2025) Boyko, N. I.; Mokryk, Y. L.; Бойко, Н. І.; Мокрик, Я. Л.
EN: Context. Intersections are the most critical areas of a road network, where the largest number of collisions and the longest waiting times are observed. The development of optimal methods for traffic light control at signalized intersections is necessary for improving the flow of traffic at existing urban intersections, reducing the chance of traffic collisions, the time it takes to cross the intersection, and increasing the safety for drivers and pedestrians. Developing such an algorithm requires simulating and comparing the work of different approaches in a simulated environment. Objective. The aim of this study is to develop an effective deep reinforcement-learning model aimed at optimizing traffic light control at intersections. Method. A custom simulation environment is designed, which is compatible with the OpenAI Gym framework, and two types of algorithms are compared: Deep Q-Networks and Proximal Policy Optimization. The algorithms are tested on a range of scenarios, involving ones with continuous and discrete action spaces, where the set of actions the agent may take are represented either by different states of the traffic lights, or by the length of traffic light signal phases. During training, various hyperparameters were also tuned, and different reward metrics were considered for the models: average wait time and average queue length. The developed environment rewards the agent during training according to one of the metrics chosen, while also penalizing it for any traffic rule violations. Results. A detailed analysis of the test results of deep Q network and Proximal Policy Optimization algorithms was provided. In general, the Proximal Policy Optimization algorithms show more consistent improvement during training, while deep Q network algorithms suffer more from the problem of catastrophic forgetting. Changing the reward function allows the algorithms to minimize different metrics during training. The developed simulation environment can be used in the future for testing other types of algorithms on the same task, and it is much less computationally expensive compared to existing solutions. The results underline the need to study other methods of traffic light control that may be integrated with real-life traffic light systems for a more optimal and safer traffic flow. Conclusions. The study has provided a valuable comparison of different methods of traffic light control in a signalized urban intersection, tested different ways of rewarding models during training and reviewed the effects this has on the traffic flow. The developed environment was sufficiently simple for the purposes of the research, which is valuable due to the large computational requirements of the models themselves, but can be improved in the future by expanding it with more complex simulation features, such as various types of intersections that aren’t urban, creating a road network of intersections that would all be connected to each other, adding pedestrian crossings, etc. Future work may be done to refine the simulation environment, expand the range of considered algorithms, consider the use of models for vehicle control in addition to traffic light control. UK: Актуальність. Перехрестя є найбільш критичною ділянкою дорожньої мережі, де спостерігається найбільша кількість зіткнень та найдовший час очікування. Розробка оптимальних методів керування світлофорами на регульованих перехрестях необхідна для покращення руху транспортного потоку на існуючих міських перехрестях, зменшення ймовірності зіткнень, часу, необхідного для перетину перехрестя, та підвищення безпеки для водіїв і пішоходів. Розробка такого алгоритму вимагає моделювання руху транспорту та порівняння роботи різних підходів у змодельованому середовищі. Мета роботи є розробка ефективної моделі глибинного навчання з підкріпленням (DRL), спрямованої на оптимізацію керування фазами світлофорів на перехрестях. Метод. Розроблено власне симуляційне середовище, сумісне з OpenAI Gym, та проведено порівняння двох типів алгоритмів: глибинні Q-мережі та метод оптимізації близьких стратегій. Алгоритми протестовано на низці сценаріїв, включаючи сценарії з неперервним та дискретним просторами дій, де набір дій, які може виконати агент, представлений або різними станами світлофора, або тривалістю фаз сигналу світлофора. Під час навчання також налаштовувалися різні гіперпараметри та розглядалися різні метрики винагороди для моделей: середній час очікування та середня довжина черги. Розроблене середовище винагороджує агента під час навчання відповідно до однієї з обраних метрик, а також штрафує його за порушення правил дорожнього руху. Результати. Проведено детальний аналіз результатів тестування алгоритмів DQN та PPO. Загалом, алгоритми PPO демонструють більш стабільне покращення під час навчання, тоді як алгоритми DQN більше страждають від проблеми катастрофічного забування. Зміна функції винагороди дозволяє алгоритмам мінімізувати різні метрики під час навчання. Розроблене моделююче середовище може бути використане в майбутньому для тестування інших типів алгоритмів на тій самій задачі, і воно є значно менш затратним в обчислювальному плані порівняно з існуючими рішеннями. Отримані результати підкреслюють необхідність дослідження інших методів керування світлофорами, які можуть бути інтегровані з реальними світлофорними системами для більш оптимального та безпечного руху транспортних потоків. Висновки. Дослідження надало порівняння різних методів управління світлофорами на регульованому міському перехресті, протестувало різні способи заохочення моделей під час навчання та проаналізувало вплив, який це має на транспортний потік. Розроблене середовище було досить простим для цілей дослідження, що є цінним через великі обчислювальні вимоги самих моделей, але в майбутньому його можна вдосконалити, розширивши його більш складними функціями моделювання, такими як різні типи перехресть, які не є міськими, створення дорожньої мережі перехресть, які були б з’єднані між собою, додавання пішохідних переходів тощо. У майбутньому планується вдосконалити середовище моделювання, розширити спектр розглянутих алгоритмів, розглянути можливість використання моделей для керування транспортними засобами на додаток до керування світлофорами.
Item
Механізми схемотехнічного моделювання на основі векторної логіки
(Національний університет "Запорізька політехніка", 2025) Хаханов, В. І.; Обрізан, В. І.; Рахліс, Д. Ю.; Хаханова, Г. В.; Хаханов, І. В.; Демченко, О. І.; Воронов, А. О.; Hahanov, V. I.; Obrizan, V. I.; Rakhlis, D. Y.; Khakhanova, H. V.; Hahanov, I. V.; Demchenko, O. I.; Voronov, A. О
UK: Актуальність. Розглядаються актуальні для EDA-ринку питання зменшення вартості та часу тестування й верифікації цифрових проєктів шляхом синтезу логічного вектора цифрової схеми, що дозволяє суттєво спростити алгоритми good-value simulation, а синтез карти тестування звести до трьох матричних операцій. Мета. Мета дослідження – зменшення вартості та часу тестування і верифікації цифрових проєктів завдяки синтезу логічного вектора цифрової схеми, що дозволяє спростити алгоритм побудови карти тестування до трьох матричних операцій. Метод. Пропонується синтез логічного вектора комбінаційної схеми для good-value та fault як адресів моделювання в архітектурі промпт-інтелектуального in-memory комп’ютингу. Логічний вектор є найбільш технологічним, компактниим та вичерпним представленням схеми для економного вирішення всіх задач дизайну та тестування. Пропонується декартова логіка, яка завдяки експоненційній надлишковості є ефективним інтелектуальним механізмом для вирішення комбінаційних задач (моделювання, simulation, тестування, діагностування) алгоритмами лінійної обчислювальної складності. Пропонуються механізми побудови логічного вектора процесу або явища, функції або структури на основі матричних структур декартової логіки для вирішення задач Modeling for Simulation. Пропонується інженерний метод прямого паралельного good-value моделювання схеми на основі використання логічних векторів елементів та таблиць істинності. Декартова логіка – це логічний вектор (матриця), як результат моделювання декартових логічних відношень між бітами логічних векторів або адресами таблиці істинності. Декартова логіка вирішує задачі: 1. Good-value modeling circuit logic vector без алгоритму моделювання справної поведінки. 2. Fault modeling testing map of logic без алгоритму моделювання несправностей. Результати. Запропоновано математичний апарат декартової логіки, представлений у вигляді логічного вектора (матриці), що є результатом моделювання декартових логічних відношень між бітами логічних векторів або адресами таблиці істинності. На основі теорії векторної логіки розроблено механізми та програмне застосування для економного розв’язання задач design and test в архітектурі in-memory комп’ютингу. Висновки. Практична значущість дослідження орієнтована на вирішення всіх задач design and test на основі використання простих моделей векторної логіки, орієнтованої на економічний in-memory комп’ютинг на основі read-write транзакцій, вільний від інструкцій процесора. Пропонується використовувати логічний вектор специфікації в архітектурі in-memory комп’ютингу для тестування, верифікації, діагностування та експлуатації. In-memory vector logic computing – це економічне вирішення багатьох обчислювальних проблем з точки зору енергетичних, часових і вартісних витрат. Новизна дослідження полягає у використанні векторної логіки в архітектурі in-memory комп’ютингу на основі read-write транзакцій, що дозволяє зменшити споживання ресурсів у вигляді часу та енергії. Імплементація векторної логіки в in-memory комп’ютинг робить його масовим і енергоефективним, вільним від складних алгоритмів аналізу великих даних. EN: Context. This paper addresses issues relevant to the EDA market – reducing the cost and time of testing and verification of digital projects by synthesizing the logic vector of a digital circuit, which significantly simplifies the algorithms of good-value simulation and reduces the synthesis of the test map to three matrix operations. Objective. The aim of the study is to reduce the cost and time of testing and verification of digital projects by synthesizing the logic vector of a digital circuit, which allows for simplifying the algorithm for constructing the test map to three matrix operations. Method. The synthesis of a logic vector for a combinational circuit is proposed for good-value and fault as modeling addresses within the architecture of prompt-intelligent in-memory computing. The logic vector is the most technological, compact, and exhaustive representation of the circuit for efficiently solving all design and testing tasks. Cartesian logic is proposed as an effective intelligent mechanism for solving combinatorial problems (modeling, simulation, testing, diagnostics) using algorithms of linear computational complexity, thanks to its exponential redundancy . Mechanisms are proposed for constructing a logic vector of a process or phenomenon, function or structure, based on matrix structures of Cartesian logic for solving Modeling for Simulation tasks. An engineering method of direct parallel good-value modeling of the circuit is proposed, based on the use of logic vectors of elements and truth tables. Cartesian logic is a logic vector (matrix) as the result of modeling Cartesian logical relations between the bits of logic vectors or truth table addresses. Cartesian logic solves the following tasks: 1. Good-value modeling of a circuit logic vector without the need for a functional behavior modeling algorithm. 2. Fault modeling testing map of logic without a fault simulation algorithm. Results. A mathematical apparatus of Cartesian logic is proposed, represented as a logic vector (matrix), which is the result of modeling Cartesian logical relations between the bits of logic vectors or addresses of the truth table. Based on the theory of vector logic, mechanisms and software have been developed for efficiently solving design and test tasks within the in-memory computing architecture. Conclusions. The practical value of the study lies in addressing all design and test tasks using simple models of vector logic, oriented toward economical in-memory computing based on read-write transactions and free from processor instructions. It is proposed to use the specification logic vector within the in-memory computing architecture for testing, verification, diagnostics, and operation. In-memory vector logic computing is an economical solution to many computational problems in terms of energy, time, and cost efficiency. The novelty of the study lies in the use of vector logic within the in-memory computing architecture based on read-write transactions, which reduces resource consumption in terms of time and energy. Implementing vector logic in in-memory computing makes it scalable and energy-efficient, and frees it from complex big data analysis algorithms.
Item
Modify shaders and render textures on curved surfaces
(Національний університет "Запорізька політехніка", 2025) Suhoniak, I.; Marchuk, G.; Oleksiuk, O.; Сугоняк, І. І.; Марчук, Г. В.; Олексюк, О. С.
EN: Context. The display of curvilinear surfaces on flat screens is a complex task. The development of an interface for such surfaces is a relevant task that requires the solution of numerous issues. This paper presents an approach to UI development for curvilinear surfaces and shader modifications for the creation of realistic landscape elements. The object of the research is the development of an interface system based on a custom raycaster to ensure interactivity and create an immersive effect within the game environment.. Objective. The purpose of the paper. The primary objective of this research is to create, optimise and adapt shaders on curved surfaces to achieve more efficient rendering with high-quality visualisation. Method. The development of user interfaces (UI) for curvilinear surfaces requires consideration of geometric parameters. To resolve this issue, a custom component based on BaseRaycaster was developed, enabling the computation of the intersection between the camera ray and the physical surface. To provide correct and efficient interaction with the canvas a custom component based on BaseRaycaster was created. The developed component solves the problem by identifying the ray intersection point from the camera with the canvas surface. The implementation of this component involves an algorithm for detecting the camera’s ray intersections with colliders, using a mathematical model to process the detected elements, according for their depth to ensure proper interaction. Results.This approach facilitates the creation of interfaces on arbitrary static curved surfaces that are applicable in various gaming and interactive scenarios. Conclusions. The use of splines and modified shaders ensures the placement of text on curvilinear surfaces and the natural arrangement of roads and other landscape elements according to the terrain contours. This approach is important for developing open-world games or games with complex geometry, where the UI on curvilinear surfaces appears natural and integrated into the environment. UK: Актуальність. Криволінійні поверхні є складними для відображення на плоскому екрані. Розробка інтерфейсу для таких поверхонь є актуальною задачею, яка потребує вирішення багатьох проблем. У даній роботі представлено підхід до розробки UI для криволінійних поверхонь, а також модифікація шейдерів для створення реалістичних елементів ландшафту. Об’єктом дослідження є розробка інтерфейсної системи на основі кастомного рейкаста для забезпечення інтерактивності та занурення у ігровий світ. Мета роботи. Основна мета даної роботи полягає у створенні, вдосконаленні та адаптації шейдерів на криволінійних поверхнях для досягнення більш ефективного рендерингу, зберігаючи при цьому високу якість візуалізації. Метод. Розробка UI для криволінійних поверхонь потребує врахування особливостей геометрії. Для вирішення цієї проблеми було розроблено кастомний компонент на базі BaseRaycaster, який дозволяє визначати перетин променя від камери з фізичною поверхнею. З метою забезпечення коректної та ефективної взаємодії з полотном, розроблено кастомний компонент на основі BaseRaycaster. Запропонований компонент вирішує проблему шляхом визначення точки перетину променя, що виходить з камери, з фізичною поверхнею полотна. Реалізація включає в себе алгоритм пошуку перетинів променя з колайдерами за допомогою математичної формули та подальшу обробку знайдених елементів з урахуванням їх глибини для забезпечення коректної взаємодії. Завдяки цьому підходу, з’являється можливість створювати інтерфейс на довільній кривій статичній поверхні, що відкриває широкі можливості для використання в різноманітних ігрових та інтерактивних сценаріях. Результати. Представлений підхід до розробки UI для криволінійних поверхонь та використання модифікованих шейдерів дозволяє створювати більш інтерактивні та реалістичні інтерфейси та ігрові світи. Висновки. Використання сплайнів та модифікованих шейдерів забезпечує розташування тексту на криволінійних поверхнях та органічне розташування доріг та інших елементів ландшафту відповідно до контурів місцевості. Цей підхід є важливим для створення ігор з відкритим світом або складною геометрією, де UI на криволінійній поверхні виглядає природно та інтегровано в середовище.
Item
An analytical approach to multi-criteria choosing technological scheme for information processing
(Національний університет "Запорізька політехніка", 2025) Popov, М.; Zaitsev, О.; Stefantsev, S.; Попов, М. О.; Зайцев, О. В.; Стефанцев, С. С.
EN: Context. Today, effective information processing is critically important for making strategic, tactical, and operational management decisions. The increasing volumes of information and the need for its rapid analysis necessitate the development and implementation of new methods for multi-criteria choosing technological schemes for information processing. The application of analytical approaches, such as the Ordered Weighted Averaging (OWA) method, allows for the improvement of the quality of final information products, which is relevant for analysis and research in various fields. Objective. The aim of the research is to develop an analytical approach to multi-criteria choosing an information processing technological scheme using the OWA operator. Method. The paper uses an analytical approach based on the multi-criteria decision-making method. Specifically, the Ordered Weighted Averaging (OWA) operator is applied, which allows taking into account the weight coefficients of the criteria and their ranking significance to determine the optimal information processing technological scheme. Results. The research results show that the application of the OWA operator effectively aggregates the evaluation of alternatives and selects the technological scheme that best meets the specified criteria for the quality of the end information product. The conducted experiments confirmed the effectiveness of the proposed approach in evaluating alternative information processing schemes. Conclusions. The proposed approach to multi-criteria selection of a technological scheme for processing intelligence data allows for improved quality of the end information product and considers the importance of various criteria. Further research could be focused on the development of automated decision support systems taking into account the metadata of intelligence data. UK: Актуальність. Сьогодні ефективне опрацювання інформації є критично важливим для прийняття стратегічних, тактичних та оперативних управлінських рішень. Зростаючий обсяг інформації та необхідність її швидкого аналізу вимагають розробки та впровадження нових методів багатокритеріального вибору технологічних схем обробки інформації. Застосування аналітичних підходів, таких, як метод упорядкованого зваженого агрегування (OWA), дозволяє покращити якість кінцевих інформаційних продуктів, що є актуальним для аналізу та досліджень у різних сферах людської діяльності. Мета. Метою дослідження є розробка аналітичного підходу до багатокритеріального вибору технологічної схеми опрацювання інформації із застосуванням оператора упорядкованого зваженого агрегування (OWA-оператора). Метод. В роботі використано аналітичний підхід, заснований на методі багатокритеріального прийняття рішень. Зокрема, застосовується OWA-оператор, що дозволяє враховувати вагові коефіцієнти критеріїв та їх рангову значущість для визначення найбільш ефективної технологічної схеми опрацювання інформації. Результати. Результати досліджень показують, що застосування OWA-оператора дозволяє ефективно агрегувати оцінки альтернатив та обрати технологічну схему, яка найбільше серед тих, що є в наявності, відповідає заданим критеріям якості кінцевого інформаційного продукту. Проведені експерименти підтвердили ефективність запропонованого підходу при оцінюванні альтернативних схем опрацювання інформації. Висновки. Запропонований підхід до багатокритеріального вибору технологічної схеми опрацювання розвідувальних даних дозволяє підвищити якість кінцевого інформаційного продукту та враховувати при цьому важливість розглядуваних критеріїв. Подальші дослідження планується спрямувати на розробку автоматизованої системи підтримки прийняття рішень з урахуванням результатів аналізу метаданих вхідних даних.
Item
Analysis of procedures for voice signal normalization and segmentation in information systems
(Національний університет "Запорізька політехніка", 2025) Pastushenko, M. S.; Pastushenko, О. М.; Faizulaiev, T. А.; Пастушенко, M. С.; Пастушенко, О. М.; Файзулаєв, T. А.
EN: Context. The current task of evaluating formant data (formant frequencies, their spectral density level, amplitude-frequency spectrum envelope, formant frequency spectrum width) in voice authentication systems is considered. The object of the study is the process of digital preprocessing of the voice signal when extracting formant data. Objective. Evaluation of the effectiveness of traditional procedures for digital preprocessing of a user voice signal and development of proposals for improving the quality of formant data extraction. Method. A mathematical model for extracting formant data from an experimental voice signal has been developed to study the influence of normalization and segmentation procedures on the quality of the resulting estimates. By modeling the process of extracting formant data, the results of digital processing of normalized and non-normalized voice signals are compared. The influence of the processed frame duration of the experimental voice signal on the quality of the formant frequencies assessment is estimated. The results are obtained for the experimental phoneme and morpheme. Results. The obtained results show that when processing a voice signal with a sufficient signal-to-noise ratio, normalization procedures are not mandatory when extracting formant data. Moreover, normalization leads to a less accurate measurement of the spectrum width of formant frequencies. It is also unacceptable to use a processed frame duration of less than 40 ms. These results allow us to modify the traditional method of voice signal preprocessing. The use of the modeling method in the study of the experimental voice signal confirms the reliability of the results obtained. Conclusions. The scientific novelty of the research results lies in the modification of the voice signal preprocessing methodology in authentication systems. Eliminating normalization procedures at high signal-to-noise ratios of the voice signal, which occurs in user authentication systems, makes it possible to increase the speed of formant data extraction and more accurately estimate the width of the formant frequency spectrum. Selecting a frame duration of at least 40 ms for the processed signal significantly improves the accuracy of formant frequency determination. Otherwise, the estimates of the formant frequencies will be high. Moreover, when processing phonemes, the processed voice signal cannot be divided into frames. Practical application of research results allows to increase the efficiency and accuracy of the formant data generation. Prospects for further research may be studies of the influence of normalization and framing procedures on other elements of a template of the authentication system user. UK: Актуальність. Розглядається актуальне завдання оцінки формантних даних (формантних частот, рівня їхньої спектральної щільності, огинаючу амплітудно-частотного спектру, ширини спектрів формантних частот) у системах голосової автентифікації. Об’єктом дослідження був процес цифрової попередньої обробки голосового сигналу під час вилучення формантних даних. Мета роботи – оцінка ефективності традиційних процедур цифрової попередньої обробки голосового сигналу користувача та розробка пропозицій щодо підвищення якості вилучення формантних даних. Метод. Розроблено математичну модель вилучення формантних даних з експериментального голосового сигналу для дослідження впливу процедур нормалізації та сегментації на якість одержуваних оцінок. Шляхом моделювання процесу отримання формантних даних порівнюються результати цифрової обробки нормалізованого і ненормалізованого голосового сигналу. Оцінюється вплив тривалості обробленого кадру експериментального голосового сигналу якість оцінки формантних частот. Результати отримані для експериментальної фонеми та морфеми. Результати. Отримані результати свідчать, що при обробці голосового сигналу з достатнім співвідношенням сигнал/шум процедури нормалізації не є обов’язковими для отримання формантних даних. Більше того, нормалізація призводить до менш точного виміру ширини спектрів формантних частот. Неприпустимим є використання тривалості оброблюваного кадру менше 40 мс. Зазначені результати дозволяють модифікувати традиційну методику попередньої обробки голосового сигналу. Використання методу моделювання щодо експериментального голосового сигналу підтверджує достовірність отриманих результатів. Висновки. Проведені експериментальні дослідження показують доцільність виключення процедур нормалізації при високому співвідношенні сигнал/шум голосового сигналу, що має місце в системах автентифікації користувачів. Такий підхід дозволить підвищити оперативність отримання формантних даних і більш точно оцінювати ширину спектрів формантних частот. Результати експериментального дослідження тривалості оброблюваного кадру голосового сигналу свідчать, що його тривалість не має бути менше 40 мс. В іншому випадку оцінки формантних частот будуть завищеними. Більш того, при обробці фонем можна голосовий сигнал, що обробляється, не розбивати на фрейми. Практичне застосування результатів досліджень дозволяє підвищити оперативність та точність формування формантних даних. Перспективами подальших досліджень може бути дослідження впливу процедур нормалізації та фреймінгу на інші елементи шаблону користувача системи автентифікації.