EIRNUZP – Електронний інституційний репозитарій Національного університету «Запорізька політехніка»

Інституційний репозитарій Національного університету «Запорізька політехніка» – це електронний архів, що накопичує, систематизує, зберігає та забезпечує довготривалий відкритий доступ до електронних публікацій та електронних версій документів наукового та навчально-методичного призначення, авторами яких є співробітники, аспіранти, докторанти та студенти Національного університету «Запорізька політехніка».

Положення про репозитарій >>

 

Recent Submissions

Item
Formalized methodology for compatibility and adaptation of requirements in intelligent diagnostic systems
(Національний університет "Запорізька політехніка", 2025) Komleva, N. O.; Liubchenko, V. V.; Комлева, Н. О.; Любченко, В. В.
EN: Context. Ensuring the consistency and adaptability of requirements in systems operating under dynamic conditions and limited resources is a pressing issue in modern requirements engineering, especially in intelligent diagnostic and decision-making environments. These systems must process conflicting, outdated, or ambiguous requirements while operating in environments characterized by high uncertainty and dynamic conditions. Objective. This work introduces a formalized methodology for analyzing and managing the compatibility of system requirements. The proposed approach integrates logical consistency, functional interaction, resource feasibility, and priority alignment to support system stability and responsiveness. Method. The methodology is implemented as a multi-level framework that incorporates formal representations of functional, non-functional, and data-related requirements. It employs scenario-based modeling, a set of compatibility assessment models, and a dynamic algorithm for integrating new requirements. The integration process includes compatibility checks, adaptive refinement, expert-based weighting, and real-time feedback. The methodology’s applicability is demonstrated through a hypothetical intelligent medical diagnostic system. Results. The proposed methodology enables systematic identification and resolution of requirement conflicts, ensuring consistent execution and effective prioritization under resource constraints. Scenario-driven modeling and the formalization of core requirements establish a foundation for adaptive system behavior and real-time decision-making. Conclusions. The developed methodology, which includes models and algorithms, enhances the reliability of intelligent systems operating in critical contexts. Future work will focus on extending the framework by incorporating fuzzy logic, machine learning techniques, and developing software tools for automated compatibility analysis and adaptive requirements management. UK: Актуальність. Забезпечення узгодженості та адаптивності вимог у системах, що функціонують в умовах динамічного середовища та обмежених ресурсів, є актуальною проблемою сучасної інженерії вимог, особливо в інтелектуальних діагностичних та експертно-рішальних системах. Такі системи мають обробляти суперечливі, застарілі або неоднозначні вимоги під час роботи в складних умовах. Мета роботи – розробка формалізованої методології аналізу та керування сумісністю вимог в інтелектуальних діагностичних системах. Запропонований підхід інтегрує логічну узгодженість, функціональну взаємодію, ресурсну здійсненність та узгодження пріоритетів для забезпечення стабільності та адаптивності системи. Метод. Методологія реалізована як багаторівнева структура, що включає формальні представлення функціональних, нефункціональних та вимог, пов’язаних з обробкою даних. Вона використовує моделювання на основі сценаріїв, набір моделей оцінки сумісності та динамічний алгоритм інтеграції нових вимог. Процес інтеграції включає перевірку сумісності, адаптивне уточнення, експертне зважування та зворотний зв’язок у реальному часі. Застосовність методології демонструється на гіпотетичному прикладі інтелектуальної медичної діагностичної системи. Результати. Запропонована методологія дозволяє систематично виявляти та усувати конфлікти між вимогами, забезпечуючи узгоджене виконання та ефективну пріоритизацію в умовах обмежених ресурсів. Сценарне моделювання та формалізація базових вимог створюють основу для адаптивної поведінки системи та прийняття рішень у реальному часі. Висновки. Розроблена методологія, яка включає моделі та алгоритми, підвищує надійність інтелектуальних систем, що працюють у критичних умовах. У майбутніх дослідженнях передбачається розширення структури шляхом впровадження нечіткої логіки, методів машинного навчання та розробки програмних засобів для автоматизованого аналізу сумісності та адаптивного керування вимогами.
Item
Metaheuristic Frameworks for Parameter Estimation in Approximation Models
(Національний університет "Запорізька політехніка", 2025) Grygor, O. O.; Fedorov, E. E.; Leshchenko, M. M.; Rudakov, K. S.; Sakhno, T. A.; Григор, О. О.; Федоров, Є. Є.; Лещенко, М. М.; Рудаков, К. С.; Сахно, Т. А
EN: Context. To enhance the performance of numerical optimization techniques, hybrid approaches integrating probabilistic modeling algorithms with annealing simulation have been introduced. These include Bayesian optimization, Markov-based strategies, and extended compact genetic algorithms, each augmented by annealing mechanisms. Such methods enable more precise search trajectories without requiring fitness function transformation, owing to their ability to explore the global search space in early iterations and refine the directionality of search in later stages. Objective. The research aims to improve the effectiveness of parameter identification within approximation models of financial indicators by applying metaheuristic algorithms that incorporate probabilistic modeling and annealing-based simulation in intelligent computing systems. Method. This study employs metaheuristic techniques grounded in probabilistic modeling and annealing-based simulation to enhance the accuracy and efficiency of parameter estimation within economic indicator approximation frameworks. Specifically, it introduces three hybrid strategies: Bayesian-based optimization integrated with annealing simulation, Markov-driven optimization enhanced by annealing, and an extended compact genetic algorithm coupled with annealing mechanisms. These methods enhance the accuracy of the search process by exploring the entire search space in initial iterations and refining the search direction in final iterations. The Bayesian optimization method employs a Bayesian network for structured search and solution refinement. The Markov optimization method integrates Gibbs quantization within a Markov network to improve search precision. The extended compact genetic algorithm utilizes limit distribution models to generate optimal solutions. These methods eliminate the need for fitness function transformation, optimizing computational efficiency. The proposed techniques expand the application of metaheuristics in intelligent economic computer systems. Results. The implemented optimization strategies significantly enhanced the precision of parameter estimation within intelligent financial computing frameworks. The combination of probabilistic models and annealing simulation enhanced search efficiency without requiring fitness function transformation. Conclusions. The proposed method expands the application of metaheuristics in economic modeling, increasing computational effectiveness. Further research should explore their implementation across diverse artificial intelligence problems. UK: Актуальність. Для покращення якості аналізу економічних індикаторів та підвищення ефективності методів числової оптимізації було запропоновано методи, засновані на синтезі алгоритмів імовірнісних моделей та моделюванні відпалу (байєсівська оптимізація з моделюванням відпалу, марковська оптимізація з моделюванням відпалу та розширений компактний генетичний алгоритм з моделюванням відпалу). Ці методи покращують точність пошуку та не потребують трансформації функції пристосованості завдяки принципу організації дослідження всього простору пошуку на початкових ітераціях та коригування напрямку пошуку на фінальних. Метою роботи є підвищення ефективності параметричної ідентифікації моделі апроксимації економічних показників в інтелектуальних фінансових комп’ютерних системах за допомогою метаевристичних методів, заснованих на імовірнісних моделях та моделюванні відпалу. Методи. У дослідженні застосовано метаевристичні методи оптимізації на основі імовірнісних моделей та моделювання відпалу для покращення ефективності параметричної ідентифікації моделі апроксимації економічних показників. Запропоновано три підходи: байєсівська оптимізація з моделюванням відпалу, марковська оптимізація з моделюванням відпалу та розширений компактний генетичний алгоритм з моделюванням відпалу. Ці методи підвищують точність пошуку, досліджуючи весь простір пошуку на початкових ітераціях та коригуючи напрямок на фінальних. Байєсівська оптимізація використовує байєсівську мережу для структурованого пошуку та вдосконалення рішень. Марковська оптимізація інтегрує квантування Гіббса у марковську мережу для покращення точності пошуку. Розширений компактний генетичний алгоритм застосовує моделі граничних розподілів для генерації оптимальних рішень. Запропоновані методи усувають необхідність трансформації функції пристосованості, оптимізуючи обчислювальну ефективність. Результати. Запропоновані методи оптимізації покращили точність параметричної ідентифікації в інтелектуальних фінансових комп’ютерних системах. Поєднання імовірнісних моделей та моделювання відпалу підвищило ефективність пошуку без необхідності трансформації функції пристосованості. Висновки. Запропоновані методи розширюють застосування метаевристик в економічному моделюванні, покращуючи обчислювальну ефективність. Перспективами подальших досліджень є використання запропонованих методів для більш широкого класу задач машинного навчання.
Item
Logic-ontological reconstruction of scientific discourse and its implementation in an AI-based reviewing system
(Національний університет "Запорізька політехніка", 2025) Bedratyuk, L. P.; Бедратюк, Л. П.
EN: Context. The growing number of scientific publications and the emergence of tools based on large language models (LLMs) highlight the need for automated verification of the structural quality of scientific texts. Most existing solutions focus on surface-level linguistic analysis and do not account for logical-discursive integrity – specifically, whether the text includes a hypothesis, method, results, conclusions, and whether these elements are connected by normative relationships. Objective. The aim of this study is to develop an ontology-driven approach for the formalized verification of scientific text structures by constructing an ontological knowledge graph and evaluating its compliance with a predefined normative model of scientific discourse. Method. A model is proposed based on two interrelated ontologies: “Scientific Publication” (defining node types and their roles) and “Reviewing” (defining logical-discursive requirements). The text is represented as a graph where nodes are formed through semantic markup using an LLM, and connections are verified according to a set of normative rules. A specialized GPT agent capable of dynamically applying ontological knowledge during analysis and review generation is employed for implementation. Results. The model enables automatic detection of discourse structure violations: the absence of key elements, logical discontinuities, substitution of scientific novelty with practical significance, and incorrect interpretation of results. The proposed metrics quantitatively capture the level of structural completeness and consistency. Provided examples of graphs and reviews demonstrate that the system can detect non-obvious, latent logical inconsistencies even in formally complete texts. Conclusions. The scientific novelty of the study lies in introducing the ontological graph as an interpretable model of scientific argumentation, used in tandem with a large language model. The practical significance lies in establishing a foundation for semi-automated reviewing, structural analysis of publications, and academic writing training. The methodology is scalable to other genres of scientific texts and can potentially be integrated into editorial platforms. UK: Актуальність. Зростання кількості наукових публікацій і поява інструментів на основі великих мовних моделей (LLM) актуалізують потребу в автоматизованій верифікації структурної якості наукового тексту. Більшість існуючих рішень зосереджені на поверхневому лінгвістичному аналізі та не враховують логіко-дискурсивну цілісність: зокрема, чи присутні в тексті гіпотеза, метод, результати, висновки та чи пов’язані вони між собою нормативними зв’язками. Мета. Метою дослідження є розроблення онтологічно керованого підходу до формалізованої перевірки структури наукових текстів шляхом побудови онтологічного графа знань і оцінки його відповідності наперед визначеній нормативній моделі наукового дискурсу. Метод. Запропоновано модель, що ґрунтується на двох взаємопов’язаних онтологіях – «Наукова публікація» (визначає типи вузлів і їх ролі) та «Рецензування» (визначає логіко-дискурсивні вимоги). Текст подається у вигляді графа у якому вузли формуються на основі семантичної розмітки за допомогою LLM, а зв’язки перевіряються відповідно до множини нормативних правил. Для реалізації використано спеціалізованого GPT-агента, здатного динамічно застосовувати онтологічні знання під час аналізу та генерації рецензій. Результати. Модель дозволяє автоматично виявляти порушення дискурсивної структури: відсутність ключових елементів, логічну розірваність, підміну наукової новизни практичною значущістю, некоректну інтерпретацію результатів. Запропоновані метрики кількісно фіксують рівень структурної повноти та узгодженості. Наведені приклади графів і рецензій демонструють, що система здатна виявляти неочевидні, латентні порушення логіки викладу навіть у формально повних текстах. Висновки. Наукова новизна дослідження полягає у впровадженні онтологічного графа як інтерпретованої моделі наукової аргументації, що використовується у тандемі з великою мовною моделлю. Практичне значення полягає у створенні основи для напівавтоматизованого рецензування, структурного аналізу публікацій і навчання академічному письму. Методологія є масштабованою на інші жанри наукового тексту та потенційно інтегрованою у редакційні платформи.
Item
Optimization of permanent decomposition procedures using parallelization algorithm
(Національний університет "Запорізька політехніка", 2025) Turbal, Y. V.; Moroziuk, A. Y.; Турбал, Ю. В.; Морозюк, А. Ю.
EN: Context. The problem of efficiently finding all permutations of a list of N elements is a key problem in many areas of computer science, such as combinatorics, optimization, cryptography, and machine learning. The object of the study was to analyze the procedure of permanent decomposition and propose an algorithm for its parallelization using modern features of working with threads in C#. Objective. The goal of the work is the creation of the algorithm for parallelizing the generation of permutations using permanent decomposition processes. Method. The main research method is the comparison of various algorithms with proposed parallelized algorithm, taking into account such criteria as accuracy and speed. Scientific works [10, 9, 17] present algorithms, including the regular permanent decomposition algorithm and the Johnson-Trotter algorithm. The Johnson-Trotter’s algorithm is one of the most effective, so it has been taken as some kind of benchmark. It is worth mentioning that each paralleling process has its own disadvantages, including additional resources needed fot data synchronization between threads. This can be minimized using both technical abilities of modern programming languages and optimization of the algorithm itself. Results. The developed parallelized algorithm have improved performance of the regular permanent decomposition algorithm for solving the problem of finding all permutations. Conclusions. The conducted experiments have confirmed the proposed parallelized algorithm’s version is better from a performance standpoint than the regular one. The prospects for further research may include the application of the parallelized version of the algorithm to some practical tasks and comparison of the results. UK: Актуальність. Задача ефективного знаходження всіх перестановок списку з N елементів є ключовою проблемою в багатьох областях комп’ютерних наук, таких як комбінаторика, оптимізація, криптографія та машинне навчання. Мета дослідження – проаналізувати процедуру перманентної декомпозиції та запропонувати алгоритм для її розпаралелювання з використанням сучасних можливостей роботи з потоками в мові C#. Мета роботи – метою роботи є створення алгоритму для розпаралелювання генерації перестановок з використанням перманентних процесів декомпозиції. Метод. Основним методом дослідження є порівняння різних алгоритмів із запропонованим розпаралелеленим алгоритмом з урахуванням таких критеріїв, як точність та швидкість. У наукових працях [10, 9, 17] представлено алгоритми, серед яких регулярний алгоритм перманентної декомпозиції та алгоритм Джонсона-Троттера. Алгоритм Джонсона-Троттера є одним з найефективніших, тому його було взято за певний еталон. Варто зазначити, що кожен процес розпаралелювання має свої недоліки, зокрема, додаткові ресурси, необхідні для синхронізації даних між потоками. Це можна мінімізувати, використовуючи як технічні можливості сучасних мов програмування, так і оптимізацію самого алгоритму. Результати. Розроблений розпаралелений алгоритм дозволив покращити продуктивність звичайного алгоритму перманентної декомпозиції для розв’язання задачі знаходження всіх перестановок. Висновки. Проведені експерименти підтвердили, що запропонована розпаралелена версія алгоритму є кращою з точки зору продуктивності, ніж звичайна. Перспективами подальших досліджень може бути застосування розпаралеленої версії алгоритму до деяких практичних задач та порівняння отриманих результатів.
Item
Розробка та дослідження системи прогнозування ризиків захворювань на основі методів машинного навчання
(Національний університет «Запорізька політехніка», 2025) Індик, Андрій Андрійович; Indyk, Andrii
UK: Об’єкт дослідження – програмні засоби для прогнозування захворювань. Створено програмний вебзастосунок, що забезпечує аналіз і прогнозування стану користувача за наданими медичними показниками за допомогою моделей машинного навчання. EN: Object of research is software tools for disease prediction. A web application has been created which enables analysis and prediction of a user’s condition based on provided medical indicators using machine learning models.