Радіоелектроніка, інформатика, управління - 2025, №2 (73)
Permanent URI for this collectionhttps://eir.zp.edu.ua/handle/123456789/25166
Browse
Recent Submissions
Item Terminal control of quadcopter spatial motion(Національний університет «Запорізька політехніка», 2025) Yefymenko, M. V.; Kudermetov, R. K.; Єфименко, Микола Володимирович; Кудерметов, Равіль КаміловичEN: Context. Constructing quadcopter control algorithms is an area of keen interest because controlling them is fundamentally complex despite the quadcopter’s mechanical simplicity. The key problem of quadcopter control systems is to effectively couple three translational and three rotational freedom degrees of motion to perform unique target manoeuvres. In addition, these tasks are relevant due to the high demand for quadcopter in various human activities, such as cadastral aerial photography for monitoring hard-to-reach areas and delivering cargo over short distances. They are also widely used in military affairs. Objective. This work objective is to develop and substantiate novel methods for algorithms constructing the high-precision control of a quadcopter spatial motion, allowing for its autonomous operation in all main flight modes: stabilization mode, position holding mode, automatic point-to-point flight mode, automatic takeoff and landing mode. Method. The given objective determined the use of the following research methods. Pontryagin’s maximum principle was applied to develop algorithms for calculating program trajectories for transferring a quadcopter from its current state to the given one. Lyapunov functions and modal control methods were used to synthesise and analyse quadcopter angular position control algorithms. Numerical modelling methods were used to verify and confirm the obtained theoretical results. Results. An approach for constructing algorithms for controlling the spatial quadcopter motion is proposed. It consists of two parts. The first part solves the problem of transferring a quadcopter from its current position to a given one. The second part proposes an original method to construct algorithms for quadcopter attitude control based on a dynamic equation for a quaternion. Conclusions. The proposed quadcopter motion mathematical model and methods for constructing control algorithms are verified by numerical modelling and can be applied to develop quadcopter control systems. UK: Актуальність. Побудова алгоритмів керування квадрокоптером є областю підвищеного інтересу, оскільки керування квадрокоптером принципово складна задача, незважаючи на його механічну простоту. Ключовою проблемою систем управління квадрокоптерами є ефективне поєднання трьох поступальних та трьох обертальних ступенів свободи руху для виконання унікальних цільових маневрів. Крім того, ці задачі актуальні у зв’язку з високою затребуваністю квадрокоптерів у різних видах діяльності людини, таких як кадастрова аерофотозйомка для моніторингу важкодоступних територій, доставка вантажів на невеликі відстані, військова справа тощо. Мета роботи – розробка та обґрунтування нових методів побудови алгоритмів високоточного керування просторовим рухом квадрокоптера, що забезпечують його автономну роботу у всіх основних режимах польоту: режим стабілізації, режим утримання положення, режим автоматичного польоту з точки в точку, режим автоматичного зльоту та посадки. Метод. Поставлена мета зумовила використання наступних методів дослідження. Для розробки алгоритмів розрахунку програмних траєкторій переведення квадрокоптера з поточного стану в заданий застосовано принцип максимуму Понтрягіна. Для синтезу та аналізу алгоритмів керування кутовим положенням квадрокоптера використано функції Ляпунова та методи модального керування. Для перевірки та підтвердження отриманих теоретичних результатів використано методи чисельного моделювання. Результати. Запропоновано методику побудови алгоритмів керування просторовим рухом квадрокоптера, що складається з двох частин. Перша частина містить удосконалений метод побудови алгоритма переведення квадрокоптера з поточного положення в задане. У другій частині запропоновано оригінальний метод побудови алгоритмів керування орієнтацією квадрокоптера на основі динамічного рівняння для кватерніону. Висновки. Запропонована математична модель руху квадрокоптера та методи побудови алгоритмів керування верифіковані чисельним моделюванням та можуть бути застосовані для розробки систем керування квадрокоптерами.Item Method for development models of polysubject multifactor environment of software complex’s support(Національний університет «Запорізька політехніка», 2025) Pukach, A. I.; Teslyuk, V. M.; Пукач, А. І.; Теслюк, В. М.EN: Context. The task of development the models of a polysubject multifactor environment for software’s complex support is considered in this research, that ensures possibilities of taking into account the influence of various impact factors onto the supported software complexes themselves, onto their complex support’s processes, as well as onto the subjects (interacting with them) who provide and implement this complex support. The object of study are the processes of complex support of software products, the processes of automation of this complex support, the processes of influence of impact factors onto the object and subjects of the complex support of software products, as well as the processes of perception’s subjectivization of the supported object by relevant subjects of interaction with it. The subject of study are methods and means of artificial neural networks, in particular a multilayer perceptron, as well as a computer design and modeling. Objective is the development of the method for building models of a polysubject multifactor environment(s) of the complex support of software product(s). Method. The developed method for building models of a polysubject multifactor environment of software complexes’ support is proposed, which makes it possible (in an automated mode) to obtain appropriate models, based on which, later on – to investigate the strengths and weaknesses of a specific researched complex support’s environment(s) of a particular investigated software product(s), in order to ensure further improvement and automation of this complex support based on the study and analysis of impact factors, which form the subjective vision and perception of this complex support by those subjects who directly provide and perform it, that is, in fact, on whom this support itself depends, as well as its corresponding qualitative and quantitative characteristics and indicators. Results. The results of functioning of the developed method are corresponding models of investigated polysubject multifactor environments of the complex support of software products, which take into account the presence and the level of influence of relevant existing and present factors performing impact onto the subjects of interaction with supported software complexes, which (subjects) directly provide and perform the complex support for the studied software products, and also form relevant researched support environments. In addition, as an example of a practical application and approbation, the developed method was used, in particular, to solve the applied practical task of determining the dominant and the deficient factors of influence of a polysubject multifactor environment of the studied software complex’s support, with presenting and analyzing the obtained results of resolving the given task. Conclusions. The developed method resolves the problem of building models of a polysubject multifactor environment of the complex support of software products, and ensures taking into account the action of various impact factors performing influence onto the supported software complex itself, onto the processes of its support, as well as onto the subjects of interaction with it, which (subjects) provide and perform this complex support. In particular, the developed method provides possibilities for modeling and investigating a polysubject multifactor environments of the “in focus” software product’s complex support, which reflect the global (or the local, it depends on the specific tasks) impact of various existing factors making influence onto the object of support itself (the supported software complex, or the processes of its complex support), as well as onto the subjects which directly carry out and implement this complex support in all its possible and/or declared manifestations. The practical approbation of the developed method has been carried out by solving specific applied practical tasks, one of which is presented, as an example, in this paper, – which is the task of determining the dominant and the deficient factors of influence of a polysubject multifactor environment of the studied software complex’s support, and this approbation, actually, confirms its effectiveness in solving a stack of applied practical problems related to researching the impact of factors performing influence onto the complex support of software products, using the advantages of artificial intelligence technologies, machine learning, artificial neural networks, and multilayer perceptron in particular. UK: Актуальність. Розглянуто задачу побудови моделей полісуб’єктного мультифакторного середовища підтримки програмних комплексів, що забезпечує врахування дії різноманітних факторів впливу на сам підтримуваний програмний комплекс, на процеси його підтримки, а також на суб’єктів взаємодії з ним, що забезпечують та реалізують цю підтримку. Об’єктом дослідження є процеси комплексної підтримки програмних продуктів, процеси автоматизації цієї підтримки, процеси впливу факторів на об’єкт та суб’єкти комплексної підтримки програмних продуктів, а також процеси суб’єктивізації сприйняття об’єкта підтримки відповідними суб’єктами взаємодії з ним. Предметом дослідження є методи та засоби штучних нейронних мереж, зокрема багатошарового перцептрона, а також комп’ютерного проектування та моделювання. Метою роботи є розроблення методу побудови моделей полісуб’єктного мультифакторного середовища комплексної підтримки програмних продуктів. Метод. Запропоновано розроблення моделей полісуб’єктного мультифакторного середовища підтримки програмних комплексів, що дає змогу, в автоматизованому режимі, отримати відповідні моделі, на основі яких, в подальшому – досліджувати сильні та слабкі сторони конкретного досліджуваного середовища комплексної підтримки того чи іншого програмного продукту, з метою забезпечення подальшого покращення та автоматизації його підтримки на основі вивчення та аналізу факторів впливу, що формують суб’єктивне бачення цієї підтримки тими суб’єктами, які її, власне, безпосередньо здійснюють, тобто, фактично, від яких залежить сама ця підтримка, а також відповідні її якісні та кількісні характеристики і показники. Результати. Результатами роботи розробленого методу є відповідні моделі досліджуваних полісуб’єктних мультифакторних середовищ комплексної підтримки програмних продуктів, що враховують наявність та рівень впливу відповідних наявних факторів впливу на суб’єктів взаємодії з підтримуваними програмними комплексами, які (суб’єкти) безпосередньо забезпечують і реалізують цю комплексну підтримку досліджуваних програмних продуктів, та формують релевантні досліджувані середовища підтримки. Крім того, в якості прикладу практичного застосування та апробації, розроблений метод використано, зокрема, для розв’язання прикладної практичної задачі визначення домінуючого та дефіцитного факторів впливу полісуб’єктного мультифакторного середовища підтримки досліджуваного програмного комплексу, а також наведено та проаналізовано отримані результати розв’язання поставленої задачі. Висновки. Розроблений метод вирішує поставлену задачу побудови моделей полісуб’єктного мультифакторного середовища підтримки програмних комплексів, та забезпечує врахування дії різноманітних (попередньо узгоджених та задекларованих) факторів впливу на сам підтримуваний програмний комплекс, на процеси його підтримки, а також на суб’єктів взаємодії з ним, що забезпечують та реалізують цю комплексну підтримку. Зокрема, розроблений метод дає змогу моделювати та досліджувати полісуб’єктні мультифакторні середовища комплексної підтримки програмних продуктів, що відображають глобальний (або локальний) вплив різноманітних наявних факторів як на сам об’єкт підтримки (підтримуваний програмний комплекс, чи процеси його комплексної підтримки), так і на суб’єктів, що безпосередньо здійснюють та реалізують дану комплексну підтримку в усіх її можливих та/або задекларованих проявах. Практична апробація розробленого методу здійснена на прикладі вирішення конкретних прикладних практичних задач, однією з яких є представлена в роботі задача визначення домінуючого та дефіцитного факторів впливу полісуб’єктного мультифакторного середовища підтримки досліджуваного програмного комплексу, та підтверджує його ефективність при розв’язанні стеку прикладних практичних задач дослідження впливу факторів на комплексну підтримку програмних продуктів, з використанням переваг технологій штучного інтелекту, машинного навчання, штучних нейронних мереж, та багатошарового перцептрона зокрема.Item Оптимальний розподіл обмежених ресурсів в мультипроцесорних системах(Національний університет «Запорізька політехніка», 2025) Косолап, А. І.; Kosolap, A. I.UK: Актуальність. В роботі розглядаються мультипроцесорні системи, які складаються з безлічі процесорів з загальною оперативною пам’яттю. Ефективність функціонування таких систем залежить від операційної системи. Вона повинна забезпечити рівномірне завантаження процесорів завданнями, при якому пікове навантаження на оперативну пам'ять буде мінімальним. Це досить складна проблема. В даній роботі вона розв’язується шляхом побудови оптимізаційних моделей та розробкою ефективних евристичних алгоритмів. Дана проблема розв’язується в два етапи. На першому етапі знаходиться оптимальне завантаження процесорів завданнями, а на другому – мінімізація пікового навантаження оперативної пам’яті. Побудовано декілька оптимізаційних моделей цієї задачі, для розв’язування яких ефективним є метод точної квадратичної регуляризації. Розроблені також ефективні евристичні алгоритми. Проведені порівняльні обчислювальні експерименти, які підтверджують ефективність запропонованої технології розв’язування даної проблеми. Мета роботи. Розробка математичних оптимізаційних моделей, методів та алгоритмів оптимального розподілу ресурсів в мультипроцесорних системах. Метод. Ефективним є двоетапний розв’язок даної проблеми. Запропоновано декілька оптимізаційних моделей, які містять булеві змінні. Такі моделі досить складні для знаходження оптимальних розв’язків. Для їх розв’язування пропонується використовувати метод точної квадратичної регуляризації. Цей метод оптимізації використовується вперше для даного класу задач, тому він потребував розробки відповідного алгоритмічного забезпечення. В операційних системах, як правило, реалізуються евристичні алгоритми. Тому пропонуються ефективні евристичні алгоритми, які використовують фінальний принцип, що значно покращує розв’язок задачі. Результати. Побудовані нові оптимізаційні моделі розподілу обмежених ресурсів в мультипроцесорних системах. Розроблені ефективні евристичні алгоритми, які реалізовані програмно засобами VBA в пакеті Excel. Розроблене також програмне забезпечення для введення початкових даних оптимізаційних моделей, що спрощує їх розв’язування. Приведені результати обчислюваних експериментів. Висновки. Розроблена нова ефективна технологія оптимального розподілу ресурсів в мультипроцесорних системах. Розроблені евристичні алгоритми, які реалізовані програмно. Проведені обчислювальні експерименти підтверджують ефективність запропонованої технології розв’язування задачі. EN: Context. The paper considers multiprocessor systems consisting of many processors with a common RAM. The efficiency of such systems depends on the operating system. It must ensure a uniform loading of processors with tasks, in which the peak load on RAM will be minimal. This is a rather complex problem. In this paper, it is solved by building optimization models and developing effective heuristic algorithms. This problem is solved in two stages. The first stage is the optimal loading of processors with tasks, and the second is the minimization of the peak load on RAM. Several optimization models of this problem have been built, for the solution of which the exact quadratic regularization method is effective. Effective heuristic algorithms have also been developed. Comparative computational experiments have been conducted, which confirm the effectiveness of the proposed technology for solving this problem. Objective. Development of mathematical optimization models, methods, and algorithms for optimal resource allocation in multiprocessor systems. Method. A two-stage solution to this problem is effective. Several optimization models containing Boolean variables are proposed. Such models are quite complex for finding optimal solutions. To solve them, it is proposed to use the method of exact quadratic regularization. This optimization method is used for the first time for this class of problems, so it required the development of appropriate algorithmic support. Heuristic algorithms are usually implemented in operating systems. Therefore, effective heuristic algorithms are proposed that use the final principle, which significantly improves the solution of the problem. Results. New optimization models for the allocation of limited resources in multiprocessor systems have been constructed. Effective heuristic algorithms have been developed, which are implemented software-wise using VBA in the Excel package. Software for entering initial data for optimization models has also been developed, which simplifies their solution. The results of computational experiments are presented. Conclusions. A new effective technology for optimal resource allocation in multiprocessor systems has been developed. Heuristic algorithms have been developed and implemented in software. Computational experiments have been conducted to confirm the effectiveness of the proposed technology for solving the problem.Item Optimization based on flower cutting heuristics for space allocation problem(Національний університет «Запорізька політехніка», 2025) Czerniachowska, K. S.; Subbotin, S. A.; Черняховська, К. С.; Субботін, Сергій ОлександровичEN: Context. This research discusses the shelf space allocation problem with vertical and horizontal product categorization, which also includes the products of general and brand assortment as well as products with different storage conditions stored on different shelves and incompatible products stored on the same shelf but no nearby. Objective. The goal is to maximize the profit, product movement, or sales after allocating products on store shelves, defining the shelf for the product and the number of stock-keeping units it has. Method. The research proposes the two variants of heuristics with different sorting rules inside utilized as an approach to solving the retail shelf space allocation problem with horizontal and vertical product categorization. It also covers the application of 13 developed steering parameters dedicated to instances of different sizes, which allows to obtain cost-effective solutions of high quality. Results. The results obtained by heuristics were compared to the optimal solutions given by the commercial CPLEX solver. The effectiveness of the proposed heuristics and the suitability of the control settings were demonstrated by their ability to significantly reduce the number of possible solutions while still achieving the desired outcomes. Both heuristics consistently produced solutions with a quality surpassing 99.80% for heuristic H1 and 99.98% for heuristic H2. Heuristics H1 found 12 optimal solutions, and heuristics H2 found 14 optimal solutions among 15 test instances – highlighting their reliability and efficiency. Conclusions. The specifics of the investigated model can be used by supermarkets, apparel stores, and electronics retailers. By following the explained heuristics stages and the methods of parameter adjustments, the distributor can systematically develop, refine, and deploy a heuristic algorithm that effectively addresses the shelf space allocation problems at hand while being robust and scalable. UK: Актуальність. Досліджується проблема розподілу простору на полицях з наявною вертикальною та горизонтальною категоризацією продуктів, які також включають продукти загального асортименту та брендового асортименту. Окрім того, в моделі наявні також продукти з різними вимаганнями щодо умов зберігання, котрі повинні зберігатися на різних полицях, а також несумісні продукти, котрі повинні зберігаються на одній полиці, але не поруч. Мета роботи полягає в тому, щоб максимізувати прибуток, товарний рух або продажі після розміщення продуктів на полицях магазину, визначивши полицю для продукту та кількість його складських одиниць. Метод. У дослідженні запропоновано два варіанти евристики з різними правилами сортування всередині, які використовуються як підхід до вирішення проблеми розподілу простору на полицях я наявною видимою горизонтальною та вертикальною категоризацією продуктів. Дослідження також охоплює застосування 13 розроблених параметрів управління евристиками, призначених для екземплярів різних розмірів, що дозволяє отримати економічно ефективне рішення високої якості. Результати отримані за допомогою евристик, порівнювали з оптимальними рішеннями, опрацьованими комерційним вирішувачем CPLEX. Ефективність запропонованих евристик і придатність параметрів управління було продемонстровано їхньою здатністю значно зменшити простір пошукувань, при цьому досягаючи бажаних результатів. Обидві евристики послідовно створювали рішення з якістю, що перевищувала 99.80% для евристики H1 і 99.98% для евристики H2. Евристика H1 знайшла 12 оптимальних рішень, а евристика H2 знайшла аж 14 оптимальних рішень з 15 екземплярів тестування, підкреслюючи їх надійність і ефективність. Висновки. Особливості досліджуваної моделі можуть використовувати супермаркети, магазини одягу, роздрібні торговці електроніки. Дотримуючись описаних етапів створення евристики та методів коригування параметрів, дистриб’ютор може систематично розробляти, уточнювати та розгортати евристичний алгоритм, який ефективно вирішує поточні проблеми розподілу на полицях, будучи надійним і масштабованим.Item Development of innovative approaches for network optimization using geospatial multi-component systems(Національний університет «Запорізька політехніка», 2025) Boyko, N. I.; Salanchii, T. O.; Бойко, Н. І.; Саланчій, Т. О.EN: Context. Developing a geospatial multi-agent system for optimizing transportation networks is crucial for enhancing efficiency and reducing travel time. This involves employing optimization algorithms and simulating agent behavior within the network. Objective. The aim of this study is to develop a geospatial multi-agent system for optimizing transportation networks, focusing on improving network efficiency and minimizing travel time through the application of advanced optimization algorithms and agent-based modeling. Method. The proposed method for optimizing transportation networks combines foundational structure with advanced refinement in two stages: pre-processing and evolutionary strategy optimization. In the first stage, a Minimum Spanning Tree is constructed using Kruskal’s algorithm to establish the shortest, loop-free network that connects all key points, accounting for natural obstacles and existing routes. This provides a cost-effective and realistic baseline. The second stage refines the network through an evolutionary strategy, where agents representing MST variations are optimized using a fitness function balancing total path length, average node distances, and penalties for excessive edges. Optimization employs crossover to combine solutions and mutation to introduce diversity through edge modifications. Repeated over multiple epochs, this process incrementally improves the network, resulting in an optimized design that minimizes costs, enhances connectivity, and respects real-world constraints. Results. The results of applying the evolutionary strategy and minimum spanning tree methods were analyzed in detail. Comparing these methods to benchmarks like Tokyo’s railway network and the Slime Mold algorithm revealed the advantage of using the evolutionary approach in generating optimal paths. The findings emphasize the need for integrating advanced algorithms to further refine path optimization and network design. Conclusions. The research successfully developed a geospatial multi-agent system for optimizing transportation networks, achieving its objectives by addressing key challenges in transport network planning. A detailed analysis of existing solutions revealed the dynamic and complex nature of transportation systems and underscored the need for adaptability to environmental changes, such as new routes or obstacles. The proposed approach enhanced the minimum spanning tree with an evolutionary strategy, enabling flexibility and rapid adaptation. Results demonstrated the system’s effectiveness in planning optimal intercity transport networks. Future work could refine environmental assessments, improve route cost evaluations, expand metrics, define new performance criteria, and integrate neural network models to further enhance optimization capabilities, particularly for urban networks. UK: Актуальність. Розробка геопросторової багатагентної системи для оптимізації транспортних мереж є важливою для підвищення ефективності та зменшення часу подорожі. Це передбачає використання алгоритмів оптимізації та моделювання поведінки агентів у межах мережі. Мета роботи є розробка геопросторової багатагентної системи для оптимізації транспортних мереж, зосереджуючи увагу на покращенні ефективності мережі та мінімізації часу подорожі шляхом застосування передових алгоритмів оптимізації та моделювання на основі агентів. Метод. Запропонований метод оптимізації транспортних мереж поєднує базову структуру з розширеним уточненням у два етапи: попередня обробка та оптимізація еволюційної стратегії. На першому етапі будується мінімальне остовне дерево за допомогою алгоритму Крускала для встановлення найкоротшої мережі без петель, яка з’єднує всі ключові точки, враховуючи природні перешкоди та існуючі маршрути. Це забезпечує економічно ефективну та реалістичну базову лінію. Другий етап удосконалює мережу за допомогою еволюційної стратегії, де агенти, що представляють варіації мінімального остового дерева, оптимізуються за допомогою функції пристосування, яка балансує загальну довжину шляху, середню відстань до вузлів і штрафи за надмірні краї. Оптимізація використовує кросовер для поєднання рішень і мутацію для введення різноманітності через модифікації країв. Цей процес, повторюється протягом багатьох епох, поступово покращує мережу, в результаті чого створюється оптимізований щлях, який мінімізує витрати, покращує підключення та поважає обмеження подані в режимі реального часу. Результати. Результати застосування еволюційної стратегії та методів мінімальної вартості відстані були детально проаналізовані. Для е волюційної стратегії були оцінені такі метрики, як ефективність шляхів і обчислювальні витрати, що продемонструвало значні покращення в оптимізації мережі. У випадку MST, хоча метод надав базову структуру для вибору шляхів, візуальні та числові оцінки підкреслили обмеження в розв’язанні складних реальних обмежень. Порівняння цих методів з еталонами, такими як залізнична мережа Токіо та алгоритм слизової цвілі, виявило перевагу еволюційного підходу в генерації оптимальних шляхів. Висновки підкреслюють необхідність інтеграції передових алгоритмів для подальшого вдосконалення оптимізації шляхів і проектування мереж. Висновки. Дослідження успішно розробило геопросторову багатоагентну систему для оптимізації транспортних мереж, досягнувши поставлених цілей шляхом вирішення ключових проблем у плануванні транспортної мережі. Детальний аналіз існуючих рішень виявив динамічний і складний характер транспортних систем і підкреслив необхідність адаптації до змін навколишнього середовища, таких як нові маршрути або перешкоди. Запропонований підхід розширив мінімальне охоплююче дерево за допомогою еволюційної стратегії, забезпечивши гнучкість і швидку адаптацію. Результати продемонстрували ефективність системи в плануванні оптимальних міжміських транспортних мереж. Майбутня робота може вдосконалити екологічні оцінки, покращити оцінку вартості маршруту, розширити показники, визначити нові критерії продуктивності та інтегрувати моделі нейронних мереж для подальшого підвищення можливостей оптимізації, особливо для міських мереж.Item Combined metric for evaluating the quality of synthesized biomedical images(Національний університет «Запорізька політехніка», 2025) Berezsky, O. M.; Berezkyi, M. O.; Dombrovskyi, M. O.; Liashchynskyi, P. B.; Melnyk, G. M.; Березький, О. М.; Березький, М. О.; Домбровський, М. О.; Лящинський, П. Б.; Мельник, Г. М.EN: Context. This study addresses the problem of developing a new metric for evaluating the quality of synthesized images. The relevance of this problem is explained by the need for assessing the quality of artificially generated images. Additionally, the study highlights the potential of biomedical image synthesis based on diffusion models. The research results can be applied for biomedical image generation and quantitative quality assessment of synthesized images. Objective. The aim of this study is to develop a combined metric and an algorithm for biomedical image synthesis to assess the quality of synthesized images. Method. A combined metric MC for evaluating the quality of synthesized images is proposed. This metric is based on two existing metrics: MIS and MFID. Additionally, an algorithm for histopathological image synthesis using diffusion models has been developed. Results. To study the MIS, MFID, and MC metrics, histopathological images available on the Zenodo platform were used. This dataset contains three classes of histopathological images G1, G2, and G3, representing pathological conditions of breast tissue. Based on the developed image synthesis algorithm, three classes of artificial histopathological images were generated. Using the MIS, MFID, and MC metrics, quality assessments of the synthesized histopathological images were obtained. The developed metric will form the basis of a software module for image quality assessment using metrics. This software module will be integrated into CAD systems. Conclusions. A combined metric for evaluating the quality of synthesized images has been developed, along with a proposed algorithm for biomedical image synthesis. The software implementation of the combined metric and image synthesis algorithm has been integrated into an image quality assessment module. UK: Актуальність. У статті досліджено проблему розробки нової метрики для оцінки якості синтезованих зображень. Актуальність проблеми пояснюється необхідністю оцінки якості штучних зображень. Крім цього у роботі показано перспективність синтезу біомедичних зображень на основі дифузійних моделей. Результати дослідження можуть бути використані для синтезу біомедичних зображень та кількісної оцінки якості синтезованих зображень. Мета роботи – розробка комбінованої метрики та алгоритму синтезу біомедичних зображень для оцінки якості синтезованих зображень. Метод. У статті розроблено комбіновану метрику MC для оцінки якості синтезованих зображень. Ця метрика базується на основі двох метрик MIS, MFID. Також розроблено алгоритм синтезу гістопатологічних зображень на основі дифузійних моделей. Результати. Для дослідження метрик MIS, MFID і MC використано гістопатологічні зображення, які знаходяться на платформі Zenodo. Цей dataset містить три класи G1, G2, G3 гістопатологічних зображень патологічних станів молочної залози. На основі розробленого алгоритму синтезу зображень отримано три класи штучних гістопатологічних зображень. На основі метрик MIS, MFID і MC отримано оцінки якості синтезованих гістопатологічних зображень: Розроблена метрика війде в основу програмного модуля для оцінки якості зображень на основі метрик. Цей програмний модуль буде інтегрований у CAD. Висновки. Розроблена комбінована метрика для оцінки якості синтезованих зображень і запропонований алгоритм синтезу біомедичних зображень. Програмна реалізація комбінованої метрики і алгоритму синтезу зображень інтегровані у модуль оцінки якості зображень.Item Обробка текстових даних соціальних медіа на природній мові за допомогою BERT та XGBoost(Національний університет «Запорізька політехніка», 2025) Батюк, T. M.; Досин, Д. Г.; Batiuk, T.; Dosyn, D.UK: Актуальність. Зростання обсягу текстових даних у соціальних мережах вимагає розробки ефективних методів аналізу настроїв, здатних враховувати як лексичні, так і контекстуальні залежності. Традиційні підходи до обробки тексту мають обмеження у розумінні семантичних зв’язків між словами, що впливає на точність класифікації. Інтеграція глибоких нейронних мереж для векторизації тексту з ансамблевими алгоритмами машинного навчання та методами інтерпретації результатів дозволяє покращити якість аналізу настроїв. Метою дослідження є розробка та оцінка нового підходу до класифікації настроїв текстових повідомлень, що поєднує Sentence-BERT для глибокої семантичної векторизації, XGBoost для високоточної класифікації, SHAP для пояснення внеску ознак, sentence embedding similarity для оцінки семантичної подібності та λ-регуляризацію для покращення узагальнюючої здатності моделі. Дослідження спрямоване на аналіз впливу цих методів на якість класифікації, визначення найбільш значущих ознак та оптимізацію параметрів для забезпечення балансу між точністю та інтерпретованістю моделі. Метод. У дослідженні використовується Sentence-BERT для перетворення текстових даних у векторний простір із глибокими семантичними зв’язками. Для класифікації настроїв застосовується XGBoost, який забезпечує високу точність та стабільність навіть на нерівномірно розподілених наборах даних. Для пояснення внеску ознак використано метод SHAP, що дозволяє визначити, які фактори найбільше впливають на прогноз. Додатково використовується sentence embedding similarity для порівняння текстів за семантичною подібністю, а λ-регуляризація оптимізує баланс між узагальненням та точністю моделі. Результати. Запропонований підхід демонструє високу ефективність у задачах класифікації настроїв. Значення ROC-AUC підтверджує здатність моделі точно розрізняти класи емоційного забарвлення тексту. Використання SHAP забезпечує інтерпретованість результатів, дозволяючи пояснити вплив кожної ознаки на класифікацію. Sentence embedding similarity підтверджує ефективність Sentence-BERT у виявленні семантично подібних текстів, а λ-регуляризація покращує узагальнюючу здатність моделі. Висновки. Дослідження демонструє наукову новизну через комплексне поєднання Sentence-BERT, XGBoost, SHAP, sentence embedding similarity та λ-регуляризації для покращення точності та інтерпретованості аналізу настроїв. Отримані результати підтверджують ефективність запропонованого підходу, що робить його перспективним для застосування у моніторингу громадської думки, автоматизованій модерації контенту та персоналізованих рекомендаційних системах. Подальші дослідження можуть бути спрямовані на адаптацію моделі до специфічних доменів, розширення джерел текстових даних та вдосконал EN: Context The growth of text data in social networks requires the development of effective methods for sentiment analysis that can take into account both lexical and contextual dependencies. Traditional approaches to text processing have limitations in understanding semantic relationships between words, which affects the accuracy of classification. The integration of deep neural networks for text vectorization with ensemble machine learning algorithms and methods for interpreting results allows improving the quality of sentiment analysis. Objective. The aim of the study is to develop and evaluate a new approach to text message sentiment classification that combines Sentence-BERT for deep semantic vectorization, XGBoost for high-accuracy classification, SHAP for explaining the contribution of features, sentence embedding similarity for assessing semantic similarity, and λ-regularization to improve the generalization ability of the model. The study is aimed at analyzing the impact of these methods on the quality of classification, identifying the most significant features and optimizing parameters. Method. The study uses Sentence-BERT to transform text data into a vector space with deep semantic connections. XGBoost is used for sentiment classification, which provides high accuracy and stability even on unevenly distributed datasets. The SHAP method is used to explain the contribution of features, which allows us to determine which factors have the greatest impact on the prediction. Additionally, sentence embedding similarity is used to compare texts. Results. The proposed approach demonstrates high efficiency in mood classification tasks. The ROC-AUC value confirms the ability of the model to accurately distinguish between classes of emotional coloring of the text. The use of SHAP ensures the interpretability of the results, allowing us to explain the influence of each feature on the classification. Sentence embedding similarity confirms the efficiency of Sentence-BERT in detecting semantically similar texts, and λ-regularization improves the generalization ability of the model. Conclusions. The study demonstrates scientific novelty through a comprehensive combination of Sentence-BERT, XGBoost, SHAP, sentence embedding similarity, and λ-regularization to improve the accuracy and interpretability of sentiment analysis. The results obtained confirm the effectiveness of the proposed approach, which makes it promising for application in public opinion monitoring, automated content moderation, and personalized recommendation systems. Further research can be aimed at adapting the model to specific domains and improving interpretation methods.Item Method for analyzing input data from gear vibrations(Національний університет «Запорізька політехніка», 2025) Shalimov, O. Y.; Moskalchuk, O. O.; Yevseienko, O. M.; Шалімов, О. Є.; Москальчук, О. О.; Євсеєнко, О. М.EN: Context. The paper considers the problem of analyzing large data vectors for analyzing helicopter engine performance. This issue is crucial for improving the reliability and efficiency of modern aviation technologies. Objective. To create a method for analyzing engine vibration data to achieve accurate classification of engine states based on vibration signals. Method. The input data is analyzed, and a decision is made to create a neural network that is trained to recognize the class of the input vector. The neural network can work immediately and be configured for further training based on similar data. The program was implemented using a classical neural network method. The optimal weights and offsets are calculated with derivatives to minimize the loss function. The stochastic gradient descent (SGD) algorithm was used for optimization, and different activation functions were tested to find the best configuration. Choosing the right activation functions ensured maximum performance. Results. The graphs of the input vectors show that vectors from the first class had more peaks, which helped facilitate classification. After applying this method, the accuracy was about 70–75%, which was insufficient for the task. To improve this, we enhanced the model structure and reconfigured the activation functions. With the new method, the neural network can classify the input vector with 100% accuracy. Conclusions. This study presents an approach to analyzing engine vibration data for assessing performance. The scientific novelty lies in adapting a multilayer perceptron (MLP) for classifying vibration signals. The research shows that high accuracy can be achieved without deep architectures by optimizing the MLP. This method is universally applicable, eliminating additional model adaptation costs, which is crucial for industrial use. The practical significance is demonstrated through software and experiments, proving the effectiveness of the MLP for performance monitoring when model parameters and activation functions are properly adjusted. UK: Актуальність. Розглянуто задачу аналізу векторів даних великого обсягу для аналізу працездатності двигуна гелікоптерів. Ця проблема є критично важливою для покращення надійності та ефективності сучасних авіаційних технологій. Мета роботи. Створити метод для аналізу вібраційних даних двигуна з метою точного класифікування станів двигуна на основі вібраційних сигналів. Метод. Проаналізовано вхідні дані, після чого було прийнято рішення створити нейромережу для розпізнавання класу вхідного вектора. Нейромережа може працювати одразу або бути налаштованою для подальшого навчання на подібних даних. Програма була реалізована з використанням класичного методу нейромереж. Оптимальні ваги та зміщення обчислюються за допомогою похідних для мінімізації функції втрат. Для оптимізації було використано алгоритм стохастичного градієнтного спуску (SGD), а також було протестовано різні функції активації для вибору найкращої конфігурації. Вибір правильних функцій активації забезпечив максимальну ефективність. Результати. На графіках вхідних векторів видно, що вектори з першого класу мали більше піків, що полегшило процес класифікації. Після застосування цього методу точність досягла 70–75%, що було недостатньо для задачі. Для покращення результатів була змінена структура моделі та переналаштовані функції активації. З новим методом нейромережа здатна класифікувати вхідні вектори з точністю 100%. Висновки. У цьому дослідженні представлено підхід до аналізу вібраційних даних двигуна для оцінки його працездатності. Наукова новизна методу полягає в адаптації багатошарового перцептрону (MLP) для класифікації вібраційних сигналів. Дослідження показало, що навіть без глибоких архітектур можна досягти високої точності, оптимізувавши MLP. Цей метод є універсальним, що дозволяє уникнути додаткових витрат на адаптацію моделі, що важливо для промислового використання. Практичне значення підтверджується програмним забезпеченням та експериментами, що доводять ефективність MLP для моніторингу працездатності, коли параметри моделі та функції активації налаштовані належним чином. Перспективи подальших досліджень полягають у вивченні можливостей нейромережі для навчання та аналізу подібних даних, а також у пілотних тестуваннях із використанням схожих методів і подальшому аналізі. UK:Item Evaluation of quantized large language models in the text summarization problem(Національний університет «Запорізька політехніка», 2025) Nedashkovskaya, N. I.; Yeremichuk, R. I.; Недашківська, Н. І.; Єремічук, Р. І.EN: Context. The problem of increasing the efficiency of deep artificial neural networks in terms of memory and energy consumption, and the multi-criteria evaluation of the quality of the results of large language models (LLM) taking into account the judgments of users in the task of summarizing texts, are considered. The object of the study is the process of automated text summarization based on LLMs. Objective. The goal of the work is to find a compromise between the complexity of the LLM, its performance and operational efficiency in text summarization problem. Method. An LLM evaluation algorithm based on multiple criteria is proposed, which allows choosing the most appropriate LLM model for text summarization, finding an acceptable compromise between the complexity of the LLM model, its performance and the quality of text summarization. A significant improvement in the accuracy of results based on neural networks in natural language processing tasks is often achieved by using models that are too deep and over-parameterized, which significantly limits the ability of the models to be used in real-time inference tasks, where high accuracy is required under conditions of limited resources. The proposed algorithm selects an acceptable LLM model based on multiple criteria, such as accuracy metrics BLEU, Rouge-1, 2, Rouge-L, BERT-scores, speed of text generalization, or other criteria defined by the user in a specific practical task of intellectual analysis. The algorithm includes analysis and improvement of consistency of user judgments, evaluation of LLM models in terms of each criterion. Results. Software is developed for automatically extracting texts from online articles and summarizing these texts. Nineteen quantized and non-quantized LLM models of various sizes were evaluated, including LLaMa-3-8B-4bit, Gemma-2B-4bit, Gemma-1.1-7B-4bit, Qwen-1.5-4B-4bit, Stable LM-2-1.6B-4bit, Phi-2-4bit, Mistal-7B-4bit, GPT-3.5 Turbo and other LLMs in terms of BLEU, Rouge-1, Rouge-2, Rouge-L and BERT-scores on two different datasets: XSum and CNN/ Daily Mail 3.0.0. Conclusions. The conducted experiments have confirmed the functionality of the proposed software, and allow to recommend it for practical use for solving the problems of text summarizing. Prospects for further research may include deeper analysis of metrics and criteria for evaluating quality of generated texts, experimental research of the proposed algorithm on a larger number of practical tasks of natural language processing. UK: Актуальність. Розглянуто задачу підвищення ефективності глибоких штучних нейронних мереж щодо обсягу пам'яті та енергоспоживання, та багатокритеріальне оцінювання якості результатів великих мовних моделей (LLM) з урахуванням суджень користувачів в задачі сумаризації текстів. Об’єктом дослідження є процес автоматизації сумаризації текстів на основі LLM. Мета роботи – знайти компроміс між складністю моделі LLM, її точністю та ефективністю в задачі сумаризації або узагальнення текстів. Метод. Запропоновано алгоритм оцінювання моделей LLM за багатьма критеріями (метриками), який дозволяє обрати найбільш підходящу модель LLM для сумаризації тексту, знайти прийнятний компроміс між складністю моделі LLM, її продуктивністю та якістю узагальнення тексту. Значне підвищення точності результатів на основі нейронних мереж у задачах обробки природної мови часто досягається використанням занадто глибоких і надмірно параметризованих моделей, що суттєво обмежує здатність моделей використовуватися у задачах виводу в реальному часі, за потреби високої точності в умовах обмежених ресурсів. Пропонований алгоритм обирає прийнятну модель LLM за багатьма критеріями, такими як показники точності BLEU, Rouge-1, 2, Rouge-L, BERT-оцінки, швидкість сумаризації або іншими критеріями, які визначаються користувачем в конкретній практичній задачі інтелектуального аналізу тексту. Алгоритм включає аналіз і підвищення узгодженості суджень користувачів, оцінювання моделей LLM за кожним критерієм, агрегування локальних ваг моделей, аналіз чутливості отриманих глобальних ваг моделей. Результати. Розроблено програмне забезпечення для автоматичного отримання текстів з онлайн-статей і сумаризації цих текстів, та для оцінювання якості моделей LLM. Отримано оцінки якості дев’ятнадцяти квантованих і неквантованих моделей LLM різних розмірів, серед яких LLaMa-3-8B-4bit, Gemma-2B-4bit, Gemma-1.1-7B-4bit, Qwen-1.5-4B-4bit, Stable LM-2-1.6B-4bit, Phi-2-4bit, Mistal-7B-4bit, GPT-3.5 Turbo за показниками BLEU, Rouge-1, Rouge-2, Rouge-L і BERT-оцінок на двох різних наборах текстів XSum та CNN/Daily Mail 3.0.0. Висновки. Проведені експерименти підтвердили працездатність пропонованого математичного забезпечення, дозволяють рекомендувати його для використання при вирішенні задач сумаризації текстів на практиці. Перспективи подальших досліджень можуть полягати у більш глибокому аналізі метрик та критеріїв оцінювання якості сгенерованих текстів, а також експериментальному дослідженні пропонованого алгоритму на більшій кількості практичних задач обробки природної мови.Item Synthesis of neural network models for technical diagnostics of nonlinear systems(Національний університет «Запорізька політехніка», 2025) Leoshchenko, S. D.; Oliinyk, A. O.; Subbotin, S. A.; Morklyanyk, B. V.; Леощенко, Сергій Дмитрович; Олійник, Андрій Олександрович; Субботін, Сергій ОлександровичEN: Context. The problem of synthesizing a diagnostic model of complex technical processes in nonlinear systems, which should be characterized by a high level of accuracy, is considered. The object of research is the process of synthesizing a neural network model for technical diagnostics of nonlinear systems. Objective of the work is to synthesize a high-precision neural network model based on previously accumulated historical data about the system. Method. It is proposed to use artificial neural networks for modeling nonlinear technical systems. First, you need to perform an overall assessment of the complexity of the task. Based on the assessment, a decision can be made on the best approach to organizing neuromodel synthesis. So, for the task, the level of ‘random complexity’ was chosen, because despite the relative structure of the data, their total array is quite large in volume and requires careful study in order to ensure high quality of the solution. Therefore, in the future, it was proposed to use a neuromodel based on recurrent networks of the GRU topology and use swarm intelligence methods for neurosynthesis, in particular the A3C method. The results obtained showed a high level of solution obtained, but due to the high level of resource intensity, the proposed approach requires further modifications. Results. A diagnostic model of complex technical processes in nonlinear systems of optimal topology, characterized by a high level of accuracy, is obtained. The built neuromodel reduces the risks associated with ensuring human safety. Conclusions. The conducted experiments confirmed the operability of the proposed approach and allow us to recommend it for further refinement in order to implement technical, industrial and operational process control systems in practice in automation systems. Prospects for further research may lie in optimizing the resource intensity of synthesis processes. UK: Актуальність. Розглянуто задачу синтезу діагностичної моделі складних технічних процесів у нелінійних системах, що має відрізнятися високим рівнем точності. Об’єктом дослідження є процес синтезу нейромережевої моделі для технічного діагностування нелінійних систем. Мета роботи полягає у синтезі нейромережевої моделі високої точності, на основі попередньо накопичених історичних даних про систему. Метод. Запропоновано використовувати штучні нейронні мережі для моделювання нелінійних технічних систем. По-перше, необхідно виконати загальну оцінку складності задачі. На основі оцінки можна прийняти рішення про подальший підхід до організації синтезу нейромоделі. Від так, для поставленої задачі було обрано рівень складності безладна складність, адже не зважаючи на відносну структурованість даних, їх загальний масив є досить великим за об’ємом та вимагає ретельного опрацювання з метою забезпечення високої якості рішення. Тому в подальшому було запропоновано використовувати нейромодель на основі рекурентних мереж топології GRU та використати для нейросинтезу методи ройового інтелекту, зокрема метод A3C. Отримані результати засвідчили високий рівень отриманого рішення, проте через високий рівень ресурсоємності запропонований підхід вимагає подальших модифікацій. Результати. Отримано діагностичну модель складних технічних процесів у нелінійних системах оптимальної топології, що відрізняється високим рівнем точності. Побудована нейромодель знижує ризики пов’язані зі забезпеченням людської безпеки. Висновки. Проведені експерименти підтвердили працездатність запропонованого підходу і дозволяють рекомендувати його для подальшого допрацювання з метою імплементації на практиці в системи автоматизації систем контролю технічних, промислових та експлуатаційних процесів. Перспективи подальших досліджень можуть полягати в оптимізації ресурсоємності процесів синтезу.Item Bearing fault detection by using autoencoder convolutional neural network(Національний університет «Запорізька політехніка», 2025) Kysarin, M. K.; Кисарін, М. К.EN: Context. Bearings are an important part for the functioning of various means of transportation. They have the property of wear and failure, which requires high-quality and timely detection of faults. Failures are not always easy to detect, so the use of traditional detection methods may not be effective enough. The use of machine learning methods well-suited to the task can effectively solve the problem of detecting bearing faults. The object of study is the process of non-destructive diagnosis of bearings. The subject of study is methods of selecting hyperparameters and other optimization for building a diagnostic model based on a neural network according to observations. Objective. The goal of the work is to create a model based on a neural network for detecting bearing faults based on the ZSL. Method. A proposed filter smooths the data, preserving key characteristics such as peaks and slopes, and eliminates noise without significantly distorting the signal. A normalization method vibration data is proposed, which consists of centering the data and distributing the amplitude within optimal limits, contributing to the correct processing of this data by the model architecture. A model based on a neural network is proposed to detect bearing faults by data processing and subsequent binary classification of their vibrations. The proposed model works by compressing the vibration data into a latent representation and its subsequent recovery, calculating the error between the recovered and original data, and determining the difference between the errors of healthy and faulty bearing vibration data. The Zero-Shot Learning machine learning method involves training, validating the model only on healthy vibration data, and testing the model only on faulty vibration data. Due to the proposed machine learning method, the model based on a neural network is able to detect faulty bearings present in the investigated fault class and theoretically new fault classes, that is, the model can detect different classes of data that it did not see during training. The architecture of the model is built on the convolutional and max-pooling layers of the encoder, and the reverse convolutional layers for the decoder. The best hyperparameters of the model are selected using a special method. Results. Using the Pytorch library, a model capable of binary classification of healthy and faulty bearings was obtained through training, validation, and testing in the Kaggle software environment. Conclusions. Testing of the constructed model architecture confirmed the model's ability to classify healthy and fault bearings binaryly, allowing it to be recommended for use in practice to detect bearing faults. Prospects for further research may include testing the model through integration into predictive maintenance systems for timely fault detection. UK: Актуальність. Підшипники є важливою частиною для функціонування різних засобів пересування. Вони мають властивість зношуватися і виходити з ладу, що вимагає якісного і своєчасного виявлення несправностей. Збої не завжди легко виявити, тому використання традиційних методів виявлення може бути недостатньо ефективним. Використання методів машинного навчання, які добре підходять для завдання, може ефективно вирішити проблему виявлення несправностей підшипників. Об’єктом дослідження є процес неруйнівної діагностики підшипників. Предметом дослідження є методи підбору гіперпараметрів та іншої оптимізації для побудови діагностичної моделі на основі нейронної мережі за даними спостережень. Мета роботи – створення моделі на основі нейронної мережі для виявлення несправностей підшипників на основі ZSL. Метод. Запропонований фільтр згладжує дані, зберігаючи ключові характеристики, такі як піки та нахили, і усуває шум без істотного спотворення сигналу. Запропоновано метод нормалізації вібраційних даних, який полягає в центруванні даних і розподілі амплітуди в оптимальних межах, що сприяє коректній обробці цих даних архітектурою моделі. Запропоновано модель на основі нейронної мережі для виявлення несправностей підшипників шляхом обробки даних і подальшої двійкової класифікації їх коливань. Запропонована модель працює шляхом стиснення даних про вібрацію в приховане представлення та їх подальшого відновлення, обчислення похибки між відновленими та вихідними даними та визначення різниці між похибками даних про вібрацію справного та несправного підшипників. Метод машинного навчання Zero-Shot Learning передбачає навчання, перевірку моделі лише на справних даних про вібрацію та тестування моделі лише на несправних даних про вібрацію. Завдяки запропонованому методу машинного навчання модель на основі нейронної мережі здатна виявляти несправні підшипники, наявні в досліджуваному класі несправностей і теоретично нові класи несправностей, тобто модель може виявляти різні класи даних, які вона не бачила під час навчання. Архітектура моделі побудована на згорткових рівнях і рівнях максимального об’єднання кодера, а також на зворотних згорткових рівнях для декодера. Спеціальним методом вибираються найкращі гіперпараметри моделі. Результати. Використовуючи бібліотеку PyTorch, було отримано модель, здатну до бінарної класифікації справних і несправних підшипників, шляхом навчання, валідації та тестування в програмному середовищі Kaggle. Висновки. Тестування побудованої архітектури моделі підтвердило здатність моделі класифікувати справні та несправні підшипники двійково, що дозволяє рекомендувати її для використання на практиці для виявлення несправностей підшипників. Перспективи подальших досліджень можуть включати тестування моделі шляхом інтеграції в системи прогнозного обслуговування для своєчасного виявлення несправностей.Item A study on the use of normalized L2-metric in classification tasks(Національний університет «Запорізька політехніка», 2025) Kondruk, N. E.; Кондрук, Н. Е.EN: Context. In machine learning, similarity measures, and distance metrics are pivotal in tasks like classification, clustering, and dimensionality reduction. The effectiveness of traditional metrics, such as Euclidean distance, can be limited when applied to complex datasets. The object of the study is the processes of data classification and dimensionality reduction in machine learning tasks, in particular, the use of metric methods to assess the similarity between objects. Objective. The study aims to evaluate the feasibility and performance of a normalized L2-metric (Normalized Euclidean Distance, NED) for improving the accuracy of machine learning algorithms, specifically in classification and dimensionality reduction. Method. We prove mathematically that the normalized L2-metric satisfies the properties of boundedness, scale invariance, and monotonicity. It is shown that NED can be interpreted as a measure of dissimilarity of feature vectors. Its integration into k-nearest neighbors and t-SNE algorithms is investigated using a high-dimensional Alzheimer’s disease dataset. The study implemented four models combining different approaches to classification and dimensionality reduction. Model M1 utilized the k-nearest neighbors method with Euclidean distance without dimensionality reduction, serving as a baseline; Model M2 employed the normalized L2-metric in kNN; Model M3 integrated t-SNE for dimensionality reduction followed by kNN based on Euclidean distance; and Model M4 combined t-SNE and the normalized L2-metric for both reduction and classification stages. A hyperparameter optimization prоcedure was implemented for all models, including the number of neighbors, voting type, and the perplexity parameter for t-SNE. Cross-validation was conducted on five folds to evaluate classification quality objectively. Additionally, the impact of data normalization on model accuracy was examined. Results. Models using NED consistently outperformed models based on Euclidean distance, with the highest classification accuracy of 91.4% achieved when it was used in t-SNE and the nearest neighbor method (Model M4). This emphasizes the adaptability of NED to complex data structures and its advantage in preserving key features in high and low-dimensional spaces. Conclusions. The normalized L2-metric shows potential as an effective measure of dissimilarity for machine learning tasks. It improves the performance of algorithms while maintaining scalability and robustness, which indicates its suitability for various applications in high-dimensional data contexts. UK: Актуальність. У машинному навчанні міри подібності та метрики відстані відіграють ключову роль у задачах класифікація, кластеризація та зменшення розмірності. Ефективність традиційних метрик, зокрема евклідової відстані, може бути обмеженою при застосуванні до складних наборів даних. Об’єктом дослідження є процеси класифікації та зменшення розмірності у задачах машинного навчання, зокрема використання метричних методів для визначення подібності між об’єктами. Мета роботи – оцінка доцільності та ефективності нормалізованої L2-метрики (нормалізованої евклідової метрики, NED) для підвищення точності алгоритмів машинного навчання, зокрема в задачах класифікації та зменшення розмірності. Метод. Математично доведено, що нормалізована L2-метрика задовольняє властивості обмеженості, масштабної інваріантності та монотонності. Показано, що NED можна інтерпретувати як міру несхожості векторів ознак. Її інтеграція в алгоритми k-найближчих сусідів і t-SNE досліджується на основі даних про хворобу Альцгеймера високої розмірності. У дослідженні реалізовано чотири моделі, що поєднують різні підходи до класифікації та зменшення розмірності. Модель M1 використовувала метод k-найближчих сусідів з евклідовою відстанню без зменшення розмірності, як базова; модель M2 використовувала нормалізовану L2-метрику в kNN; модель M3 інтегрувала t-SNE для зменшення розмірності, а потім kNN на основі евклідової відстані; модель M4 поєднувала t-SNE і нормалізовану L2-метрику як для зменшення розмірності, так і класифікації. Для всіх моделей було застосовано процедуру оптимізації гіперпараметрів, включаючи кількість сусідів, тип голосування та параметр перплексії в t-SNE. Для об’єктивної оцінки якості класифікації було проведено перехресну перевірку на п’яти фолдах. Крім того, було досліджено вплив нормалізації даних на точність моделі. Результати. Моделі, що використовували NED, стабільно перевершували моделі на основі евклідової відстані, причому найвища точність класифікації (91,4%) була досягнута при інтегруванні NED у t-SNE та методі найближчих сусідів (модель M4). Це підкреслює адаптивність NED до складних структур даних та її перевагу у збереженні ключових ознак як у високорозмірному, так і в низькорозмірному просторах. Висновки. Нормалізована метрика L2 демонструє потенціал як ефективна міра несхожості для задач машинного навчання. Вона покращує продуктивність алгоритмів, зберігаючи при цьому масштабованість і надійність, що вказує на її придатність для різних застосувань у контексті даних високої розмірності.Item Situation anticipation and planning framework for intelligent environments(Національний університет «Запорізька політехніка», 2025) Burov, E. V.; Zhovnir, Y. I.; Zakhariya, O. V.; Kunanets, N. E.; Буров, Є. В.; Жовнір, Ю. І.; Захарія, О. В.; Кунанець, Н. Е.UK: Context. Situation anticipation, prediction and planning play an important role in intelligent environments, allowing to learn and predict the behavior of its users, anticipate maintenance and resource provision needs. The object of study is the process of modeling the situation anticipation and planning in the situation-aware systems. Objective. The goal of the work is to develop and analyze the ontology-based framework for modeling and predicting the situation changes for intelligent agents, allowing for proactive agent behavior. Method. This article proposes a framework for anticipation and planning based on GFO ontology. Each task or problem is considered a situoid, having a number of intermediate situations. Each task or problem is considered a situoid, having several intermediate situations. The framework is focused on the analysis of changes between situations, coming from anticipated actions or events. Contextually organized knowledge base of experiential knowledge is used to retrieve information about possible developments scenarios and is used for planning and evaluation. The framework allows to build and compare trajectories of configuration changes for specific objects, situations or situoids. The planning and anticipation process works in conditions of incomplete information and unpredicted external events, because the projections are constantly updated using feedback from sensor data and reconciliating this information with predicted model. Results. The framework for reasoning and planning situations based on GFO ontology, allowing to model spatial, temporal and structural data dependencies. Conclusions. The situation anticipation framework allows to represent, model and reason about situation dynamics in the intelligent environment, such as intelligent residential community. Prospects for further research include the elaboration of contextual knowledge storing and processing, reconciliation and learning procedures based on real-world feedback and the application of proposed framework in the real-world system, such as intelligent security systems. UK: Актуальність. Передбачення, прогнозування та планування ситуації відіграють важливу роль у інтелектуальних середовищах, дозволяючи вивчати та прогнозувати поведінку своїх користувачів, передбачати потреби в обслуговуванні та забезпеченні ресурсами. Об’єктом дослідження є процес моделювання ситуації, передбачення і планування в ситуаційно-обізнаних системах. Мета роботи. Метою роботи є розробка та аналіз онтологічного фреймворку для моделювання та прогнозування динаміки змін ситуації для інтелектуальних агентів, що дозволяє реалізувати проактивну поведінку агентів. Метод. У цій статті запропонована основа для передбачення та планування на основі онтології GFO. Кожна задача або задача розглядається як ситуоїд, що має ряд проміжних ситуацій. Фреймворк орієнтований на аналіз змін між ситуаціями, спричинених передбаченими діями або подіями. Контекстуально організована база знань використовується для отримання інформації про можливі сценарії розвитку подій і використовується для планування та оцінки. Фреймворк дозволяє будувати і порівнювати траєкторії зміни конфігурацій для конкретних об’єктів, ситуацій або сітуоїдів. Процес планування і передбачення працює в умовах неповної інформації і непередбачуваних зовнішніх подій, тому що прогнози постійно оновлюються за допомогою зворотного зв’язку від даних сенсорів і звірки цієї інформації з прогнозованою моделлю. Результати. Фреймворк для міркування та планування ситуацій на основі онтології GFO, що дозволяє моделювати просторові, часові та структурні залежності даних. Висновки. Фреймворк передбачення ситуації дозволяє подавати, моделювати та обґрунтовувати динаміку ситуації в інтелектуальному середовищі, наприклад, у розумному житловому будинку. Перспективи подальших досліджень включають розробку процедур зберігання та опрацювання контекстних знань, узгодження та навчання на основі зворотного зв’язку в реальних умовах та застосування запропонованого фреймворку реальних системах, таких як інтелектуальні системи безпеки.Item Two-layer graph invariant for pattern recognition(Національний університет «Запорізька політехніка», 2025) Batsamut, V. M.; Batsamut, M. V.; Bashkatov, Y. H.; Tolstonosov, D. Yu.EN: Context. The relevance of the article is driven by the need for further development of object recognition (classification) algorithms, reducing computational complexity, and increasing the functional capabilities of such algorithms. The graph invariant proposed in the article can be applied in machine vision systems for recognizing physical objects, which is essential during rescue and monitoring operations in crisis areas of various origins, as well as in delivering firepower to the enemy using swarms of unmanned aerial vehicles. Objective is to develop a graph invariant with low computational complexity that enables the classification of physical objects with a certain level of confidence in the presence of external interference. Method. The physical object to be recognized (identified) is modeled by a connected undirected weighted graph. To identify the constant characteristics of different model graphs, the idea of selecting the minimum and maximum weighted spanning trees in the structure of these graphs is applied. For this purpose, the classical and modified Boruvka-Sollin’s method are used (modified – for constructing the maximum weighted spanning tree). Such a stratification of the structure of the initial graph into two layers provides a larger information base during image analysis regarding the belonging of a certain implementation to a certain class of objects. Next, for each of the resulting spanning trees, two numerical characteristics are calculated: the weight of the spanning tree and the Randić index. The first characteristic contains indirect information about the linear dimensions of the object, while the second conveys its structural features. These characteristics are independent of vertex labeling and the graphical representation of the graph, which is a necessary condition for graph isomorphism verification. From these four obtained characteristics, an invariant is formed, which describes the corresponding physical object present in a single scene. To fully describe one class or subclass of objects in four scenes (top view; front and rear hemispherical views; side view), the pattern recognition system must have four corresponding invariants. Results. 1) A two-layer invariant of a weighted undirected graph has been developed, enabling the recognition of physical objects with a certain level of confidence; 2) A method for recognizing physical objects has been formalized in graph theory terms, based on hashing the object structure using the weights of the minimum and maximum spanning trees of the model graph, as well as the Randić index of these trees; 3) The two-layer invariant of the weighted undirected graph has been verified on test tasks for graph isomorphism checking. Conclusions. The conducted theoretical studies and a series of experiments confirm the feasibility of using the proposed graph invariant for real-time pattern recognition and classification tasks. The estimates obtained using the developed method are probabilistic, allowing the system operator to flexibly approach the classification of physical objects within the machine vision system’s field of view, depending on the technological process requirements or the operational situation in the system’s deployment area. UK: Актуальність. Актуальність статті обумовлюється потребою у подальшому розвитку алгоритмів розпізнавання (класифікації) об’єктів, у зменшенні обчислювальної складності і збільшенні функціональних можливостей таких алгоритмів. Запропонований у статті інваріант графа може бути застосований у системах машинного зору для розпізнавання фізичних об’єктів, що є важливим у ході виконання рятувальних, моніторингових завдань у кризових районах різного характеру походження, а також у ході нанесення противнику вогневого ураження із застосуванням рою безпілотних апаратів. Мета роботи полягає в розробленні інваріанту графа з низькою обчислювальною складністю, який дозволятиме з певним рівнем довірчої ймовірності класифікувати фізичні об’єкти в умовах зовнішніх завад. Метод. Фізичний об’єкт, що підлягає розпізнаванню (ідентифікації) моделюється зв’язним неорієнтованим зваженим графом. Для виявлення сталих характеристик різних модельних графів застосовано ідею виділення в структурі цих графів мінімального і максимального за вагою каркасних дерев. З цією метою застосовується класичний і модифікований методи Борувки-Солліна (модифікований – для побудови максимального зваженого каркасного дерева). Таке розшарування структури початкового графа на два шари надає більшої інформаційної бази у ході аналізу зображення щодо приналежності певної реалізації до деякого класу об’єктів. Далі, для кожного з отриманих таким чином каркасних дерев, відшукуються значення двох числових характеристик: ваги каркасного дерева та індексу Рандіча. Перша характеристика несе в собі опосередковану інформацію про лінійні розміри об’єкту, а друга – про його структурні особливості. Ці характеристики не залежать від способу позначення вершин та графічного зображення графа, що є необхідною умовою для перевірки графів на ізоморфізм.З отриманих таким чином чотирьох характеристик складається інваріант, яким описується відповідний фізичний об’єкт, що перебуває в одній сцені. Для повного опису одного класу або підкласу об’єктів в чотирьох сценах (вид зверху; вид передньої та задньої полусфер; вид збоку) система розпізнавання образів повинна мати чотири відповідні інваріанти. Результати. 1) Розроблено двошаровий інваріант зваженого неорієнтованого графу, який дозволяє з певним рівнем довірчої ймовірності розпізнавати фізичні об’єкти; 2) В термінах теорії графів формалізовано метод розпізнавання фізичних об’єктів, що заснований на хешуванні структури об’єкту вагою мінімального і максимального каркасних дерев модельного графу, а також індексом Рандіча цих дерев; 3) Виконано верифікацію двошарового інваріанту зваженого неорієнтованого графу на тестових задачах з перевірки графів на ізоморфізм. Висновки. Проведені теоретичні дослідження та низка проведених експериментів підтверджують можливість використання пропонованого інваріанту графів в задачах розпізнавання та класифікації образів в масштабі реального часу. Оцінки, що виробляються із використанням розробленого методу, носять ймовірнісний характер, що дозволяє особі, яка налаштовує систему машинного зору, гнучко підходити до класифікації фізичних об’єктів в полі зору такої системи, виходячи з вимог до технологічного процесу або з умов оперативної обстановки в районі застосування системи.Item Mathematical foundations of methods for solving continuous problems of optimal multiplex partitioning of sets(Національний університет «Запорізька політехніка», 2025) Koriashkina, L. S.; Lubenets, D. E.; Minieiev, O. S.; Sazonova, M. S.; Коряшкіна, Л. С.; Лубенець, Д. Є.; Мінєєв, О. С.; Сазонова, М. С.UK: Context. The research object is the process of placing service centers (e.g., social protection services, emergency supply storage) and allocating demand for services continuously distributed across a given area. Mathematical models and optimization methods for location-allocation problems are presented, considering the overlap of service zones to address cases when the nearest center cannot provide the required service. The relevance of the study stems from the need to solve problems related to territorial distribution of logistics system facilities, early planning of preventive measures in potential areas of technological disasters, organizing evacuation processes, or providing primary humanitarian assistance to populations in emergencies. Objective. The rational organization of a network of service centers to ensure the provision of guaranteed service in the shortest possible time by assigning clients to multiple nearest centers and developing the corresponding mathematical and software support. Method. The concept of a characteristic vector-function of a k-th order partition of a continuous set is introduced. Theoretical justification is provided for using the LP-relaxation procedure to solve the problem, formulated in terms of such characteristic functions. The mathematical framework is developed using elements of functional analysis, duality theory, and nonsmooth optimization. Results. A mathematical model of optimal territorial zoning with center placement, subject to capacity constraints, is presented and studied as a continuous problem of optimal multiplex partitioning of sets. Unlike existing models, this approach describes distribution processes in logistics systems by minimizing the distance to several nearest centers while considering their capacities. Several propositions and theorems regarding the properties of the functional and the set of admissible solutions are proven. Necessary and sufficient optimality conditions are derived, forming the basis for methods of optimal multiplex partitioning of sets. Conclusions. Theoretical findings and computational experiment results presented in the study confirm the validity of the developed mathematical framework, which can be readily applied to special cases of the problem. The proven propositions and theorems underpin computational methods for optimal territorial zoning with center placement. These methods are recommended for logistics systems to organize the distribution of material flows while assessing the capacity of centers and the fleet of transportation vehicles involved. UK: Актуальність. Об'єктом дослідження є процес розміщення сервісних центрів (служб соціального захисту, складів аварійного постачання та ін.) і розподілу між ними попиту на послугу у регіоні. Представлено математичні моделі і обґрунтовано методи розв’язання оптимізаційних задач розміщення-розподілу, в яких передбачено перекриття сервісних зон на той випадок, коли найближчий центр не зможе надати послугу. Актуальність дослідження обумовлена необхідністю вирішення завдань, пов’язаних, приміром, з територіальним розподілом об’єктів логістичних систем і завчасним плануванням запобіжних заходів в районах потенційних техногенних аварій, організації евакуаційних процесів або надання первинної гуманітарної допомоги населенню у разі надзвичайних ситуацій. Мета – забезпечення надання гарантованого сервісу у короткий термін шляхом прикріплення клієнта до декількох найближчих центрів, розроблення відповідного математичного та програмного забезпечення. Метод. Введено поняття характеристичної вектор-функції розбиття k-го порядку множини, теоретично аргументовано використання процедури ЛП-релаксації задачі, записаної у термінах таких характеристичних функцій. Математичне забезпечення розроблено з використанням елементів функціонального аналізу, теорії двоїстості, негладкої оптимізації. Результати. Представлено і досліджено математичну модель оптимального територіального зонування з розміщенням центрів, при наявності обмежень на їхні потужності у вигляді неперервної задачі оптимального мультиплексного розбиття множин (ОМРМ), яка описує розподільчі процеси в логістичних системах за критеріями мінімізації відстані до декількох найближчих центрів з урахуванням їх можливостей. Доведено ряд тверджень та теорем стосовно властивостей функціоналу і множини допустимих розв’язків задачі. Отримано необхідні та достатні умови оптимальності, на яких базуються розроблені методи і алгоритми оптимального мультиплексного розбиття множин. Висновки. Теоретичні положення і результати обчислювальних експериментів, наведені у роботі, свідчать про коректність розробленого математичного апарата і легко переносяться на окремі випадки розглянутої задачі. Доведені твердження та теореми лежать в основі обчислювальних методів оптимального зонування територій із розміщенням центрів, які варто використовувати при організації розподілу матеріальних потоків для оцінювання місткості центрів і парку задіяних транспортних засобів.Item Prediction the accuracy of image inpainting using texture descriptors(Національний університет «Запорізька політехніка», 2025) Kolodochka, D. O.; Polyakova, M. V.; Rogachko, V. V.; Колодочка, Д. О.; Поляков,а М. В.; Рогачко, В. В.EN: Context. The problem of filling missing image areas with realistic assumptions often arises in the processing of real scenes in computer vision and computer graphics. To inpaint the missing areas in an image, various approaches are applied such as diffusion models, self-attention mechanism, and generative adversarial networks. To restore the real scene images convolutional neural networks are used. Although convolutional neural networks recently achieved significant success in image inpainting, high efficiency is not always provided. Objective. The paper aims to reduce the time consumption in computer vision and computer graphics systems by accuracy prediction of image inpainting with convolutional neural networks. Method. The prediction of image inpainting accuracy can be done by an analysis of image statistics without the execution of inpainting itself. Then the time and computer resources on the image inpainting will not be consumed. We have used a peak signal-to-noise ratio and a structural similarity index measure to evaluate an image inpainting accuracy. Results. It is shown that a prediction can perform well for a wide range of mask sizes and real-scene images collected in the Places2 database. As an example, we concentrated on a particular case of the LaMa network versions although the proposed method can be generalized to other convolutional neural networks as well. Conclusions. The results obtained by the proposed method show that this type of prediction can be performed with satisfactory accuracy if the dependencies of the SSIM or PSNR versus image homogeneity are used. It should be noted that the structural similarity of the original and inpainted images is better predicted than the error between the corresponding pixels in the original and inpainted images. To further reduce the prediction error, it is possible to apply the regression on several input parameters. UK: Актуальність. Проблема заповнення відсутніх областей зображення реалістичним контентом часто виникає при обробці реальних сцен у комп’ютерному зорі та комп’ютерній графіці. Щоб відновити відсутні області на зображенні, застосовуються різні підходи, такі як дифузійні моделі, механізм самоуважності, генеративні змагальні мережі. Для відновлення зображень реальних сцен використовуються згорткові нейронні мережі. Із застосуванням цих мереж останнім часом досягнуто значних успіхів у відновленні зображень. Але отримані відновлені зображення не завжди високої якості. Мета роботи полягає у зменшенні витрат часу в системах комп’ютерної графіки та комп’ютерного зору шляхом прогнозування якості відновлення зображень згортковими нейронними мережами. Метод. Прогноз точності відновлення зображення здійснено шляхом аналізу статистики зображення без виконання самої реконструкції і, отже, без витрачання зайвого часу та комп’ютерних ресурсів на відновлення зображення. Ми використали пікове відношення сигнал/шум і показник індексу структурної подібності для оцінки якості відновлення зображення. Результати. Показано, що передбачення ефективне для широкого діапазону розмірів масок і зображень реальних сцен з бази даних Places2. У якості прикладу було зосереджено на окремих випадках версій мережі LaMa, хоча запропонований метод також можна узагальнити на інші згорткові нейронні мережі. Висновки. Отримані результати показують, що прогноз якості відновлення зображень може бути виконаний із задовільною точністю, якщо використовувати залежності SSIM або PSNR від показника однорідності текстури зображень. Слід зазначити, що структурна подібність початкового та відновленого зображень краще передбачувана, ніж помилка між відповідними пікселями цих зображень. Щоб зменшити помилку прогнозування можна застосувати регресію за декількома вхідними змінними.Item The intellectual analysis method of color images(Національний університет «Запорізька політехніка», 2025) Fedorov, E. E. ; Khramova-Baranova, O. L. ; Utkina, T. Y. ; Kozhushko, Ya. M. ; Nesen, I. O. ; Федоров, Є. Є. ; Храмова-Баранова, О. Л.; Уткіна, Т. Ю.; Кожушко, Р. Ю.; Несен, І. О.EN: Context. Automatic and automated image analysis methods used in computer graphic design, biometric identification, and military target search are now widespread. The object of the research is the process of color image analysis. Objective. The goal of the work is to create an intelligent method of image analysis based on quantization, binarization and clustering. Method. The proposed method for intelligent color image analysis consists of the following techniques. The technique of reducing the number of colors based on the conversion of a color image into a gray-scale image and quantization of the resulting gray-scale image improves the accuracy of image feature extraction by preventing the appearance of an excessive number of image clusters. The technique of creating a set of binary images based on binarization of a quantized gray-scale image allows increasing the speed of subsequent clustering by replacing sequential extraction of all elements of a quantized gray-scale image with parallel extraction of binary image elements, as well as separating clusters obtained during subsequent clustering by color due to image membership. The technique of determining the highest priority binary images based on the probability of occurrence of each color in the quantized gray-scale image improves the speed of image structure synthesis based on the analysis results by considering the most informative binary images. The technique of extracting binary image elements on the basis of its clustering allows to increase the accuracy of extracting binary image elements by improving the method of forming the neighborhoods of points (no radius of empirically determined neighborhood is needed), detecting random outliers and noise, extracting image elements of different shapes and sizes without specifying the number of extracted binary image elements, as well as increasing the speed of extracting binary image elements by forming the neighborhoods of white points only. The technique of determining the higher priority parts of the binary image based on the power of image clusters allows increasing the accuracy of image structure synthesis based on the analysis results by omitting noise and random outliers. Results. The proposed method for intelligent analysis of color images was programmatically implemented using Parallel Computing Toolbox of Matlab package and investigated for the task of image feature extraction on the corresponding database. The results obtained allowed to compare the traditional and proposed methods. Conclusions. The proposed method allows to expand the application area of color image analysis based on color-to-gray-scale image conversion, quantization, binarization, parallel clustering and contributes to the efficiency of computer systems for image classification and synthesis. Prospects for further research investigating the proposed method for a wide class of machine learning tasks. UK: Актуальність. В даний час широкого поширення набули методи автоматичного та автоматизованого аналізу зображень, які використовуються в комп’ютерному графічному дизайні, біометричній ідентифікації, пошуку військових цілей. Об’єктом дослідження є процес аналізу кольорових зображень. Метою роботи є створення інтелектуального методу аналізу зображення на основі квантування, бінаризації та кластеризації. Метод. Запропонований метод інтелектуального аналізу кольорових зображень складається з таких методик. Методика зменшення кількості кольорів на основі перетворення кольорового зображення в сіре та квантування отриманого сірого зображення дозволяє підвищити точність вилучення елементів зображення за рахунок запобігання появі надлишкової кількості кластерів зображення. Методика створення набору бінарних зображень на основі бінаризації квантованого сірого зображення дозволяє підвищити швидкість подальшої кластеризації за рахунок заміни послідовного вилучення всіх елементів квантованого сірого зображення паралельним вилученням елементів бінарних зображень, а також розбити кластери, отримані в ході подальшої кластеризації, за кольором за рахунок належності різним бінарним зображенням. Методика визначення найбільш пріоритетних бінарних зображень на основі ймовірності появи кожного кольору в квантованому сірому зображенні дозволяє підвищити швидкість синтезу структури зображення за результатами аналізу за рахунок розгляду найбільш інформативних бінарних зображень. Методика вилучення елементів бінарного зображення на основі його кластеризації дозволяє підвищити точність вилучення елементів бінарного зображення за рахунок поліпшення способу формування околиць точок (не потрібний радіус околиці, що емпірично визначається), виявлення випадкових викидів і шуму, видобування елементів зображення різної форми та розміру, не вказуючи кількість видобутих елементів бінарного зображення, а також підвищення швидкості вилучення елементів бінарного зображення за рахунок формування околиць тільки точок білого кольору. Методика визначення найбільш пріоритетних елементів бінарного зображення на основі потужності кластерів зображення дозволяє підвищити точність синтезу структури зображення за результатами аналізу за рахунок пропуску шуму і випадкових викидів. Результати. Запропонований метод інтелектуального аналізу кольорових зображень був програмно реалізований за допомогою Parallel Computing Toolbox пакету Matlab і досліджений для завдання вилучення елементів зображень на відповідній базі даних. Отримані результати дозволили порівняти традиційний та запропонований методи. Висновки. Запропонований метод дозволяє розширити область застосування аналізу кольорових зображень на основі перетворення кольорового зображення в сіре, квантування, бінаризації, паралельної кластеризації, та сприяє підвищенню ефективності комп’ютерних систем класифікації та синтезу зображень. Перспективами подальших досліджень є дослідження запропонованого методу для широкого класу задач машинного навчання.Item Development of a range measurement module on an ultrasonic sensor with a GSM module(Національний університет «Запорізька політехніка», 2025) Sotnik, S. V.; Сотник, С. В.EN: Context. The development of a range measurement module based on an ultrasonic sensor with a Global System for Mobile Communications (GSM) module is extremely relevant in the field of telecommunications and radio electronics. In today’s world, an increasing number of devices are integrated into Internet of Things (IoT) systems, where long-distance data transmission is provided by telecommunication technologies. The use of the GSM module allows real-time transmission of information from the measuring device to remote servers or end users, which is critical for remote monitoring and control solutions. Ultrasonic sensors in combination with a GSM module can automate measurement processes in hard-to-reach or hazardous environments, which increases the efficiency and safety of systems. The use of radio electronic technologies for real-time transmission of measurement data can significantly expand the functionality of devices and facilitate their integration into existing telecommunications systems, particularly in the industrial, transportation, and infrastructure sectors. Thus, the development of this module with precise measurements contributes to the development of innovations in the field of telecommunications and radio electronics, providing fast and reliable data transmission, which is an important component of modern information systems. Objective. Development of a range measurement module based on an ultrasonic sensor with a GSM module and improving the accuracy of measurements by implementing the proposed mathematical model of ultrasonic sensor autocalibration. Method. To achieve this goal, an integrated range measurement module was developed, which combines the HC-SR04 ultrasonic sensor with a GSM module. The method of improving accuracy is based on the proposed mathematical model of ultrasonic sensor autocalibration. Results. The task was stated, and a range measurement module based on an ultrasonic sensor with an integrated GSM module was developed. In the course of the study, an electrical schematic diagram of the device was created using DipTrace software. An algorithm for the operation of the module has been developed, which optimizes the interaction between the ultrasonic sensor. A printed circuit board has been created. A mathematical model of autocalibration of an ultrasonic sensor to improve measurement accuracy has been proposed. A series of experimental studies were carried out to assess accuracy. The results of the experiments confirmed the effectiveness of the developed module for measuring distances. Conclusions. The developed range measurement module based on an ultrasonic sensor with a GSM module is an innovative solution that meets the modern requirements of telecommunication and radio engineering systems. The integration of accurate distance measurement based on the proposed mathematical model of autocalibration of an ultrasonic sensor with the possibility of remote data transmission opens up new prospects for remote monitoring and automation of processes. Experimental studies have confirmed the accuracy and reliability of the device, and comparative analysis with analogs has demonstrated its competitive advantages. The cost-effectiveness and energy efficiency of the developed module make it attractive to a wide range of users, from individual developers to industrial enterprises. Further research can be aimed at improving data processing algorithms and expanding the functionality of the device, which will contribute to the development of innovative technologies in the field of radio electronics and telecommunications. UK: Актуальність. Розробка модуля вимірювання дальності на основі ультразвукового датчика з GSM модулем є надзвичайно актуальною у сфері телекомунікацій та радіоелектроніки. У сучасному світі все більша кількість пристроїв інтегрується в системи Інтернету речей (IoT), де передачу даних на великі відстані забезпечують телекомунікаційні технології. Використання GSM модуля дозволяє в режимі реального часу передавати інформацію з вимірювального пристрою на віддалені сервери або кінцевим користувачам, що є критичним для рішень у сфері дистанційного моніторингу та контролю. Ультразвукові датчики у поєднанні з GSM модулем можуть дозволять автоматизувати процеси вимірювання у важкодоступних або небезпечних для людини умовах, що підвищує ефективність та безпеку систем. Застосування радіоелектронних технологій для передачі вимірювальних даних у реальному часі дозволяє значно розширити функціональність пристроїв, полегшити їхню інтеграцію у вже існуючі системи телекомунікацій, зокрема у промислових, транспортних, та інфраструктурних секторах. Таким чином, розробка даного модуля з точними вимірами сприяє розвитку інновацій у галузі телекомунікацій та радіоелектроніки, забезпечуючи швидку та надійну передачу даних, що є важливою складовою сучасних інформаційних систем. Мета. Розробка модуля вимірювання дальності на основі ультразвукового датчика з GSM-модулем та підвищення точності вимірювань шляхом впровадження запропонованої математичної моделі автокалібрування ультразвукового датчика. Метод. Для досягнення поставленої мети був розроблений інтегрований модуль вимірювання дальності, який поєднує ультразвуковий датчик HC-SR04 з GSM-модулем. Метод підвищення точності базується на запропонованій математичній моделі автокалібрування ультразвукового датчика. Результати. Здійснена постановка задачі та розроблено модуль вимірювання дальності на основі ультразвукового датчика з інтегрованим GSM-модулем. У ході дослідження було створено електричну принципову схему пристрою за допомогою програмного забезпечення DipTrace. Розроблено алгоритм роботи модуля, який оптимізує взаємодію між ультразвуковим датчиком. Створено друковану плату. Запропоновано математичну модель автокалібрування ультразвукового датчика для підвищення точності вимірювання. Проведено серію експериментальних досліджень для оцінки точності. Результати експериментів підтвердили ефективність розробленого модуля для вимірювання відстаней. Висновки. Розроблений модуль вимірювання дальності на основі ультразвукового датчика з GSM-модулем представляє собою інноваційне рішення, що відповідає сучасним вимогам телекомунікаційних та радіотехнічних систем. Інтеграція точного вимірювання відстані на базі запропонованої математичної модель автокалібрування ультразвукового датчика з можливістю дистанційної передачі даних відкриває нові перспективи для дистанційного моніторингу та автоматизації процесів. Експериментальні дослідження підтвердили точність та надійність пристрою, а порівняльний аналіз з аналогами продемонстрував його конкурентні переваги. Економічна ефективність та енергоощадність розробленого модуля роблять його привабливим для широкого кола користувачів, від індивідуальних розробників до промислових підприємств. Подальші дослідження можуть бути спрямовані на вдосконалення алгоритмів обробки даних та розширення функціональних можливостей пристрою, що сприятиме розвитку інноваційних технологій у сфері радіоелектроніки та телекомунікацій.Item The selection of information-measuring means for the robototechnical complex and the research of their worker characteristics(Національний університет «Запорізька політехніка», 2025) Mammadov, J. F.; Ahmadova, T. A.; Huseynov, A. H.; Talibov, N. H.; Hashimova, H. M.; Ahmadov, A. A.; Мамедов, Я. Ф.; Ахмадова, Т. А.; Гусейнов, А. Х.; Талібов, Н. Г.; Хашімова, Х. М.; Ахмедов, А. А.EN: Context. The topic of the article is devoted to the issue selection of the means of the information-measurement system (IMS) for automation of robototechnical complexes (RTC) of flexible production systems applied in various fields of industry, and the research of their technological characteristics. Objective. The goal is using the mathematical models to researching of the working characteristics of the new construction transmitters for information – measurement and automated control of robototechnical complex in flexible production areas. Method. In the article, the following issues were set and solved: the analysis of the application object, the selection of the types of information-measurement and management elements of RTC creation and structure scheme; research of the characteristics of the information-measuring transmitter for managing the active elements of the RTC; determining the error of the analog output transmitter of the information-measurement system of RTC active elements. Based on the analysis of the application object, it was determined that the structure scheme of the RTC at the flexible production system includes complex technological, functionally connected production areas, modules and robotic complexes, their automated control system IMS, regulation, execution, microprocessor control system and devices and devices of the industrial network. includes The functional block diagrams of the IMS of RTCi of the flexible production system are given. Based on research, it was found that it is convenient to use a magnetoelastic transducer with a ring sensitive element to measure the mechanical force acting on the working organs of an industrial robot (IR). For this, unlike existing transmitters, the core of this transmitter is made of whole structural steel. The inductive coil of the proposed transmitter is included in the LC circuit of the autogenerator. The magnetoelastic emitter semiconductor is assembled at the base of the transistor. The cross-section of its core is calculated for the mechanical stress that can be released for the steel. The block-scheme of the inductive transmitter is proposed. The proposed transmitters work on the principle of an autogenerator assembled on an operational amplifier. A mathematical expression is defined for determining the output frequency of the autogenerator. The model of the autogenerator consists of a dependent source, the transmission coefficient is determined. Results. A new transmitter is proposed to measure the information of the manipulator to perform special technological operations synchronously. Conclusions. A mathematical model was developed to determine the error of the analog output transmitter of the information-measurement system of RTC active elements. The expression ehq is used to determine the error of the transmitter whose output is analog during the measurement of the current technological operation. It was determined that in practice, the geometric dimensions of the transmitter and the number of windings remain unchanged during the work process, where it is changed due to the influence of the environment. Considering this variation, a mathematical model was developed to determine the transmitter error. UK: Актуальність. Стаття присвячена питанням вибору засобів інформаційно-вимірювальної системи (ІВС) для автоматизації робототехнічних комплексів (РТК) гнучких виробничих систем, що застосовуються в різних галузях промисловості, та дослідженню їхніх технологічних характеристик. Мета. Мета – використання математичних моделей для дослідження робочих характеристик передавачів нової конструкції для інформаційно-вимірювального та автоматизованого керування робототехнічним комплексом у гнучких виробничих зонах. Метод. У статті були поставлені та вирішені наступні питання: аналіз прикладного об’єкта, вибір типів інформаційно – вимірювальних та керуючих елементів створення та структури РТК; дослідження характеристик інформаційно-вимірювального передавача для керування активними елементами РТК; визначення похибки аналогового виходу передавача інформаційно-вимірювальної системи активних елементів РТК. На основі аналізу об’єкта застосування встановлено, що структурна схема РТК на гнучкій виробничій системі включає складні технологічні, функціонально пов’язані виробничі ділянки, модулі та робототехнічні комплекси, автоматизовану систему керування ними ІСУ, регулювання, виконання, мікропроцесорну систему керування та пристрої та пристрої промислової мережі. включає в себе Наведено функціональні блок-схеми ІВС РТК і гнучкої виробничої системи. На основі досліджень встановлено, що для вимірювання механічної сили, яка діє на робочі органи промислового робота, зручно використовувати магнітопружний перетворювач з кільцевим чутливим елементом. Для цього, на відміну від існуючих передавачів, серцевина цього передавача виготовлена з цільної конструкційної сталі. Індуктивна котушка запропонованого передавача включена в LC-ланцюг автогенератора. На базі транзистора зібраний магнітопружний емітерний напівпровідник. Поперечний переріз його серцевини розрахований на механічне навантаження, яке може вивільнити сталь. Запропоновано блок-схему індукційного передавача. Пропоновані передавачі працюють за принципом автогенератора, зібраного на операційному підсилювачі. Визначено математичний вираз для визначення вихідної частоти автогенератора. Модель автогенератора складається із залежного джерела, визначений коефіцієнт передачі. Результати. Пропонується новий передавач для вимірювання інформації маніпулятора для синхронного виконання спеціальних технологічних операцій. Висновки. Розроблено математичну модель визначення похибки аналогового вихідного передавача інформаційно-вимірювальної системи активних елементів РТК. Вираз ehq використовується для визначення похибки передавача, вихід якого є аналоговим, під час вимірювання поточної технологічної операції. Встановлено, що на практиці геометричні розміри передавача та кількість обмоток залишаються незмінними в процесі роботи, де вона змінюється через вплив зовнішнього середовища. Враховуючи цей варіант, була розроблена математична модель для визначення помилки передавача.Item Evaluating the efficiency of mechanisms for frame blocks transmission in noisy channels of IEEE 802.11 networks(Національний університет «Запорізька політехніка», 2025) Khandetskyi, V. S.; Karpenko, N. V.; Gerasimov, V. V.; Хандецький, В. С.; Карпенко, Н. В.; Герасимов, В. В.EN: Context. Aggregating frames into blocks when transmitting information in wireless IEEE802.11 networks helps to significantly reduce overhead costs and increase the transmission rate. However, the impact of noise reduces the efficiency of such transmission due to an increased probability of distortion of longer messages. We compared the efficiency of data transmission by variable and constant size blocks formed from frames using VBS and FBS mechanisms correspondingly under conditions of noise varying intensity. Objective. The purpose of this article is a comparative study of VBS and FBS mechanisms used for the formation and transmission of different sizes frame blocks under medium and high noise intensity. Method. A simple model used in IEEE 802.11 networks to determine the DSF throughput for transmitting frames in infrastructure domains was modified by us to transmit frame blocks of different sizes under conditions of medium and high intensity noise affecting the transmission process. We use for transmission a discrete in time Gaussian channel without memory. In such a channel, bit errors are independent and equally distributed over the bits of the frame. The scale factors of the model for the number of frames in a block k = 6–40 at an average noise level corresponding to BER = 10–6 and k = 4–15 for high-intensity noise at BER = 10–5 are determined. The algorithm for calculation of the network throughput has been generalized. The investigation of the dependences of the throughput on the number of frames in the VBS blocks showed the presence of local maxima in dependences, located in the region of average values of the frames number. These maxima are more pronounced at increased data transfer rates. Results. It is shown that with a small number of frames in a block (k = 6–9) and high-intensity noise, the efficiency of the FBS mechanism exceeds the efficiency of the VBS block formation mechanism. However, at the same noise level, an increase in the number of frames in a block (k ≥ 10) makes the use of the VBS mechanism more preferable. This advantage is explained by the fact that the VBS mechanism at each subsequent stage of transmission forms a block from frames distorted at the previous stage, therefore the size of the blocks at subsequent stages decreases, increasing the number of frames successfully transmitted to the AP (due to the increase in the probability of transmitting shorter blocks). At the same time, the constant and small probability of successful transmission of a constant size block at each stage makes the probability of transmission of frames distorted at the previous stages low. The situation changes for noise of medium intensity. Here the transmission of each subsequent block in the range of up to 25 frames per block using the VBS method requires the use of two stages. The application of the FBS method in these conditions shows that only the first set of frames requires the use of two stages for its complete transmission. Then, due to the accumulation of frames at the previous stages, each subsequent stage of transmission completes the formation of the corresponding set in the memory of AP. Thus, when the noise intensity decreases to BER = 10–6 and below, the use of the FBS mechanism becomes more effective. The obtained results are illustrated with specific examples characterizing the formation and transmission of various frame blocks. Conclusions. In this article, using a mathematical model modified by us, a comparative study was conducted on the efficiency of various mechanisms for forming and transmitting a frame block of different sizes under conditions of the impact of different intensity noise on the transmission process. The algorithm for calculating the network throughput was generalized, and the values of the throughput were determined when using the VBS and FBS network functioning mechanisms. UK: Актуальність. Об’єднання фреймів у блоки при передаванні інформації в бездротових мережах ІЕЕЕ 802.11 допомагає суттєво зменшити накладні витрати і підвищити швидкість передачі. Одночасно з цим, вплив шуму зменшує ефективність такої передачі внаслідок підвищення імовірності викривлення більш довгих повідомлень. Ми порівнювали ефективність передачі даних з використанням змінного та постійного розмірів блоків з фреймів, що формуються з використанням VBS та FBS механізмів, в умовах дії шуму змінної інтенсивності. Мета роботи. Метою цієї статті є порівняльні дослідження VBS та FBS механізмів, що використовуються для формування і передачі блоків фреймів різного розміру в умовах середньої та високої інтенсивності шуму. Метод. Проста модель, що використовується в ІЕЕЕ 802.11 мережах для визначення DCF пропускної здатності при передаванні фреймів в інфраструктурних доменах була модифікована нами для передачі блоків фреймів різного розміру в умовах середньої та високої інтенсивності шуму, що впливає на процес передачі. Ми використовуємо для передачі дискретний у часі Гаусовий канал без пам’яті. У такому каналі бітові помилки є незалежними і рівномірно розподіленими серед бітів фрейму. Визначені масштабуючі коефіцієнти моделі для кількості фреймів в блоці k = 6–40 при середньому рівні шуму, що відповідає BER = 10–6, і k = 4–15 для високого рівня шуму при BER = 10–5. Узагальнено алгоритм для розрахунку пропускної здатності мережі. Дослідження залежностей пропускної здатності від кількості фреймів у VBS блоках показало наявність локальних максимумів залежностей, які розташовані в області середніх значень кількості фреймів. Ці максимуми є більш вираженими при підвищених швидкостях передачі даних. Результати. Показано, що при невеликій кількості фреймів в блоці (k = 6–9) і високоінтенсивному шумі ефективність FBS механізму перевищує ефективність VBS механізму формування блоків. Проте, при такому ж рівні шуму, підвищення кількості фреймів в блоці (k ≥ 10) робить використання VBS механізму кращим. Ця перевага пояснюється тим фактом, що VBS механізм на кожній наступній стадії передачі формує блок з фреймів, викривлених на попередній стадії, при цьому розмір блоків на наступних стадіях передачі зменшується, підвищуючи число фреймів, успішно переданих АР (внаслідок підвищення імовірності передачі більш коротких блоків). Одночасно з цим, постійна і невелика імовірність успішної передачі блоків постійного розміру на кожній стадії робить імовірність передачі фреймів, пошкоджених на попередніх стадіях, низькою. Ситуація змінюється для шуму середньої інтенсивності. Тут передача кожного наступного блоку в діапазоні до 25 фреймів на блок з використанням методу VBS потребує двох етапів. Застосування ж методу FBS в цих же умовах показує, що тільки перший набір фреймів потребує використання двох стадій для його повної передачі. Потім, внаслідок накопичення фреймів попередніх стадій, на кожній наступній стадії передачі завершується повне формування відповідного набору в пам’яті АР. Таким чином, коли інтенсивність шуму зменшується до BER = 10–6 і нижче, використання FBS механізму стає більш ефективним. Одержані результати ілюструються специфічними прикладами, які характеризують формування і передачу різних блоків фреймів. Висновки. У цій статті, використовуючи модифіковану нами математичну модель, проведені порівняльні дослідження ефективності механізмів формування і передачі блоків фреймів різного розміру в умовах впливу шуму різної інтенсивності на процес передачі. Узагальнено алгоритм для розрахунку пропускної здатності, визначені величини пропускної здатності при використанні VBS та FBS механізмів функціонування мережі.