Радіоелектроніка, інформатика, управління - 2024, №3 (70)
Permanent URI for this collectionhttps://eir.zp.edu.ua/handle/123456789/25162
Browse
Recent Submissions
Item Stewart platform multidimensional tracking control system synthesis(Національний університет «Запорізька політехніка», 2024) Zozulya, V. A.; Osadchy, S.І.; Зозуля, В. А.; Осадчий, С. І.EN: Context. Creating guaranteed competitive motion control systems for complex multidimensional moving objects, including unstable ones, that operate under random controlled and uncontrolled disturbing factors, with minimal design costs, is one of the main requirements for achieving success in this class devices market. Additionally, to meet modern demands for the accuracy of motion control processes along a specified or programmed trajectory, it is essential to synthesize an optimal control system based on experimental data obtained under conditions closely approximating the real operating mode of the test object. Objective. The research presented in this article aims to synthesize an optimal tracking control system for the Stewart platform’s working surface motion, taking into account its multidimensional dynamic model. Method. The article employs a method of a multidimensional tracking control system structural transformation into an equivalent stabilization system for the motion of a multidimensional control object. It also utilizes an algorithm for synthesizing optimal stabilization systems for dynamic objects, whether stable or not, under stationary random external disturbances. The justified algorithm for synthesizing optimal stochastic stabilization systems is constructed using operations such as addition and multiplication of polynomial and fractional-rational matrices, Wiener factorization, Wiener separation of fractional-rational matrices, and the calculation of dispersion integrals. Results. As a result of the conducted research, the problem of defining the concept of analytical design for a Stewart platform’s optimal motion control system has been formalized. The results include the derived transformation equations from the tracking control system to the equivalent stabilization system of the Stewart platform’s working surface motion. Furthermore, the structure and parameters of the main controller transfer function matrix for of this control system have been determined. Conclusions. The justified use of the analytical design concept for the Stewart platform’s working surface optimal motion control system formalizes and significantly simplifies the solution to the problem of synthesizing complex dynamic systems, applying the developed technology presented in [1]. The obtained structure and parameters of the Stewart platform’s working surface motion control system main controller, which is divided into three components W1, W2, and W3, improve the tracking quality of the program signal vector, account for the cross-connections within the Stewart platform, and increase the accuracy of executing the specified trajectory by increasing the degrees of freedom in choosing the controller structure. UK: Актуальність. Створення гарантовано конкурентоспроможних систем керування рухами складних багатовимірних рухомих об’єктів, у тому числі нестійких, які функціонують в умовах дії випадкових контрольованих та неконтрольованих збурюючих факторів, з мінімальними витратами на проектування є однією з головних вимог досягнення успіху на ринку даного класу пристроїв. Також важливо, для досягнення сучасних вимог до точності процесів керування рухом рухомого об’єкта на заданій або програмованій траєкторії руху необхідно синтезувати оптимальну системи керування на підставі експерементальних даних отриманих в умовах наближених до реального режима функціонування дослідного зразка об’єкту. Мета роботи. Метою дослідження, результати якого представлені у цій статті, є виконання синтезу оптимальної слідкувальної системи керування рухом робочої поіерхні платформи Стюарта з врахуванням її багатовимірної моделі динаміки. Метод. У статті використано метод структурного перетворення багатовимірної слідкувальної системи керування до еквівалентної системи стабілізації руху багатовимірних об’єктів керування. Також викорестано алгоритм синтезу оптимальної системи стабілізації динамічних об’єктів, як стійких, так ні, в умовах дії стаціонарних випадкових зовнішніх збурень. Обґрунтований алгоритм синтезу оптимальних стохастичних систем стабілізації, побудований за допомогою операцій додавання, множення поліноміальних та дробово – раціональних матриць, вінеровської факторизації, вінеровської сепарації дробово – раціональних матриць, знаходження дисперсійних інтегралів. Результати. В результаті проведених досліджень формалізовано задачу визначеня концепції аналітичного конструювання оптимальної системи керування рухом РП платформи Стюарта. Результати включають визначені рівняння перетворення з слідкуючої системи керування до еквівалентної системи стабілізації руху робочої поіерхні платформи Стюарта. Також визначено структуру і параметри матриці передавальних функцій гововного регулятора оптимальної слідкувальної системи керування рухом робочої поіерхні платформи Стюарта. Висновки. Обгрунтоване використання концепції аналітичного конструювання оптимальної системи керування рухом РП платформи Стюарта формалізує і істотно спрощує розв’язання задачі синтезу складних динамічних систем та застосування для цього розробленої технології, представленої у [8]. Отримані структура та параметри головного регулятора системи керування рухом РП платформи Стюарта, який розподілений на три складові W1, W2 та W3, сприяє поліпшенню рівень якості слідкування за вектором програмних сигналів і дозволяє врахувати перехресні зв’язки всередині платформи Стюарта, підвищує точності виконання заданої траєкторії за рахунок збільшення кількості ступенів свободи при виборі структури регулятора.Item Methods for analyzing the effectiveness of information systems for inventory management(Національний університет «Запорізька політехніка», 2024) Yanovsky, D. V.; Graf, M. S.; Яновський, Д. В.; Граф, М. С.EN: Context. Information systems for inventory management are used to forecast, manage, coordinate, and monitor the resources needed to move goods smoothly, in a timely, cost-effective, and reliable manner. The more efficiently the system works, the better results a company can achieve. A common problem with existing performance measurement methods is the difficulty of interpreting the relationship between performance indicators and the factors that influence them. Objective. The purpose of the study is to describe a method for evaluating the effectiveness of information systems, which allows to establish a link between performance indicators and factors that influenced these indicators. Method. A set of indicators characterizing the effective operation of inventory management information systems is proposed. The rules for quantifying the factors that influence the performance indicators are proposed. The factors arise during events that affect the change in order, delivery, balance, target inventory level, parameters of the forecasting algorithm, etc. The proposed method performs an iterative distribution of the quantitative value of factors among performance indicators and thus establishes the relationship between performance indicators and factors. Results. The implementation of the proposed method in the software was carried out and calculations were made on actual data. Conclusions. The calculations carried out on the basis of the method have demonstrated the dependence of performance indicators on factors. The use of the method allows identifying the reasons for the decrease in efficiency and making the company’s management more efficient. Prospect for further research may be to detail the factors, optimize software implementations, and use the method in inventory management information systems in various areas of activity. UK: Актуальність. Інформаційні системи управління запасами використовуються для прогнозування, керування, координації та моніторингу ресурсів, необхідних для плавного, своєчасного, економічно ефективного та надійного переміщення товарів. Чим ефективніше працює система, тим кращі результати може здобути компанія. Загальною проблемою наявних методів оцінки ефективності є складна інтерпретація зв’язку показників ефективності з факторами, які на ці показники вплинули. Мета. Метою роботи є опис методу для оцінки ефективності інформаційних систем, що дозволяє встановити зв’язок між показниками ефективності та факторами, що вплинули на ці показники. Метод. Запропоновано набір показників, що характеризують ефективну роботу інформаційних систем управління запасами. Запропоновано правила для кількісного обчислення факторів, що впливають на показники ефективності. Фактори виникають під час подій, що впливають на зміну замовлення, постачання, залишку, цільового рівня товарного запасу, параметрів алгоритму прогнозування, тощо. Запропонований метод виконує ітераційний розподіл кількісного значення факторів серед показників ефективності і встановлює таким чином зв’язок між показниками ефективності та факторами. Результати. Виконано реалізацію запропонованого методу у програмному забезпеченні та проведено розрахунки на фактичних даних. Висновки. Проведені на основі методу розрахунки продемонстрували залежність показників ефективності від факторів. Використання методу дозволяє виявляти причини зниження ефективності та робити управління компанією більш оперативним. Перспективою подальших досліджень може бути деталізація факторів, оптимізація програмних реалізацій та використання методу в інформаційних системах управління запасами різних напрямків діяльності.Item Information system of street lighting control in a smart city(Національний університет «Запорізька політехніка», 2024) Vaskiv, R. I.; Hrybovskyi, O. M.; Kunanets, N. E.; Duda, O. M.; Васьків, Р. І.; Грибовський, О. М.; Кунанець, Н. Е.; Дуда, О. М.EN: Context. In the context of the rapid development of technologies and the implementation of the concept of smart cities, smart lighting becomes a key element of a sustainable and efficient urban environment. The research covers the analysis of aspects of the use of sensors, intelligent lighting control systems with the help of modern information technologies, in particular such as the Internet of Things. The use of such technologies makes it possible to automate the regulation of lighting intensity depending on external conditions, the movement of people or the time of a day. This contributes to the efficient use of electricity and the reduction of emissions into the atmosphere. Objective. The purpose of the paper is to analyze the procedures for creating an information system as a tool for monitoring and evaluating the level of illumination in a smart city with the aim of improving energy efficiency, safety, comfort and effective lighting management. The implementation of a smart lighting system for Lviv will help improve energy efficiency and community safety. Method. A content analysis of scientific publications was carried out, in which the results of research on the creation of street lighting monitoring systems in real urban environments were presented. The collection and analysis of data on street lighting in the city, such as energy consumption, illumination level, lamp operation schedules, and others, was carried out. Machine learning methods were used to analyze data and predict lighting needs. Using the UML methodology, the conceptual model of the street lighting monitoring information system was developed based on the identified needs and requirements. Results. The role of data processing technologies in creating effective lighting management strategies for optimal use of resources and meeting the needs of citizens is highlighted. The study draws attention to the challenges and opportunities of implementing smart lighting in cities, maximizing the positive impact of smart lighting on modern urban environments. The peculiarities of the development and use of an information system for controlling street lighting in a smart city are analyzed. The potential advantages and limitations of using the developed system are determined. Conclusions. The project on the creation of an information system designed to provide an energy-efficient lighting system in a smart city will contribute to increasing security, particularly, ensuring the safety of the community through integration with security systems, reducing energy consumption, through minimizing the electricity usage in periods when the need for lighting is not necessary. It has been determined that to implement an information system for remote monitoring and lighting control in a smart city, it is advisable to consider the possibility of using a complex lighting control system. Calculations were made on the example of Lviv for the city’s lighting needs. The use of motion sensors to determine the need to turn on lighting was analyzed. A conceptual model of the information system was developed using the object-oriented methodology of the UML notation. The main functionality of the information system is defined. UK: Актуальність. У контексті стрімкого розвитку технологій та впровадження концепції смарт-сіті, розумне освітлення стає ключовим елементом сталого та ефективного міського середовища. Дослідження охоплює аналіз аспектів використання давачів, інтелектуальних систем управління освітлення з допомогою сучасних інформаційних технологій, зокрема таких як Інтернет речей. Застосування таких технологій дозволяє автоматизувати регулювання інтенсивності освітлення в залежності від зовнішніх умов, руху людей чи часу доби. Це сприяє ефективному використанню електроенергії та зниженню викидів в атмосферу. Мета роботи полягає в аналізі процедур створення інформаційної системи, як інструменту моніторингу та оцінювання рівня освітленості в розумному місті з метою покращення енергоефективності, безпеки, комфорту та ефективного управління освітленням. Реалізація системи розумного освітлення для міста Львова сприятиме покращенню енергоефективності та безпеки громади. Метод. Проведено контент-аналіз наукових публікацій, в яких подано результати дослідження щодо створення систем моніторингу вуличного освітлення в реальних міських середовищах. Проведено збір та аналіз даних про вуличне освітлення в місті, таких як енергоспоживання, рівень освітленості, графіки роботи світильників та інші. Використано методи машинного навчання для аналізу даних та прогнозування потреб в освітленні. З використанням методології UML розроблено концептуальну модель інформаційної системи моніторингу вуличного освітлення на основі виявлених потреб і вимог. Результати. Висвітлюється роль технологій опрацювання даних у створенні ефективних стратегій управління освітленням для оптимального використання ресурсів та задоволення потреб містян. У дослідженні звертається увага на виклики та можливості впровадження розумного освітлення у містах, максимізації позитивного впливу розумного освітлення на сучасні міські середовища. Проаналізовано особливості розроблення та використання інформаційної системи для контролю вуличного освітлення в розумному місті. Визначено потенційні переваги та обмеження використання розробленої системи. Висновки. Проект із створення інформаційної системи, що покликана забезпечити енергоефективну систему освітлення в розумному місті, сприятиме підвищенню безпеки, зокрема, забезпечення безпеки громади через інтеграцію з системами безпеки, зменшення енергоспоживання, через мінімізацію використання електроенергії в періоди, коли потреба освітлення не є необхідною. Визначено, що для реалізації інформаційної системи дистанційного моніторингу та управління освітленням в розумному місті, доцільно розглянути можливість використання комплексної системи управління освітленням. Проведено розрахунки на прикладі Львова потреби освітленні міста. Проаналізовано використання давачів руху для визначення необхідності увімкнення освітлення. Розроблена концептуальна модель інформаційної системи з використанням об’єктно-орієнтованої методології нотації UML. Визначено основний функціонал інформаційної системи.Item Development of automated control system and registration of metal in continuous casting 15 197-211(Національний університет «Запорізька політехніка», 2024) Sotnik, S. V.; Сотник, С. В.EN: Context. Modern industrial enterprises face challenges that require introduction of latest technologies to improve efficiency and competitiveness. In metallurgy, one of key stages is continuous casting, where quality of products and economic performance of enterprise depend on accuracy and efficiency of process control. Products made using continuous casting technology are widely used in various industries due to their high mechanical properties, structural uniformity and cost-effectiveness. The development of automated metal management and registration system is becoming not only relevant, but also necessary to ensure stable and efficient production. The problem of improving quality of metal products has always been one of most important tasks in steel industry. Imperfect technological processes, human error and equipment malfunctions can lead to defects in finished metal products. This, in turn, affects final characteristics of products, their durability and reliability. To date, available sources have not yet found complete solution to this problem. Therefore, it is necessary to formulate problem and develop algorithm for operation of automated system for controlling and registering metal in continuous casting. Objective. The goal of work is to develop automated metal management and registration system to improve quality of metal products. Method. To achieve this goal, parametric model was proposed, which is formalized on basis of set theory. The model takes into account key parameters of continuous casting process: material characteristics, structural features of crystallizer, casting modes, metal level in crystallizer, and position of shot stopper. Results. The problem was formulated and key parameters were determined, which are taken into account in system’s algorithm, which made it possible to develop system for controlling parameters of continuous casting to solve problem of improving quality of metal products. Conclusions. To improve quality of metal products and stability of casting process, parametric model was created that is comprehensive, allows optimization of key parameters and ensures accuracy of process control by integrating not only modes of product formation, but also takes into account specific properties of source material (chemical composition of material grade, etc.) and design features of casting plant. Algorithm for automated control system has been developed that takes into account relationships between certain key parameters and ensures optimal control of casting process. Based on proposed complex parametric model and algorithm, automated control and metal registration system was created. The focus of work is on quality and efficiency of metal management and registration in continuous casting, based on modern methods of computer science and engineering. A comprehensive experimental comparison of developed system with commercial analogs in real production conditions was carried out, which allowed us to objectively assess its efficiency and reliability. UK: Актуальність. Сучасні промислові підприємства стикаються з викликами, які вимагають впровадження новітніх технологій для підвищення ефективності та конкурентоспроможності. У металургії одним із ключових етапів є безперервне лиття, де від точності та оперативності управління процесом залежить якість виробів та економічні показники підприємства. Вироби, отримані за технологією безперервного лиття, знаходять широке застосування у різних галузях промисловості завдяки своїм високим механічним властивостям, однорідності структури та економічній ефективності. Розробка автоматизованої системи управління та реєстрації металу стає не лише актуальною, але й необхідною для забезпечення стабільного та ефективного виробництва. Проблема підвищення якості виробів з металу завжди була однією з найважливіших завдань металургійної галузі. Недосконалість технологічних процесів, людський фактор, а також збої в роботі обладнання можуть призводити до виникнення дефектів у готових металевих виробах. Це, у свою чергу, впливає на кінцеві характеристики виробів, їх довговічність та надійність. На сьогоднішній день у наявних джерелах ця проблема ще не знайшла повного вирішення. Тому необхідно здійснити постановку задачі та розробити алгоритм роботи автоматизованої системи управління та реєстрації металу при безперервному литті. Мета. Метою дослідження є розробка автоматизованої системи управління та реєстрації металу для підвищення якості металевих виробів. Метод. Для щоб досягти поставленої мети, була запропонована комплексна параметрична модель, яка формалізована на базі теорії множин. Модель враховує ключові параметри процесу безперервного лиття: матеріал, конструкційні особливості кристалізатору, режими розливання, рівень металу в кристалізаторі та положення стопора промковшу. Результати. Здійснена постановка задачі та визначені ключові параметри, які враховані в алгоритмі роботи системи, а це дало можливість розробити систему управління установкою безперервного лиття для вирішення задачі підвищення якості отриманої заготовки. Висновки. Для підвищення якості отриманих виробів з металу та стабільності процесу лиття створено параметричну модель, яка є комплексною, дозволяє оптимізувати ключові параметри та забезпечує точність керування процесом за рахунок того, що інтегрує не лише режими формування виробів, але й враховує специфічні властивості вихідного матеріалу (хімічний склад марки матеріалу і т.п.) та конструктивні особливості установки для лиття. Розроблено алгоритм роботи автоматизованої системи управління, який враховує взаємозв’язки між визначеними ключовими параметрами та забезпечує оптимальне керування процесом лиття. На базі запропонованої параметричної моделі та алгоритму створено автоматизовану систему управління та реєстрації металу. Фокус роботи направлений на якість та ефективність управління та реєстрації металу при безперервному литті, що базується на сучасних методах інформатики та обчислювальної техніки. Проведено комплексне експериментальне порівняння розробленої системи з комерційними аналогами в умовах реального виробництва, що дозволило об’єктивно оцінити її ефективність та надійність.Item Margin of stability of the time-varying control system for rotational motion of the rocket(Національний університет «Запорізька політехніка», 2024) Avdieiev, V. V.; Alexandrov, A. E.; Авдєєв, В. В.; Александров, А. Є.EN: Context. The rocket motion control system is time-varying, since its parameters during flight depend on the point of the trajectory and fuel consumption. Stability margin indicators are determined in a limited area of individual points of the trajectory using algorithms that are developed only for linear stationary systems, which leads to the need to enter stock factor in hardware. In the available sources, due attention is not paid to the development of methods for determining the quantitative assessment of the stability margin of the time-varying control system. Objective is to develop a methodological support for the construction of an algorithm for calculating the stability margin indicators of the time-varying system for controlling the rocket rotational motion in the plane of yawing using the equivalent stationary approximation at a selected trajectory section. Method. The mathematical model of the control system for the rocket rotational movement in one plane is adopted in the form of a linear differential equation without considering the inertia of the executive device and other disturbing factors. The effect of deviation of parameters from their average values for a certain trajectory section is considered as a disturbance, which makes it possible to transition from a non-stationary model to an equivalent approximate stationary one. The Nyquist criterion is used to estimate the stability margin indicators, which is based on the analysis of the frequency characteristic of an open system, for the determination of which the Laplace transform mathematical apparatus is used. To simplify the transition from functions of time in the differential equation of perturbed motion to functions of a complex variable in the Laplace transform, time-varying model parameters are presented in the form of a sum of exponential functions. Result. Methodological support was developed for building an algorithm for determining the stability margin of the rocket’s rotary motion control system at a given trajectory section with time-inconstant parameters. Conclusions. Using the example of the time-varying system for controlling the rocket rotational movement, the possibility of using the Laplace transformation to determine the stability margin indicators is shown. The obtained results can be used at the initial stage of project work. The next stage of the research is an assessment of the level of algorithm complexity, considering the inertia of the executive device and the disturbed movement of the mass center. UK: Актуальність. Система управління рухом ракети є нестаціонарною, оскільки в процесі польоту її параметри залежать від точки траєкторії і витрат палива. Показники запасу стійкості визначають в обмеженому околі окремих точок траєкторії з використанням алгоритмів, які розроблені тільки для лінійних стаціонарних систем, що призводить до необхідності введення коефіцієнтів запасу в апаратних засобах. В доступних джерелах розробці методів визначення кількісної оцінки запасу стійкості нестаціонарної системи управління належної уваги не приділяється. Мета роботи – розробка методичного забезпечення побудови алгоритму розрахунку показників запасу стійкості нестаціонарної системи управління обертальним рухом ракети у площині рискання з використанням на вибраних дільницях траєкторії еквівалентного стаціонарного наближення. Метод. Математична модель системи управління обертальним рухом ракети в одній площині прийнята у вигляді лінійного диференційного рівняння без врахування інерції виконавчого пристрою та інших збурювальних факторів. Ефект відхилення параметрів від їх середніх значень для певної дільниці траєкторії розглядається як збурення, що дає можливість переходу від нестаціонарної моделі до еквівалентної наближеної стаціонарної. Для оцінки показників запасу стійкості використаний критерій Найквіста, що спирається на аналіз частотної характеристики розімкненої системи, для визначення якої використовується математичний апарат перетворення Лапласа. З метою спрощення переходу від функцій часу у диференційному рівнянні збуреного руху до функцій комплексного змінного у перетворенні Лапласа змінні у часі параметри моделі подані у вигляді суми експоненціальних функцій. Результат. Розроблене методичне забезпечення для побудови алгоритму визначення запасу стійкості системи управління обертальним рухом ракети на заданій дільниці траєкторії з непостійними у часі параметрами. Висновки. На прикладі нестаціонарної системи управління обертальним рухом ракети показана можливість використання перетворення Лапласа для визначення показників запасу стійкості. Отримані результати можуть бути використані на початковому етапі проектних робіт. Наступний етап дослідження це оцінка рівня складності алгоритму при врахуванні інерції виконавчого пристрою та збуреного руху центру мас.Item Identification and localization of vulnerabilities in smart contracts using attention vectors analysis in a BERT-based model(Національний університет «Запорізька політехніка», 2024) Tereshchenko, O. I.; Komleva, N. O.; Терещенко, О. І.; Комлева, Н. О.EN: Context. With the development of blockchain technology and the increasing use of smart contracts, which are automatically executed in blockchain networks, the significance of securing these contracts has become extremely relevant. Traditional code auditing methods often prove ineffective in identifying complex vulnerabilities, which can lead to significant financial losses. For example, the reentrancy vulnerability that led to the DAO attack in 2016 resulted in the loss of 3.6 million ethers and the split of the Ethereum blockchain network. This underscores the necessity for early detection of vulnerabilities. Objective. The objective of this work is to develop and test an innovative approach for identifying and localizing vulnerabilities in smart contracts based on the analysis of attention vectors in a model using BERT architecture. Method. The methodology described includes data preparation and training a transformer-based model for analyzing smart contract code. The proposed attention vector analysis method allows for the precise identification of vulnerable code segments. The use of the CodeBERT model significantly improves the accuracy of vulnerability identification compared to traditional methods. Specifically, three types of vulnerabilities are considered: reentrancy, timestamp dependence, and tx.origin vulnerability. The data is preprocessed, which includes the standardization of variables and the simplification of functions. Results. The developed model demonstrated a high F-score of 95.51%, which significantly exceeds the results of contemporary approaches, such as the BGRU-ATT model with an F-score of 91.41%. The accuracy of the method in the task of localizing reentrancy vulnerabilities was 82%. Conclusions. The experiments conducted confirmed the effectiveness of the proposed solution. Prospects for further research include the integration of more advanced deep learning models, such as GPT-4 or T5, to improve the accuracy and reliability of vulnerability detection, as well as expanding the dataset to cover other smart contract languages, such as Vyper or LLL, to enhance the applicability and efficiency of the model across various blockchain platforms. Thus, the developed CodeBERT-based model demonstrates high results in detecting and localizing vulnerabilities in smart contracts, which opens new opportunities for research in the field of blockchain platform security. UK: Актуальність. З розвитком технології блокчейн та зростанням використання смарт-контрактів, які автоматично виконуються в блокчейн-мережах, значущість безпеки цих контрактів стала надзвичайно актуальною. Традиційні методи аудиту коду часто виявляються неефективними для виявлення складних уразливостей, що може призвести до значних фінансових втрат. Наприклад, уразливість повторного входу, яка призвела до атаки на DAO в 2016 році, спричинила втрату 3,6 мільйона ефірів та поділ блокчейн-мережі Ethereum. Це підкреслює необхідність раннього виявлення уразливостей. Мета роботи – розробка та апробація новаторського підходу до виявлення та локалізації уразливостей у смарт-контрактах на основі аналізу векторів уваги в моделі, що використовує архітектуру BERT. Метод. Описується методика, яка включає підготовку даних та навчання трансформерної моделі для аналізу коду смарт-контрактів. Запропонований метод аналізу векторів уваги дозволяє точно ідентифікувати уразливі ділянки коду. Використання моделі CodeBERT значно покращує точність ідентифікації уразливостей порівняно з традиційними методами. Зокрема, розглядаються три типи уразливостей: повторний вхід, залежність від часу та уразливість tx.origin. Дані попередньо нормалізуються, що включає стандартизацію змінних та спрощення функцій. Результати. Розроблена модель продемонструвала високий F-score на рівні 95,51%, що значно перевищує результати сучасних підходів, таких як модель BGRU-ATT з F-score 91,41%. Точність методу у завданні локалізації уразливості повторного входу склала 82%. Висновки. Проведені експерименти підтвердили ефективність запропонованого рішення. Перспективи подальших досліджень включають інтеграцію більш просунутих моделей глибокого навчання, таких як GPT-4 або T5, для покращення точності та надійності виявлення уразливостей, а також розширення набору даних для охоплення інших мов смарт-контрактів, таких як Vyper або LLL, для підвищення застосовності та ефективності моделі на різних блокчейн-платформах. Таким чином, розроблена модель на основі CodeBERT демонструє високі результати у виявленні та локалізації уразливостей у смарт-контрактах, що відкриває нові можливості для досліджень у сфері безпеки блокчейн-платформ.Item Cost optimization method for informational infrastructure deployment in static multi-cloud environment(Національний університет «Запорізька політехніка», 2024) Rolik, O. I.; Zhevakin, S. D.; Ролік, О. І.; Жевакін, С. Д.EN: Context. In recent years, the topic of deploying informational infrastructure in a multi-cloud environment has gained popularity. This is because a multi-cloud environment provides the ability to leverage the unique services of cloud providers without the need to deploy all infrastructure components inside them. Therefore, all available services across different cloud providers could be used to build up information infrastructure. Also, multi-cloud offers versatility in selecting different pricing policies for services across different cloud providers. However, as the number of available cloud service providers increases, the complexity of building a cost-optimized deployment plan for informational infrastructure also increases. Objective. The purpose of this paper is to optimize the operating costs of information infrastructure while leveraging the service prices of multiple cloud service providers. Method. This article presents a novel cost optimization method for informational infrastructure deployment in a static multi-cloud environment whose goal is to minimize the hourly cost of infrastructure utilization. A genetic algorithm was used to solve this problem. Different penalty functions for the genetic algorithm were considered. Also, a novel parameter optimization method is proposed for selecting the parameters of the penalty function. Results. A series of experiments were conducted to compare the results of different penalty functions. The results demonstrated that the penalty function with the proposed parameter selection method, in comparison to other penalty functions, on average found the best solution that was 8.933% better and took 18.6% less time to find such a solution. These results showed that the proposed parameter selection method allows for efficient exploration of both feasible and infeasible regions. Conclusion. A novel cost optimization method for informational infrastructure deployment in a static multi-cloud environment is proposed. However, despite the effectiveness of the proposed method, it can be further improved. In particular, it is necessary to consider the possibility of involving scalable instances for informational infrastructure deployment. UK: Актуальність. Останнім часом набула популярності тема розміщення інформаційної інфраструктури в мультихмарному середовищі. Дана тенденція пов’язана з тим, що мультихмарне середовище надає можливість використовувати унікальні сервіси різних хмарних постачальників. Таким чином, всі доступні сервіси хмарних постачальників можуть бути використані при побудові інформаційної інфраструктури. Крім того, різні цінові політики серед постачальників можуть бути розглянуті при виборі сервісів. Проте зі збільшенням кількості наявних постачальників хмарних послуг зростає складність побудови оптимального плану з розміщення інформаційної інфраструктури. Мета роботи. Метою роботи є оптимізація витрат пов’язаних з експлуатацією інформаційної інфраструктури в мультихмарному середовищі з урахуванням цін на аналогічні сервіси, серед постачальників хмарних послуг. Метод. В роботі пропонується новий метод оптимізації витрат для розміщення інформаційної інфраструктури в статичному мультихмарному середовищі, який мінімізує погодинну вартість її використання. Для вирішення цієї задачі було використано генетичний алгоритм. Були розглянуті різні функції штрафу для генетичного алгоритму. Також пропонується новий метод підбору параметрів для функцій штрафу. Результати. Була проведена серія експериментів для порівняння результатів різних функцій штрафу. Результати показали, що функція штрафу із запропонованим методом підбору параметрів знаходила рішення, яке було у середньому на 8,933% кращим і вимагало на 18,6% менше часу, в порівняні з іншими. Отримані результати демонструють, що запропонований метод підбору параметрів забезпечує ефективний пошук серед областей допустимих і недопустимих рішень. Висновок. Запропоновано новий метод оптимізації витрат для розміщення інформаційної інфраструктури в статичному мультихмарному середовищі. Однак, незважаючи на ефективність запропонованого методу, його можна значно покращити. Зокрема, необхідно розглянути можливість залучення масштабованих віртуальних машин при розміщенні інформаційної інфраструктури.Item Method of determining the parameter of qualitative evaluation of a WEB forum(Національний університет «Запорізька політехніка», 2024) Pikuliak, Mykola; Kuz, Mykola; Lazarovych, Ihor; Kuzyk, Yaroslav; Skliarov, Volodymyr; Пікуляк, М. В.; Кузь, М. В; Лазарович, І. М.; Кузик, Я. М.; Скляров, В. В.EN: Context. The development of new types of virtual environments is an urgent task of informatisation of modern education, since such services allow enhancing the quality of educational services and contribute to a deeper assimilation of new knowledge by students. A web application proposed in this paper has been built using modern approaches to creating web pages using the .NET programming language, Bootstrap and ASP.NET MVC frameworks, Azure cloud solutions and Azure SQL databases, which has enabled the simplification of software development by distributing functions between the application modules and provided the flexibility, performance, and security necessary to work with relational data. The effectiveness of the application in the educational process has been experimentally tested using the method of determining the qualitative evaluation of the web forum usefulness parameter, which was developed by introducing an informative parameter of the discussion quality based on the h-index (sometimes called the Hirsch index or Hirsch number). Objective. To build a mathematical model of a web forum and develop a method of determining the qualitative evaluation of the parameter of usefulness of discussions in the created web application, which would allow improving the quality of educational and scientific activities in a higher education institution. Method. A method of determining the parameter of qualitative evaluation of a web forum using the h-index has been developed, which enabled analysing the interest in covering the trends of discussion on the forum pages and planning on its basis further work of the forum as a tool of a virtual learning environment. Results. Based on the analysis of the results of the implementation of the web application in the educational process of the Department of Information Technologies Vasyl Stefanyk Precarpathian National University, the user activity of posts has been analysed and the effectiveness of discussions of the proposed topics on the forum pages has been determined using the introduced activity parameter. Conclusions. A mathematical model of a web forum has been built, and the application has been implemented using modern approaches to software development using an optimised MVC architecture, which enabled simplification of creating a service by distributing responsibilities between the application modules and facilitating testing and technical support of the service. The scientific novelty of the study is the development of a method of evaluating the usefulness of discussions in a web forum by introducing a new informative quality parameter, the use of which allowed broadening the scope of existing limitations in quantitative analytics of discussions and feedbacks in popular services. Experimental studies carried out on the basis of a higher education institution have confirmed the effectiveness of the method application to improve the quality of educational services. The practical significance of the obtained results is the development of a software product as a tool of the virtual learning environment of a higher education institution. UK: Актуальність. Розробка нових типів віртуальних середовищ є актуальною задачею інформатизації сучасної освіти, оскільки подібні сервіси дозволяють якісно підвищити рівень надання освітніх послуг та сприяють більш глибшому засвоєнню нових знань студентами. Запропонований в роботі веб-застосунок побудований з використанням сучасних підходів створення веб-сторінок за допомогою мови програмування .NET, фреймворків Bootstrap і ASP.NET MVC, хмарних рішень Azure та баз даних Azure SQL, що дозволило спростити розробку програмного забезпечення шляхом розподілу функцій між модулями програми та забезпечило гнучкість, продуктивність та безпеку, необхідну для роботи з реляційними даними. Ефективність застосування у навчальному процесі експериментально перевірено із застосуванням методу визначення якісної оцінки параметра корисності веб-форуму, який розроблений за рахунок введення інформативного параметра якості дискусії на основі використання індексу Гірша. Мета. Побудова математичної моделі веб-форуму та розробка методу визначення якісної оцінки параметра корисності дискусій у створеному веб-застосунку, що дозволило підвищити якість проведення освітньої і наукової діяльності у закладі вищої освіти. Метод. Розроблено метод визначення параметра якісної оцінки веб-форуму з використанням індексу Гірша, що дало можливість виконати аналіз зацікавленості висвітлення напрямків обговорень на сторінках форуму та на його основі проводити планування подальшої роботи форуму як інструменту віртуального навчального середовища. Результати. На основі аналізу результатів впровадження веб-застосунку в навчальний процес кафедри інформаційних технологій Прикарпатського національного університету імені В. Стефаника виконано аналітику користувацької активності дописів та за рахунок введеного параметра активності визначено ефективність дискусій запропонованих тем на сторінках форуму. Висновки. В даному дослідженні виконано побудову математичної моделі веб-форуму та програмно реалізовано застосунок із використанням сучасних підходів до розробки програмного забезпечення за допомогою оптимізованої архітектури MVC, що дозволило спростити процес створення сервісу шляхом розподілу обов’язків між модулями програми та полегшити тестування і підтримку сервісу. Наукова новизна полягає в розробці методу оцінки корисності дискусій у веб-форумі за рахунок введення нового інформативного параметра якості, використання якого дозволило розширити обмеження щодо кількісної аналітики обговорень та відгуків у відомих сервісах. Експериментальні дослідження, проведені на базі закладу вищої освіти, підтвердили ефективність його застосування для підвищення якості надання освітніх послуг. Практичне значення отриманих результатів полягає в розробці програмного продукту як інструменту віртуального навчального середовища вузу.Item Estimation of formant information using autocorrelation function of voice signal(Національний університет «Запорізька політехніка», 2024) Pastushenko, M. S.; Pastushenko, M. A.; Faizulaiev, T. А.; Пастушенко, М. С.; Пастушенко, М. О.; Файзулаєв, Т. А.EN: Context. The current scientific problem of extracting biometric characteristics of a user of a voice authentication system, which can significantly increase its reliability, is considered. There has been performed estimation of formant information from the voice signal, which is a part of the user template in the voice authentication system and is widely used in the processing of speech signals in other applications, including in the presence of interfering noise components. The work is distinguished by the investigation of a polyharmonic signal. Objective. The purpose of the work is to develop procedures for generating formant information based on the results of calculating the autocorrelation function of the analyzed fragment of the voice signal and their subsequent spectral analysis. Method. The procedures for generating formant information in the process of digital processing of voice signal are proposed. Initially, the autocorrelation function of the analyzed fragment of the voice signal is calculated. Based on the results of the autocorrelation function estimation, the amplitude-frequency spectrum is calculated, from which the formant information is extracted, for example, by means of threshold processing. When the signal-to-noise ratio of the analyzed voice signal fragment is low, it is advisable to iteratively calculate the autocorrelation function. The latter allows increasing the signal-to-noise ratio and the efficiency of formant information extraction. However, each subsequent iteration of the autocorrelation function calculation is associated with an increase in the required computational resource. The latter is conditioned by the doubling of the amount of processed data at each iteration. Results. The developed procedures for generating formant information were investigated both in the processing of model and experimental voice signals. The model signals had a low signal-to-noise ratio. The proposed procedures allow to determine more precisely the width of the spectrum of extracted formant frequencies, significantly increase the number of extracted formants, including cases at low signal-to-noise ratio. Conclusions. The conducted model experiments have confirmed the performance and reliability of the proposed procedures for extracting formant information both in the processing of model and experimental voice signals. The results of the research allow to recommend their use in practice for solving problems of voice authentication, speaker differentiation, speech and gender recognition, intelligence, counterintelligence, forensics and forensic examination, medicine (diseases of the speech tract and hearing). Prospects for further research may include the creation of procedures for evaluating formant information based on phase data of the processed voice signal. UK: Актуальність. Розглядається актуальне наукове завдання отримання біометричних ознак користувача системи голосової автентифікації, які дозволяють істотно підвищити її надійність. Виконано оцінка формантної інформації з голосового сигналу, яка входить в шаблон користувача системи голосової автентифікації і широко використовується при обробці мовних сигналів в інших додатках, у тому числі і за наявності шумових складових, що заважають. Особливістю роботи є те, що дослідженню піддається полігармонійний сигнал. Мета роботи – розробка процедур формування формантної інформації на основі результатів розрахунку автокореляційної функції аналізованого фрагмента голосового сигналу та подальшого їх спектрального аналізу. Метод. Пропонуються процедури формування формантної інформації у процесі цифрової обробки голосового сигналу. Спочатку розраховується автокореляційна функція аналізованого фрагмента голосового сигналу. На основі результатів оцінки автокореляційної функції розраховується амплітудно-частотний спектр, з якого вилучається формантна інформація, наприклад, за допомогою порогової обробки. При низькому відношенні сигнал/шум аналізованого фрагмента голосового сигналу розрахунок автокореляційної функції доцільно виконувати ітераційно. Останнє дозволяє підвищити співвідношення сигнал/шум та ефективність виділення формантної інформації. Однак кожна наступна ітерація розрахунку автокореляційної функції пов’язана зі збільшенням необхідного обчислювального ресурсу. Останнє зумовлено подвоєнням кількості даних, що обробляються при кожній ітерації. Результати. Розроблені процедури формування формантної інформації досліджено як при обробці модельних, так і експериментальних голосових сигналів. При цьому модельні сигнали мали низьке відношення сигнал/шум. Запропоновані процедури дозволяють більш точно визначити ширину спектра вилучаємих формантних частот, значно збільшити кількість формант, що виділяються, в тому числі і при низькому відношенні сигнал/шум. Висновки. Проведені модельні експерименти підтвердили працездатність і достовірність запропонованих процедур отримання формантної інформації як при обробці модельних, так і експериментальних голосових сигналів. Результати досліджень дозволяють рекомендувати їх до використання на практиці для вирішення завдань голосової автентифікації, розрізнення дикторів, розпізнавання мови та статі, розвідки, контррозвідки, криміналістики та судової експертизи, медицини (хвороби мовного тракту та слуху). Перспективи подальших досліджень можуть включати створення процедур оцінки формантної інформації на основі фазових даних, оброблюваного голосового сигналу.Item Critical causal events in systems based on CQRS with event sourcing architecture(Національний університет «Запорізька політехніка», 2024) Lytvynov, O. A.; Hruzin, D. L.; Литвинов, О. А.; Грузін, Д. Л.EN: Context. The article addresses the problem of causal events asynchrony which appears in the service-oriented information systems that does not guarantee that the events will be delivered in the order they were published. It may cause intermittent faults occurring at intervals, usually irregular, in a system that functions normally at other times. Objective. The goal of the work is the comparison and assessment of several existing approaches and providing a new approach for solving the causal events synchronization issue in application to the systems developed using Command Query Responsibility Segregation (CQRS) with Event Sourcing (ES) architecture approach. Methods. Firstly, the method of estimation of the likelihood of causal events occurring within the systems as the foundation for choosing the solution is suggested. Based on the results of the analysis of several projects based on CQRS with ES architecture it shows that the likelihood of critical causal events depends on the relationships among entities and the use-cases connected with the entities. Secondly, the Container of Events method, which represents a variation of event with full causality history, adapted to the needs of CQRS with ES architecture systems, was proposed in this work. The variants of its practical implementation have also been discussed. Also, the different solutions, such as Synchronous Event Queues and variation of Causal Barrier method were formalized and assessed. Thirdly, the methods described have been discussed and evaluated using performance and modification complexity criteria. To make the complexity-performance comparative assessment more descriptive the integrated assessment formula was also proposed. Results. The evaluation results show that the most effective solution of the issue is to use the Container of Events method. To implement the solution, it is proposed to make the modifications of the Event Delivery Subsystem and event handling infrastructure. Conclusions. The work is focused on the solution of the critical causal events issue for the systems based on CQRS with ES architecture. The method of estimation of the likelihood of critical causal events has been provided and different solutions of the problem have been formalized and evaluated. The most effective solution based on Container of Events method was suggested. UK: Актуальність. У статті розглядається проблема асинхронності причинно-наслідкових подій, що виникає в сервісно-орієнтованих інформаційних системах, які не гарантують доставку подій у порядку їх публікації. Це може призвести до помилок, які виникають випадково, як правило нерегулярно, у системі, яка протягом основного часу функціонує без збоїв. Мета роботи. Метою роботи є порівняння та оцінка кількох існуючих підходів та пропонування нового підходу до вирішення проблеми синхронізації причинно-наслідкових подій у системах, які побудовані з застосуванням архітектури Command Query Responsibility Segregation (CQRS) з Event Sourcing (ES). Методи. По-перше, пропонується метод оцінки ймовірності виникнення причинно-наслідкових подій у системах, як основа для вибору рішення. Так, на основі результатів аналізу кількох проектів, побудованих з застосуванням архітектури CQRS з ES, показано, що ймовірність критичних причинно-наслідкових подій залежить від взаємозв’язків між сутностями та юз-кейсів, пов’язаних із сутностями. По-друге, у цій роботі пропонується метод “Container of events”, який представляє варіацію події з повною історією причинно-наслідкових зв’язків, адаптовану до потреб систем побудованих з застосуванням архітектури CQRS з ES. Також обговорено варіанти його практичного впровадження. Крім того, були формалізовані та оцінені різні рішення, такі як синхронні черги подій та варіація методу “Causal Barrier”. По-третє, представлені методи, були описані та оцінені за критеріями продуктивності та складності модифікації. Для отримання порівняльної оцінки складності та продуктивності була вперше запропонована інтегрована формула оцінки. Результати. Результати оцінки показують, що найефективнішим рішенням проблеми є використання методу “Container of events”. Для впровадження рішення необхідно внести зміни до підсистеми доставки подій та інфраструктури обробки подій. Висновки. Робота зосереджена на вирішенні проблеми критичних причинно-наслідкових подій для систем, побудованих з застосуванням архітектури CQRS з ES. Запропоновано метод оцінки ймовірності виникнення критичних причинно-наслідкових подій, а також формалізовано та оцінено різні рішення цієї проблеми. Було запропоновано найефективніше рішення на основі методу “Container of events”.Item Інтелектуальна підтримка процесів пошуку та вилучення прецедентів у CBR-підході(Національний університет «Запорізька політехніка», 2024) Швед, А. В.; Давиденко, Є. О.; Горбань, Г. В.; Shved, A. V.; Davydenko, Ye. O.; Horban, H. V.UK: Актуальність. Ситуаційний підхід ґрунтується на використанні моделей та методів прийняття рішень у реальному часі у міру виникнення проблем відповідно до поточної ситуації. Ефективним інструментом реалізації концепцій ситуаційного підходу є метод міркувань за прецедентами. Міркування на основі прецедентів дозволяє вирішувати нові проблеми, використовуючи знання про минулі проблеми та накопичений досвід їх вирішення. Оскільки прототипи (прецеденти), що описують сценарій вирішення певної проблемної ситуації, зберігаються у бібліотеці прецедентів, їх пошук та вилучення безпосередньо визначають час відгуку системи. В цих умовах виникає необхідність пошуку шляхів вирішення актуальної науково-практичної проблеми спрямованої на оптимізацію процесу пошуку та вилучення прецедентів. Об’єктом дослідження є процеси подання та вилучення прецедентів із бібліотеки прецедентів. Метою роботи є удосконалення процедури пошуку в CBR-підході за рахунок звуження допустимої для вирішення поточної цільової ситуації множини прецедентів, та виключення із подальшого аналізу таких прецедентів, що не відповідають заданому переліку параметрів поточної ситуації. Метод. Методика дослідження ґрунтується на застосуванні методів теорії грубих множин для вдосконалення процедури пошуку рішень на основі міркувань за прецедентами, що покладена в основу CBR-підходу. Запропонована в роботі двоетапна процедура звуження вихідної множини прецедентів передбачає попередню фільтрацію прецедентів, значення параметрів яких належать заданим околицям відповідних параметрів цільової ситуації на першому етапі, та додаткове звуження отриманої підмножини прецедентів методами теорії грубих множин на другому етапі. Визначення R-нижньої та R-верхньої апроксимацій заданої цільової множини прецедентів у рамках нотації теорії грубих множин дозволяє розділяти (сегментувати) вихідну, доступну для вирішення поточної проблеми множину прецедентів на три підгрупи (сегменти). Пошук прототипів рішень може бути здійснено серед виділеної підмножини прецедентів, які із точністю можуть бути класифіковані як такі, що належать заданій цільовій множині; які з деякою часткою ймовірності можуть бути віднесені до заданої цільової множини, або в рамках об’єднання цих двох підмножин. Третя підмножина містить прецеденти, які безумовно не належать заданій цільовій множині і можуть бути виключені із подальшого розгляду. Результати. Розглянуті питання подання та виведення знань на основі прецедентів. Вдосконалено процедуру пошуку прецедентів в БПр з метою зменшення часу відгуку системи, необхідного на пошук найбільш близького до поточної ситуації рішення, за рахунок звуження вихідної множини прецедентів для подальшого пошуку. Висновки. Дістав подальшого розвитку метод міркувань за прецедентами на основі математичного апарату теорії грубих множин. Запропонований підхід, на відміну від класичного CBR-підходу, дозволяє моделювати невизначеність щодо приналежності / неприналежності прецеденту заданій цільовій множині, вилучати із подальшого розгляду прецеденти, що їй не відповідають. EN: Context. The situational approach is based on the real-time decision-making methods for solving current problem situation. An effective tool for implementing the concept of a situational approach is an experience-based technique that widely known as сase-based reasoning approach. Reasoning by precedents allows solving new (latest) problems using knowledge and accumulated experience of previously solved problems. Since cases (precedents) describing a scenario for solving a certain problem situation are stored in the case library, their search and retrieval directly determine the system response time. In these conditions, there is a need to find ways of solving an actual scientific and practical problem aimed at optimizing case searching and extracting processes. The object of the paper is the processes of searching and extracting of cases from the case library. Objective. The purpose of the article is to improve the process of cases searching in CBR approach by narrowing down the set of cases permissible for solving the current target situation, and excluding from further analysis such cases that do not correspond to the given set of parameters of the target situation. Method. The research methodology is based on the application of rough set theory methods to improve the decision-making procedure based on reasoning by precedents. The proposed two-stage procedure for narrowing the initial set of cases involves preliminary filtering of precedents whose parameter values belong to the given neighborhoods of the corresponding parameters of the target situation at the first stage, and additional narrowing of the obtained subset of cases by the methods of rough set theory at the second stage. The determination of the R-lower and R-upper approximations of a given target set of cases within the notation of rough set theory allows dividing (segmenting) the original set of cases available for solving the current problem stored in case library into three subgroups (segments). The search for prototype solutions can be performed among a selected subset of cases that can be accurately classified as belonging to a given target set; which with some degree of probability can be attributed to the given target set, or within the framework of the union of these two subsets. The third subset contains cases that definitely do not belong to the given target set and can be excluded from further consideration. Results. The problem of presentation and derivation of knowledge based on precedents has been considered. The procedure for searching for precedents in case library has been improved in order to reduce the system response time required to find the solution closest to the current problem situation by narrowing the initial set of cases. Conclusions. The case-based reasoning approach is received the further development by segmenting cases in terms of their belonging to a given target set of precedents uses methods of the rough set theory, then the search for cases is carried out within a given segment. The proposed approach, in contrast to the classic CBR framework, uses additional knowledge derived from obtained case segment; allows modeling the uncertainty regarding the belonging / non-belonging of a case to a given target set; removing from further consideration cases that do not correspond to a given target setItem On-board log and coordinate transformation for detected objects on the surface of water(Національний університет «Запорізька політехніка», 2024) Smolij, V. M.; Smolij, N. V.; Смолій, В. М.; Смолій, Н. В.EN: Context. The relevance of the work is to the demand for UAV technologies with the integration of artificial intelligence in today’s conditions. Objective. The goal of the work is to develop a minimum working version of the UAV explorer and software for controlling the UAV data. Method. The proposed mathematical description, which calculates the coordinates of the object, based on the dimensions of the original image from the camera, the dimensions of the image with which the neural network works, the angle of the field of view of the camera, the position of the UAV and the angles of roll, pitch and yaw, allows you to transfer the coordinates of the object, of the found NN, in the image to the geographical coordinates, thereby moving away from the rigid reference to the coordinates of the UAV. Results. The problem of systematization of objects detected during the mission on the surface of water bodies was solved by creating a flight log, organizing interaction with a neural network, applying post-processing of recognized objects, mathematically transforming the coordinates of objects for display and visualization into geographic coordinates, thereby move away from the rigid reference to the coordinates of the UAV. Conclusions. A workable logbook generation and storage system has been created, which takes into account the peculiarities of information presentation in the logbook, and ensures effective interaction of the components of the created information system within the proposed hardware and software complex, which allows organizing the process of researching water bodies using the SITL environment from the flight controller developers. UK: Актуальність роботи обумовлена попитом на технології БПЛА з інтеграцією штучного інтелекту в умовах сьогодення. Мета роботи – розробити мінімальну робочу версію БПЛА-дослідника та програмного забезпечення для керування даним БПЛА. Метод. Запропоноване математичне описання, яке вираховує координати об’єкту, спираючись на розміри оригінального зображення від камери, розміри зображення з яким працює нейромережа, кут поля зору камери, положення БПЛА та кути крену, тангажу та рискання, дозволяє перенести координати об’єкту, знайденого НМ, на зображенні у географічні координати, тим самим відійти від жорсткої прив’язки до координат БПЛА. Результати. Було вирішено проблему систематизації детектованих в ході місії об’єктів на поверхні водойм шляхом формування журналу польоту, організації взаємодії з нейромережею, застосування пост обробки розпізнаваних об’єктів, математичного перетворення координат об’єктів для відображення і візуалізації у географічних координати, тим самим відійти від жорсткої прив’язки до координат БПЛА. Висновки. Створено працездатну систему генерації та збереження бортового журналу, яка враховує особливості представлення інформації в бортовому журналі, та забезпечує ефективну взаємодію компонентів створеної інформаційної системи у межах запропонованого апаратно-програмного комплексу, що дозволяє організувати процес дослідження водойм за допомогою середовища SITL від розробників польотного контролеру.Item Модель зворотних ланцюжків максимальних ваг для аналізу факторів впливу підтримки програмних комплексів(Національний університет «Запорізька політехніка», 2024) Пукач, А. І.; Теслюк, В. М.; Pukach, A. I.; Teslyuk, V. M.UK: Актуальність. Розглянуто задачу розроблення моделі зворотних ланцюжків максимальних ваг, необхідної для аналізу факторів впливу підтримки програмних комплексів. Об’єктом дослідження є процес розроблення моделі зворотних ланцюжків максимальних ваг. Предметом дослідження є методи та засоби розроблення моделі зворотних ланцюжків максимальних ваг. Метою роботи є розроблення моделі зворотних ланцюжків максимальних ваг для аналізу факторів впливу підтримки програмних комплексів. Метод. Запропоновано розроблення моделі зворотних ланцюжків максимальних ваг для аналізу факторів впливу підтримки програмних комплексів, що дає змогу виявити та сформувати відповідні зворотні ланцюжки максимальних ваг для ідентифікації та подальшого аналізу факторів впливу, які впливають на результати сприйняття об’єкта – підтримуваного програмного комплексу чи процесів його підтримки, відповідними суб’єктами взаємодії, що напряму чи опосередковано взаємодіють з ним. Результати. Результатами роботи розроблених моделей, відповідно, є отримані сформовані зворотні ланцюжки максимальних ваг, які в подальшому використано для розв’язання науково-прикладної задачі ідентифікації, формування та відновлення границь факторів впливу, втрачених врезультаті впровадження відповідних моделей багатошарового перцептрона в моделі суб’єктивного сприйняття об’єктів підтримки програмних комплексів. Розроблена модель забезпечує можливість здійснення аналізу перетворення вхідних характеристик об’єкта підтримки у вихідні результуючі характеристики його суб’єктивного сприйняття шляхом відновлення границь факторів впливу цього перетворення. Наведено результати розв’язаної прикладної практичної задачі первинного моніторингу частотного прояву заданого суб’єктивного фактора впливу в режимі постреального часу, в якості прикладу практичного застосування розробленої моделі зворотних ланцюжків максимальних ваг. Висновки. Розроблена модель вирішує поставлену задачу ідентифікації, формування та відновлення границь факторів впливу, втрачених врезультаті впровадження відповідних моделей багатошарового перцептрона в моделі суб’єктивного сприйняття об’єктів підтримки програмних комплексів. Водночас, розроблена модель покращує класичне розуміння штучних нейронних мереж типу багатошарового перцептрона, оскільки вводить додаткове значення для нейронів прихованих шарів, які з впровадженням розроблених моделей здатні виконувати абсолютно нову функціональну роль (маркерів факторів впливу), тоді як у класичному розумінні вони не виконували жодних функцій, окрім арифметичних для забезпечення коректності навчання та функціонування штучних нейронних мереж типу багатошарового перцептрона в ході їх експлуатації у вирішенні найрізноманітніших задач. EN: Context. The problem of identification, formation and restoration of the boundaries of influencing factors, lost as a result of the implementation of multi-layer perceptron models into the models of subjective perception of the object of software complexes support, as well as the applied practical problem of primary monitoring of the frequency manifestation of a given influencing factor in the post-real-time mode, is considered. The object of research is the influencing factors of support of software complexes. Objective – the goal of the work is to develop a model of inverse chains of maximum weights for the analysis of influencing factors of the software complexes support. Method. A model of maximal weights inverse chains for the analysis of the influence factors of the software complexes support was developed for the analysis of the influencing factors of the software complexes support. The developed model provides possibility to identify and form feedback chains of maximum weights for the identification and further analysis of influencing factors that are reflected into the results of the object perception (the supported software complex or its support processes), by the relevant subjects of interaction which directly or indirectly interact with it. Results. Results of the resolved applied practical problem of primary monitoring of the frequency manifestation of a given influencing factor in the post-real-time mode have been provided as an example of the applied practical use of the developed model. The output results of the developed models functioning – are the reverse chains of maximum weights. In the future, the results obtained by the developed model are used to solve the applied-scientific problem of identification, formation and restoration of the boundaries of influencing factors, lost as a result of the implementation of the appropriate models of multilayer perceptron inside the models of subjective perception of the software complexes support. So the developed model of maximal weights inverse chains for the analysis of the influence factors of the software complexes support resolves this applied-scientific problem, initially caused by the implementation of the corresponding multilayer perceptron models inside the model of the subjective perception of the object of software complexes support. The developed model provides the possibility of carrying out a qualitative analysis of the transformation of the input characteristics of the object of support into the output resulting characteristics of its subjective perception. Conclusions. Developed model allows to resolve the described problems. At the same time, the developed model improves the classical understanding of multilayer perceptron artificial neural networks, as it introduces an additional value to the neurons of hidden layers, which (starting from now) are able to perform a completely new role of influencing factors markers, while in the classical understanding of multilayer perceptron artificial neural networks they did not perform any functions other than arithmetic to ensure the possibility of correct learning and functioning of a multilayer perceptron artificial neural networks.Item Технологія інтелектуального аналізу відеопотоку для автоматичного розпізнавання цілей системи керування вогнем на основі машинного навчання(Національний університет «Запорізька політехніка», 2024) Висоцька, В. А.; Романчук, Р. В.; Vysotska, V.; Romanchuk, R.UK: Актуальність. Розпізнавання цілей є пріоритетом у військовій справі. Це завдання ускладнюється тим, що необхідно розпізнавати рухомі об’єкти, різний рельєф і ландшафт створюють перешкоди для розпізнавання. Бойові дії можуть відбуватися в різний час доби, відповідно, необхідно враховувати ракурс освітлення та загальне освітлення. Необхідно виявити об’єкт на відео шляхом сегментації відеокадрів, розпізнати та класифікувати його. Мета – розроблення технології аналізу розроблення технології розпізнавання цілей в реальному масштабі часу, як складової системи управління вогнем, за рахунок використання штучного інтелекту, YOLO та машинного навчання. Метод. В статті розроблено технолгію аналізу відеопотоку для автоматичного розпізнавання цілей системи керування вогнем на основі машинного навчання. У роботі запропоновано розробку модуля розпізнавання цілей як складової системи управління вогнем в рамках запропонованої інформаційної технології з використанням штучного інтелекту. Сімейство моделей розпізнавання образів YOLOv8 використано для розробки модуля розпізнавання цілей. Методи, які використано під час дослідження сформованого датасету. – Bounding Box: Noise – Up to 15% of pixels (обмежувальна рамка: додавання до зображення шуму «солі та перцю» – до 15% пікселів). – Bounding Box: Blur – Up to 2.5px (обмежувальна рамка: додавання до зображення розмиття за Гаусом – до 2,5 пікселів). – Cutout – 3 boxes with 10% size each (вирізати частину зображення – 3 коробки по 10% розміру кожна). – Brightness – Between –25% and +25% (зміна яскравості зображення для збільшення стійкості моделі до зміни освітлення та налаштувань камери – від –25% до +25%). – Rotation – Between –15 and +15 (обертання об’єкта зображення – за або проти годинникової стрілки на ступінь від –15 до +15). – Flip – Horizontal (перевертання об’єкта зображення горизонтально). Результати. Дані зібрані з відкритих джерел, зокрема, з відеозаписів, розміщених у відкритих джерелах на платформі YouTube. Основним завданням попередньої обробки даних є класифікація трьох класів об’єктів на відео або в режимі реального часу – БТР, БМП і ТАНК. Набір даних формується за допомогою платформи Roboflow на основі інструментів маркування та, згодом, інструментів доповнення. Набір даних складається з 1193 унікальних зображень – приблизно порівну для кожного класу. Тренінг проводився з використанням ресурсів Google Colab. На навчання моделі пішло 100 епох. Висновки. Аналіз проводиться відповідно до показників mAP50 (середня точність 0,85), mAP50-95 (0,6), точності (0,89) і запам’ятовування (0,75). Великі втрати є через те, що під час дослідження не було враховано фон – навчання модуля на основі підтверджених даних (зображень) фону без техніки. EN: Context. Target recognition is a priority in military affairs. This task is complicated by the fact that it is necessary to recognize moving objects, different terrain and landscape create obstacles for recognition. Combat actions can take place at different times of the day, accordingly, it is necessary to take into account the perspective of lighting and general lighting. It is necessary to detect the object in the video by segmenting the video frames, recognize and classify. Objective of the study is to develop a technology for the analysis of the development of a technology for recognizing targets in real time as a component of the fire control system, due to the use of artificial intelligence, YOLO and machine learning. Method. The article develops a video stream analysis technology for automatic target recognition of the fire control system based on machine learning. The paper proposes the development of a target recognition module as a component of the fire control system within the framework of the proposed information technology using artificial intelligence. The YOLOv8 pattern recognition model family was used to develop the target recognition module. The methods used during the study of the formed dataset. – Bounding Box: Noise – Up to 15% of pixels (limiting frame: adding salt and pepper noise to the image – up to 15% of pixels). – Bounding Box: Blur – Up to 2.5px (bounding box: adding Gaussian blur to the image – up to 2.5 pixels). – Cutout – 3 boxes with 10% size each (cut out a part of the image – 3 boxes of 10% size each). – Brightness Between –25% and +25% (changing the brightness of the image to increase the resistance of the model to changes in lighting and camera settings – from –25% to +25%). – Rotation – Between –15 and +15 (rotation of the image object – clockwise or counterclockwise by degrees from –15 to +15). – Flip – Horizontal (flip the image object horizontally). Results. The data is collected from open sources, in particular, from videos posted in open sources on the YouTube platform. The main task of data preprocessing is the classification of three classes of objects on video or in real time – APC, BMP and TANK. The dataset is formed using the Roboflow platform based on the labeling tools and subsequently the augmentation tools. The dataset consists of 1193 unique images – approximately equally for each class. The training was conducted using Google Colab resources. It took 100 epochs to train the model. Conclusions. Analysis is performed according to mAP50 (average precision as 0.85), mAP50-95 (0.6), precision (0.89) and recall (0.75). Big losses are due to the fact that the background was not taken into account during the research – training the module on the basis of confirmed data (images) of the background without technologyItem Optimizing authentication security in intelligent systems through visual biometrics for enhanced efficiency(Національний університет «Запорізька політехніка», 2024) Batiuk, T.; Dosyn, D.; Батюк, T. M.; Досин, Д. Г.EN: Context. The primary objective of this article is to explore aspects related to ensuring security and enhancing the efficiency of authentication processes in intelligent systems through the application of visual biometrics. The focus is on advancing and refining authentication systems by employing sophisticated biometric identification methods. Objective. A specialized intelligent system has been developed, utilizing a Siamese neural network to establish secure user authentication within the existing system. Beyond incorporating fundamental security measures such as hashing and secure storage of user credentials, the contemporary significance of implementing two-factor authentication is underscored. This approach significantly fortifies user data protection, thwarting most contemporary hacking methods and safeguarding against data breaches. The study acknowledges certain limitations in its approach, possibly affecting the generalizability of the findings. These limitations provide avenues for future research and exploration, contributing to the ongoing evolution of authentication methodologies in intelligent systems. Method. The two-factor authentication system integrates facial recognition technology, employing visual biometrics for heightened security compared to alternative two-factor authentication methods. Various implementations of the Siamese neural network, utilizing Contrastive loss function and Triplet loss function, were evaluated. Subsequently, a neural network employing the Triplet loss function was implemented and trained. Results. The article emphasizes the practical implications of the developed intelligent system, showcasing its effectiveness in minimizing the risk of unauthorized access to user accounts. The integration of contemporary authentication methodologies ensures a secure and robust user authentication process. Conclusions. The implementation of facial recognition technology in authentication processes has broader social implications. It contributes to a more secure digital environment by preventing unauthorized access, ultimately safeguarding user privacy and data. The study’s originality lies in its innovative approach to authentication, utilizing visual biometrics within a Siamese neural network framework. The developed intelligent system represents a valuable contribution to the field, offering an effective and contemporary solution to user authentication challenges. UK: Актуальність. Основною метою цієї статті є дослідження аспектів, пов’язаних із забезпеченням безпеки та підвищенням ефективності процесів автентифікації в інтелектуальних системах шляхом застосування візуальної біометрії. Основна увага приділяється вдосконаленню та вдосконаленню систем автентифікації за допомогою складних методів біометричної ідентифікації. Метою дослідження було створення спеціалізованої інтелектуальної системи, яка використовує сіамську нейронну мережу для встановлення безпечної автентифікації користувача в існуючій системі. Окрім впровадження основних заходів безпеки, таких як хешування та безпечне зберігання облікових даних користувача, підкреслюється сучасне значення впровадження двофакторної автентифікації. Такий підхід значно посилює захист даних користувачів, перешкоджаючи більшості сучасних методів злому та захищаючи від витоку даних. Дослідження визнає певні обмеження у своєму підході, що, можливо, впливає на можливість узагальнення результатів. Ці обмеження відкривають можливості для майбутніх досліджень і розвідок, сприяючи поточній еволюції методологій автентифікації в інтелектуальних системах. Метод. Система двофакторної автентифікації інтегрує технологію розпізнавання обличчя, використовуючи візуальну біометрію для підвищення безпеки порівняно з альтернативними методами двофакторної автентифікації. Було оцінено різні реалізації сіамської нейронної мережі, що використовують контрастну функцію втрат і функцію триплетних втрат. Згодом була реалізована та навчена нейронна мережа, що використовує триплетну функцію втрат. Результати. У статті наголошується на практичних наслідках розробленої інтелектуальної системи, демонструється її ефективність у мінімізації ризику несанкціонованого доступу до облікових записів користувачів. Інтеграція сучасних методологій автентифікації забезпечує безпечний і надійний процес автентифікації користувачів. Висновки. Впровадження технології розпізнавання обличчя в процесах автентифікації має ширші соціальні наслідки. Це сприяє створенню більш безпечного цифрового середовища, запобігаючи несанкціонованому доступу, зрештою захищаючи конфіденційність користувачів і дані. Оригінальність дослідження полягає в інноваційному підході до автентифікації з використанням візуальної біометрії в рамках сіамської нейронної мережі. Розроблена інтелектуальна система є цінним внеском у цю сферу, пропонуючи ефективне та сучасне рішення проблем автентифікації користувачів.Item Adaptation of the decision-making process in the management of critical infrastructure(Національний університет «Запорізька політехніка», 2024) Perederyi, V. I.; Borchik, E. Y.; Zosimov, V. V.; Bulgakova, O. S.; Передерій, В. І.; Борчик, Є. Ю.; Зосімов, В. В.; Булгакова, О. С.EN: Context. The problem of human factor management in the process of making relevant decisions in the management of critical infrastructure facilities is currently very important and complex. This issue is becoming increasingly significant due to the dynamic and unpredictable nature of the environment in which these facilities operate. Effective management of CIF requires the development of new models and methods that are based on adaptive management principles. These models and methods must take into account the personal emotional and cognitive capabilities of the decision maker, who is often operating under the influence of destabilizing uncertain factors. The challenge is further compounded by the need to integrate these adaptive methods into existing human-machine systems, ensuring that they can respond in real-time to the rapidly changing conditions that can affect the decision-making process. The complexity and importance of this problem necessitate a multifaceted approach that combines probabilistic methods, intellectual technologies, and information-cognitive technologies. These technologies must be capable of providing real-time adaptation and assessment of the DM’s emotional and cognitive state, which is critical for making relevant and timely decisions. The current unresolved problems in the field of creating adaptive information technologies for decision support in the management of CIF highlight the urgent need for a promising approach that can address these issues effectively and efficiently. Objective. The objective is to propose a a comprehensive method for evaluating the process of relevant decision-making, which depends on the functional stability of critical infrastructure facilities and the adaptation of factors related to the emotional-cognitive state of the decision maker. This method aims to provide a systematic approach to understanding how various factors, including the psycho-functional state of the DM, influence the decision-making process. Additionally, the objective includes the development of adaptive information and intellectual technologies that can support real-time evaluation and adjustment of the DM’s emotional and cognitive states. This approach seeks to ensure that decisions are made efficiently and effectively, even under the influence of destabilizing uncertain factors. By addressing these aspects, the method aims to enhance the overall reliability and resilience of the CIF management processes. Furthermore, the objective encompasses the integration of Bayesian networks and a comprehensive knowledge base to facilitate the decision support system in providing timely and accurate information for decision-making. Method. To implement this method, probabilistic methods, intellectual and information-cognitive technologies were used to provide acceptable adaptation and evaluation of the relevant decision-making process in real-time. Results. The proposed method, based on intellectual and information-cognitive technology, allows for real-time assessment and adaptation of the emotional and cognitive state of the decision maker during the process of making relevant decisions. The implementation of probabilistic methods and Bayesian networks has enabled the development of a robust decision support system that effectively integrates adaptive management principles. This system ensures that the decision-making process remains stable and reliable, even in the presence of destabilizing uncertain factors. The real-time capabilities of the system allow for prompt adjustments to the psycho-functional state of the DM, which is critical for maintaining the functional stability of critical infrastructure facilities. The results demonstrate that the use of intellectual technologies and a comprehensive knowledge base significantly enhances the DM’s ability to make informed decisions. Experiments have shown that this method improves the overall efficiency and effectiveness of CIF management, providing a promising approach for future applications in adaptive decision support processes. The results obtained from these experiments validate the potential of the proposed method to revolutionize the management of CIF by ensuring that decisions are both timely and appropriate, thereby contributing to the resilience and reliability of these essential facilities.. Conclusions. The results of the experiments allow us to recommend the use of the proposed method of rapid assessment and adaptation of the emotional and cognitive state of the decision maker for the process of making relevant decisions in real-time. The integration of intellectual and information-cognitive technologies into the decision support system has proven to be effective in enhancing the stability and reliability of the decision-making process in the management of critical infrastructure facilities. The real-time capabilities of the system facilitate prompt adjustments to the psycho-functional state of the DM, ensuring that decisions are made efficiently and effectively, even under the influence of destabilizing uncertain factors. The experimental results demonstrate that the proposed method significantly improves the overall efficiency of CIF management by providing a robust framework for adaptive decision support. The results obtained can be used in the development of adaptive DSS in the management of CIF, offering a promising approach for future applications. This method not only enhances the decision-making capabilities of DMs but also contributes to the resilience and reliability of CIF, ensuring their functional stability in dynamic and uncertain environments. UK: Актуальність. Проблема управління людським фактором у процесі прийняття релевантних рішень в управлінні об’єктами критичної інфраструктури (ОКІ) на сьогодні є дуже важливою і складною. Це питання стає все більш значущим через динамічний і непередбачуваний характер середовища, в якому працюють ці об’єкти. Ефективне управління ОКІ вимагає розробки нових моделей і методів, що базуються на принципах адаптивного управління. Ці моделі та методи повинні враховувати особисті емоційні та когнітивні можливості особи, яка приймає рішення (ОПР), яка часто діє під впливом дестабілізуючих невизначених факторів. Проблема ускладнюється необхідністю інтеграції цих адаптивних методів у існуючі людино-машинні системи, що забезпечить їх здатність реагувати в реальному часі на швидкозмінні умови, які можуть впливати на процес прийняття рішень. Складність і важливість цієї проблеми вимагають багатогранного підходу, що поєднує ймовірнісні методи, інтелектуальні технології та інформаційно-когнітивні технології. Ці технології повинні бути здатні забезпечувати адаптацію та оцінку емоційного і когнітивного стану ОПР в реальному часі, що є критично важливим для прийняття релевантних і своєчасних рішень. Невирішені проблеми в галузі створення адаптивних інформаційних технологій для підтримки прийняття рішень в управлінні ОКІ підкреслюють потребу у перспективному підході, який може ефективно та результативно вирішувати ці питання. Мета роботи – запропонувати комплексний метод оцінки процесу прийняття релевантних рішень, що залежить від функціональної стабільності об’єктів критичної інфраструктури та адаптації факторів, пов’язаних з емоційно-когнітивним станом особи, яка приймає рішення. Цей метод має на меті надати систематичний підхід до розуміння того, як різні фактори, включаючи психофункціональний стан ОПР, впливають на процес прийняття рішень. Додатково, мета включає розробку адаптивних інформаційних та інтелектуальних технологій, які можуть підтримувати оцінку та коригування емоційного та когнітивного станів ОПР в реальному часі. Цей підхід спрямований на забезпечення ефективного та результативного прийняття рішень, навіть під впливом дестабілізуючих невизначених факторів. Враховуючи ці аспекти, метод спрямований на підвищення загальної надійності та стійкості процесів управління ОКІ. Крім того, мета охоплює інтеграцію байєсівських мереж та комплексної бази знань для забезпечення системи підтримки прийняття рішень своєчасною та точною інформацією для прийняття рішень. Метод. Для реалізації даного методу використовувалися імовірнісні методи, інтелектуальні та інформаційно-когнітивні технології, що забезпечують прийнятну адаптацію та оцінку процесу прийняття релевантних рішень у реальному часі. Результати. Запропонований метод, заснований на інтелектуальних та інформаційно-когнітивних технологіях, дозволяє в реальному часі оцінювати та адаптувати емоційний і когнітивний стан особи, яка приймає рішення, під час процесу прийняття релевантних рішень. Впровадження ймовірнісних методів та байєсівських мереж дозволило розробити надійну систему підтримки прийняття рішень, яка ефективно інтегрує принципи адаптивного управління. Ця система забезпечує стабільність і надійність процесу прийняття рішень навіть за наявності дестабілізуючих невизначених факторів. Можливості системи в реальному часі дозволяють оперативно коригувати психофункціональний стан ОПР, що є критично важливим для підтримки функціональної стабільності об’єктів критичної інфраструктури. Результати показують, що використання інтелектуальних технологій та комплексної бази знань значно підвищує здатність ОПР приймати обґрунтовані рішення. Експерименти показали, що цей метод покращує загальну ефективність та результативність управління ОКІ, пропонуючи перспективний підхід для майбутнього застосування в адаптивних процесах підтримки прийняття рішень. Отримані результати експериментів підтверджують потенціал запропонованого методу революціонізувати управління ОКІ, забезпечуючи своєчасне і відповідне прийняття рішень, що сприяє стійкості та надійності цих важливих об’єктів. Висновки. Результати експериментів дозволяють рекомендувати використання запропонованого методу швидкої оцінки та адаптації емоційного та когнітивного стану особи, яка приймає рішення, для процесу прийняття релевантних рішень в реальному часі. Інтеграція інтелектуальних та інформаційно-когнітивних технологій у систему підтримки прийняття рішень виявилася ефективною для підвищення стабільності та надійності процесу прийняття рішень в управлінні об’єктами критичної інфраструктури. Можливості системи в реальному часі сприяють оперативному коригуванню психофункціонального стану ОПР, забезпечуючи ефективне та результативне прийняття рішень навіть під впливом дестабілізуючих невизначених факторів. Експериментальні результати демонструють, що запропонований метод значно покращує загальну ефективність управління ОКІ, забезпечуючи надійну основу для адаптивної підтримки прийняття рішень. Отримані результати можуть бути використані при розробці адаптивних СППР в управлінні ОКІ, пропонуючи перспективний підхід для майбутніх застосувань. Цей метод не тільки підвищує здатність ОПР приймати рішення, але й сприяє стійкості та надійності ОКІ, забезпечуючи їх функціональну стабільність в динамічних та невизначених умовах.Item Optimization of the parameters of synthesized signals using linear approximations by the Nelder-Mead method(Національний університет «Запорізька політехніка», 2024) Lysechko, V. P.; Komar, O. M.; Bershov, V. S.; Veklych, O. K.; Лисечко, В. П.; Комар, О. М.; Бершов, В. С.; Веклич, А. К.EN: Context. The article presents the results of a study of the effectiveness of using the Nelder-Mead method to optimize the parameters of linear approximations of synthesized signals. Algorithms have been developed and tested that integrate spectral, temporal, and statistical analyzes and provide reasonable optimization. The effectiveness of the application of the Nelder-Mead method was proven by experiment. The obtained results substantiate the improvement of the properties of the mutual correlation of signals and the reduction of the maximum deviations of the side lobes, which opens up prospects for the further application of the method in complex scenarios of signal synthesis. Objective. The purpose of the work is to evaluate the effectiveness of the application of the Nelder-Mead method when adjusting the parameters of linear approximations to optimize the mutual correlation and minimize side deviations of complex synthesized signals. Method. The main research method is the comparison of various optimization algorithms for the selection of the most effective approaches in linear approximations of synthesized signals, taking into account such criteria as accuracy, speed and minimization of deviations. Scientific works [1, 2, 4–6, 8, 9] present algorithms, including the Nelder-Mead method and differential evolution. The effectiveness of these methods is achieved due to adaptive optimization procedures that improve the characteristics of signals. It is worth noting that the methods have disadvantages associated with high requirements for computing resources, especially when processing large data. This can be minimized using combined optimization methods that take into account the interaction of signal parameters. Another important direction of improvement is the optimization of methods for adaptation to dynamic changes in the characteristics of complex signals, which allows to achieve high adaptability and reliability of real-time systems. Results. As a result of the experiment using the Nelder-Mead method, an increase in the similarity of spectral densities was achieved from 0.52 in the first iteration to 0.90 in the fourth, with a significant decrease in the distance between the peaks of the spectrum from 1.2 to 0.4, which indicates high adaptability and the accuracy of the method in adjusting the parameters of the synthesized signals. Conclusions. The effectiveness of the Nelder-Mead method for adjusting the specified parameters of the synthesized signals was experimentally proven, which is confirmed by a significant improvement in the similarity of the spectra with each iteration. This opens the way for additional optimizations and application of the method in various technological areas. UK: Актуальність. В статті представлено результати дослідження ефективності використання методу Нелдера-Міда для оптимізації параметрів лінійних апроксимацій синтезованих сигналів. Розроблено та апробовано алгоритми, що інтегрують спектральний, часовий та статистичний аналізи та забезпечують обґрунтовану оптимізацію. Ефективність застосування методу Нелдера-Міда доведено за допомогою експерименту. Отримані результати обґрунтовують поліпшення властивостей взаємної кореляції сигналів та зменшення максимальних відхилень бічних пелюсток, що відкриває перспективи для подальшого застосування методу в комплексних сценаріях синтезу сигналів. Мета. Метою роботи є оцінка результативності застосування методу Нелдера-Міда при налаштуванні параметрів лінійних апроксимацій для оптимізації взаємної кореляції та мінімізації побічних відхилень складних синтезованих сигналів. Метод. Основним методом дослідження є порівняння різних алгоритмів оптимізації для вибору найбільш перспективних підходів у лінійних апроксимаціях синтезованих сигналів. Існують різні показники для порівняння, такі як точність оптимізації, швидкість виконання алгоритмів, та мінімізація відхилень. У наукових роботах [1, 2, 4, 5, 6, 8, 9], представлені різні методи та алгоритми оптимізації, включаючи метод Нелдера-Міда та диференціальну еволюцію. Найбільш ефективні з них основані на використанні адаптивних методів оптимізації та ітераційних процедур для поліпшення характеристик сигналів. Варто відзначити, що запропоновані методи мають недоліки, пов’язані зі складністю і вимогами до обчислювальних ресурсів, особливо при великих обсягах даних або високих вимогах до точності. Ці недоліки можна суттєво зменшити шляхом застосування комбінованих методів оптимізації, які враховують різні аспекти моделювання, такі як взаємозв’язки між параметрами сигналу та їх вплив на загальні властивості системи. Іншим важливим напрямком вдосконалення є оптимізація методів для адаптації до динамічних змін у характеристиках складних сигналів, що дозволяє досягти високої адаптивності та надійності систем. Результати. В результаті експерименту з використанням методу Нелдера-Міда було досягнуто збільшення схожості спектральних щільностей з 0,52 у першій ітерації до 0,90 у четвертій, зі значним зменшенням відстані між піками спектру з 1,2 до 0,4, що свідчить про високу адаптивність та точність методу в налаштуванні параметрів синтезованих сигналів. Висновки. Експериментальним шляхом доведено ефективність методу Нелдера-Міда для налаштування заданих параметрів синтезованих сигналів, що підтверджується значним покращенням схожості спектрів з кожною ітерацією. Це відкриває шлях для додаткової оптимізації та застосування методу в різноманітних технологічних областях.Item The software implementation for automatic generation of Petri nets(Національний університет «Запорізька політехніка», 2024) Gurskiy, A. A.; Dubna, S. M.; Гурський, О. О.; Дубна, С. М.EN: Context. The important task was solved during this scientific research related to specific development and verification of the fundamental suitability of the software application that provides visualization of the automatic synthesis of Petri nets while setting up the multi-level control systems. This task is current because the for the first time the integration of means of discrete-continuous networks from the DC-Net environment in the Labview environment is realized through the implementation of automatic synthesis of Petri nets. This makes it possible to automate the processes of synthesis for the control algorithms based on the development of appropriate intelligent systems. Objective. The purpose of the scientific work is to minimize the time and to automatize process in synthesis of the control algorithms by integrating the means of discrete-continuous networks and implementing the principles of automatic synthesis of Petri nets. Method. This scientific article proposes the principle for automatic formation of Petri nets based on logical algorithm for classifying various uncorrected algorithms. The multilayer neural network in the Labview 2009 software environment was implemented to realize the appropriate algorithm. This artificial neural network provides algorithm formation, automatic synthesis and operation of Petri nets. The article is devoted to the study of operating principle of the software application implementing such automatic synthesis of Petri nets while setting up the multi-level control systems. Results. A number of experiments were performed on the classification of algorithms and formation of Petri nets based on the ready-made software application. The control system was automatically set up based on the Labview 2009 environment application for the determined object. As a result of these experiments we have determined the fundamental suitability of the software application for the synthesis of some multi-level automatic control systems. It was also shown during these experiments that all mismatch signals in the system and deviations from the ratios of values controlled variables are reduced to zero. All parameters of the control systems settings were noted after the multi-level system setting procedure on the front panel of the virtual stand. Conclusions. The task related to the software application development based on the Labview 2009 environment which provides the automatic synthesis of Petri nets was solved in this scientific work. Thus the method of automatic synthesis of Petri nets and technology for developing certain algorithms based on the functioning of the artificial neural network was further developed. UK: Актуальність. Вирішено актуальне завдання, що пов’язане з розробкою та перевіркою на принципову придатність програмного додатку, який представляє візуалізацію автоматичного синтезу мереж Петрі при налаштуванні багаторівневих систем управління. Таке завдання є актуальним, оскільки вперше реалізується інтеграція засобів дискретно-безперервних мереж середовища DC-Net у середовище Labview за рахунок реалізації автоматичного синтезу мереж Петрі. Це дає можливість автоматизувати процеси синтезу алгоритмів управління на основі розробки відповідних інтелектуальних систем. Мета роботи – мінімізація часу та автоматизація процесу синтезу алгоритмів управління за рахунок інтеграції засобів дискретно-безперервних мереж та реалізації принципів автоматичного синтезу мереж Петрі. Метод. Запропоновано принцип автоматичного формування мереж Петрі на основі логічного алгоритму класифікації різних нескоригованих алгоритмів. Для реалізації відповідного алгоритму, в програмному середовищі Labview 2009 за допомогою засобів графічного програмування було реалізовано багатошарову штучну нейронну мережу, на основі якої забезпечується формування алгоритмів, автоматичний синтез та функціонування мереж Петрі. Показано принцип роботи програмного додатку, що реалізує такий автоматичний синтез мереж Петрі при налаштуванні багаторівневих систем управління. Результати. На основі вже готового програмного додатку було проведено ряд експериментів з класифікації алгоритмів, формування та коригування мереж Петрі. Були задані також параметри деякого об’єкта управління, для якого були автоматично налаштовані системи управління на базі середовища Labview 2009. В результаті проведених експериментів було встановлено принципову придатність програмного додатку для синтезу деяких багаторівневих автоматичних систем управління. Після проведення процедур налаштування відповідної багаторівневої системи на лицьовій панелі віртуального стенду відзначалися всі параметри налаштування системи керування, а також було показано, що всі сигнали неузгодженості в системі та відхилення від співвідношення значень регульованих змінних зведені до нуля. Висновки. Таким чином, у роботі було вирішено завдання, пов’язане з розробкою програмного забезпечення, на основі середовища Labview 2009, що реалізує автоматичний синтез мереж Петрі. Тим самим отримала подальший розвиток методика автоматичного синтезу мереж Петрі та технологія розробки певних алгоритмів на основі функціонування штучних нейронних мереж.Item Method for signal processing based on Kolmogorov-Wiener prediction of MFSD process(Національний університет «Запорізька політехніка», 2024) Gorev, V. N.; Shedlovska, Y. I.; Laktionov, I. S.; Diachenko, G. G.; Kashtan, V. Yu.; Khabarlak, K. S.; Горєв, В. М.; Шедловська, Я. І.; Лактіонов, І. С.; Дяченко, Г. Г.; Каштан, В. Ю.; Хабарлак, К. С.EN: Context. We investigate a method to signal processing based on the Kolmogorov-Wiener filter weight function calculation for the prediction of a continuous stationary heavy-tail process in the MFSD (multifractal fractional sum-difference) model. Such a process may describe telecommunication traffic in some systems with data packet transfer, the consideration of the continuous filter may be reliable in the case of the large amount of data. Objective. The aim of the work is to obtain an approximate solution for the Kolmogorov-Wiener filter weight function and to show the applicability of the method to signal processing used in the paper. Method. The Galerkin method based on the orthogonal Chebyshev polynomials of the first kind is used for the calculation of the weight function under consideration. The approximations up to the thirteen-polynomial one are investigated. The corresponding integrals are calculated numerically on the basis of the Wolfram Mathematica package. The higher is the packet rate, the higher accuracy of the integral calculation is needed. Results. It is shown that for rather large number of polynomials the misalignment between the left-hand side and the right-hand side of the Wiener-Hopf integral equation under consideration is rather small for the obtained solutions. The corresponding mean absolute percentage errors of misalignment for different packet rates are calculated. The method to signal processing used in the paper leads to reliable results for the Kolmogorov-Wiener filter weight function for the prediction of a process in the MFSD model. Conclusions. The theoretical fundamentals of the continuous Kolmogorov-Wiener filter construction for the prediction of a random process in the MFSD model are investigated. The filter weight function is obtained as an approximate solution of the Wiener-Hopf integral equation with the help of the Galerkin method based on the Chebyshev polynomials of the first kind. It is shown that the obtained results for the filter weight function are reliable. The obtained results may be useful for the practical telecommunication traffic prediction. The paper results may also be applied to the treatment of heavy-tail random processes in different fields of knowledge, for example, in agriculture. UK: Актуальність. Досліджено метод обробки сигналів, що базується на обчисленні вагової функції фільтра Колмогорова-Вінера для прогнозування неперервного стаціонарного процесу з важким хвостом в MFSD (multifractal fractional sum-difference) моделі. Такий процес може описувати телекомунікаційний трафік у деяких системах з пакетною передачею даних, розгляд неперервного фільтра може бути доцільним у випадку великої кількості даних. Мета роботи. Метою роботи є отримання наближеного розв’язку для вагової функції фільтра Колмогорова-Вінера та показати застосовність методу обробки сигналів, використаного в роботі. Метод. Для розрахунку вагової функції, яку розглянуто в роботі, використовується метод Галеркіна, що базується на ортогональних поліномах Чебишова першого роду. Досліджено різні наближення включно до наближення тринадцяти поліномів. Відповідні інтеграли обчислені числовими методами на основі математичного пакету Wolfram Mathematica. Чим більша швидкість передачі пакетів, тим вищою має бути точність обчислення інтегралів. Результати. Показано, що для досить великої кількості поліномів нев’язка між лівою та правою частинами інтегрального рівняння Вінера-Хопфа, що розглядається в роботі, є досить малою для отриманих розв’язків. Розраховано відповідні середні абсолютні відсоткові похибки нев’язки для різних швидкостей передачі пакетів. Метод обробки сигналів, використаний у роботі, дає адекватні результати для вагової функції фільтра Колмогорова-Вінера для прогнозування процесу в MFSD моделі. Висновки. Досліджено теоретичні основи побудови неперервного фільтра Колмогорова-Вінера для прогнозування випадкового процесу в MFSD моделі. Вагову функцію фільтра отримано як наближений розв’язок інтегрального рівняння Вінера-Хопфа за допомогою методу Галеркіна, що базується на поліномах Чебишова першого роду. Показано, що отримані результати для вагової функції фільтра є адекватними. Отримані результати можуть бути корисними для практичного прогнозування телекомунікаційного трафіку. Результати роботи також можуть бути застосовані для розгляду випадкових процесів з важким хвостом у різних галузях знань, наприклад, у сільському господарстві.Item Методи захисту від імпульсної DRFM завади(Національний університет «Запорізька політехніка», 2024) Атаманський, Д. В.; Рябуха, В. П.; Василишин, В. І.; Семеняка, А. В.; Катюшин, Є. А.; Стовба, Р. Л.; Atamanskyi, D. V.; Riabukha, V. P.; Vasylyshyn, V. I.; Semeniaka, A. V.; Katyushyn, E. A.; Katyushyn, E. A.UK: Актуальність. Відповідні імпульсні завади типу DRFM (Digital Radio Frequency Memory ‒ (укр. цифрова радіочастотна пам’ять) для імпульсних РЛС, зокрема, з лінійною частотною модуляцією (ЛЧМ) зондувальних сигналів, дуже ускладнюють радіолокаційну обстановку. На екранах індикаторів радіолокаційних засобів, крім відміток від існуючих (істинних) цілей, з’являться інші, що імітують аналогічні їм хибні цілі. Відомі методи боротьби з багаторазовими імпульсними відповідними завадами для завад типу DRFM малоефективні, що обумовлено специфікою формування завади. Створення методів, алгоритмів і систем боротьби з такими завадами є досі актуальним завданням. Мета. Оцінити можливості відомих методів завадозахисту щодо зниження негативного впливу імпульсних завад типу DRFM на ефективність обробки корисних сигналів та запропонувати новий метод обробки ЛЧМ сигналу на фоні DRFM завади. Метод. Ефективність методів визначається експериментально за результатами імітаційного моделювання та їхнього порівняння з відомими результатами, викладеними у відкритій літературі. Результати. Обґрунтовано неефективність відомих способів захисту від відповідної імпульсної завади для зниження негативного впливу DRFM завади на обробку сигналу, відбитого від цілі. Визначено характер негативного впливу DRFM завад на обробку відбитого від цілі сигналу. Завадою може створюватись як імітація відміток від неіснуючих (хибних) цілей, так і маскувальний ефект. Показано, що пристрій з двостороннім обмежником амплітуди на вході фільтру стиску, що зазвичай використовується для заглушення імпульсної завади, неефективний для заглушення DRFM завади. Продемонстровано, що для малобазових ЛЧМ сигналів як фільтр стиску може використовуватись фільтр, узгоджений з ЛЧМ сигналом з великою базою, хоча такі узгоджені фільтри не призначені для обробки ЛЧМ сигналів з малими базами. Визначені умови узгодженої фільтрації малобазових імпульсних ЛЧМ в фільтрах, узгоджених з сигналами з великими базами. Достатньою умовою узгодженої фільтрації малобазових сигналів є збіг їхнього фазочастотного спектру з відповідною ділянкою фазочастотного спектру великобазового сигналу. Дана обставина пояснює ефект формування максимумів на виході фільтра стиску по імпульсах DRFM завади і формування хибних відміток від цілей. Показано, що обмеження рівня сигналів перед їхньою обробкою в фільтрі стиску усуває енергетичну перевагу завади над корисним сигналом, але не впливає на форму фазочастотного спектра завади. Ця особливість амплітудних обмежувачів є причиною неефективної обробки корисного сигналу на фоні DRFM завади в пристроях типу амплітудний обмежувач – узгоджений фільтр. Запропоновано метод заглушення відповідної імпульсної завади, в основі якого лежить природне припущення про належність до відліків завади потужних відліків вхідної суміші. В ході цифрової обробки реалізується обнулінням відліків, що перевищують заданий рівень обмеження. Показано, що пристрої обробки, які використовують таке обмеження, забезпечують ефективну обробку корисного сигналу на фоні DRFM завади. Висновки. Наукова новизна отриманих результатів полягає в тому, що набула подальшого розвитку практика завадозахисту РЛС з імпульсними ЛЧМ зондуючими сигналами, а саме запропоновано пристрій, що виявляє відбитий сигнал на фоні імпульсної завади у відповідь такому сигналу. Набула подальшого розвитку практика узгодженої фільтрації складних сигналів, а саме визначені умови узгодженої фільтрації малобазових імпульсних ЛЧМ сигналів у фільтрах, узгоджених з сигналами з великими базами. Достатньою умовою є збіг фазочастотного спектру малобазового сигналу з відповідною ділянкою фазочастотного спектру великобазового сигналу. Практична цінність досліджень полягає в тому, що запропонований пристрій обробки, в переважній більшості практичних випадків забезпечує приблизно в двічі більше значення ймовірності правильного виявлення сигналу, відбитого від цілі, у порівнянні з відомими пристроями обробки. EN: Context. The repeater reusable pulse jamming like DRFM (Digital Radio Frequency Memory) significantly complex the radar situation for radar with LFM probing signals. Besides of the marks from the existing targets the other marks are arising on the radar PPI-screen that simulate analogous to them false targets. The known methods of struggle with the repeater reusable pulse jamming like DRFM are inefficient that caused by specificity of the jamming. The synthesis of the methods of the struggle with such jamming is the actual problem Objective. The estimation of possibilities of the known methods of noise immunity for reduction of the negative influence of pulse jamming like DFRM on the processing of the useful signals and suggestion of the alternative method of LFM signal processing on the DFRM jamming background. Method. The efficiency of the methods is defined experimentally on the results of simulation and comparison of them with the known results presented in the literature The results. The inefficiency of the known methods of protection from repeater pulse jamming for reduction of the negative influence of DRFM jamming on the processing of the signal reflected from the target is justified. The character of negative influence of DRFM jamming on the processing of the signal reflected from the target is defined. These jammings can create as masking effect as imitate the marks from the non-existing targets. It is shown, that device with two-side amplitude limitation on the input of compression filter which traditionally used for suppression of repeater pulse jamming is inefficient for suppression of DRFM jamming. It is shown, that as compression filter for LFM signals with small base the filter matched with big base LFM signal can be used. However, these matched filters are not designed for LFM signal with small bases. The conditions of matched filtration of small base pulse LFM signals in the filters matched with big base signal are defined. The sufficient condition of the matched filtration of small base signal is coinciding of their phase frequency characteristic with corresponding area of the phase frequency characteristic of the big base signal. This fact explains the effect of forming of the maximums on the output of compression filter for pulsed of DRFM jamming and the effect of forming of false marks from targets It is shown that limitation of the level of signals before their processing in the compression filter remove the energetic advantage of lamming above useful signal, however, do not influences in the form of phase frequency characteristic of jamming. This detail of the amplitude limiter is the reason of ineffective processing of the useful signal on the background of DRFM jamming in the devices like amplitude limiter-compression filter. The method of suppression of repeater pulse jamming is proposed. The natural assumption about correspondence of powerful samples of the input mixture to jamming samples is on the base of this method In the case of digital processing this can be realised by nullifying the samples which are above the defined level of limiter. It is shown that processing devices, which uses such limitation, provides the effective processing of the useful signal on the background of DRFM jamming. Conclusions. The scientific novelty of the obtained results is in the further development of practice of noise immunity of the radar with LFM probing signal, specifically the device that detects the reflected signal on the background of the repeater pulse jamming is proposed. The practice of matched filtration of complex signals obtains the further development, namely, the conditions of matched filtration of LFM signals with small base in the filters matched with the signals with big bases are determined. The sufficient condition is the coincidence of phase frequency spectrum of the small base signal with corresponding area of phase frequency spectrum of the big base signal. The practical importance of investigation is that the processing device is proposed. This device provides the value of correct detection of the signal reflected from the target approximately twice as much to the known processing devices in the most cases.