Радіоелектроніка, інформатика, управління - 2025, №1 (72)

Permanent URI for this collectionhttps://eir.zp.edu.ua/handle/123456789/25165

Browse

Recent Submissions

Now showing 1 - 19 of 19
  • Item
    Application of singular spectral analysis in control systems of technological processes and explosion safety control of facilities
    (Національний університет «Запорізька політехніка», 2025) Holinko, O. V.; Alekseev, M. O.; Holinko, V. I.; Zabelina, V. A.; Голінько, О. В.; Алексєєв, М. О.; Голінько, В. І.; Забєліна, В. А.
    EN: Context. The question of increasing the productivity of technological processes of extraction, processing and preparation of raw materials, improving product quality, reducing energy consumption, as well as creating safe working conditions during technological processes and preventing accidents is always quite relevant and requires the implementation of modern control and management systems. For the effective operation of such systems, it is important to pre-process and filter the data received from the sensors for monitoring the grinding processes and the explosive status of objects. One of the possible ways to increase the informativeness of data is the use of singular spectral analysis. Objective. Increasing the efficiency of technological process control systems and the reliability of explosive control systems of coal mines and oil and fuel complex facilities by processing and pre-filtering data received from sensors for monitoring grinding processes and the state of facilities. Method. To analyze the output signals of sensors used in control and management systems, the method of singular spectral analysis is used, which allows revealing hidden structures and regularities in time series by pre-filtering and data processing of acoustic, thermocatalytic, and semiconductor sensors. Results. A new approach to the management of technological processes of grinding raw materials in jet mills and control of the explosiveness of coal mines and objects of the oil and fuel complex is proposed, based on methods that allow to speed up the processing speed of sensor output data and improve the quality of information. It is shown that one of the promising methods that can be used for the pre-processing of time series of output data of sensors in control and control systems is the method of singular spectral analysis, the use of which allows filtering data, revealing hidden structures and regularities, and forecasting changes based on the analysis of previous information , identify anomalies and unusual situations, make more informed decisions and improve the processes of managing technological processes. Conclusions. The conducted experiments have confirmed the proposed software operability and allow recommending it for use in advancing both theoretical and practical aspects of process control systems through an enhanced singular spectral analysis (SSA) method for time series processing. This improved approach has been successfully demonstrated in real-world applications, including grinding processes in jet mills and explosion monitoring in coal mines and oil and fuel facilities. The implementation demonstrates a significant increase in data processing speed and information quality, which makes it particularly valuable for use in safety-critical industrial facilities. UK: Актуальність. Питання підвищення продуктивності технологічних процесів видобутку, переробки та підготовки сировини, поліпшення якості продукції, зниження енерговитрат, а також створення безпечних умов праці при веденні технологічних процесів та попередження аварій завжди є досить актуальним і потребує впровадження сучасних систем контролю і управління. Для ефективної роботи таких систем важливою є попередня обробка та фільтрації даних, отриманих від датчиків контролю процесів подрібнення та стану вибухонебезпечності об’єктів. Одним із можливих шляхів підвищення інформативності даних є застосування сингулярного спектрального аналізу. Мета. Підвищення ефективності систем керування технологічними процесами та надійності систем контролю вибухонебезпечності вугільних шахт та об’єктів нафто-паливного комплексу шляхом обробки та попередньої фільтрації даних, отриманих від датчиків контролю процесів подрібнення та стану об’єктів. Метод. Для аналізу вихідних сигналів датчиків, які використовуються в системах контролю та управління використаний метод сингулярного спектрального аналізу, який дозволяє виявити сховані структури та закономірності в часових рядах шляхом попередньої фільтрації та обробки даних акустичних, термокаталітичних та напівпровідникових датчиків. Результати. Запропоновано новий підхід до керування технологічними процесами подрібнення сировини в струминних млинах та контролю вибухонебезпечності вугільних шахт і об’єктів нафто-паливного комплексу на основі методів, що дозволяють пришвидшити швидкість обробки вихідних даних датчиків та підвищити якість інформації. Показано, що одним із перспективних методів який можливо використати для попередньої обробки часових рядів вихідних даних датчиків в системах керування та контролю є метод сингулярного спектрального аналізу, використання якого дозволяє здійснити фільтрацію даних, виявити сховані структури та закономірності, здійснювати прогнозування змін на основі аналізу попередньої інформації, виявити аномалії і нештатні ситуації, приймати більш обґрунтовані рішення та поліпшити процеси керування технологічними процесами. Висновки. Проведені експерименти підтвердили працездатність запропонованого програмного забезпечення та дозволили рекомендувати його для використання в розвитку як теоретичних, так і практичних аспектів систем керування технологічними процесами за допомогою вдосконаленого методу сингулярного спектрального аналізу (SSA) для обробки часових рядів. Цей удосконалений підхід був успішно продемонстрований у реальних застосуваннях, включаючи процеси подрібнення на струминних млинах і моніторингу вибухонебезпечності на вугільних шахтах та підприємствах нафто-паливного комплексу. Впровадження демонструє значне підвищення швидкості обробки даних і якості інформації, що робить його особливо цінним для застосування на критично важливих для безпеки промислових об’єктах.
  • Item
    Застосування бінарного дерева пошуку з фіксованою висотою для прискорення обробки одновимірних масивів
    (Національний університет «Запорізька політехніка», 2025) Шпортько, О. В.; Бомба, А. Я.; Shportko, A. V.; Bomba, A. Ya.
    EN: Topicality. Nowadays, binary search trees are widely used to speed up searching, sorting, and selecting array elements. But the computational complexity of searching using a binary tree is proportional to its height, which depends on the sequence of processing the elements of the array. In order to reduce the height of a tree, its balancing is periodically carried out, which is a long process,, thus, the development of alternative methods of controlling the height of a binary tree is currently an actual scientific task. Objective. Development of algorithms for the formation and use of a binary tree with a fixed height to accelerate the search for an element in an array and to determine arbitrary i-th order statistics, in particular, the median of the array. Method. In this study, it is proposed to set the fixed height of the binary search tree by one greater than the minimum possible height of the binary tree to accommodate all the elements of the array because increasing the fixed height leads to excessive RAM consumption, and decreasing it slows down tree modifications. The formation of such trees is similar to the balancing of trees but, unlike it, the recursive movement of nodes in them is performed only when the corresponding subtree is completely filled. For a binary search tree with a fixed height, RAM is allocated once when it is created, immediately under all possible nodes of a binary tree with a given height. This allows to avoid allocating and freeing memory for each node of the tree and store the values of the nodes in a one-dimensional array without using pointers. The results. Our experiments showed that in order to speed up the search of elements and to determine the i-th order statistics of frequently changing unordered arrays, it is advisable to additionally form a binary search tree with a fixed height. To initialize this tree, it is advisable to use a sorted copy of the keys of the array elements, and not to insert them one by one. For example, the use of a binary tree with a fixed height accelerates the search of medians of such arrays by more than 7 times compared to the method of two binary pyramids and additionally accelerates the redistribution of compressed data between modified DEFLATE-blocks in the process of progressive hierarchical lossless compression of images of the ACT set by an average of 2.92%. Conclusions. To determine medians or i-th order statistics of individual unrelated arrays and subarrays, instead of known sorting methods, it is advisable to use Hoare partitioning with exchange over long distances as it rearranges only individual elements and does not order the entire array completely. In order to determine the medians of the sequence of nested subarrays, ordered by the growth of their length, it is worth using the method of two binary pyramids because they are oriented to rapid addition of new elements. To find medians or i-th order statistics after changes or removal of elements of an unordered array, it is advisable to use a binary search tree for the keys of array elements with a fixed height as such fixing prevents uncontrolled growth of the number of comparison operations and makes it possible to process the tree without using instructions. UK: Актуальність. На сьогодні для прискорення пошуку, сортування та відбору елементів масивів широко використовуються бінарні дерева пошуку. Але обчислювальна складність пошуку з використанням бінарного дерева пропорційна його висоті, яка, в свою чергу, залежить від послідовності опрацювання елементів масиву. Для зменшення висоти дерева періодично виконують його балансування, яке є тривалим процесом, тому розробка альтернативних способів контролю за висотою бінарного дерева є на сьогодні актуальним науковим завданням. Мета. Розробка принципів та відповідних алгоритмів формування та використання бінарного дерева з фіксованою висотою для прискорення пошуку елемента в масиві та визначення довільної i-ї порядкової статистики, зокрема, медіани масиву. Метод. В дослідженні запропоновано встановлювати фіксовану висоту бінарного дерева пошуку на одиницю більшою від мінімально можливої висоти бінарного дерева для розміщення всіх елементів масиву, адже збільшення фіксованої висоти призводить до зайвих витрат оперативної пам’яті, а зменшення – сповільнює модифікації дерева. Формування таких дерев подібне до балансування дерев, але, на відміну від нього, рекурсивне переміщення вузлів у них виконується лише тоді, коли відповідне піддерево заповнене повністю. Для бінарного дерева пошуку з фіксованою висотою оперативна пам’ять виділяється один раз при його створенні – відразу під всі можливі вузли бінарного дерева заданої висоти. Це дає змогу уникнути операцій виділення та звільнення пам’яті під кожен вузол дерева та зберігати значення вузлів в одновимірному масиві без використання вказівок. Результати. Наші експерименти показали, що для прискорення пошуку елементів та визначення i-тих порядкових статистик часто змінюваних невпорядкованих масивів доцільно додатково формувати бінарне дерево пошуку з фіксованою висотою. Для ініціалізації цього дерева доцільно використати відсортовану копію ключів елементів масиву, а не вставляти їх почергово. Використання бінарного дерева з фіксованою висотою прискорює, наприклад, пошук медіан таких масивів більш ніж в 7 разів відносно методу двох бінарних пірамід та додатково прискорює перерозподіл стиснутих даних між модифікованими DEFLATE-блоками в процесі прогресуючого ієрархічного стиснення без втрат зображень набору ACT в середньому на 2,92%. Висновки. Для визначення медіан чи i-тих порядкових статистик окремих непов’язаних масивів та підмасивів замість відомих методів сортування доцільно використовувати розбиття Hoare з обміном на великих відстанях, оскільки воно переставляє лише окремі елементи, а не впорядковує весь масив повністю. З метою визначення медіан послідовності вкладених підмасивів, впорядкованих за зростанням їх довжини, варто застосовувати метод двох бінарних пірамід, адже вони орієнтовані на швидке доповнення новими елементами. Для знаходження медіан чи i-тих порядкових статистик після змін чи вилучень елементів невпорядкованого масиву доцільно використати бінарне дерево пошуку ключів елементів масиву з фіксованою висотою, оскільки таке фіксування запобігає неконтрольованому зростанню кількостей операцій порівняння та дає змогу обробляти дерево без використання вказівок.
  • Item
    Метод use case в управлінні іт-проєктом на основі методології Аgile
    (Національний університет «Запорізька політехніка», 2025) Svintsycka, O. M.; Puleko, I. V.; Graf, M. S.; Petrosian, R. V.; Свінцицька, О. М.; Пулеко, І. В.; Граф, М. С.; Петросян, Р. В.
    UK: Актуальність. Розглянуто роль та процес формування вимог користувача на основі методу Use Case в оцінці трудомісткості Agile проєкту на етапі попередньої оцінки менеджментом компанії. Вже з середини 70-х років відомо, що помилки у вимогах є найчисленнішими, найдорожчими та трудомісткими для виправлення в проєктах. У зв’язку з цим, підвищується ступінь важливості управління вимогами в ІТ-проєктах з використанням сучасних технології та методів їх формування та оцінки. Мета. Формування та оцінка вимог користувача в управлінні ІТ-проєктами на основі методу Use Case та їх вплив на один з показників ефективності проєкту на етапі планування, зокрема трудомісткість. Метод. В статті запропоновано новий авторський підхід до формування та оцінки вимог користувача в Agile-проєктах з урахуванням впливу ризиків та оцінки складності системи на основі методу Use Case, і як результат дослідження та пропозиції по досягненню поставленої мети, запропоновано математичну модель оцінки трудомісткості проєкту. Математичний шаблон моделі дозволяє враховувати додаткові змінні, які можуть впливати на проєкт, зокрема кількість рівнів користувачів, наявний функціонал та ризики технічного та організаційного характеру, є гнучкою і може адаптуватися до різних потреб конкретного проекту, що відповідає принципам методології Agile. Кількість компонентів у формулі можуть бути змінені, щоб врахувати важливість різних змінних, або розширена, щоб враховувати додаткові змінні, які можуть впливати на проєкт. Результати. Розроблена та апробована на прикладі мобільного додатку математична модель оцінки трудомісткості проєкту на основі методу use case, що містить набір вихідних даних для розробки продукту та обмежень щодо зміни вимог користувачів та організаційно-технічних ризиків. Запропонована математична модель дозволяє швидко, точно та ефективно визначати сценарії трудомісткості витрат проєкту різного типу та рівня складності та може слугувати ефективним інструментом прийняття управлінських рішень. Висновки. Загальні висновки, отримані після аналізу методів формування та оцінки вимог користувача в практиці Agile управління, наступні. На етапі планування робіт базову модель оцінки проекту, яка базується на експертній оцінці кожної функціональної вимоги, замінено на більш сучасну та складну, яка базується на методі use case та враховує зміни вимог користувачів та інші ризики розробки продукту. Для складання нової моделі використовуються графічні, аналітичні та математичні інструменти, зокрема, діаграма use case, коригуючі коефіцієнти, що враховують складність актора та use case, коефіцієнти, що враховують організаційний та технічний ризики, і як результат, отримуємо математичний формат розрахунку трудомісткості проєкту. Такий підхід дозволяє швидко адаптуватися до різних типів проектів, а за умови правильного визначення вихідних даних, модель дозволяє отримати досить точні оцінки на ранньому етапі планування проєкту. Практично отримані результати дослідження демонструють потенціал запропонованої математичної моделі, яка може мати логічне продовження через верифікацію моделі на більшій вибірці та оцінку її стійкості до різних типів проектів і ризиків. EN: Context. The article considers the role and process of forming user requirements based on the Use Case method in assessing the complexity of an Agile project at the stage of preliminary assessment by the company’s management. Since the mid-70s, it has been known that errors in requirements are the most numerous, expensive, and time-consuming to correct in projects. In this regard, the importance of requirements management in IT projects using modern technologies and methods for their formation and evaluation is increasing. Objective. Formation and evaluation of user requirements in IT project management based on the Use Case method and their impact on one of the project performance indicators at the planning stage, particularly labor intensity. Method. The article proposes a new author’s approach to the formation and evaluation of user requirements in Agile projects, taking into account the impact of risks and system complexity assessment based on the Use Case method, and as a result of the study and proposals to achieve this goal, a mathematical model for estimating project complexity is proposed. The mathematical template of the model allows us to consider additional variables that may affect the project, such as the number of user levels, available functionality, and technical and organizational risks. It is flexible and can be adapted to the different needs of a particular project, which aligns with the principles of the Agile methodology. The number of components in the formula can be changed to take into account the importance of different variables or expanded to take into account additional variables that may affect the project. Results. A mathematical model for estimating project complexity based on the use case method has been developed and tested using the example of a mobile application, which contains a set of initial data for product development and constraints on changing user requirements and organizational and technical risks. The proposed mathematical model allows you to quickly, accurately, and efficiently determine scenarios of project labor intensity of various types and levels of complexity and can serve as an effective tool for making management decisions. A mathematical model for estimating project complexity based on the use case method has been developed and tested using the example of a mobile application, which contains a set of initial data for product development and constraints on changing user requirements and organizational and technical risks. The proposed mathematical model allows you to quickly, accurately, and efficiently determine scenarios of project labor intensity of various types and levels of complexity and can serve as an effective tool for making management decisions. Conclusions. The general findings obtained after analyzing the methods of forming and evaluating user requirements in Agile management are as follows. At the work planning stage, based on an expert assessment of each functional requirement, the primary project evaluation model has been replaced by a more modern and complex one based on the use case method and considering changes in user requirements and other product development risks. The new model uses graphical, analytical, and mathematical tools, including a use case diagram, adjustment factors considering the complexity of the actor and use case, and factors considering organizational and technical risks. As a result, we get a mathematical format for calculating the project’s complexity. This approach allows us to adapt to different types of projects quickly. With the correct initial data definition, the model will enable us to obtain reasonably accurate estimates early in project planning. The practical results of the study demonstrate the potential of the proposed mathematical model, which can be logically continued by verifying the model on a larger sample and assessing its resilience to different types of projects and risks
  • Item
    Аналіз підходів доступу до даних у мульти-клауд середовищі
    (Національний університет «Запорізька політехніка», 2025) Касерес, А.; Глоба, Л. С.; Caceres, A.; Globa, L.
    UK: Актуальність. Мультихмарна система характеризується послідовним або одночасним використанням послуг від різних хмарних постачальників для виконання програм. Така система є бажаною інфраструктурою для переважної більшості ІТ-бізнесу сьогодні. Наразі існують різномантні підходи для об’єднання хмарних платформ кількох постачальників. У даній статті досліджувались практичні підходи для досягнення мультихмарної сумісності, зосереджуючись на абстрактному доступі до даних між різними постачальниками cloud-сховищ та multi-cloud розподілі обчислювальних ресурсів. Представлено ключові технології та методології безперебійного керування даними, такі як використання мультихмарних шлюзів зберігання даних (на прикладі S3Proxy), впровадження платформ керування даними (Apache NiFi) та використання універсальних хмарних бібліотек (Apache Libcloud). У роботі висвітлено переваги і недоліки обраних підходів і проведено експерименти по визначенню вартості і продуктивності для них. Результатом проведених досліджень є визначення вартості і продуктивності для різних підходів доступу до даних у мультихмарних середовищах. Мета. Дослідити різні підходи мультихмарного доступу до даних і визначити найбільш оптимальний за характеристиками продуктивності і вартості. Метод. Запропоновано оптимізацію мультихмарних інфраструктур на основі експериментальних даних. Експериментальне моделювання включає в себе емпіричні вимірювання швидкодії і порівняння витрат на зберігання. Визначення продуктивності базується на вимірюванні часу читання даних і затримки. Для оцінки вартості використовується модель ціноутворення AWS S3. Описано підходи оптимізації з урахуванням розмірів файлів і обсягом зберігання даних: об’єднання сильних сторін різних мультихмарних підходів і динамічне перемикання між рішеннями. Запропоновано алгоритм вибору мультихмарних підходів, де враховані критерії вартості і швидкодії, а також їх пріоритетності. Результати. У ході експерименту отримано значення вартості, необхідної для зберігання і завантаження даних різних обсягів ( 100 ГБ, 1 ТБ, 10 ТБ), а також продуктивності для передавання файлів різного розміру (100 КБ, 1 МБ, 10 МБ) для технологій мультихмарних шлюзів, платформ управління даними, та хмарно-незалежних бібліотек. S3Proxy має найшвидший доступ до файлів для великих обсягів даних. Apache Libcloud показує кращу вартість на невеликих об’ємах. Проте ці обидва підходи значно переважають Apache NіFі. Дане дослідження може сприяти розвитку методів ефективного керування ресурсами у мультихмарних середовищах. Висновки. Отримані результати дають можливість визначити пріоритетність вибору означених парадигм, щоб допомогти організаціям розробити та розгорнути ефективні мультихмарні стратегії, які дозволять їм скористатися перевагами унікальних функцій кожного хмарного провайдера, зберігаючи при цьому уніфіковане, гнучке та ефективне середовище зберігання та обчислення EN: Context. A multi-cloud system is characterized by the sequential or simultaneous use of services from different cloud providers to run applications. Such a system is a preferred infrastructure for the vast majority of IT businesses today. Currently, there are various approaches to combining cloud platforms from multiple vendors. This article explores practical approaches to achieve multi-cloud interoperability, focusing on abstract data access between different cloud storage providers and multi-cloud computing resource allocation. Key technologies and methodologies for uninterrupted data management are presented, such as the use of multi-cloud storage gateways (using S3Proxy as an example), the implementation of data management platforms (Apache NiFi), and the use of cloud-agnostic libraries (Apache Libcloud). The paper highlights the advantages and disadvantages of the selected approaches and conducts experiments to determine the cost and performance of these strategies. The result of the research is to determine the cost and performance of different approaches to data access in multi-cloud environments. Objective. To investigate different approaches to multi-cloud data access and determine the most optimal in terms of cost and performance. Method. We propose the optimization of multi-cloud infrastructures based on experimental data. Experimental modeling includes empirical measurements of performance and comparison of storage costs. The determination of performance is based on the measurement of data reading time and latency. The AWS S3 pricing model is used to estimate the cost. Optimization approaches are described, considering file sizes and data storage, combining the strengths of different multi-cloud approaches and dynamic switching between solutions. An algorithm for selecting multi-cloud approaches is proposed, which takes into account the criteria of cost and performance, as well as their priority. Results. The experiment yielded values for the cost of storing and downloading data of different sizes (100 GB, 1 TB, 10 TB), and the performance of transferring files of different sizes (100 KB, 1 MB, 10 MB) for multi-cloud gateway technologies, data management platforms, and cloud-agnostic libraries. S3Proxy was found to have the fastest file access for large data volumes, while Apache Libcloud showed better value for smaller volumes. Both approaches significantly outperformed Apache NiFi. This study can contribute to the development of methods for efficient resource management in multi-cloud environments. Conclusions. The obtained results can assist in prioritizing the selection of these paradigms, aiding organizations in developing and deploying effective multi-cloud strategies. This approach enables them to leverage the distinctive features of each cloud provider while maintaining a unified, flexible, and efficient storage and computing environment.
  • Item
    Segmentation of low-contrast images in the basis of eigen subspaces of Type-2 fuzzy membership functions
    (Національний університет «Запорізька політехніка», 2025) Akhmetshina, L. G.; Yegorov, А. А.; Fomin, А. А.; Ахметшина, Л. Г.; Єгоров, А. О.; Фомін, А. А.
    EN: Context. The study addresses the current task of automating a sensitive image segmentation algorithm based on the Type-2 fuzzy clustering method. The research object is low-contrast greyscale images which are outcomes of standard research methods across various fields of human activity. Objective. The aim of the work is to create a new set of informative features based on the input data, perform sensitive fuzzy segmentation using a clustering method that employs Type-2 fuzziness, and implement automatic defuzzification in eigen subspace of membership functions. Method. A method for segmenting low-contrast images is proposed. It consists of the following steps: expanding the feature space of the input data, applying singular value decomposition (SVD) to the extended dataset with subsequent automatic selection of the most significant components, which serve as input for fuzzy clustering using Type-2 fuzzy sets. Clustering is performed using the T2FCM method, which allows the automatic selection of the number of fuzzy clusters based on an initially larger guaranteed number, followed by the merging of close clusters (proximity was defined in the study using a weighted Euclidean distance). After fuzzy clustering, the proposed method integrates its results (fuzzy membership functions) with the input data for clustering, preprocessed using fuzzy transformations. The resulting matrix undergoes another fuzzy transformation, followed by SVD and the automatic selection of the most significant components. A grayscale image is formed based on the weighted sum of these selected components, to which the adaptive histogram equalization method is applied, resulting in the final segmentation output. The proposed segmentation method involves a small number of control parameters: the initial number of fuzzy clusters, the error of the T2FCM method, the maximum number of iterations, and the coefficient of applied fuzzy transformations. Adjusting these parameters to the processed images does not require significant effort. Results. The developed algorithm has been implemented as software, and experiments have been conducted on real images of different physical nature. Conclusions. The experiments confirmed the efficiency of the proposed algorithm and recommend its practical application for visual analysis of low-contrast grayscale images. Future research prospects may include analyzing the informative potential of the algorithm when using other types of transformations of fuzzy membership functions and modifying the proposed algorithm for segmenting images of various types. UK: Актуальність. Розглянуто актуальне завдання автоматизації чутливого алгоритму сегментації зображень на основі методу нечіткої кластеризації типу-2. Об’єктом дослідження є слабкоконтрастні напівтонові зображення, які є результатом стандартних методів дослідження в різних галузях діяльності людини. Мета роботи – створення нового набору інформативних ознак на основі вихідних даних, виконання чутливої нечіткої сегментації на основі метода кластеризації з використанням нечіткості 2-го порядку, реалізація автоматичної дефаззифікації у власному підпросторі функцій приналежності. Метод. Запропоновано метод сегментації слабкоконтрастних зображень, який складається з наступних кроків: розширення простору ознак вхідних даних, застосування сингулярного розкладу до розширеного набору даних з наступним автоматичним відбором найбільш значущих компонентів, що є вхідними даними для нечіткої кластеризації з використанням нечітких множин типу-2. Ця кластеризація відбувається за допомогою методу T2FCM, який дозволяє автоматично підбирати кількість нечітких кластерів на основі початкового задання гарантовано більшої кількості з наступним злиттям близьких кластерів (в роботі близькість визначалась на основі зваженої Евклідової відстані). Після виконання нечіткої кластеризації в запропонованому методі здійснюється об’єднання її результатів (нечіткої функції належності) з вхідними для нечіткої кластеризації даними, які попередньо оброблюються нечітким перетворенням. Результуюча матриця знов підлягає нечіткому перетворенню, після чого до отриманих результатів застосовується сингулярний розклад з наступним автоматичним відбором найбільш значущих компонентів. На основі зваженої суми цих відібраних компонентів формується напівтонове зображення, до якого застосовується метод адаптивної еквалізації гістограми, в результаті чого і отримується кінцевий результат сегментації. Запропонований метод сегментації має невелику кількість керуючих параметрів: початкову кількість нечітких кластерів, помилку методу T2FCM та максимальну кількість ітерацій, а також коефіцієнт використаних нечітких перетворень, причому їх налаштування на зображення, що оброблюються, не вимагають значних зусиль. Результати. Розроблений алгоритм реалізовано програмно, проведено експерименти на реальних зображеннях різної фізичної природи. Висновки. Проведені експерименти підтвердили працездатність запропонованого алгоритму та дозволяють рекомендувати його для використання на практиці при вирішенні задач візуального аналізу слабкоконтрастних напівтонових зображень. Перспективи подальших досліджень можуть полягати в аналізі інформативних можливостей алгоритму при використанні інших типів перетворень нечітких функцій належності та в модифікації запропонованого алгоритму для сегментації зображень різного типу.
  • Item
    Deepfake audio detection using yolov8 with mel-spectrogram analysis: a cross-dataset evaluation
    (Національний університет «Запорізька політехніка», 2025) Zbezhkhovska, U. R.; Збежховська, У. Р.
    EN: Context. The problem of detecting deepfake audio has become increasingly critical with the rapid advancement of voice synthesis technologies and their potential for misuse. Traditional audio processing methods face significant challenges in distinguishing sophisticated deepfakes, particularly when tested across different types of audio manipulations and datasets. The object of study is developing a deepfake audio detection model that leverages mel-spectrograms as input to computer vision techniques, focusing on improving cross-dataset generalization capabilities. Objective. The goal of the work is to improve the generalization capabilities of deepfake audio detection models by employing mel-spectrograms and leveraging computer vision techniques. This is achieved by adapting YOLOv8, a state-of-the-art object detection model, for audio analysis and investigating the effectiveness of different mel-spectrogram representations across diverse datasets. Method. A novel approach is proposed using YOLOv8 for deepfake audio detection through the analysis of two types of mel-spectrograms: traditional and concatenated representations formed from SincConv filters. The method transforms audio signals into visual representations that can be processed by computer vision algorithms, enabling the detection of subtle patterns indicative of synthetic speech. The proposed approach includes several key components: BCE loss optimization for binary classification, SGD with momentum (0.937) for efficient training, and comprehensive data augmentation techniques including random flips, translations, and HSV color augmentations. The SincConv filters cover a frequency range from 0 Hz to 8000 Hz, with a step size of approximately 533.33 Hz per filter, providing detailed frequency analysis capabilities. The effectiveness is evaluated using the EER metric across multiple datasets: ASVspoof 2021 LA (25,380 genuine and 121,461 spoofed utterances) for training, and ASVspoof 2021 DF, Fake-or-Real (111,000 real and 87,000 synthetic utterances), In-the-Wild (17.2 hours fake, 20.7 hours real), and WaveFake (117,985 fake files) datasets for testing cross-dataset generalization. Results. The experiments demonstrate varying effectiveness of different mel-spectrogram representations across datasets. Concatenated mel-spectrograms showed superior performance on diverse, real-world datasets (In-the-Wild: 34.55% EER, Fake-or-Real: 35.3% EER), while simple mel-spectrograms performed better on more homogeneous datasets (ASVspoof DF: 28.99% EER, WaveFake: 34.55% EER). Feature map visualizations reveal that the model’s attention patterns differ significantly between input types, with concatenated spectrograms showing more distributed focus across relevant regions for complex datasets. The training process, conducted over 50 epochs with a learning rate of 0.01 and warm-up strategy, demonstrated stable convergence and consistent performance across multiple runs. Conclusions. The experimental results confirm the viability of using YOLOv8 for deepfake audio detection and demonstrate that the effectiveness of mel-spectrogram representations depends significantly on dataset characteristics. The findings suggest that input representation should be selected based on the specific properties of the target audio data, with concatenated spectrograms being more suitable for diverse, real-world scenarios and simple spectrograms for more controlled, homogeneous datasets. The study provides a foundation for future research in adaptive representation selection and model optimization for deepfake audio detection. UK: Актуальність. Проблема виявлення глибоких фейків у аудіо стає дедалі більш критичною в умовах швидкого розвитку технологій синтезу голосу та можливості їх використання з злочинною метою. Традиційні методи обробки аудіо стикаються з суттєвими викликами у виявлені складних аудіо фейків, особливо під час тестування на різних типах маніпуляцій з аудіо та наборах даних. Об’єктом дослідження є розробка моделі виявлення глибоких фейків у аудіо, яка використовує мел-спектрограми як вхідні дані для комп’ютерних методів зору, зосереджуючи увагу на покращенні можливостей узагальнення між наборами даних. Мета роботи – покращення узагальнюючих можливостей моделей виявлення глибоких аудіо фейків шляхом використання мел-спектрограм та комп’ютерних методів зору. Це досягається шляхом адаптації YOLOv8, сучасної моделі комп’ютерного зору, для аналізу аудіо та дослідження ефективності різних представлень мел-спектрограм на різноманітних наборах даних. Метод. Запропоновано новий підхід, що використовує YOLOv8 для виявлення глибоких аудіо фейків через аналіз двох типів мел-спектрограм: традиційних та конкатенованих, сформованих з фільтрів SincConv. Метод трансформує аудіосигнали в візуальні представлення, які можуть оброблятися алгоритмами комп’ютерного зору, що дозволяє виявляти тонкі шаблони, які свідчать про синтетичну мову. Запропонований підхід включає кілька ключових компонентів: оптимізацію функції втрат бінарної крос ентропії для задачі бінарної класифікації, стохастичний градієнтний спуск з моментом (0,937) для ефективного навчання та комплексні методи аугментації даних. Фільтри SincConv охоплюють частотний діапазон від 0 Гц до 8000 Гц з кроком приблизно 533,33 Гц на фільтр, забезпечуючи детальні можливості частотного аналізу. Ефективність оцінюється за допомогою метрики EER на кількох наборах даних: ASVspoof 2021 LA (25 380 справжніх та 121 461 підроблених висловлювань) для навчання, та ASVspoof 2021 DF, Fake-or-Real (111 000 реальних та 87 000 синтетичних висловлювань), In-the-Wild (17,2 години фейкових, 20,7 години реальних), та WaveFake (117 985 фейкових файлів) для тестування узагальнення між наборами даних. Результати. Експерименти демонструють різну ефективність моделей в залежності від різних представлень вхідних даних. Конкатеновані мел-спектрограми продемонстрували кращу продуктивність на різноманітних реальних наборах даних (In-the-Wild: 34,55% EER, Fake-or-Real: 35,3% EER), тоді як прості мел-спектрограми працювали краще на більш однорідних наборах даних (ASVspoof DF: 28,99% EER, WaveFake: 34,55% EER). Візуалізації карт ознак показують, що шаблони уваги моделі значно різняться в залежності від типів вхідних даних, наприклад, конкатеновані мел-спектрограми демонструють більш розподілений фокус на відповідних областях для складних наборів даних. Висновки. Експериментальні результати підтверджують доцільність використання YOLOv8 для виявлення глибоких аудіо фейків та демонструють, що ефективність представлень мел-спектрограм значно залежить від характеристик набору даних. Отримані результати свідчать, що представлення вхідних даних слід обирати на основі специфічних властивостей цільових аудіоданих, причому конкатеновані мел-спектрограми є більш підходящими для різноманітних реальних сценаріїв, а прості мел-спектрограми – для більш контрольованих однорідних наборів даних. Дослідження закладає основу для подальших досліджень у галузі адаптивного вибору представлення даних та оптимізації моделей для виявлення глибоких аудіо фейків.
  • Item
    Method of preventing failures of rotating machines by vibration analysis using machine learning techniques
    (Національний університет «Запорізька політехніка», 2025) Zalutska, O. O.; Hladun, O. V.; Mazurets, O. V.; Залуцька, О. О.; Гладун, О. В.; Мазурець, О. В.
    EN: Context. The problem of determining transitional conditions that precede the shift from an operating state to a non-operating state based on data obtained from the sensors of rotating machine elements is being solved. The object of the study is the process of detecting faults and states that indicate an approach to breakdown in rotating machine elements based on data obtained from sensors. The subject of the study is the application of k-means and the elbow method algorithms for clustering and convolutional neural networks for classifying sensor data and detecting near-failure states of machine elements. Objective. The purpose of the work is to create a method for processing sensor data from rotating machines using convolutional neural networks to accurately detect conditions close to failure in rotating machine elements, which will increase the efficiency of maintenance and prevent equipment failures. Method. The proposed method of preventing failures of rotating machines by vibration analysis using machine learning techniques using a combination of clustering and deep learning methods. At the first stage, the sensor data undergoes preprocessing, including normalization, dimensionality reduction, and noise removal, after which the K-means algorithm is applied. To determine the optimal number of clusters, the Elbow method is used, which provides an effective grouping of the states of rotating machine elements, identifying states close to the transition to fault. A CNN model has also been developed that classifies clusters, allowing for the accurate separation of nominal, fault, and transitional conditions. The combination of clustering methods with the CNN model improves the accuracy of detecting potential faults and enables timely response, which is critical for preventing accidents and ensuring the stability of equipment operation. Results. A method of preventing failures of rotating machines by vibration analysis using machine learning techniques and a relevant software package have been developed. The implemented method allows us to identify not only normal and emergency states but also to distinguish a third class – transitional, close to breakdown. The quality of clustering for the three classes is confirmed by the value of the silhouette coefficient of 0.506, which indicates the proper separation of the clusters, and the Davis-Boldin index of 0.796, which demonstrates a high level of internal cluster coherence. Additionally, CNN was trained to achieve 99% accuracy for classifying this class, which makes the method highly efficient and distinguishes it from existing solutions. Conclusions. A method of preventing failures of rotating machines by vibration analysis using machine learning techniques was developed, the allocation of the third class – transitional, indicating a state close to breakdown – was proposed, and its effectiveness was confirmed. The practical significance of the results lies in the creation of a neural network model for classifying the state of rotating elements and the development of a web application for interacting with these models. UK: Актуальність. Вирішується проблема визначення перехідних станів, що передують переходу з робочого стану у неробочий за отриманими даними з датчиків обертових елементів машин. Об’єктом дослідження є процес виявлення несправностей та станів, що свідчать про наближення до поломки у елементах обертових машин на основі даних, отриманих з сенсорів. Предметом дослідження є застосування алгоритмів k-means та методу Elbow для кластеризації та згорткових нейронних мереж для класифікації даних з сенсорів та виявлення близьких до поломки станів елементів машини. Мета роботи. Метою роботи є створення методу обробки сенсорних даних обертових машин з використанням згорткових нейронних мереж для точного виявлення станів, близьких до відмови, в елементах обертових машин, що дозволить підвищити ефективність технічного обслуговування та запобігти відмовам обладнання. Метод. Запропонований метод запобігання відмовам обертових машин базується на аналізі сигналів вібрації з використанням комбінації методів кластеризації та глибокого навчання. На першому етапі дані з датчиків проходять попередню обробку, що включає нормалізацію, зменшення розмірності та видалення шумів, після чого застосовується алгоритм k-середніх. Для визначення оптимальної кількості кластерів використовується метод Elbow, який забезпечує ефективне групування станів обертових елементів машини, виявляючи стани, близькі до переходу в несправність. Також була розроблена модель CNN, яка класифікує кластери, дозволяючи точно розділити номінальні, несправні та перехідні стани. Поєднання методів кластеризації з CNN-моделлю підвищує точність виявлення потенційних несправностей і дозволяє своєчасно реагувати на них, що є критично важливим для запобігання аваріям і забезпечення стабільності роботи обладнання. Результати. Створено метод попередження аварійних станів обертових машин за аналізом вібрацій засобами машинного навчання та відповідний комплекс програмного забезпечення. Реалізований метод дозволяє ідентифікувати не лише нормальні й аварійні стани, але й виділяти третій клас – близький до поломки. Якість кластеризації для трьох класів підтверджується значенням коефіцієнта силуету 0,506, що свідчить про належну відокремленість кластерів, та індексом Девіса-Болдіна 0,796, що демонструє високий рівень внутрішньої когерентності кластерів. Додатково було натреновано CNN, яка досягає 99% точності для класифікації цього класу, що робить метод високоефективним і вирізняє його серед існуючих рішень. Висновки. Було розроблено метод попередження аварійних станів обертових машин за аналізом вібрацій засобами машинного навчання, запропоновано виокремлення третього класу – перехідного, що вказує на стан, близький до поломки, і підтверджено його ефективність. Практичне значення результатів полягає у створенні нейромережевих моделей для класифікації стану обертових елементів та розробці вебзастосунку для взаємодії з цими моделями.
  • Item
    Method of forming multifactor portraits of the subjects supporting software complexes, using a multilayer perceptron
    (Національний університет «Запорізька політехніка», 2025) Pukach, A. I.; Teslyuk, V. M.; Пукач, А. І.; Теслюк, В. М.
    EN: Context. The problem of identification and determination of personalized comprehensive indicators of presence each of the impact factors in the processes of personal subjectivization of the researched supported object’s perception by the relevant subjects interacting with it and making influence on its support, is being considered in this research. The process of forming multifactor portraits of subjects supporting software complexes, using a multilayer perceptron, is an object of study. While methods and means of forming such multifactor portraits of subjects supporting software complexes is the subject of study respectively. Objective. The goal of the work is the creation of a method of forming multifactor portraits of subjects supporting software complexes, using a multilayer perceptron. Method. A method of forming multifactor portraits of subjects supporting software complexes is proposed, using artificial neural networks of the multilayer perceptron type, which provides possibility to form appropriate personalized multifactor portraits of subjects which, directly or indirectly, interact with the object of support (which can represent both the supported software complex itself as well as the processes associated with its complex support activities). Results. The results of functioning of the developed method are the corresponding models of multifactor portraits of subjects supporting software complexes, which later are used to solve a cluster of scientific and applied problems of software complexes’ support automation, in particular, the problem of identification and determination of personalized comprehensive indicators of presence each of the impact factors (from appropriate pre-agreed and declared set of impact factors) in the processes of personal subjectivization of the researched supported object’s perception by the relevant subjects interacting (directly, or indirectly) with it and making influence on its support. As an example, of practical application and approbation of the developed method, the results of resolving the applied practical task of automated search and selection of a maximal relevant candidate (from among the members of the support team of the supported software complex) for best solving of a stack of specialized client’s requests (related to the support of this software complex), are given. Conclusions. The developed method provides possibility to resolve the scientific and applied problem of identification and determination of personalized comprehensive indicators of presence each of the impact factors (from appropriate pre-agreed and declared set of impact factors) in the processes of personal subjectivization of the researched supported object’s perception by the relevant subjects interacting (directly, or indirectly) with it and making influence on its support. In addition, the developed method provides possibility for creating appropriate models of multifactor portraits of subjects supporting software complexes, which makes it possible to use them in solving problems, tasks, or issues related to the automation of search and selection of subjects supporting software complexes, which (subjects) meet the given criteria both in the context of subjectivization processes of personal perception of the support objects (e.g. supported software complexes themselves, or processes directly related to their support), as well as in the context of compatibility in interaction with client’s users of these supported software products (as those users, in fact, are also subjects of interaction with the same researched supported object). UK: Актуальність. Розглянуто проблему ідентифікації та визначення персоніфікованих комплексних показників наявності кожного з факторів впливу в процесах особистісної суб’єктивізації сприйняття досліджуваного об’єкта підтримки відповідними суб’єктами, які з ним взаємодіють і впливають на його підтримку. Об’єктом дослідження є процес формування мультифакторних портретів суб’єктів підтримки програмних комплексів, з використанням багатошарового перцептрона. Предметом дослідження є методи та засоби формування мультифакторних портретів суб’єктів підтримки програмних комплексів. Мета роботи – розроблення методу формування мультифакторних портретів суб’єктів підтримки програмних комплексів, з використанням багатошарового перцептрона. Метод. Розроблено метод формування мультифакторних портретів суб’єктів підтримки програмних комплексів, з використанням штучних нейронних мереж типу багатошарового перцептрона, що дає змогу формувати відповідні персональні мультифакторні портрети суб’єктів, котрі, напряму або опосередковано, взаємодіють з об’єктом підтримки, в якості якого може виступати як сам підтримуваний програмний комплекс, так і процеси, пов’язані з його комплексною підтримкою. Результати. Результатами роботи розробленого методу є відповідні моделі мультифакторних портретів суб’єктів підтримки програмних комплексів, які, в подальшому, використано для розв’язання кластеру науково-прикладних задач автоматизації підтримки програмних комплексів, зокрема, задачу ідентифікації та визначення персоналізованих комплексних показників присутності кожного із факторів впливу (наперед узгодженої та задекларованої множини факторів впливу) в процесах персональної суб’єктивізації сприйняття досліджуваного об’єкта підтримки відповідними суб’єктами, котрі взаємодіють з першим (напряму або опосередковано), та впливають на його підтримку. В якості прикладу практичного застосування розробленого методу, наведено результати розв’язання прикладної практичної задачі автоматизованого пошуку та підбору кандидата (з числа членів команди підтримки програного комплексу) для розв’язання стеку спеціалізованих клієнтських запитів (щодо підтримки цього програмного комплексу). Висновки. Розроблений метод вирішує поставлену задачу ідентифікації та визначення персоналізованих комплексних показників присутності кожного із факторів впливу (наперед узгодженої та задекларованої множини факторів впливу) в процесах персональної суб’єктивізації сприйняття досліджуваного об’єкта підтримки відповідними суб’єктами, котрі взаємодіють з першим (напряму або опосередковано), та впливають на його підтримку. В доповнення, розроблений метод забезпечує можливість побудови відповідних моделей мультифакторних портретів суб’єктів підтримки програмних комплексів, що дає змогу використовувати їх при розв’язанні будь-яких задач, пов’язаних з автоматизацією пошуку та підбору суб’єктів підтримки програмних комплексів, що відповідають заданим критеріям як в контексті процесів суб’єктивізації персонального сприйняття об’єктів підтримки (підтримуваних програмних комплексів, чи процесів їх підтримки), так і в контексті сумісності у взаємодії з клієнтами та/або користувачами підтримуваних програмних продуктів (оскільки ці користувачі, фактично, теж являються суб’єктами взаємодії з тим же досліджуваним об’єктом підтримки).
  • Item
    Data-driven diagnostic model building for helicopter gear health and usage monitori
    (Національний університет «Запорізька політехніка», 2025) Subbotin, S. A.; Bechhoefer, E.; Субботін, Сергій Олександрович; Бекгоефер Е.
    EN: Context. Modern technical objects (in particular vehicles) are extremely complex and place high demands on reliability. This requires automation of condition monitoring and fault diagnosis of objects and their components. The predictive maintenance improves operational readiness of technical objects. The object of study is a technical object health and usage monitoring process. The subject of study is a methods of computational intelligence for data-driven model building and related data processing tasks for health and usage monitoring system. Objective. The purpose of the work is to formulate data processing problems, to form a data set for data-driven model building and construct simple method for automatic diagnostic model building on example of helicopter health and usage monitoring system. Method. The method is proposed for the mapping of multidimensional data into a two-dimensional space preserving local properties of class separation, allowing for the visualization of multidimensional data and the production of simple diagnostic models for the automatic classification of diagnostic objects. The proposed method allows obtaining highly accurate diagnostic model with small training samples, provided that the frequency of classes in the samples is preserved. A method for synthesizing diagnostic models based on a two-layer feed-forward neural network is also proposed, which allows obtaining models in a non-iterative mode. Results. A sample of observations of the state of helicopter gears was obtained, which can be used to compare data-driven diagnostic methods and data processing methods that solve the problems of data dimensionality reduction. The Software has been developed that allows displaying a sample from a multidimensional to a two-dimensional space, which makes it possible to visualize data and reduces the dimensionality of the data. Diagnostic models have been obtained that allow automating the decision-making process on whether the diagnosed object (helicopter gear) belongs to one of two classes of states. Conclusions. The results of conducted experiments allow to conclude that the proposed method provides a significant reduction in the data dimensionality (in particular, for the considered problem of constructing a model for helicopter gear diagnosis, it reduces the data dimensionality due to the compression of features by 46876 times). As the results of the conducted experiments for randomly selected instances in a two-dimensional system of artificial features obtained on the basis of the proposed method showed a significant reduction of the sample for individual tasks may allow to provide acceptable accuracy. And taking into account individual estimates of the instance significance will allow, even for small samples, to ensure the topological representativeness of the formed sample in relation to the original sample. The prospects for further research are to compare methods for constructing data-driven models, as well as methods for reducing the dimensionality of data based on the proposed sample. Additionally, it may be of interest to study a possible combination of the proposed method with methods for sample forming using metrics of the value of instances. UK: Актуальність. Сучасні технічні об’єкти (зокрема транспортні засоби) є надзвичайно складними та висувають великі вимоги до надійності. Це потребує автоматизації моніторингу стану та діагностування несправностей об’єктів та їх складових. Прогнозне обслуговування підвищує експлуатаційну готовність технічних об’єктів. Об’єктом дослідження є процес моніторингу справності та використання технічних об’єктів. Предметом дослідження є методи обчислювального інтелекту для побудови керованої даними моделі та відповідні завдання опрацювання даних для системи моніторингу працездатності та використання. Мета. Мета роботи – сформулювати задачі обробки даних, сформувати набір даних для побудови керованої даними моделі та побудувати простий метод автоматичної побудови діагностичних моделей на прикладі системи моніторингу стану та використання гелікоптерів. Метод. Запропоновано метод для відображення багатовимірних даних у двовимірний простір із збереженням локальних властивостей поділу класів, що дозволяє візуалізувати багатовимірні дані та створювати прості діагностичні моделі для автоматичної класифікації об’єктів діагностування. Запропонований метод дозволяє отримати високоточну діагностичну модель з малими навчальними вибірками за умови збереження частоти класів у вибірках. Запропоновано також метод синтезу діагностичних моделей на основі двошарової нейронної мережі прямого поширення, що дозволяє отримувати моделі в неітеративному режимі. Результати. Отримано вибірку спостережень стану механізмів вертольота, яку можна використовувати для порівняння методів діагностування, керованого даними, та методів опрацювання даних, які вирішують задачі скорочення розмірності даних. Розроблено програмне забезпечення, яке дозволяє відображати вибірку з багатовимірного простору в двовимірний, що дає змогу візуалізувати дані та зменшує розмірність даних. Отримано діагностичні моделі, які дозволяють автоматизувати процес прийняття рішення про належність діагностованого об’єкта (спорядження вертольота) до одного з двох класів станів. Висновки. Результати проведених експериментів дозволяють зробити висновок, що запропонований метод забезпечує суттєве зниження розмірності даних (зокрема, для розглянутої задачі побудови моделі діагностування вертолітного обладнання зменшує розмірність даних за рахунок стиснення ознак у 46876 разів). Оскільки результати проведених експериментів для випадково вибраних екземплярів у двовимірній системі штучних ознак, отриманих на основі запропонованого методу, показали значне скорочення вибірки для окремих завдань, це може дозволити забезпечити прийнятну точність. А врахування індивідуальних оцінок значущості екземплярів дозволить навіть для малих вибірок забезпечити топологічну репрезентативність сформованої вибірки по відношенню до вихідної вибірки. Перспективи подальших досліджень полягають у порівнянні методів побудови моделей, керованих даними, а також методів зменшення розмірності даних на основі запропонованої вибірки. Крім того, може становити інтерес дослідження можливого поєднання запропонованого методу з методами формування вибірки з використанням метрик значення екземплярів.
  • Item
    Method of neural network detection of defects based on the analysis of rotating machines vibrations
    (Національний університет «Запорізька політехніка», 2025) Sobko, O. V.; Dydo, R. A.; Mazurets, O. V.; Собко, О. В; Дидо, Р. А.; Мазурець, О. В.
    EN: Context. The paper proposes a solution to the urgent problem of detecting equipment defects by analyzing the vibrations of rotating machines. The object of study is the process of detecting defects by analyzing the vibrations of rotating machines. The subject of study is artificial intelligence methods for detecting defects by analyzing the vibrations of rotating machines. Objective. Improving the accuracy of detecting defects in the analysis of rotating machine vibrations by creating a method for neural network detection of defects in the analysis of rotating machine vibrations and a corresponding neural network model that can detect defects in the analysis of rotating machine vibrations without removal preliminary noise in order to preserve important features for more accurate classification. Method. A method of neural network defect detection based on the analysis of vibrations of rotating machines is proposed, which is capable of predicting the presence or absence of a defect based on the input data of vibrations with the implementation of preliminary processing, namely the creation of a two-dimensional time-frequency image. The method differs from the existing ones in that the defect analysis is performed without removing noise by fine-tuning the model parameters. Results. The proposed method of neural network detection of defects based on the analysis of rotating machines vibrations is implemented in the form of a web application and the effectiveness of the neural network model obtained by performing the steps of the method is studied. Conclusions. The study results show that the model has achieved high accuracy and consistency between training and validation data, which is confirmed by high values of such indicators as Accuracy, Precision, Recall і F1-Score on the validation dataset, as well as minimal losses. The cross-validation confirmed the stable efficiency of the model, demonstrating high averaged metrics and insignificant deviations from the obtained metrics. Thus, the neural network model detects defects in rotating machines with high efficiency even without cleaning vibration signals from noise. Prospects for further research are to test the described method and the resulting neural network model on larger data sets. UK: Актуальність. У роботі пропонується вирішення актуальної проблеми виявлення дефектів обладнання за аналізом вібрацій обертових машин. Об’єктом дослідження є процес виявлення дефектів за аналізом вібрацій обертових машин. Предметом дослідження є методи штучного інтелекту для виявлення дефектів за аналізом вібрацій обертових машин. Мета роботи. Підвищення точності виявлення дефектів за аналізом вібрацій обертових машин шляхом створення методу нейромережевого виявлення дефектів за аналізом вібрацій обертових машин та відповідної нейромережевої моделі, яка здатна виявляти дефекти за аналізом вібрацій обертових машин без попереднього видалення шумів з метою збереження важливих ознак для точнішої класифікації. Метод. Запропоновано метод нейромережевої виявлення дефектів на основі аналізу вібрацій обертових машин, який здатен за вхідними даними вібрацій з виконанням попередньої обробки, а саме створення двовимірного часово-частотного зобра-ження, зробити прогноз щодо наявності чи відсутності дефекту. Метод відрізняється від існуючих тим, що аналіз на дефекти проводиться без видалення шумів за рахунок тонкого налаштування параметрів моделі. Результати. Запропонований у роботі метод нейромережевої виявлення дефектів на основі аналізу вібрацій обертових машин реалізовано у вигляді вебзастосунку та проведено дослідження ефективності нейромережевої моделі, отриманої шляхом виконання кроків методу. Висновки. Результати дослідження показують, що модель досягла високої точності та узгодженості між тренувальними та валідаційними даними, що підтверджується високими значеннями таких показників, як Accuracy = 1.0, Precision = 1.0, Recall = 1.0 і F1-Score = 1.0 на валідаційному наборі даних, а також мінімальними втратами. Проведена крос-валідація підтвердила стабільну ефективність моделі, продемонструвавши високі усереднені метрики та незначні відхилення від отриманих метрик. Таким чином, нейромережева модель виявляє дефекти обертових машин з високою ефективністю навіть без очищення вібраційних сигналів від шумів. Перспективи подальших досліджень полягають в апробації описаного метода та отриманої нейромережевої моделі на більших наборах даних.
  • Item
    Keystroke dynamics recognition using nine-variate prediction ellipsoid for normalized data
    (Національний університет «Запорізька політехніка», 2025) Prykhodko, S. B.; Trukhov, A. S.; Приходько, С. Б.; Трухов, А. С.
    EN: Context. Keystroke dynamics recognition is a crucial element in enhancing security, enabling personalized user authentication, and supporting various identity verification systems. This study investigates the influence of data distribution on the performance of one-class classification models in keystroke dynamics, focusing on the application of a nine-variate prediction ellipsoid. The object of research is the keystroke dynamics recognition process. The subject of the research is a mathematical model for keystroke dynamics recognition. Unlike typical approaches assuming a multivariate normal distribution of data, real-world keystroke datasets often exhibit non-Gaussian distributions, complicating model accuracy and robustness. To address this, the dataset underwent normalization using the multivariate Box-Cox transformation, allowing the construction of a more precise decision boundary based on the prediction ellipsoid for normalized data. The objective of the work is to increase the probability of keystroke dynamics recognition by constructing a nine-variate prediction ellipsoid for normalized data using the Box-Cox transformation. Method. This research involves constructing a nine-variate prediction ellipsoid for data normalized using the Box-Cox transformation to improve keystroke dynamics recognition. The squared Mahalanobis distance is applied to identify and remove outliers, while the Mardia test assesses deviations from normality in the multivariate distribution. Estimates for parameters of multivariate Box-Cox transformation are derived using the maximum likelihood method. Results. The results demonstrate significant performance improvements after normalization, reaching higher accuracy and robustness compared to models built for non-normalized data. The application of the nine-variate Box-Cox transformation successfully accounted for feature correlations, enabling the prediction ellipsoid to better capture underlying data patterns. Conclusions. For keystroke dynamics recognition, a mathematical model in the form of the nine-variate prediction ellipsoid for data normalized using the multivariate Box-Cox transformation has been developed, which enhances the probability of recognition compared to models constructed for non-normalized data. However, challenges remain in determining the optimal normalization technique and selecting the significance level for constructing the prediction ellipsoid. These findings underscore the importance of careful feature selection and advanced data normalization techniques for further research in keystroke dynamics recognition. UK: Актуальність. Розпізнавання клавіатурного почерку є важливим елементом у підвищенні безпеки, що дозволяє реалізувати персоналізовану автентифікацію користувачів та підтримує різні системи перевірки особистості. Це дослідження вивчає вплив розподілу даних на ефективність моделей однокласової класифікації в задачах розпізнавання клавіатурного почерку, зосереджуючи увагу на застосуванні дев’ятивимірного еліпсоїда прогнозування. Об’єктом дослідження є процес розпізнавання клавіатурного почерку. Предметом дослідження є математичні моделі для розпізнавання клавіатурного почерку. На відміну від типових підходів, що передбачають багатовимірний нормальний розподіл даних, реальні набори даних часто відхилається від нього, що ускладнює побудову точних і надійних моделей. Для вирішення цієї проблеми дані були нормалізовані за допомогою багатовимірного перетворення Бокса-Кокса, що дозволило покращити вірогідність розпізнавання клавіатурного почерку за допомогою застосування еліпсоїда прогнозування для нормалізованих даних. Метою роботи є підвищення ймовірності розпізнавання клавіатурного почерку шляхом побудови дев’ятивимірного еліпсоїда прогнозування для нормалізованих даних із використанням багатовимірного перетворення Бокса-Кокса. Метод. Дослідження включає побудову дев’ятивимірного еліпсоїда прогнозування для даних, нормалізованих за допомогою перетворення Бокса-Кокса. Квадрат відстані Махаланобіса застосовується для виявлення та видалення викидів, а тест Мардіа оцінює відхилення багатовимірного розподілу від нормального. Оцінки параметрів багатовимірного перетворення Бокса-Кокса отримані методом максимальної правдоподібності. Результати. Результати показують значне підвищення вірогідності розпізнавання після нормалізації, що полягає у збільшені точності та надійності порівняно з моделями, побудованими для ненормалізованих даних. Застосування дев’яти-вимірного перетворення Бокса-Кокса дозволило краще врахувати кореляції між ознаками, що дозволило еліпсоїду прогнозування краще захоплювати складні закономірності даних. Висновки. Для розпізнавання клавіатурного почерку була розроблена математична модель у формі дев’ятивимірного еліпсоїда прогнозування для даних, нормалізованих із використанням багатовимірного перетворення Бокса-Кокса, що підвищує ймовірність розпізнавання в порівнянні з моделями, побудованими для ненормалізованих даних. Однак залишаються труднощі у визначенні оптимального методу нормалізації та виборі рівня значущості для побудови еліпсоїда прогнозування. Ці висновки підкреслюють важливість ретельного вибору ознак та застосування вдосконалених методів нормалізації даних для подальших досліджень у сфері розпізнавання клавіатурного почерку.
  • Item
    Approach to data dimensionality reduction and defect classification based on vibration analysis for maintenance of rotating machinery
    (Національний університет «Запорізька політехніка», 2025) Molchanova, M. O.; Didur, V. O.; Mazurets, O. V.; Молчанова, М. О.; Дідур, В. О.; Мазурець, О. В.
    EN: Context. The actual problem of effective intelligent diagnostics of malfunctions of rotating equipment is solved. The object of study is the process of data dimensionality reduction and defect classification based on vibration analysis for maintenance of rotating machines. The subject of study is the methods of dimension reduction and defect classification by vibration analysis. Objective. Development of an approach to data dimensionality reduction and defect classification based on vibration analysis for maintenance of rotating machines Method. The comprehensive approach to data dimensionality reduction and defect classification based on vibration analysis is proposed, which solves the problem of data dimensionality reduction for training classifiers and defect classification, and also solves the problem of building a neural network classifier capable of ensuring the speed of fault classification without loss of accuracy on data of reduced dimensionality. The approach differs from the existing ones by the possibility of using optional union and intersection operators when forming a set of significant features, which provides flexibility and allows to adapt to different contexts and data types, ensuring classification efficiency in cases of large-dimensional data. A denoising method allows to preserve important information, avoiding redundancy and improving the quality of data for further analysis. It involves calculating the signal-to-noise ratio, setting thresholds, and applying a fast Fourier transform that separates relevant features from noise. Applying the LIME method to a set of machine learning models allows to identify significant features with greater accuracy and interpretability. This contributes to more reliable results, as LIME helps to understand the influence of each feature on the final model solution, which is especially important when working with large datasets, where the importance of individual features may not be obvious. The implementation of optional operators of union and intersection of significant features provides additional flexibility in choosing an approach to defining important features. This allows the method to be adapted to different contexts and data types, ensuring efficiency even in cases with a large number of features. Results. The developed method was implemented in software and examined when solving the problem of defect classification based on vibration analysis for maintenance of rotating machines. Conclusions. The conducted experimental studies confirmed the high efficiency and workability of the proposed approach for reducing the dimensionality of data and classifying defects based on vibration analysis in the aspect of maintenance of rotating machines. Prospects for further research will be directed to the search for alternative neural network architectures and their training to reduce training time. UK: Актуальність. Вирішується актуальна проблема ефективної інтелектуальної діагностики несправностей обертового обладнання. Об’єктом дослідження є процес зменшення розмірності даних та класифікації дефектів за аналізом вібрацій для технічного обслуговування обертових машин. Предметом дослідження є методи зменшення розмірності та класифікації дефектів за аналізом вібрацій. Мета роботи – створення підходу до зменшення розмірності даних та класифікації дефектів за аналізом вібрацій для технічного обслуговування обертових машин Метод. Запропоновано комплексний підхід до зменшення розмірності даних та класифікації дефектів за аналізом вібрацій, що вирішує задачу зменшення розмірності даних для навчання класифікаторів та класифікації дефектів, а також вирішено задачу побудови нейромережевого класифікатора, що спроможний забезпечити швидкість класифікації несправностей без втрати точності на даних зменшеної розмірності. Підхід відрізняється від існуючих можливістю застосування опційних операторів об’єднання та перетину при формуванні множини значущих ознак, що надає гнучкість та дозволяє адаптуватись до різних контекстів та типів даних, забезпечуючи ефективність класифікації у випадках даних великої розмірності. Метод для очищення від шуму дозволяє зберігати важливу інформацію, уникаючи надлишковості та покращуючи якість даних для подальшого аналізу. Він передбачає обчислення співвідношення сигнал/шум, встановлення порогових значень та застосування швидкого перетворення Фур’є, що забезпечує виокремлення релевантних ознак від шумів. Використання методу LIME до множини моделей машинного навчання дозволяє визначити значущі ознаки з більшою точністю та інтерпретованістю. Це сприяє отриманню надійніших результатів, оскільки LIME допомагає зрозуміти вплив кожної ознаки на кінцеве рішення моделі, що особливо важливо при роботі з великими датасетами, де важливість окремих ознак може бути неочевидною. Впровадження опційних операторів об’єднання та перетину значущих ознак надає додаткову гнучкість у виборі підходу до визначення важливих ознак. Це дозволяє адаптувати метод до різних контекстів та типів даних, забезпечуючи ефективність навіть у випадках з великою кількістю ознак. Результати. Розроблений метод реалізовано програмно і досліджено при вирішенні задачі класифікації дефектів за аналізом вібрацій для технічного обслуговування обертових машин. Висновки. Проведені експериментальні дослідження підтвердили високу ефективність та працездатність запропонованого підходу для зменшення розмірності даних та класифікації дефектів за аналізом вібрацій в аспекті технічного обслуговування обертових машин. Перспективи подальших досліджень будуть направлені на пошуки альтернативних нейромережевих архітектур та їх навчання для зниження часу навчання.
  • Item
    Lightweight multi-scale convolutional transformer for aircraft fault diagnosis using vibration analysis
    (Національний університет «Запорізька політехніка», 2025) Didenko, Andrii Y.; Didenko, Artem Y.; Subbotin, S. A.; Діденко, Андрій Є.; Діденко, Артем Є.; Субботін, Сергій Олександрович
    EN: Context. Fault diagnosis in rotating machinery, especially in aircraft, plays an important role in health monitoring systems. Early and accurate fault detection can significantly reduce the cost of repair and increase the lifetime of the mechanism. To detect the fault efficiently, intelligent methods based on traditional machine learning and deep learning techniques are used. The object of the research is the process of detecting faults in aircraft based on vibration analysis. Objective of the work is the development of a deep learning method for fault diagnosis in rotating machinery with a high accuracy rate. Method. The proposed method employs Transformer architecture. The first stage of processing the vibration signal is the multi-scale feature extractor. This stage allows the model to examine input signals in different scales and reduce the impact of the noise. The second stage is the Convolutional Transformer neural network. The convolution was introduced to the Transformer to combine locality and long-range dependencies feature extraction. The Self-attention mechanism of the Transformer was changed to Channel Attention, which reduces the number of parameters but maintains the strength of the attention. To maintain this idea, similar changes were made in the position-wise feed-forward network. Results. The proposed method is tested on the aircraft vibration dataset. Two conditions were chosen for testing: limited data and noisy environment. The limited data condition is simulated by selecting a small number of samples into the training set (a maximum of 10 per class). The noisy environment condition is simulated by adding Gaussian noise to the raw signal. According to the obtained results, the proposed method achieves a high average precision metric rate with a small number of parameters. The experiments also show the importance of the proposed modules and changes, confirming the assumptions about the process of feature extraction. Conclusion. The results of the conducted experiments show that the proposed model can detect faults with almost perfect accuracy, even with a small number of parameters. The proposed lightweight model is robust in limited data conditions and noisy environment conditions. The prospects for further research are the development of fast and accurate neural networks for fault diagnosis and the development of limited data training techniques. UK: Актуальність. Діагностика несправностей обертових механізмів, особливо в авіації, відіграє важливу роль в системах моніторингу стану. Своєчасне і точне виявлення несправностей може значно знизити вартість ремонту і збільшити термін служби механізму. Для ефективного виявлення несправностей використовуються інтелектуальні методи, які базуються на традиційних методах машинного та глибинного навчання. Об'єктом дослідження є процес виявлення несправностей в авіаційних апаратах на основі аналізу вібрацій. Метою роботи є розробка методу глибинног навчання для діагностики несправностей обертових машин з високою точністю. Метод. Запропонований метод використовує архітектуру трансформера. Першим етапом обробки сигналу вібрації є багатомасштабне вилучення ознак. Цей етап дозволяє моделі розглядати вхідні сигнали в різних масштабах і зменшити впливи шуму. Другий етап – згорткова нейронна мережа з трансормером. Згортка була додана до трансформеру, щоб поєднати локальність і вилучення ознак далеких залежностей. Механізм самоуваги трансормеру було змінено на механізм канальної уваги, що зменшує кількість параметрів, але зберігає силу уваги. Щоб підсилити цю ідею, аналогічні зміни були зроблені в позиційній мережі прямого поширення. Результати. Запропонований метод протестовано на наборі даних з вібраціями авіаційного апарату. Для тестування було обрано дві умови: обмеженість обсягу даних та зашумлене середовище. Обмеженість обсягу даних імітується шляхом використання невелої кількості вибірок до навчального набору даних (максимум 10 на клас). Умова зашумленого середовища імітується шляхом додавання гауссівського шуму до вихідного сигналу. Згідно з отриманими результатами, запропонований метод досягає високої середньої точності при невеликій кількості параметрів. Експерименти також показують важливість запропонованих модулів і змін, підтверджуючи припущення про процес вилучення ознак. Висновки. Результати проведених експериментів показують, що запропонована модель може виявляти несправності з майже ідеальною точністю, навіть при невеликій кількості параметрів. Запропонована легковісна модель є стійкою в умовах обмеженого обсягу даних та зашумленого середовища. Перспективами подальших досліджень є розробка швидких і точних нейронних мереж для діагностики несправностей та розробка методів навчання на обмежених обсягах даних.
  • Item
    Математичне моделювання бойових дій з можливістю перерозподілу бойових ресурсів між ділянками зіткнення та розподілу резервів
    (Національний університет «Запорізька політехніка», 2025) Фурсенко, О. К.; Черновол, Н. М.; Fursenko, O. K.; Chernovol, N. M.
    UK: Актуальність. Математичні і комп’ютерні моделі динаміки бойових дій є важливим інструментом для прогнозування їх результату. Відомі моделі ланчестерівського типу були імітаційними і не враховували кінцеву мету і перерозподіл ресурсів в ході бойових зіткнень. В даній роботі пропонується оптимізаційна модель динаміки бойових дій між сторонами А і В на двох ділянках зіткнення, в основу якої покладено метод динамічного програмування з максимізацією цільової функції як функції втрат супротивника. Розроблена математична і комп’ютерна модель типової для сучасної війни ситуації ведення бойових дій між сторонами А і В на двох ділянках зіткнення з метою нанесення противнику максимальних втрат бойових ресурсів. Досягається ця мета шляхом перерозподілу ресурсів між ділянками зіткнення і введення на ці ділянки відповідних резервів. Мета роботи. Побудувати математичну і комп’ютерну моделі динаміки бойових дій між сторонами А і В на двох ділянках зіткнення, в яких метою сторони А є максимізація втрат сторони В шляхом використання трьох ресурсів (першим параметром є кількість бойових одиниць, яку має можливість сторона А розподілити по ділянкам зіткнення в початковий момент часу; другим параметром є кількість бойових одиниць, яку має перекинути сторона А з однієї ділянки на іншу в деякий наступний момент часу; третій параметр – це кількість бойових одиниць, яку має розподілити сторона А, використовуючи резерв) і шляхом моделювання знайти оптимальні значення цих параметрів. Метод. В основу математичної моделі покладено метод динамічного програмування з функцією цілі як функцією втрат супротивника, а параметрами є одиниці бойових ресурсів на різних ділянках зіткнення. Їх число змінюється шляхом перерозподілу між цими ділянками і введенням резервних бойових одиниць. Втрати противника визначаються за допомогою систем диференціальних рівнянь Ланчестера. Враховуючи складність цільової функції для пошуку її максимуму використовується мова програмування Python. Результати. Побудована математична модель і реалізована у вигдяді алгоритму компьютерна модель поставленої задачі, яка базується на поєднанні метода динамічного програмування з розв’язанням систем диференціальним рівнянь динаміки бою Ланчестера з певними початковими умовами на кожному з трьох етапів бою. За допомогою чисельного експерименту проаналізовано допустимість параметрів задачі (кількостей бойових одиниць сторони А, які відповідно розподіляються, перекидаються з ділянки на ділянку або із числа резерву на кожному етапі бою). В роботі запропоновано алгоритм у вигляді блок-схеми, який дозволяє для будь-яких початкових даних давати відповідь щодо оптимального розподілу ресурсів сторони А, в тому числі із числа резерву, на трьох етапах бою і підраховувати відповідні найбільші втрати противника в заданий момент часу або давати відповідь, що немає допустимих значень параметрів задачі, тобто задача при певних початкових даних не має розв’язання. Висновки. Наукова новизна полягає в тому, що розроблено математичну і комп’ютерну моделі динаміки бою на двох ділянках зіткнення, в якій враховується перерозподіл бойових ресурсів і резерву з метою нанесення противнику максимальних втрат. Чисельне моделювання за допомогою розробленого алгоритму дало можливість проаналізовати допустимість параметрів перерозподілу і резерву. На основі розглянутих прикладів зроблено висновок, що якщо задача не має розв’язання при певних даних, то це означає, що потрібно зменшити час перерозподілу бойових одиниць на одному або декількох етапах бою, тобто скоротити тривалість бою на певному етапі, тим самим можна прогнозувати час перерозподілу бойових ресурсів і резерву. EN: Context. Mathematical and computer models of the dynamics of combat operations are an important tool for predicting their outcome. The known Lanchester-type models were simulation models and did not take into account the ultimate goal and redistribution of resources during combat operations. This paper proposes an optimisation model of the dynamics of combat operations between parties A and B in two areas of collision, based on the method of dynamic programming with maximisation of the objective function as a function of enemy losses. The article develops a mathematical and computer model of a typical situation in modern warfare of combat operations between parties A and B in two areas of collision with the aim of inflicting maximum losses of combat resources on the enemy. This goal is achieved by redistributing resources between the areas of collision and introducing appropriate reserves to these areas. Objective. To build a mathematical and computer model of the dynamics of combat operations between parties A and B in two areas of collision, in which the goal of party A is to maximise the losses of party B by using three resources (the first is the number of combat units that party A can distribute across the areas of collision at the initial moment of time; the second is the number of combat units that party A must transfer from one area to another at some subsequent moment of time; the third is the number of combat units that party A must distribute using the reserve) and by modelling the Method. The mathematical model is based on the method of dynamic programming with the objective function as a function of enemy losses, and the parameters are units of combat resources in different areas of the clash. Their number is changed by redistributing them between these areas and introducing reserve combat units. The enemy’s losses are determined using Lanchester’s systems of differential equations. Given the complexity of the objective function, the Python programming language is used to find its maximum. Results. A mathematical model of the problem has been constructed and implemented, based on a combination of the dynamic programming method with the solution of Lanchester’s systems of differential equations of battle dynamics with certain initial conditions at each of the three stages of the battle. With the help of a numerical experiment, the admissibility of the parameters of the optimisation problem (the number of combat units of side A, which are appropriately distributed, transferred from area to area or from the reserve at each stage of the battle) is analysed. The developed Python program allows, for any initial data, to give an answer to the optimal allocation of resources of party A, including from the reserve, at three stages of the battle and to calculate the corresponding largest enemy losses at a given time or to give an answer that there are no valid values of the problem parameters, i.e. the problem has no solution for certain initial data. Conclusions. The scientific novelty lies in the development of mathematical and computer models of the dynamics of combat in two areas of collision, which takes into account the redistribution of combat resources and reserves in order to inflict maximum losses on the enemy. Numerical modelling made it possible to analyse the admissibility of redistribution and reserve parameters. Based on the examples considered, it is concluded that if the problem is unsolvable with certain data, it means that it is necessary to reduce the time of redeployment of combat units at one or more stages of the battle, i.e. to reduce the duration of the battle at a certain stage, thus allowing to predict the time of redeployment of combat resources.
  • Item
    Method for determining the structure of nonlinear models for time series processing
    (Національний університет «Запорізька політехніка», 2025) Pysarchuk, O. O.; Tuhanskykh, O. A.; Baran, D. R.; Писарчук, О. О.; Туганських, О. А.; Баран, Д. Р.
    EN: Context. The practice of today’s problems actualizes the increase in requirements for the accuracy, reliability and completeness of the results of time series processing in many applied areas. One of the methods that provides high-precision processing of time series with the introduction of a stochastic model of measured parameters is statistical learning methods. However, modern approaches to statistical learning are limited, for the most part, to simplified polynomial models. Practice proves that real data most often have a complex form of a trend component, which cannot be reproduced by polynomials of even a high degree. Smoothing of nonlinear models can be implemented by various approaches, for example, by the method of determining the parameters of nonlinear models using the differential spectra balance (DSB) in the scheme of differential-non-Taylor transformations (DNT). The studies proved the need for its modification in the direction of developing a conditional approach to determining the structure of nonlinear mathematical models for processing time series with complex trend dynamics. Objective. The development of a method for determining the structure of nonlinear by mathematical models for processing time series using DSB in DNT transformations. Method. The paper develops a method for constructing nonlinear mathematical models in the DNT transformation scheme. The modification of the method consists in controlling the conditions for the formation of a certain system of equations in the DSB scheme to search for the parameters of a nonlinear model with its analytical solutions. If the system is indeterminate, the nonlinear model is supplemented by linear components. In the case of an overdetermined system, its solution is carried out using the least squares norm. A defined system is solved by classical approaches. These processes are implemented with the control of stochastic and dynamic accuracy of models in the areas of observation and extrapolation. If the results of statistical learning are unsatisfactory in accuracy, the obtained values of the nonlinear model are used as initial approximations of numerical methods. Result. Based on carried-out research, a method for determining the structure of nonlinear models for processing time series using BDS in the scheme of DNT transformations is proposed. Its application provides a conditional approach to determining the structure of models for processing time series and increasing the accuracy of estimation at the interval of observation and extrapolation. Conclusions. The application of the proposed method for determining the structure of nonlinear models for processing time series allows obtaining models with the best predictive properties in terms of accuracy. UK: Актуальність. Практика задач сьогодення актуалізує підвищення вимог до точності, достовірності і повноти результатів обробки часових рядів в багатьох прикладних сферах. Одним із методів, що забезпечує високоточну обробку часових рядів із впровадженням стохастичної моделі виміряних параметрів є методи статистичного навчання. Однак, сучасні підходи до статистичного навчання обмежуються, здебільшого, спрощеними – лінійними за параметрами поліноміальними моделями. Практика доводить, що реальні дані найчастіше мають складну форму трендової складової, яка не може бути відтворена поліномами навіть високого ступеня. Згладжування нелінійних за параметрами моделей можливо реалізувати різними підходами, наприклад методом визначення параметрів нелінійних моделей з використанням балансу диференціальних спектрів (БДС) в схемі диференціально-нетейлорівських перетворень (ДНТ). Дослідження довели необхідність його модифікації в напрямку розробки обумовленого підходу до визначення структури нелінійних за параметрами математичних моделей для обробки часових рядів із складною динамікою тренду. Метою роботи є розробка методики визначення структури нелінійних за математичних моделей для обробки часових рядів з використанням БДС в ДНТ перетвореннях. Метод. В статті отримав розвиток метод побудови нелінійних за параметрами математичних моделей в схемі ДНТ перетворень. Модифікація методу полягає у контролі умов формування визначеної системи рівнянь в схемі БДС для пошуку параметрів нелінійної моделі з її аналітичним розв’язкам. Якщо система невизначена – нелінійна модель доповнюється лінійними за параметрами компонентами. У випадку перевизначеної системи – її розв’язок здійснюється з використанням норми найменших квадратів. Визначена система – розв’язується класичними підходами. Зазначені процеси реалізуються із контролем стохастичної та динамічної точності моделей да ділянках спостереження та екстраполяції. Якщо результати статистичного навчання є незадовільними за точністю – отримані значення нелінійної моделі використовуються як початкові наближення чисельних методів. Результат. На підстава проведених досліджень запропоновано методику визначення структури нелінійних за параметрами моделей для обробки часових рядів з використанням БДС в схемі ДНТ перетворень. Її застосування забезпечує обумовлений підхід до визначення структури моделей для обробки часових рядів та підвищення точності оцінювання на інтервалі спостереження та екстраполяції. Висновки. Застосування запропонованої в статті методики визначення структури нелінійних за параметрами моделей для обробки часових рядів дозволяє отримати моделі із кращими, за показником точності, прогностичними властивостями.
  • Item
    The states’ final probabilities analytical description in an incompletely accessible queuing system with refusals and with input flow of requirements’ groups
    (Національний університет «Запорізька політехніка», 2025) Gorodnov, V. P.; Druzhynin, V. S.; Городнов, В. П.; Дружинін, В. С.
    EN: Context. The basis for the creation and management of real queuing systems (QS) is the ability to predict their effectiveness. For the general case of such systems with refusals, with limited approachability of service devices and with a random composition of group requirements in the input flow, the prediction of their performance remains an unsolved problem. Objective. The research has the aim to find an analytical representation for final probabilities in the above-mentioned case of Markov QS, which allows us to predict the efficiency of its operation depending on the values of the parameters in its structure and control. Method. For the above-mentioned types of QS, the state probabilities can be described by a system of Kolmogorov’s differential equations, which for the stationary case is transformed into a homogeneous system of linearly dependent algebraic equations. For real QS in communication systems, the number of equations can be estimated by the degree set and amount to several thousand, which gives rise to the problem of their recording and numerical solution for a specific set of operating conditions parameters values. The predictive value of such a solution does not exceed the probability of guessing the numerical values of the QS operating conditions parameters set and for parameters with a continuous value, for example, for random time intervals between requests, is zero. The method used is based on the analytical transition to the description of QS states groups with the same number of occupied devices. At the same time, the desire to obtain the final probabilities of states in a form close to the Erlang formulas remains. The influence of the above-mentioned QS properties can be localized in individual recurrent functions that multiplicatively distort Erlang formulas. Results. For the above-mentioned types of QS, analytical calculation formulas for estimating the QS states final probabilities have been found for the first time, which makes it possible to predict the values of all known indicators of system efficiency. In this case, the deformation functions of the states groups’ probability distribution in QS have a recurrent form, which is convenient both for finding their analytical expressions and for performing numerical calculations. When the parameters of the QS operating conditions degenerate, the resulting description automatically turns into a description of one of known QS with failures, up to the Erlang QS. Conclusions. The analytical calculation expressions found for the final probabilities of the above-mentioned QS turned out to be applicable to all types of Markov QS with failures, which was confirmed by the results of a numerical experiment. As a result, it became possible to practically apply the obtained analytical description of the considered QS for operational assessments of developed and existing QS effectiveness in the possible range of their operating conditions. UK: Актуальність. Основою створення та управління реальними системами масового обслуговування є можливість прогнозу їхньої ефективності. Для загального випадку таких систем з відмовами, з неповною доступністю приладів обслуговування та з випадковим складом груп вимог у вхідному потоці прогноз ефективності їх роботи залишається не вирішеною проблемою. Метод. Для вищевказаних типів СМО ймовірності станів можна описати системою диференціальних рівнянь Колмогорова, яка для стаціонарного випадку перетворюється в однорідну систему лінійно залежних алгебраїчних рівнянь. Для реальних СМО в системах зв’язку кількість рівнянь може бути оцінена множиною-ступенем і досягати кількох тисяч, що породжує проблему їх запису та чисельного розв’язання для конкретного набору значень параметрів умов роботи. Прогностична цінність такого рішення не перевищує ймовірність вгадування числових значень параметрів умов роботи СМО, а для параметрів з безперервними значеннями, наприклад, для випадкових інтервалів часу між вимогами, дорівнює нулю. Використаний метод заснований на аналітичному переході до опису груп станів СМО з однаковою кількістю зайнятих пристроїв. При цьому прагнення отримати кінцеві ймовірності станів у формі, наближеній до формул Ерланга, залишається. Вплив згаданих вище властивостей СМО можна локалізувати в окремих рекурентних функціях, які мультиплікативно спотворюють формули Ерланга. Результати. Для вищезазначених типів СМО вперше знайдено аналітичні розрахункові формули для оцінки фінальних ймовірностей станів СМО, що дає змогу прогнозувати значення всіх відомих показників ефективності системи. У цьому випадку функції деформації розподілу ймовірностей груп станів у СМО мають рекурентний вигляд, що зручно як для знаходження їх аналітичних виразів, так і для чисельних розрахунків. Коли параметри умов роботи СМО вироджуються, результуючий опис автоматично перетворюється на опис однієї з відомих СМО з відмовами, аж до СМО Ерланга. Висновки. Знайдені аналітичні розрахункові вирази для фінальних ймовірностей вищезгаданої СМО виявилися застосовними до всіх типів Марківської СМО з відмовами, що підтверджено результатами чисельного експерименту. У результаті стало можливим практично застосовувати отриманий аналітичний опис розглянутої СМО для оперативних оцінок ефективності розробленої та існуючої СМО в можливому діапазоні умов їх функціонування.
  • Item
    Implicit curves and surfaces modeling with pseudo-gaussian interpolation
    (Національний університет «Запорізька політехніка», 2025) Ausheva, N. M.; Sydorenko, Iu. V.; Kaleniuk, O. S.; Kardashov, O. V.; Horodetskyi, M. V.; Аушева, Н. М.; Сидоренко, Ю. В.; Каленюк, О. С.; Кардашов, О. В.; Городецький М. В.
    EN: Context. With the contemporary development of topological optimization, and parametric and AI-guided design, the problem of implicit surface representation became prominent in additive manufacturing. Although more and more software packages use implicit modeling for design, there is no common standard way of writing, storing, or passing a set of implicit surfaces or curves over the network. The object of the study is one of the possible ways of such representation, specifically: modeling implicit curves and surfaces using pseudo-Gaussian interpolation. Objective. The goal of the work is the development of a modeling method that improved the accuracy of the implicit object representation wothout significant increase in memory used or processing time spent. Method. One of the conventional ways to model an implicit surface would be to represent its signed distance function (SDF) with its values defined on a regular grid. Then a continuous SDF could be obtained from the grid values by means of interpolation. What we propose instead is to store not SDF values but the coefficients of a pseudo-Gaussian interpolating function in the grid, which would enable picking the exact interpolation points before the SDF model is written. In this way we achieve better accuracy in the regions we’re interested the most in with no additional memory overhead. Results. The developed method was implemented in software for curves in 2D and validated against several primitive implicit curves of different nanture: circles, sqaures, rectangles with different parameters of the model. The method has shown improved accuaracy in general, but there were several classes of corner cases found for which it deserves further development. Conclusions. Pseudo-Gaussian interpolation defined as a sum of radial basis functions on a regular grid with points of interpolation defined in the proximity of the grid points generally allows to model an implicit surface more accurately than a voxel model interpolation does. The memory intake or computational toll isn’t much different in these two approaches. However, the interpolating points selection strategy and the choice of the best modeling parameters for each particular modeling problem remain an open quesition. UK: Актуальність. Із сучасним розвитком методів топологічної оптимізації, параметричного проектування і проектування на основі штучного інтелекту, проблема запису імпліцитних поверхонь у задачах 3D-друку стала надважливою. Хоча все більше програмних продуктів використовують імпліцитні моделі у проектуванні, єдиного стандарту для запису, а значить і для збереження та передачі таких моделей засобами комп’ютерних мереж, не існує. Об’єктом цього дослідження є один з можливих способів такого запису, а саме – моделювання імпліцитних кривих і поверхонь із використанням псевдогаусової інтерполяції. Мета роботи. Ціль роботи полягає у створенні способа моделювання імпліцитних кривих і поверхонь, із покращенною точністю без значних витрат пам’яті чи часу обчислення. Метод. Одним із загальноприйнятих способів запису функції знакової відстані (ФЗВ) є запис її значень на регулярній сітці. Такий спосіб ще називається 3D-зображення, 3D-бітмап, або воксельна модель. Неперервна ФЗВ може бути отримана із записаних значень за допомогою інтерполяції. Натомість пропонується записувати не значення ФЗВ, а значення коефіцієнтів псевдогаусової інтерполяційної функції, що дозволяє обирати точки інтерполяції до запису коефіцієнтів моделі. Таким чином можна досягти більш точного моделювання у найважливіших регіонах (див. рисунок 1) без використання додаткової пам’яті. Результати. Запропонований спосіб був імплементований у вигляді комп’ютерної програми для моделювання пласких імпліцитних кривих і провалідований на декількох примитивних моделях різного походження: колах, квадратах, прямокутниках, – із різними параметрами моделі. Вцілому, порявняно із інтерпольованими значеннями ФЗВ у точках решітки, метод показує кращу точність, але разом із тим має декілька граничних станів, у яких він потребує подальшого вивчення. Висновки. Псевдогаусова інтерполяція, визначена як сума радіальних базисних функцій на регулярній сітці із точками інтерполяції визначеними у ненульовому околі точок сітки в загальному випадку дозволяє моделювати імпліцитні криві і поверхні точніше ніж інтерполяція воксельної моделі. Разом з тим, оптимальна стратегія визначення точок інтерполяції і інших параметрів моделі для прикладного застосування лишається відкритою проблемою.
  • Item
    Assessment of the quality of detection of a radar signal with nonlinear frequency modulation in the presence of a non-stationary interfering background
    (Національний університет «Запорізька політехніка», 2025) Нryzo, A. A.; Kostyria, O. O.; Fedorov, A. V.; Lukianchykov, А. А.; Biernik, Ye. V.; Гризо, А. А.; Костиря, О. О.; Федоров, А. В.; Лук’янчиков, А. А.
    EN: Context. Signals with long duration frequency modulation are widely used in radar, which allows increasing the radiated energy without degrading the range resolution and with peak power limitations. Increasing the product of the spectrum width by the radio pulse duration causes the passive interference zone to stretch out from the range, which leads to an interference with a more uniform intensity distribution in space and reduces the potential signal detection capabilities. Real passive obstacles have a non-stationary power distribution in space elements, so the signal reflected from the target can be detected in the gaps of passive obstacles or in areas with a lower level of them, provided that it is assessed (mapping of obstacles) and the detection threshold is adaptively set by space elements. Therefore, it is relevant to conduct research to assess the quality of detection of signals reflected from airborne targets depending on the level of non-stationarity of the interference background. Objective. The aim of this work is to develop a methodology for assessing the influence of the level of the side lobes of signal correlation functions on the quality indicators of their detection in the presence of a non-stationary interference background of different intensity. Method. The quality indicators of detection of frequency-modulated signals were studied. The problem of assessing the influence of the level of the lateral lobes of the correlation function on the quality indicators of signal detection against a non-stationary passive interference was solved by determining the parameters of the generalised gamma power distribution of such an interference, depending on the shape of the autocorrelation function of the signal. Results. It is determined that for a high level of non-stationarity of the initial interference process for all signal models, the potential gain is almost the same and has a maximum value. In the case of reducing the level of non-stationarity of this process, the gain decreases. The traditional linear-frequency modulated signal gives a slightly worse result compared to nonlinear-frequency modulated signals. For all the studied frequency modulation laws, the gain is more noticeable when the requirements for signal detection quality are reduced. Conclusions. A methodology for estimating the quality indicators of detecting echo signals on an interfering background with varying degrees of non-stationarity is developed. To improve the energy performance of detecting small-sized airborne objects against the background of non-stationary passive interference, it is advisable to use signals with nonlinear frequency modulation and reduce the probability of correct target detection. UK: Актуальність. В радіолокації широке застосування знайшли сигнали з частотною модуляцією великої тривалості, що дозволяє без погіршення роздільної здатності за дальністю збільшити випромінювану енергію при обмеженнях на пікову потужність. Збільшення добутку ширини спектру на тривалість радіоімпульсу викликає розтягування зони пасивних перешкод з дальності, що призводить до появи перешкоди з більш рівномірним розподілом інтенсивності у просторі та знижує потенційні можливості з виявлення сигналу. Реальні пасивні перешкоди мають нестаціонарний розподіл потужності в елементах простору, за таких умов відбитий від цілі сигнал можна виявляти у розривах пасивних перешкод або на ділянках з меншим їх рівнем за умови його оцінювання (ведення карти перешкод) та адаптивного встановлення порогу виявлення за елементами простору. Тому є актуальним проведення досліджень з оцінки якості виявлення відбитих від повітряних цілей сигналів у залежності від рівня нестаціонарності перешкодового фону. Метою роботи є розробка методики для оцінки впливу рівня бічних пелюсток функцій кореляції сигналів на показники якості їх виявлення при наявності нестаціонарного перешкодового фону різної інтенсивності. Метод. Досліджувалися показники якості виявлення частотно-модульованих сигналів. Задачу оцінки впливу рівня бічних пелюсток функції кореляції на показники якості виявлення сигналів на фоні нестаціонарної пасивної перешкоди вирішено шляхом визначення параметрів узагальненого гама-розподілу потужності такої перешкоди в залежності від форми автокореляційної функції сигналу. Результати. Визначено, що для високого рівня нестаціонарності початкового перешкодового процесу для усіх моделей сигналів потенційний виграш майже однаковий та має максимальне значення. У разі зниження рівня нестаціонарності цього процесу виграш зменшується. Традиційний лінійно-частотно модульований сигнал дає у порівнянні з нелінійно-частотно модульованими сигналами дещо гірший результат. Для всіх досліджених законів частотної модуляції виграш більш відчутний за зниження вимог до показників якості виявлення сигналу. Висновки. Розроблено методику оцінки показників якості виявлення луна-сигналів на перешкодовому фоні з різним ступенем нестаціонарності. Для покращення енергетичних показників виявлення малорозмірних повітряних об’єктів на фоні нестаціонарних пасивних перешкод доцільно застосовувати сигнали з нелінійною частотною модуляцією та знижувати значення ймовірності правильного виявлення цілей.
  • Item
    The reserves for improving the efficiency of radar mti system with burst-to-burst probing pulse repetition frequency stagger
    (Національний університет «Запорізька політехніка», 2025) Atamanskiy, D. V.; Vasylyshyn, V. I.; Klуmchenko, V. Y.; Stovba, R. L.; Prokopenko, L. V.; Атаманський, Д. В.; Василишин, В. І.; Климченко, В. Й.; Стовба, Р. Л.; Прокопенко, Л. В.
    EN: Context. The development and improvement of technologies for creating unmanned aerial vehicles (UAVs) and their use in the military conflicts, particularly in the war in Ukraine, pose the task of effectively counteraction to UAVs. The most difficult targets for radar detection are small, low-speed UAVs flying at low altitudes. Therefore, the search for efficient methods of detecting, tracking, and identifying UAVs using both existing and new promising tools is a relevant task for scientific research. Objective. The analysis of the operation algorithm of the moving target indication (MTI) system based on the discrete Fourier transform in radars with burst-to burst probing pulse repetition frequency stagger and to propose the modernisation of the MTI system to increase the efficiency of UAV detection against passive interferences Method. The effectiveness of the methods is determined experimentally based on the results of simulation and their comparison with known results presented in the open literature. Results. It is shown that in the MTI system with burst-to burst probe pulse repetition frequency stagger, a non-adaptive filter for suppressing reflections from ground clutters (GC) and incoherent energy accumulation of pulses of the input burst are realized. These circumstances cause the losses in the ratio signal/(interference + inner noise). The proposals for improving the efficiency of the MTI system by transition to the construction of the MTI system with the structure “suppression filter and integration filter” are substantiated. They consist in the inclusion of a special filter for suppressing reflections from GC and fully coherent processing of the input burst pulses. The latter is realized by using the standard discrete Fourier transform (DFT) only as a integrating filter with a slight correction of the DFT algorithm. An algorithm for energy accumulation of the burst pulses using the current estimate of the inter-pulse phase incursion of the burst pulses reflected from the target is proposed. It is shown that this accumulation algorithm is close to the optimal one. The effectiveness of these proposals is analyzed in terms of the achievable signal-to-(interference+inner noise) ratio and the detection area compression ratio. It is shown that their implementation potentially leads to an increase in the detection range and an improvement in the measurement of UAV coordinates by about two times. The proposed ways are quite simply realized by digital processing used in this MTI system Conclusions The conducted research is a development of the existing theory and technique of radar detection and recognition of air targets. The scientific novelty of the obtained results is that the algorithms of inter-period signal processing in radar with burst-to burst probing pulse repetition frequency stagger, namely the accumulation of a bust by correcting the algorithm of the standard DFT, have been further developed. The practical value of the research lies in the fact that the implementation of the proposed proposals provides approximately twice the efficiency of detecting the signal reflected from the target, compared to the standard processing device UK: Актуальність. Розвиток і удосконалення технологій створення безпілотних літальних апаратів та їх застосування у військових конфліктах, зокрема у війні в Україні, ставить завдання ефективної протидії їм. Найбільш складними цілями для радіолокаційного виявлення є малорозмірні, малошвидкісні малі безпілотні літальні апарати (БПЛА) , що летять на малих висотах. Тому пошук ефективних способів виявлення, супроводження та ідентифікації БПЛА з використанням як існуючих, так і нових перспективних засобів є актуальним завданням наукових досліджень. Мета. Проаналізувати алгоритм роботи системи селекції рухомих цілей (СРЦ) на пристрої дискретного перетворення Фур’є в радіолокаційних станціях (РЛС) із по – пачковою вобуляцією частоти повторення зондувальних імпульсів і запропонувати модернізацію системи СРЦ для підвищення ефективності виявлення БПЛА на тлі пасивних завад. Метод. Ефективність методів визначається експериментально за результатами імітаційного моделювання та їхнього порівняння з відомими результатами, викладеними у відкритій літературі. Результати. Показано, що в системі СРЦ з по ‒ пачковою вобуляцією частоти повторення зондувальних імпульсів реалізується неадаптивний фільтр придушення віддзеркалень від місцевих предметів і некогерентне накопичення енергії імпульсів пачок імпульсів вхідного пакета. Вказані обставини обумовлюють втрати у відношенні сигнал/( завада + внутрішній шум ). Обґрунтовано пропозиції підвищення ефективності системі СРЦ за рахунок переходу до побудови системи СРЦ за структурою «фільтр придушення + фільтр накопичення». Вони полягають у включенні спеціального фільтра придушення віддзеркалень від місцевих предметів (МП) і повністю когерентну обробку імпульсів вхідного пакета. Останнє реалізується використанням штатного дискретного перетворення Фур’є (ДПФ) лише як фільтра – накопичувача з незначною корекцією алгоритму роботи ДПФ. Запропоновано алгоритм накопичення енергії імпульсів пакета, що використовує поточну оцінку міжімпульсного набігу фази імпульсів пакета, відбитих від цілі. Показано, що такий алгоритм накопичення близький до оптимального. Проаналізовано ефективність вказаних пропозиції за критерієм досяжного відношення сигнал/(завада+внутрішній шум) і коефіцієнта стиску зони виявлення. Показано, що їх реалізація потенціально приводить до збільшення дальності виявлення і покращення виміру координат БПЛА приблизно в 2 рази. Запропоновані шляхи доволі просто реалізуються цифровою обробкою, що використовується в даній системі СРЦ. Висновки. Проведені дослідження є розвитком існуючої теорії й техніки радіолокаційного виявлення і розпізнавання повітряних цілей. Наукова новизна отриманих результатів полягає в тому, що набули подальшого розвитку алгоритми міжперіодної обробки сигналів в РЛС з по – пачковою вобуляцією частити повторення зондувальних імпульсів, а саме накопичення пакету імпульсів за рахунок корекції алгоритму штатного ДПФ. Практична цінність досліджень полягає в тому, що реалізація запропонованих пропозицій забезпечує приблизно в двічі більшу ефективність виявлення сигналу, відбитого від цілі, у порівнянні з штатним пристроєм обробки.