Радіоелектроніка, інформатика, управління - 2025, №3 (74)

Permanent URI for this collectionhttps://eir.zp.edu.ua/handle/123456789/25167

Browse

Recent Submissions

Now showing 1 - 18 of 18
  • Item
    An innovative approximate solution method for an integer programming problem
    (Національний університет «Запорізька політехніка», 2025) Mamedov, K. Sh.; Niyazova, R. R.; Мамедов, К. Ш.; Ніязова, Р. Р.
    EN: Context. There are certain methods for finding the optimal solution to integer programming problems. However, these methods cannot solve large-scale problems in real time. Therefore, approximate solutions to these problems that work quickly have been given. It should be noted that the solutions given by these methods often differ significantly from the optimal solution. Therefore, the problem of taking any known approximate solution as the initial solution and improving it further arises. Objective. Initially, a certain approximate solution is found. Then, based on proven theorems, the coordinates of this solution that do not coincide with the optimal solution are determined. After that, new solutions are found by sequentially changing these coordinates. The one that gives the largest value to the functional among these solutions is accepted as the final solution. Method. The method we propose in this work is implemented as follows: First, a certain approximate solution to the problem is established, then the numbers of the coordinates of this solution that do not coincide with the optimal solution are determined. After that, new solutions are established by sequentially assigning values to these coordinates one by one in their intervals. The best of the solutions found in this process is accepted as the final innovative solution. Results. A problem was solved in order to visually illustrate the quality and effectiveness of the proposed method. Conclusions. The method we propose in this article cannot give worse results than any approximate solution method, is simple from an algorithmic point of view, is novel, can be easily programmed, and is important for solving real practical problems. UK: Актуальність. Існують певні методи знаходження оптимального розв’язку задач цілочисельного програмування. Однак ці методи не можуть вирішувати масштабні задачі в режимі реального часу. Тому було запропоновано наближені розв’язки цих задач, які працюють швидко. Слід зазначити, що розв’язки, отримані цими методами, часто суттєво відрізняються від оптимального розв’язку. Тому виникає проблема прийняття будь-якого відомого наближеного розв’язку як початкового розв’язку та його подальшого вдосконалення. Мета роботи Спочатку знаходиться певний наближений розв’язок. Потім, на основі доведених теорем, визначаються координати цього розв’язку, які не збігаються з оптимальним. Після цього, послідовно змінюючи ці координати, знаходять нові розв’язки. За остаточний розв’язок приймається той, який дає найбільше значення функціоналу серед цих розв’язків. Метод. Метод, який ми пропонуємо в цій роботі, реалізується наступним чином: Спочатку встановлюється певний наближений розв’язок задачі, потім визначаються номери координат цього розв’язку, які не збігаються з оптимальним розв’язком. Після цього встановлюються нові розв’язки шляхом послідовного присвоєння значень цим координатам по одному в їхніх інтервалах. Найкраще з розв’язків, знайдених у цьому процесі, приймається як остаточне інноваційне рішення. Результати. Було вирішено задачу з метою візуальної ілюстрації якості та ефективності запропонованого методу. Висновки. Метод, який ми пропонуємо в цій статті, не може дати гірших результатів, ніж будь-який метод наближеного рішення, простий з алгоритмічної точки зору, є новим, його можна легко програмувати та важливий для вирішення реальних практичних завдань.
  • Item
    Інженерний соціальний комп’ютинг
    (Національний університет «Запорізька політехніка», 2025) Хаханов, В. І.; Чумаченко, С. В.; Литвинова, Є. І.; Хаханова, Г. В.; Хаханов, І. В.; Обрізан, В. І.; Хаханова, І. В.; Максимова, Н. Г.; Hahanov, V. I.; Chumachenko, S. V.; Lytvynova, E. I.; Khakhanova, H. V.; Hahanov, I. V.; Obrizan, V. I.; Hahanova, I. V.; Maksymova, N. G.
    UK: Актуальність. Актуальність дослідження зумовлена необхідністю усунення протиріч між менеджментом та виконавцями шляхом запровадження інженерного соціального комп’ютингу, що забезпечує моральне управління соціальними процесами на основі їх метричного моніторингу. Мета. Мета дослідження – розробка інженерних архітектур моніторинга та управління соціальними процесами на основі векторної логіки. Метод. Дослідження орієнтоване на розробку інженерних векторно-логічних схем та архітектур управління соціальними процесами на основі їх вичерпного метричного моніторингу з метою створення комфортних умов для творчої праці. Даються визначення основних понять AI-розвитку. Вводиться рівняння комп’ютингу, як транзитивне замикання у тріаді відносин – як помилки, що створює нові структури, процеси чи явища. Розробляються механізми інтелектуального комп’ютингу, які поєднують алгоритми та структури даних детермінованого та ймовірнісного AI-комп’ютингу. Пропонуються механізми побудови моделей на основі універсуму примітивів, які мають Similarity по відношенню до їх використання для моделювання процесів (in-hardware synthesis, in-software programing, in neural network training, in-qubit quantization, in-memory modeling, in-truth table logic generation). Запроваджується метрика інтелектуального комп’ютингу, яка використовується для вибору архітектури та моделей обчислювальних процесів з метою отримати ефективні рішення практичних завдань. Результати. Запропоновано: 1) рівняння комп’ютингу як транзитивне замикання у тріаді відносин – як помилка, що створює нові структури, процеси чи явища; 2) механізми інтелектуального комп’ютингу, орієнтовані на істотне зниження часових та енергетичних витрат при вирішенні практичних завдань за рахунок обнулення алгоритмів обробки великих даних завдяки експоненційній надмірності розумних та надмірних AI-моделей; 3) механізми побудови моделей на основі універсуму примітивів, які мають Similarity по відношенню до їх використання для моделювання процесів. Висновки. Наукова новизна полягає у розробці наступних інноваційних рішень: 1) запропоновано тріаду відносин на основі xor-операції для вимірювання процесів та явищ у кіберсоціальному світі; 2) запропоновано архітектуру інтелектуального комп’ютингу для управління соціальними процесами на основі їх вичерпного моніторингу; 3) реалізації схем в архітектурі in-memory комп’ютингу, що дає можливість не використовувати інструкції процесора, тільки read-write транзакції на логічних векторах, що економить час та енергію для виконання алгоритмів аналізу великих даних; 4) запропоновано механізми синтезу векторно-логічних моделей соціальних процесів або явищ на основі унітарного кодування патернів на універсумі примітивів, орієнтованих на верифікацію, моделювання та тестування прийнятих рішень. Практична значимість дослідження полягає в тому, що запропонована метрика інтелектуального комп’ютингу використовується як метод для вибору архітектури та моделей обчислювальних процесів для одержання ефективних рішень практичних завдань. Інженерний соціальний комп’ютинг покликаний сприяти побудові миролюбних, справедливих і відкритих суспільств задля досягнення Цілей сталого розвитку ООН (ЦCР 16). EN: Context. The relevance of the study is due to the need to eliminate contradictions between management and performers by introducing engineering social computing, which ensures moral management of social processes based on their metric monitoring. Objective. The goal of the investigation is to develop engineering architectures for monitoring and managing social processes based on vector logic. Method. The research is focused on the development of engineering vector-logical schemes and architectures for management of social processes based on their comprehensive metric monitoring in order to create comfortable conditions for creative work. Definitions of the main concepts of AI development are given. Interesting fragments of the history of computing are given. The computing equation is introduced as a transitive closure in a triad of relations – in the form of an error that creates new structures, processes or phenomena. Mechanisms of intelligent computing are developed that combine algorithms and data structures of deterministic and probabilistic AI computing. Mechanisms for constructing models based on the universe of primitives that have Similarity in relation to their use for process modeling (in-hardware synthesis, in-software programming, in neural network training, in-qubit quantization, in-memory modeling, in-truth table logic generation) are proposed. An intelligent computing metric is introduced, which is used to select the architecture and models of computing processes in order to obtain effective solutions to practical problems. Results. The following is proposed: 1) the computing equation as a transitive closure in a triad of relations – in the form of an error that creates new structures, processes or phenomena; 2) mechanisms of intelligent computing aimed at a significant reduction in time and energy costs in solving practical problems by zeroing out algorithms for processing big data, due to the exponential redundancy of smart and redundant AI models; 3) mechanisms for constructing models based on the universe of primitives that have Similarity in relation to their use for modeling processes. Conclusions. Scientific novelty concludes the following innovative solutions: 1) a triad of relations based on the xor-operation for measuring processes and phenomena in the cyber-social world is proposed; 2) intelligent computing architectures are proposed for managing social processes based on their comprehensive monitoring; 3) the implementation of these schemes in the in-memory computing architecture makes it possible not to use processor instructions, only read-write transactions on logical vectors, which saves time and energy for the execution of big data analysis algorithms; 4) mechanisms for synthesizing vector-logical models of social processes or phenomena based on unitary coding of patterns on the universe of primitives are proposed, which are focused on verification, modeling and testing of decisions made. The practical significance of the study lies in the fact that the metric of intelligent computing is proposed, which is used as a method for selecting the architecture and models of computing processes to obtain effective solutions to practical problems. Engineering social computing is designed to contribute to the construction of peaceful, fair and open societies to achieve the Sustainable Development Goals (SDG 16).
  • Item
    Redundant robotic arm path planning using recursive random intermediate state algorithm
    (Національний університет «Запорізька політехніка», 2025) Medvid, A. Y.; Yakovyna, V. S.; Медвідь, А. Я.; Яковина, В. С.
    EN: Context. Collision-free path planning in joint space for redundant robotic manipulators remains a challenging task due to the high-dimensional configuration space and dynamically changing environments. Existing methods often struggle to balance search time and path quality, which is crucial for real-time applications. Objective. The aim of this study is to develop a new method to plan efficient, collision-free trajectories in real time for redundant robotic manipulators. Method. A novel sampling-based algorithm for collision-free joint space path planning for redundant robotic manipulators presented in this study. The algorithm is called the Recursive Random Intermediate State (RRIS). The RRIS algorithm primarily works by generating a set of random intermediate states and iteratively selecting the optimal one based on the number of collisions along the discretized path. Furthermore, the paper proposes an axis-aligned bounding box generation strategy and an early exit strategy to improve algorithm speed. Finally, repeated calls of the algorithm are proposed to improve its reliability. The performance of the RRIS algorithm is evaluated through a set of comprehensive tests and compared with the popular RRT Connect algorithm implemented in Open Motion Planning Library. Results. Experimental evaluations show that the RRIS algorithm under the test conditions produces collision-free paths with significantly shorter average lengths and reduces search time by approximately three times compared to the RRT Connect algorithm. Conclusions. The proposed RRIS algorithm demonstrates a promising approach to real-time path planning for redundant robotic manipulators. By combining strategic intermediate state sampling with efficient collision evaluation and early termination mechanisms, the algorithm offers a robust alternative to known methods. UK: Актуальність. Планування шляху без зіткнень в просторі суглобів для надлишкових роборук (роботизованих маніпуляторів) залишається складною задачею через високу вимірність конфігураційного простору і динамічну зміну середовища. Існуючі методи планування часто стикаються з труднощами у балансуванні між часом пошуку та якістю траєкторії, що є критично важливим для застосувань у режимі реального часу. Мета роботи – розробка нового методу планування траєкторій без зіткнень в режимі реального часу для роборук з надлишковими суглобами. Метод. У цьому дослідженні представлений новий алгоритм планування шляху без зіткнень у просторі суглобів для надлишкових роборук, що працює на основі генерації випадкових станів. Алгоритм отримав назву Рекурсивного Випадкового Проміжного Стану (РВПС). Принцип роботи алгоритму полягає у генерації набору випадкових проміжних станів із подальшим ітеративним вибором оптимального на основі кількості зіткнень уздовж дискретизованої траєкторії. Крім того, у статті пропонується стратегія побудови обмежувального прямокутного паралелепіпеда (bounding box) та стратегія раннього виходу для підвищення швидкості роботи алгоритму. Нарешті, для підвищення надійності пропонується повторне викликання алгоритму. Ефективність алгоритму РВПС оцінюється шляхом проведення комплексних тестів та порівнюється з популярним алгоритмом RRT Connect, реалізованим у бібліотеці Open Motion Planning Library. Результати. Експериментальні дослідження показують, що алгоритм РВПС за умов тестування забезпечує траєкторії без зіткнень зі значно коротшою середньою довжиною та скорочує час пошуку приблизно у три рази порівняно з алгоритмом RRT Connect. Висновки. Запропонований алгоритм РВПС демонструє перспективний підхід до планування траєкторій у режимі реального часу для надлишкових роботизованих маніпуляторів. Поєднуючи стратегічну вибірку проміжних станів із ефективною оцінкою зіткнень та механізмами раннього завершення, алгоритм пропонує надійну альтернативу відомим методам.
  • Item
    Methods for evaluating software accessibility
    (Національний університет «Запорізька політехніка», 2025) Kuz, Mykola; Yaremiy, Ivan; Yaremii, Hanna; Pikuliak Mykola; Lazarovych, Ihor; Kozlenko,‬ Mykola; Vekeryk, Denys; Кузь, М. В.; Яремій, І. П.; Яремій, Г. І.; Пікуляк, М. В.; Лазарович, І. М.; Козленко, М. І.; Векерик, Д. В.
    EN: Context. The development and enhancement of methods for evaluating software accessibility is a relevant challenge in modern software engineering, as ensuring equal access to digital services is a key factor in improving their efficiency and inclusivity. The increasing digitalization of society necessitates the creation of software that complies with international accessibility standards such as ISO/IEC 25023 and WCAG. Adhering to these standards helps eliminate barriers to software use for individuals with diverse physical, sensory, and cognitive needs. Despite advancements in regulatory frameworks, existing accessibility evaluation methodologies are often generalized and fail to account for the specific needs of different user categories or the unique ways they interact with digital systems. This highlights the need for the development of new, more detailed methods for defining metrics that influence the quality of user interaction with software products. Objective. Building a classification and mathematical model and developing accessibility assessment methods for software based on it. Methods. A method for assessing the quality subcharacteristic “Accessibility”, which is part of the “Usability” quality characteristic, has been developed. This enabled the analysis of a website’s inclusivity for individuals with visual impairments, and the formulation of specific recommendations for further improvements, which is a crucial step toward creating an inclusive digital environment. Results. Comparing to standardized approaches, a more detailed and practically oriented accessibility assessment methodology has been proposed. Using this methodology, an analysis of the accessibility of the main pages of Vasyl Stefanyk Precarpathian National University’s website was conducted, and improvements were suggested to enhance its inclusivity. Conclusions. This study presents the development of a classification and mathematical model, along with an accessibility assessment methodology for websites based on the ISO 25023 standard, and an analysis of the main pages of the university’s web portal. The identified quantitative accessibility indicators enable an evaluation of the web resource’s compliance with modern inclusivity requirements and provide recommendations for its improvement. The scientific novelty of this research lies in the development of assessment methods for the “Accessibility” quality subcharacteristic by introducing new subproperties and attributes of software quality, based on clearly defined metrics specifically adapted for evaluating the accessibility level of digital products for individuals with visual impairments. This approach ensures a more precise and objective determination of web resources’ compliance with inclusivity requirements, contributing to their effectiveness and usability for this user group. The practical significance of the obtained results lies in their applicability for objectively evaluating the accessibility of software products and web resources. UK: Актуальність. Розробка та вдосконалення методів оцінювання доступності програмних продуктів є актуальною задачею сучасної програмної інженерії, оскільки забезпечення рівного доступу до цифрових сервісів є ключовим фактором підвищення їхньої ефективності та інклюзивності. Зростаюча цифровізація суспільства вимагає створення програмного забезпечення, яке відповідає міжнародним стандартам доступності, таким як ISO/IEC 25023 та WCAG. Це дозволяє усувати бар’єри у використанні програмних продуктів людьми з різними фізичними, сенсорними та когнітивними потребами. Незважаючи на розвиток нормативних документів, існуючі методики оцінювання доступності часто мають узагальнений характер і не враховують специфічні потреби різних категорій користувачів, або особливості їх взаємодії з цифровими системами. Це створює необхідність розробки нових, більш деталізованих методів визначення показників, які впливають на якість взаємодії користувача із програмним продуктом. Мета. Побудова класифікаційної та математичної моделі і розробка на її основі методів оцінювання доступності програмного забезпечення. Методи. Розроблено метод оцінки підхарактеристики якості «Доступність», яка входить до складу характеристики якості «Зручність використання», що дало можливість виконати аналіз вебсайту на предмет інклюзивності для осіб із вадами зору та на його основі сформулювати конкретні рекомендації для подальшого вдосконалення, що є важливим кроком у напрямку створення інклюзивного цифрового середовища. Результати. Запропоновано більш деталізовану та практично орієнтовану методику оцінювання доступності, у порівнянні із стандартизованими методиками. Використовуючи розроблену методику здійснено аналіз доступності основних сторінок вебсайту Прикарпатського національного університету імені Василя Стефаника та запропоновано вдосконалення вебсайту для підвищення його інклюзивності. Висновки. У даному дослідженні виконано побудову класифікаційної та математичної моделі і розроблено методику оцінювання доступності вебсайтів на основі стандарту ISO 25023 та проведено аналіз основних сторінок вебпорталу університету. Визначені кількісні показники доступності дозволяють оцінити відповідність вебресурсу сучасним вимогам інклюзивності та сформувати рекомендації щодо його вдосконалення. Наукова новизна полягає в розробці методів оцінки підхарактеристики якості «Доступність» шляхом введення нових підвластивостей та атрибутів якості програмних продуктів, що ґрунтуються на чітко визначених метриках, спеціально адаптованих для оцінювання рівня доступності цифрових продуктів для осіб із порушеннями зору. Такий підхід забезпечує більш точне та об’єктивне визначення відповідності вебресурсів вимогам інклюзивності, що сприяє підвищенню їхньої ефективності та зручності використання для зазначеної категорії користувачів. Практичне значення отриманих результатів полягає в можливості їх застосування для об’єктивного оцінювання доступності програмних продуктів та веб-ресурсів.
  • Item
    Cardiac signal processing with algorithms using variable resolution
    (Національний університет «Запорізька політехніка», 2025) Kalmykov, V. G.; Sharypanov, A. V.; Vishnevskey, V. V.; Калмиков, В. Г.; Шарипанов, А. В.; Вишневський, В. В.
    EN: Context. The proposed paper relates to the field of cardiac signal processing, in particular, to the segmentation of the cardiac signal into cardiac cycles, as well as one of the most important features definition used in cardiac diagnosis, the T-wave end. Objective. The purpose and object of study is to develop an algorithm for processing the cardiac signal in the presence of interference that allows the identification of features necessary for diagnosis and, at the same time, does not distort the original signal as is usually the case when it is processed by band-pass digital filters to exclude interference, which leads to the original signal distortion and, possibly, loss of diagnostic features. The proposed Method involves representing the cardiac signal as part of some image contour. Cardiac signal processing consists first of all in segmentation into cardiac cycles. Usually, R-waves are used to segment the cardiac signal into cardiac cycles, i.e., the sequence of R-waves in the processed part of the cardiac signal is determined. When determining the R-wave, a model is used that assumes an increase in the signal followed by a decrease, and the increase (decrease) rate must be greater in absolute value than a certain predetermined value. For a selected segment of the cardiac signal, the sequence of R-waves is determined at different resolutions. The answer is the sequence that is repeated for the largest number of resolutions and that is used to segment the cardiac signal into cardiac cycles. The T-wave model can be represented as a sequence of curved arcs without breaks. In one of the common cases, the T-wave is determined by the largest maximum of the cardiac signal within the cardiac cycle, following the R-wave. The end of the T-wave is determined by the first minimum following the already determined maximum for the T-wave. As in the case of cardiac signal segmentation, the maximum of the T-wave and the T-wave end are determined at different resolutions, and the answer is considered to be those values that coincide at the largest number of used resolutions. Results. Algorithms for cardiac signal processing using variable resolution have been developed and experimentally verified, namely, the algorithm for segmentation of the cardiac signal into cardiac cycles and the algorithm for T-wave end detection, which is of great importance in cardiac diagnostics. Means of cardiac signal processing, using the proposed algorithms, do not change the processed cardiac signal, unlike traditional means that use filtering of the cardiac signal, distorting the cardiac signal itself, which leads to distortion of the processing result. Conclusions. Scientific novelty consists in the fact that algorithms of cardiac signal processing in the presence of interference using variable resolution typical of visual perception are proposed. The practical significance consists in the fact that the means of cardiac signal processing, using the proposed algorithms, do not change the processed cardiac signal, unlike traditional means that use filtering of the cardiac signal, distorting the cardiac signal itself, which leads to distortion of the processing result. The use of the presented tools in practical medical practice will lead to an improvement in the quality of cardiac diagnostics and, as a result, the quality of treatment. UK: Актуальність. Запропонована робота відноситься до області обробки кардіосигналів, зокрема, до сегментації кардіосигналу на серцеві цикли, а також до визначення однієї з найважливіших ознак, що використовується в кардіодіагностиці, – кінця зубця Т. Мета. Метою і завданням дослідження є розробка алгоритму обробки кардіосигналу в присутності завад, який дозволяє виділити необхідні для діагностики ознаки і, в той же час, не спотворює вихідний сигнал, як це зазвичай відбувається при його обробці смуговими цифровими фільтрами для виключення завад, що призводить до спотворення і можливої втрати діагностичних ознак. Запропонований метод полягає у представленні серцевого сигналу як частини контуру певного уявного зображення. Обробка серцевого сигналу полягає перш за все у сегментації на серцеві цикли. Зазвичай R-зубці використовують для сегментації серцевого сигналу на серцеві цикли, тобто визначають послідовність R-зубців в частині серцевого сигналу, що підлягає обробленню. При визначенні R-зубця використовується модель, яка передбачає збільшення сигналу з наступним його зменшенням, причому швидкість збільшення (зменшення) має бути за абсолютною величиною більшою, ніж певне задане значення. Для обраного сегмента серцевого сигналу послідовність R-зубців визначається з різними роздільними здатностями. Відповіддю є послідовність, яка повторюється для найбільшої кількості роздільних здатностей з тих, що були задіяні для сегментації серцевого сигналу на серцеві цикли. Модель Т-зубця можна представити як послідовність дуг кривих без розривів. В одному з поширених випадків Т-зубець визначається найбільшим максимумом серцевого сигналу в межах серцевого циклу, наступним за R-зубцем. Кінець Т-зубця визначається першим мінімумом, наступним за вже визначеним максимумом для Т-зубця. Як і у випадку сегментації серцевого сигналу, максимум Т-зубця і кінець Т-зубця визначаються при різних роздільних здатностях, а відповіддю вважаються ті значення, які збігаються при найбільшій кількості роздільних здатностей з тих, що були використані. Результати. Розроблено та експериментально перевірено алгоритми оброблення кардіосигналу, що використовують змінну роздільну здатність, а саме алгоритм сегментації серцевого сигналу на кардіоцикли та алгоритм виявлення кінця зубця Т, що має велике значення в кардіологічній діагностиці. Засоби оброблення серцевого сигналу, що використовують запропоновані алгоритми, не змінюють оброблений кардіосигнал, на відміну від традиційних засобів, які використовують фільтрацію серцевого сигналу, спотворюючи сам серцевий сигнал, що призводить до спотворення результату оброблення. Висновки. Наукова новизна полягає в тому, що запропоновано алгоритми обробки серцевого сигналу за наявності перешкод із використанням змінної роздільної здатності, характерної для зорового сприйняття. Практичне значення полягає в тому, що засоби оброблення кардіосигналу, які використовують запропоновані алгоритми, не спотворюють кардіосигнал, що оброблюється, на відміну від традиційних засобів, які використовують фільтрацію серцевого сигналу, що призводить до спотворення результату оброблення. Використання представленого інструментарію в практичній медичній практиці призведе до підвищення якості кардіологічної діагностики і, як наслідок, якості лікування.
  • Item
    Інформаційна технологія виявлення джерел дезінформації та неавтентичної поведінки користувачів чатів на основі методів NLP та машинного навчання
    (Національний університет «Запорізька політехніка», 2025) Висоцька, В. А.; Vysotska, V.
    UK: Актуальність. У сучасному цифровому середовищі поширення дезінформації та неавтентичної поведінки користувачів у чатах становить серйозну загрозу для суспільства. Методи опрацювання природної мови та машинного навчання пропонують ефективні підходи для виявлення та протидії таким загрозам. Метою дослідження є розробка інформаційної технології для автоматичного виявлення розповсюдження джерел україномовних фейкових новин та неавтентичної поведінки користувачів чатів, яка побудована за допомогою методів опрацювання природної мови та реалізована на основі технологій машинного навчання. Метод. Для реалізації проекту використано такі методи конструювання ознак, як статистичний показник TF-IDF, модель векторизації «Торба слів», розмічування частин мови. Для інших експериментів застосовані моделі векторизації FastText, W2V та Glove word2vec для отримання векторних представлень слів, а також розпізнавання тригерних слів (підсилюючі слова, абсолютні займенники та «блискучі» слова). Ідея полягає в знаходженні подібних за текстом/ значенням (lexical/ semantical) повідомлень, а також аналізі результатів поширення подібних повідомлень в часі та просторі. У якості основних алгоритмів моделювання використані Complement Naïve Bayes, Gaussian Naïve Bayes, HistGradientBoostingClassifier, Multinomial Naïve Bayes та RandomForest для виявлення джерел розповсюдження дезінформації та неавтентичної поведінки чатів. Результати. У даній статті розглядається розробка програмного забезпечення для виявлення пропагандистських повідомлень у соціальних мережах на основі аналізу текстових даних Twitter. Основна увага приділяється методам попередньої обробки текстів, векторизації даних та машинному навчанню для автоматичної класифікації повідомлень. Описано процес збору, підготовки та очищення даних, а також розглянуто різні підходи до навчання моделі та оцінки її ефективності. Проведено 9 експриментів для ріхних методів побереднього опрацювання даних, моделей векторизації та алгоритмів моделювання. Висновки. Створені моделі показує відмінні результати розпізнавання джерел розповсюдження пропаганди, фейків та дезінформації у соціальних мережах та онлайн засобах масової інформації. Найкращі результати на даний момент показує експеримент 5 на основні TF-IDF+ComplementNB. Високе значення recall для класу 1 (0,8) означає, що модель добре знаходить позитивні зразки, але для класу 0 вона менш ефективна (0,56). Відповідн овисоке значення precision для класу 1 (0,89) означає, що більшість зразків, передбачених як клас 1, є правильними. Низька точність для класу 0 (0,38) вказує на велику кількість помилкових передбачень. При цьому в серії проведених експериментів спостерігаються певні аномалії (зокрема в експерименті 7 на основі Glove+ RandomForest), які потребують подальшого дослідження. Отримані результати можуть бути використані для подальшого вдосконалення алгоритмів виявлення джерел розповсюдження дезінформації, неавтентичної поведінки чатів та шкідливого контенту для збільшення обороздатності країни. EN: Context. In the modern digital environment, the spread of disinformation and inauthentic behaviour of users in chat rooms poses a serious threat to society. Natural language processing and machine learning methods offer effective approaches to detecting and countering such threats. Objective of the study is to develop information technology for automatically detecting the spread of sources of Ukrainian-language fake news and inauthentic behaviour of chat users, which is built using natural language processing methods and implemented, based on machine learning technologies. Method. To implement the project, such feature construction methods as the TF-IDF statistical indicator, the Bag of Words vectorization model, and part-of-speech mark-up were used. For other experiments, the FastText, W2V, and Glove word2vec vectorization models were used to obtain vector representations of words, as well as to recognize trigger words (reinforcing words, absolute pronouns, and “shiny” words). The idea is to find similar messages in terms of text/meaning (lexical/semantical), as well as analyse the results of the distribution of similar messages in time and space. Complement Naïve Bayes, Gaussian Naïve Bayes, HistGradientBoostingClassifier, MultinomialNB and Random Forest were used as the main modelling algorithms to identify sources of disinformation and inauthentic chat behavior. Results. This article discusses the development of software for detecting propaganda messages in social networks based on the analysis of Twitter text data. The main attention is paid to the methods of text pre-processing, data vectorization and machine learning for message classification. The process of collecting, preparing and cleaning data is described, and various approaches to training the model and evaluating its effectiveness are considered. 9 experiments were conducted for the selected methods of post-processing data, vectorization models and modelling algorithms. Conclusions. The created models show excellent results in recognizing sources of propaganda, fakes and disinformation in social networks and online media. The best results so far are shown by experiment 5 on the main TF-IDF + Complement Naïve Bayes. The high recall value for class 1 (0.8) means that the model finds positive samples well, but for class 0 it is less effective (0.56). The correspondingly high precision value for class 1 (0.89) means that most of the samples predicted as class 1 are correct. The low precision for class 0 (0.38) indicates a large number of false predictions. At the same time, certain anomalies are observed in the series of experiments (in particular, in experiment 7 based on Glove + Random Forest), which require further research. The results obtained can be used to further improve the algorithms for detecting sources of disinformation, inauthentic chat behaviour and malicious content to increase the country’s transparency.
  • Item
    Simple, fast and scalable recommendation systems via external knowledge distillation
    (Національний університет «Запорізька політехніка», 2025) Androsov, D. V.; Nedashkovskaya, N. I.; Андросов, Д. В.; Недашківська, Н. І.
    EN: Context. Recommendation systems are important tools for modern businesses to generate more income via proposing relevant goods to clients and achieve more loyal attendees. With deep learning emergence and hardware capabilities evolution it became possible to grasp customer behavioral patterns in data-driven way. However, accuracy of prediction is dependent on complexity of system, and these factors lead to increased delay in model’s output. The object of the study is the task of issuing sequential recommendations, namely the next most relevant product, subject to restrictions on system response time. Objective. The goal of the research is the synthesis of a deep neural network that can retrieve relevant items for a large portion of users with minimal delay. Method. The proposed method of obtaining recommendation systems that leverages a mixture of Attention-based deep learning model architectures with application of knowledge graphs for prediction quality enhancement via explicit enrichment of recommendation candidate pool, demonstrates the benefits of decoder-only models and distillation learning framework. The latter approach was proven to demonstrate outstanding performance in solving recommendation retrieval task while responding fast for large user batch processing. Results. A model of a recommender system and a method for its training are proposed, combining the knowledge distillation paradigm and learning on knowledge graphs. The proposed method was implemented via two-tower deep neural network to solve recommendation retrieval problem. A system for predicting the most relevant proposals for the user has been built, which includes the proposed model and its training method, as well as ranking indicators MAP@k and NDCG@k to assess the quality of the models. A program has been developed that implements the proposed architecture of the recommendation system, with the help of which the problem of issuing the most relevant proposals has been studied. When conducting experiments on a large amount of real data from user visits to an online retail store, it was found that the proposed method for designing recommender systems guarantees high relevance of the recommendations issued, is fast and unpretentious to computing resources at the stage of receiving responses from the system. Conclusions. Series of conducted experiments confirmed that the proposed system effectively solves the problem in a short period of time, which is a strong argument in favor of its use in real conditions for large businesses that operate millions of visits per month and thousands of products. Prospects for further research within the given research topic include the use of other knowledge distillation methods, such as internal or self-distillation, the use of deep learning architectures other than the attention mechanism, and optimization of embedding vector storage. UK: Актуальність. Системи рекомендацій – важливі інструменти для сучасного бізнесу, які дають змогу отримувати більший дохід за рахунок пропозиції клієнтам відповідних товарів та залучення більш лояльних відвідувачів. З появою глибокого навчання та розвитком апаратних можливостей стало можливим уловлювати моделі поведінки клієнтів на основі даних. Однак точність прогнозу залежить від складності системи, і ці фактори призводять до збільшення затримки виведення на основі моделі. Об’єктом дослідження є задача видачі послідовних рекомендацій, а саме – наступного найбільш релевантного товару в умовах наявності обмежень по часу відповіді системи. Ціль. Метою дослідження є синтез глибокої нейронної мережі, яка з мінімальною затримкою може отримувати релевантні елементи для більшості користувачів. Метод. Пропонований метод отримання систем рекомендацій, який використовує поєднання архітектур моделей глибокого навчання на основі уваги із застосуванням графів знань для підвищення якості прогнозування за допомогою явного збагачення пулу кандидатів для рекомендацій, демонструє переваги моделей декодування та структури дистиляційного навчання. Було доведено, що підхід дистиляції знань є надзвичайно продуктивним під час вирішення завдань пошуку рекомендацій, одночасно швидко реагуючи на пакетну обробку великих обсягів даних користувачів. Результати. Запропоновано модель рекомендаційної системи та метод її навчання, що поєднує парадигму дистиляції знань та навчання на графах знань. Запропонований метод був реалізований через двобаштову глибоку нейронну мережу для вирішення проблеми пошуку рекомендацій. Побудовано систему прогнозування найбільш релевантних наступних пропозицій для користувача, яка включає пропоновану модель та метод її навчання, а також показники ранжування MAP@k та NDCG@k для оцінки якості роботи моделей. Розроблено програму, яка реалізує пропоновану архітектуру рекомендаційної системи, за допомогою якої досліджена проблема видачі найрелевантніших наступних пропозицій. Під час проведення експериментів на великій кількості реальних даних візитів користувачів до онлайн магазину роздрібної торгівлі було встановлено, що пропонований метод конструкції рекомендаційних систем гарантує високу релевантність виданих рекомендацій, є швидким та невибагливим до обчислювальних ресурсів на етапі отримання відповідей від системи. Висновки. Проведені експерименти підтвердили, що запропонована система ефективно вирішує поставлену задачу за малий проміжок часу, що є вагомим аргументом на користь її застосування в реальних умовах для великих бізнесів, що оперують мільйонами візитів на місяць та тисячами товарів. Перспективи подальших досліджень в рамках заданої теми дослідження включають в себе використання інших методів дистиляції знань, таких як внутрішня або само-дистиляція, використання відмінних від механізму уваги архітектур глибинного навчання, а також оптимізація сховища векторів вкладень.
  • Item
    Hierarchical machine learning system for functional diagnosis of eye pathologies based on the information-extremal approach
    (Національний університет «Запорізька політехніка», 2025) Shelehov, І. V.; Prylepa, D. V.; Khibovska, Y. O.; Tymchenko, О. А.; Шелехов, І. В.; Прилепа, Д. В.; Хібовська, Ю. О.; Тимченко, О. А.
    EN: Context. The task of information-extremal machine learning for the diagnosis of eye pathologies based on the characteristic signs of diseases is considered. The object of the study is the process of hierarchical machine learning in the system for diagnosing ophthalmological diseases. The aging population and the increasing prevalence of eye diseases, such as glaucoma, optic nerve atrophy, retinal detachment, and diabetic retinopathy, necessitate effective methods for early diagnosis to prevent vision loss. Traditional diagnostic methods largely rely on the experience of the physician, which can lead to errors. The use of artificial intelligence (AI) and machine learning (ML) can significantly improve the accuracy and speed of diagnosis, making this topic highly relevant. Objective. To enhance the functional efficiency of a computerized system for diagnosing eye pathologies based on image data. Method. A method of information-extremal hierarchical machine learning for a system of eye pathology diagnosis based on the characteristic signs of diseases is proposed. The method is based on a functional approach to modeling cognitive processes of natural intelligence, ensuring the adaptability of the diagnostic system under any initial conditions for the formation of pathology images and allowing flexible retraining of the system when the recognition class alphabet expands. The foundation of the method is the principle of maximizing the criterion of functional efficiency based on a modified Kullback information measure, which is a functional of the diagnostic rule precision characteristics. The learning process is considered as an iterative procedure for optimizing the parameters of the diagnostic system’s operation according to this information criterion. Based on the proposed categorical functional model, an information-extremal machine learning algorithm with a hierarchical data structure in the form of a binary recursive tree is developed. This data structure enables the division of a large number of recognition classes into pairs of nearest neighbors, for which the machine learning parameters are optimized using a linear algorithm of the necessary depth. Results. An intelligent technology for diagnosing eye pathologies has been developed, which includes a comprehensive set of information, algorithmic, and software components. A comparative analysis of the effectiveness of different methods for organizing decision rules during system training has been conducted. It was found that the use of recursive hierarchical classifier structures allows achieving higher diagnostic accuracy compared to binary classifiers. Conclusions. The developed intelligent computer-based diagnostic system for eye pathologies demonstrates high efficiency and accuracy. The implementation of such a system in medical practice could significantly improve the quality of eye disease diagnostics, reduce the workload on physicians, and minimize the risk of misdiagnosis. Further research could focus on refining algorithms and expanding their application to other types of medical images. UK: Актуальність. Розглянуто задачу інформаційно-екстремального машинного навчання системи діагностування патологій ока за характерними ознаками захворювань. Об’єктом дослідження є процес ієрархічного машинного навчання системи діагностування офтальмологічних захворювань. Старіння населення та поширення захворювань очей, таких як глаукома, атрофія зорового нерва, відшарування сітківки та діабетична ретинопатія, вимагають ефективних методів ранньої діагностики для запобігання втрати зору. Традиційні методи діагностики значною мірою залежать від досвіду лікаря, що може призводити до помилок. Використання штучного інтелекту (ШІ) та машинного навчання (МН) може суттєво покращити точність і швидкість діагностування, що робить цю тему надзвичайно актуальною. Мета. Підвищення функціональної ефективності комп’ютеризованої системи діагностування патологій ока на основі зображень. Метод. Запропоновано метод інформаційно-екстремального ієрархічного машинного навчання для системи діагностування патологій ока на основі характерних ознак захворювань. Метод базується на функціональному підході до моделювання когнітивних процесів природного інтелекту, що забезпечує адаптивність системи діагностування за будь-яких початкових умов формування зображень патологій і дозволяє гнучко перенавчати систему при збільшення потужності алфавіту класів розпізнавання. Основою методу є принцип максимізації критерію функціональної ефективності на базі модифікованої інформаційної міри Кульбака, яка є функціоналом від точносних харатеристик діагростичних правил. Процес навчання розглядається як ітераційна процедура оптимізації параметрів роботи системи діагностування за цим інформаційним критерієм. На основі запропонованої категорійної функціональної моделі розроблено алгоритм інформаційно-екстремального машинного навчання з ієрархічною структурою даних у вигляді бінарного декурсивного дерева. Така структура даних дозволяє розділяти велику кількість класів розпізнавання на пари найближчих сусідів, для яких параметри машинного навчання оптимізуються за лінійним алгоритмом необхідної глибини. Результати. Розроблено інтелектуальну технологію діагностики патологій ока, яка включає комплекс інформаційного, алгоритмічного та програмного забезпечення. Проведено порівняльний аналіз ефективності різних методів організації вирішальних правил у процесі навчання системи. Виявлено, що використання декурсивних ієрархічних структур класифікаторів дозволяє досягти вищої точності діагностики у порівнянні з бінарними класифікаторами. Висновки. Розроблена інтелектуальна система комп’ютерного діагностування патологій ока демонструє високу ефективність та точність. Впровадження такої системи у медичну практику може суттєво підвищити якість діагностики очних захворювань, знизити навантаження на лікарів та мінімізувати ризик помилкових діагнозів. Подальші дослідження можуть бути спрямовані на вдосконалення алгоритмів та розширення їх застосування на інші типи медичних зображень.
  • Item
    Hybrid machine learning technologies for predicting comprehensive activities of industrial personnel using smartwatch data
    (Національний університет «Запорізька політехніка», 2025) Pavliuk, O. M.; Medykovskyy, M. O.; Mishchuk, M. V.; Zabolotna, A. O.; Litovska, O. V.; Павлюк, О. М.; Медиковський, М. О.; Міщук, М. В.; Заболотна, А. О.; Літовська, О. В.
    EN: Context. In today’s industrial development, significant attention is paid to systems for recognizing and predicting human activity in real time. Such technologies are key to the transition from the concept of Industry 4.0 to Industry 5.0, as they allow for improved interaction between man and machine, as well as to ensure a higher level of safety, adaptability and efficiency of production processes. These approaches are particularly relevant in the field of internal logistics, where cooperation with autonomous vehicles requires a high level of coordination and adaptability. Objective. To create a technological solution for the prompt detection and prediction of complex human activity in the internal logistics environment by using sensor data from smart watches. The main goal is to improve cooperation between employees and automated systems, increase occupational safety and efficiency of logistics processes. Method. A decentralized data collection system using smart watches has been developed. A mobile application in Kotlin was created to capture sensor readings during a series of logistics actions performed by five workers. To process incomplete or distorted data, anomaly detection algorithms were applied, including STD, logarithmic transformation of STD, DBSCAN, and IQR, as well as smoothing methods such as moving average, weighted moving average, exponential smoothing, local regression, and Savitsky-Goley filter. The processed data were used to train models, with the employment of such advanced techniques as transfer learning, continuous wavelet transform, and classifier stacking. Results. The pre-trained deep model with the DenseNet121 architecture was chosen as the base classifier, which showed an F1-metric of 91.01% in recognizing simple actions. Five neural network architectures (single- and multi-layer) with two data distribution strategies were tested to analyze complex activity. The highest accuracy – F1-metric 87.44% – was demonstrated by the convolutional neural network when using a joint approach to data distribution. Conclusions. The results of the study indicate the possibility of applying the proposed technology for real-time recognition of complex human activities in intra-logistics systems based on data from smart-watch sensors, which will improve human-machine interaction and increase the efficiency of industrial logistics processes. UK: Актуальність. У сучасному промисловому виробництві значна увага приділяється системам розпізнавання та прогнозування людської активності в реальному часі. Такі технології є ключовими для переходу від Індустрії 4.0 до Індустрії 5.0, оскільки вони забезпечують покращену взаємодію між людиною і машиною, а також вищий рівень безпеки, адаптивності та ефективності виробничих процесів. Ці підходи особливо актуальні в галузі внутрішньої логістики, де співпраця з автоматизованими транспортними засобами вимагає високого рівня координації та гнучкості. Мета. Створити технологічне рішення для оперативного виявлення та прогнозування складної поведінки людини у системах внутрішньої логістики шляхом використання сенсорних даних зі розумних годинників. Основна ціль – підвищити рівень взаємодії між працівниками та автоматизованими системами, збільшити безпеку праці й ефективність логістичних процесів. Метод. Розроблено децентралізовану систему збору даних із використанням розумних годинників. У мобільному додатку, написаному мовою Kotlin, фіксувалися показники сенсорів під час виконання серії логістичних активностей п’ятьма працівниками. Для обробки неповних або спотворених даних застосовано алгоритми виявлення аномалій, зокрема STD, логарифмічне перетворення STD, DBSCAN та IQR, а також методи згладжування, такі як ковзне середнє, зважене ковзне середнє, експоненційне згладжування, локальна регресія й фільтр Савіцького-Голея. Оброблені дані використовувалися для навчання моделей із застосуванням таких сучасних підходів, як передавальне навчання, неперервне вейвлет-перетворення та стекінг класифікаторів. Результати. У ролі базового класифікатора обрано попередньо натреновану глибоку модель з архітектурою DenseNet121, яка показала F1-метрику 91,01 % при розпізнаванні простих дій. Для аналізу складних активностей випробувано п’ять архітектур нейронних мереж (однашарових і багатошарових) з двома стратегіями розподілу даних. Найвищу точність – F1-метрику 87,44 % – продемонструвала згорткова нейронна мережа при використанні об’єднаного підходу до розподілу даних. Висновки. Результати дослідження свідчать про можливість застосування запропонованої технології розпізнавання складної людської діяльності в режимі реального часу в інтралогістичних системах на основі даних з сенсорів смартгодинника яка покращить взаємодію людини та машини та підвищить ефективність промислових логістичних процесів.
  • Item
    Multi-scale temporal gan-based method for high-resolution and motion stable video enhancement
    (Національний університет «Запорізька політехніка», 2025) Maksymiv, M. R.; Rak, T. Y.; Максимів, М. Р.; Рак, Т. Є.
    EN: Context. The problem of improving the quality of video images is relevant in many areas, including video analytics, film production, telemedicine and surveillance systems. Traditional video processing methods often lead to loss of details, blurring and artifacts, especially when working with fast movements. The use of generative neural networks allows you to preserve textural features and improve the consistency between frames, however, existing methods have shortcomings in maintaining temporal stability and the quality of detail restoration. Objective. The goal of the study is the process of generating and improving video images using deep generative neural networks. The purpose of the work is to develop and study MST-GAN (Multi-Scale Temporal GAN), which allows you to preserve both spatial and temporal consistency of the video, using multi-scale feature alignment, optical flow regularization and a temporal discriminator. Method. A new method based on the GAN architecture is proposed, which includes: multi-scale feature alignment (MSFA), which corrects shifts between neighboring frames at different levels of detail; a residual feature boosting module to restore lost details after alignment; optical flow regularization, which minimizes sudden changes in motion and prevents artifacts; a temporal discriminator that learns to evaluate the sequence of frames, providing a consistent video without flickering and distortion. Results. An experimental study of the proposed method was conducted on a set of different data and compared with other modern analogues by the metrics SSIM, PSNR and LPIPS. As a result, values were obtained that show that the proposed method outperforms existing methods, providing better frame detail and more stable transitions between them. Conclusions. The proposed method provides improved video quality by combining detail recovery accuracy and temporal frame consistency. UK: Актуальність. Проблема покращення якості відеозображень є актуальною у багатьох сферах, включаючи відеоаналітику, кіновиробництво, телемедицину та системи спостереження. Традиційні методи відеообробки часто призводять до втрати деталей, розмиття та артефактів, особливо при роботі зі швидкими рухами. Використання генеративних нейромереж дозволяє зберігати текстурні особливості та покращувати узгодженість між кадрами, проте існуючі методи, такі як EDVR, RBPN та TecoGAN, мають недоліки у збереженні часової стабільності та якості відновлення деталей. Об’єкт дослідження є процес генерації та покращення відеозображень за допомогою глибоких генеративних нейромереж. Мета роботи – розробка та дослідження MST-GAN (Multi-Scale Temporal GAN), що дозволяє зберігати як просторову, так і часову узгодженість відео, використовуючи багатомасштабне вирівнювання ознак, регуляризацію оптичного потоку та часовий дискримінатор. Метод. Запропоновано новий метод на основі архітектури GAN, який включає: багатомасштабне вирівнювання ознак (MSFA), що коригує зсуви між сусідніми кадрами на різних рівнях деталізації; модуль резидуального підсилення (Residual Feature Boosting) для відновлення втрачених деталей після вирівнювання; регуляризацію оптичного потоку (Optical Flow Regularization), що мінімізує різкі зміни руху та запобігає артефактам; часовий дискримінатор (Temporal Discriminator), який навчається оцінювати послідовність кадрів, забезпечуючи узгоджене відео без миготінь і спотворень. Результати. Проведено експериментальне дослідження запропонованого методу на наборі різних даних та порівняно з іншими сучасними аналогами за метриками SSIM, PSNR та LPIPS . В результаті отримали значення, що показують, що запропонований метод перевершує існуючі методи, забезпечуючи кращу деталізацію кадрів та стабільніші переходи між ними. Висновки. Запропонований метод забезпечує покращену якість відео, поєднуючи точність відновлення деталей та часову узгодженість кадрів.
  • Item
    A neural network approach to semantic segmentation of vehicles in very high resolution images
    (Національний університет «Запорізька політехніка», 2025) Kashtan, V. Yu.; Hnatushenko, V. V.; Udovyk, I. M.; Kazymyrenko, O. V.; Radionov, Y. D.; Каштан, В. Ю.; Гнатушенко, В. В.; Удовик, І. М.; Казимиренко, О. В.; Радіонов, Є. Д.
    EN: Context. The semantic segmentation of vehicles in very high resolution aerial images is essential in developing intelligent transportation systems. It allows for the automation of real-time traffic management and the detection of congestion and emergencies. Objective. This work aims to develop and evaluate the effectiveness of a neural network approach to semantic segmentation in very high resolution aerial images, which provides high detail and correct reproduction of object boundaries. Method. The DeepLab architecture with ResNet-101 as a backbone is used for gradient preservation and multiscale feature analysis. We trained on DOTA data and retrained on specialized sets with classes: vehicles, green areas, buildings, and roads. A loss function based on the Dice coefficient was applied to reduce the imbalance of classes. It effectively solves the class imbalance problem and improves the accuracy of segmenting objects of different sizes. Using ResNet-101 instead of Xception in the backbone network allows us to maintain the gradient as the network depth increases. Results. Experimental studies have confirmed the effectiveness of the proposed approach, which achieves a segmentation accuracy of more than 90%, outperforming existing analogs. The use of multiscale feature analysis allows for preserving the texture features of objects, reducing false classifications. A comparative study with U-Net, SegNet, FCN8s, and other methods confirms the higher performance of the proposed approach in terms of mIoU (82.3%) and Pixel Accuracy (95.1%). Conclusions. The experiments confirm the effectiveness of the proposed method of semantic segmentation of vehicles in ultra-high spatial resolution images. Using DeepLab v3+ResNet-101 significantly improves the quality of vehicle segmentation in an urbanized environment. Excellent metric performance makes it promising for infrastructure monitoring and traffic planning tasks. Further research will focus on adapting the model to new datasets. UK: Актуальність. Семантична сегментація транспортних засобів на аерокосмічних зображеннях надвисокого просторового розрізнення є важливим завданням для розвитку інтелектуальних транспортних систем, дозволяє автоматизувати управління дорожнім рухом у реальному часі, виявляти затори та аварійні ситуації. Мета роботи – розробка та оцінка ефективності нейромережевого підходу для сегментації транспортних засобів на аерокосмічних зображеннях надвисокого розрізнення, що забезпечує високу деталізацію та коректне відтворення границь об’єктів. Метод. Використано архітектуру DeepLab із ResNet-101 як Backbone для збереження градієнтів і багатомасштабного аналізу ознак. Проведено навчання на даних DOTA та донавчання на спеціалізованих наборах із класами: транспортні засоби, зелені зони, будівлі, дороги. Для зменшення дисбалансу класів застосовано функцію втрат на основі коефіцієнта Dice. Це дозволяє ефективно вирішити проблему дисбалансу класів та покращити точність сегментації об’єктів різних розмірів. Використання ResNet-101 замість Xception у магістральній мережі дозволяє зберегти градієнт при збільшенні глибини мережі. Результати. Експериментальні дослідження підтвердили ефективність запропонованого підходу, що досягає точності сегментації понад 90%, перевершуючи існуючі аналоги. Використання багатомасштабного аналізу ознак дозволяє зберігати текстурні особливості об’єктів, зменшуючи хибні класифікації. Порівняльний аналіз із методами U-Net, SegNet, FCN8s та іншими підтверджує вищу продуктивність запропонованого підходу за метриками mIoU (82.3%) та Pixel Accuracy (95.1%). Висновки. Експерименти підтверджують ефективність запропонованого методу семантичної сегментації транспортних засобів на зображеннях надвисокого просторового розрізнення. Використання DeepLab v3+ ResNet-101 значно покращує якість сегментації транспортних засобів в урбанізованому середовищі. Високі метричні показники роблять його перспективним для застосування у задачах інфраструктурного моніторингу та планування дорожнього руху. Подальші дослідження будуть зосереджені на адаптації моделі до нових наборів даних.
  • Item
    Urban scene segmentation using homogeneous U-Net ensemble: a study on the cityscapes dataset
    (Національний університет «Запорізька політехніка», 2025) Hmyria, I. O.; Kravets, N. S.; Гмиря, І. О.; Кравець, Н. С.
    EN: Context. Semantic segmentation plays a critical role in computer vision tasks such as autonomous driving and urban scene understanding. While designing new model architectures can be complex, improving performance through ensemble techniques applied to existing models has shown promising potential. This paper investigates ensemble learning as a strategy to enhance segmentation accuracy without modifying the underlying U-Net architecture. Objective. The aim of this work is to develop and evaluate a homogeneous ensemble of U-Net models trained with distinct initialization and data augmentation techniques, and to assess the effectiveness of various ensemble aggregation strategies in improving segmentation performance on complex urban dataset. Method. The proposed approach constructs an ensemble of five structurally identical U-Net models, each trained with unique weight initialization and augmentation schemes to ensure prediction diversity. Several ensemble strategies are examined, including softmax averaging, max voting, proportional weighting, exponential weighting, and optimized weighted voting. Evaluation is conducted on the Cityscapes dataset using a range of segmentation metrics. Results. Experimental findings demonstrate that ensemble models outperform individual U-Net instances and the baseline in terms of accuracy, mean IoU, and specificity. The optimized weighted ensemble achieved the highest accuracy (87.56%) and mean IoU (0.6504), exceeding the best individual model by approximately 3%. However, these improvements come with a notable increase in inference time, highlighting a trade-off between accuracy and computational efficiency. Conclusions. The ensemble-based approach effectively enhances segmentation accuracy while leveraging existing model architectures. Although the increased computational cost presents a limitation for real-time applications, the method is well-suited for high-precision tasks. Future research will focus on reducing inference time and extending the ensemble methodology to other architectures and datasets. UK:
  • Item
    Method of parallel hybrid search for large-scale code repositories
    (Національний університет «Запорізька політехніка», 2025) Boiko, V. O.; Бойко, В. О.
    EN: Modern software systems contain extensive and growing codebases, making code retrieval a critical task for software engineers. Traditional code search methods rely on keyword-based matching or structural analysis but often fail to capture the semantic intent of user queries or struggle with unstructured and inconsistently documented code. Recently, semantic vector search and large language models (LLMs) have shown promise in enhancing code understanding. The problem – is designing a scalable, accurate, and hybrid code search method capable of retrieving relevant code snippets based on both textual queries and semantic context, while supporting parallel processing and metadata enrichment. Objective. The goal of the study is to develop a hybrid method for semantic code search by combining keyword-based filtering and embedding-based retrieval enhanced with LLM-generated summaries and semantic tags. The aim is to improve accuracy and efficiency in locating relevant code elements across large code repositories. UK: Актуальність. Сучасні програмні системи містять великі кодові бази, що робить пошук коду критично важливим завданням для розробників програмного забезпечення. Традиційні методи пошуку коду спираються на співставлення за ключовими словами або структурний аналіз, але часто не здатні відобразити семантичний зміст запитів користувачів або мають проблеми з неструктурованим та непослідовно задокументованим кодом. Останнім часом семантичний векторний пошук і великі мовні моделі (LLM) показали перспективи в покращенні розуміння коду. Проблема полягає в розробці масштабованого, точного та гібридного методу пошуку коду, здатного знаходити відповідні фрагменти коду на основі як текстових запитів, так і семантичного контексту, при цьому підтримуючи паралельну обробку та пошуку на основі метаданих. Мета роботи – розробка гібридного методу семантичного пошуку коду шляхом комбінування фільтрації за ключовими словами та пошуку на основі вбудованих представлень, доповненого сумаризацією та семантичними тегами, згенерованими за допомогою LLM для підвищення точності та ефективності пошуку відповідних елементів коду у великих кодових репозиторіях. Метод. Для досягнення мети дослідження розроблено метод пошуку з двома шляхами з пост-обробкою, де пошук за текстовими ключовими словами та пошук на основі вбудовуваних семантичних представлень виконуються паралельно. Блоки коду попередньо обробляються за допомогою GPT-4o моделі для генерування сумаризації та семантичних тегів. Результати. Метод реалізовано та перевірено на кодовій базі .NET, що продемонструвало покращену точність при знаходженні семантично релевантних методів. Комбінація паралельних шляхів пошуку та метаданих, згенерованих LLM, покращила якість результатів. Для підвищення релевантності було застосовано LLM-постобробку яка виконується над найбільш релевантними результатами, що дозволяє точніше локалізувати потрібні рядки коду в межах знайдених фрагментів. Інші результати можуть бути оброблені на вимогу користувача. Висновки. Експериментальні результати підтвердили працездатність та практичну застосовність запропонованої гібридної системи пошуку коду. Модульна архітектура системи підтримує робочі процеси розробників в реальному часі, а її розширюваність дозволяє впроваджувати майбутні покращення через активне навчання та зворотний зв’язок від користувачів. Подальші дослідження можуть бути спрямовані на оптимізацію стратегій вибору вбудованих представлень, інтеграцію автоматичного переформатування запитів та масштабування у багатомовних кодових середовищах. Method. A two-path search method with post-processing is proposed, where textual keyword search and embedding-based semantic search are executed in parallel. Code blocks are preprocessed using GPT-4o model to generate natural-language summaries and semantic tags. Results. The method has been implemented and validated on a .NET codebase, demonstrating improved precision in retrieving semantically relevant methods. The combination of parallel search paths and LLM-generated metadata enhanced both result quality and responsiveness. Additionally, LLM-post-processing was applied to the top-most relevant results, enabling more precise identification of code lines matching the query within retrieved snippets. Other results can be further refined on-demand. Conclusions. Experimental findings confirm the operability and practical applicability of the proposed hybrid code search framework. The system’s modular architecture supports real-time developer workflows, and its extensibility enables future improvements through active learning and user feedback. Further research may focus on optimizing embedding selection strategies, integrating automatic query rewriting, and scaling across polyglot code environments.
  • Item
    Швидка нейронна мережа та її адаптивне навчання в задачах класифікації
    (Національний університет «Запорізька політехніка», 2025) Бодянський, Є. В.; Шафроненко, Є. О.; Бродецький, Ф. А.; Танянський, О. С.; Bodyanskiy, Ye. V.; Shafronenko, Ye. O.; Brodetskyi, F. A.; Tanianskyi, О. S.
    UK: Актуальність. Для вирішення широкого класу задач обробки інформації і, перш за все, розпізнавання образів за умов суттєвої нелінійності широке розповсюдження одержали штучні нейронні мережі, завдяки своїм універсальним апроксимуючим властивостям та здатності до навчання на основі тренувальних навчальних вибірок. Найбільшого розповсюдження отримали глибокі нейронні мережі, які дійсно демонструють дуже високу якість розпізнавання, але потребують надвеликих обсягів навчальних даних, які не завжди є доступними. За цих умов ефективними можуть бути, так звані, машини опорних векторів найменших квадратів, які не потребують великих обсягів навчальних вибірок, однак можуть навчатися лише у пакетному режимі і є достатньо громіздкими у чисельній реалізації. Тому достатньо актуальною є задача навчання LS-SVM у послідовному режимі за умов суттєвої нестаціонарності даних, що послідовно у онлайн режимі надходять на опрацювання у нейронну мережу. Мета. Мета роботи полягає у запровадженні підходу до адаптивного навчання LS-SVM, що дозволяє відмовитися від перетворення зображень у векторні сигнали. Метод. Запропоновано підхід для розпізнавання образів-зображень за допомогою машини опорних векторів найменших квадратів (LS-SVM) за умов, коли дані на обробку надходять у послідовному онлайн режимі. Перевагою запропонованого підходу є скорочення часу вирішення задачі розпізнавання образів-зображень, а також дозволяє реалізувати процес навчання на нестаціонарних тренувальних вибірках. Особливістю запропонованого методу є обчислювальна простота і висока швидкодія, пов’язана з тим, що кількість нейронів у мережі не змінюється з часом, тобто архітектура залишається фіксованою у процесі налаштування. Результати. Запропонований підхід до адаптивного навчання LS-SVM спрощує чисельну реалізацію нейронної мережі та дозволяє підвищити швидкість обробки інформації і, перш за все, налаштування її синаптичних ваг. Висновки. Розглянута задача розпізнавання образів-зображень за допомогою машини опорних векторів найменших квадратів (LS-SVM) за умов, коли дані на обробку надходять у послідовному онлайн режимі. Процес навчання реалізується на ковзному вікні, що веде до того, що кількість нейронів у мережі не змінюється з часом, тобто архітектура залишається фіксованою у процесі налаштування. Такий підхід спрощує чисельну реалізацію системи та дозволяє реалізувати процес навчання на нестаціонарних тренувальних вибірках. Розглянута можливість навчання у ситуаціях, коли навчальні образи задані не лише у векторній формі, а й матричній, що дозволяє відмовитися від перетворення зображень у векторні сигнали. EN: To solve a wide class of information processing tasks and, above all, pattern recognition under conditions of significant nonlinearity, artificial neural networks have become widely used, due to their universal approximating properties and ability to learn based on training training samples. Deep neural networks have become the most widespread, which indeed demonstrate very high recognition quality, but require extremely large amounts of training data, which are not always available. Under these conditions, the so-called least squares support vector machines can be effective. They do not require large amounts of training samples but can be trained only in batch mode and are quite cumbersome in numerical implementation. Therefore, the problem of training LS-SVM in sequential mode under conditions of significant non-stationarity of data that are sequentially fed online to the neural network for processing is quite relevant. Objective. The aim of the work is to introduce an approach to adaptive learning of LS-SVM, which allows us to abandon the conversion of images into vector signals. Method. An approach for image recognition using a least squares support vector machine (LS-SVM) is proposed under conditions when data for processing is received in a sequential online mode. The advantage of the proposed approach is that reduces the time to solve the image recognition problem and allows the implementation of the learning process on non-stationary training samples. A feature of the proposed method is computational simplicity and high speed since the number of neurons in the network does not change over time, i.e., the architecture remains fixed during the tuning process. Results. The proposed approach to adaptive learning of LS-SVM simplifies the numerical implementation of the neural network and allows for an increase in the speed of information processing and, above all, the tuning of its synaptic weights. Conclusions. The problem of pattern recognition using the least squares support vector machine (LS-SVM) is considered under conditions when data for processing is received in a sequential online mode. The training process is implemented on a sliding window, which leads to the fact that the number of neurons in the network does not change over time, i.e. the architecture remains fixed during the tuning process. This approach simplifies the numerical implementation of the system and allows the training process to be implemented on non-stationary training samples. The possibility of training in situations where training images are given not only in vector form but also in matrix form allows us to abandon the conversion of images into vector signals.
  • Item
    The method of adaptation of the parameters of algorithms for the detection and cleaning of a statistical sample from anomalies for Data Science problems
    (Національний університет «Запорізька політехніка», 2025) Pysarchuk, O. O.; Pavlova, S. O.; Baran, D. R.; Писарчук, О. О.; Павлова, С. О.; Баран, Д. Р.
    EN: Context. Popularization of the Data Science for the tasks of e-commerce, the banking sector of the economy, for the tasks of managing dynamic objects – all this actualizes the requirements for indicators of the efficiency of data processing in the Time Series format. This also applies to the preparatory stage of data analysis at the level of detection and cleaning of statistical samples from anomalies such as rough measurements and omissions. Objective. The development of the method for adapting the parameters of the algorithms for detecting and cleaning the statistical sample of the Time Series format from anomalies for Data Science problems. Method. The article proposes a method for adapting the parameters of algorithms for detecting and cleaning a statistical sample from anomalies for data science problems. The proposed approach is based on and differs from similar practices by the introduction of an optimization approach in minimizing the dynamic and statistical error of the model, which determines the parameters of settings of popular algorithms for cleaning the statistical sample from anomalies using the Moving Window Method. Result. The introduction of the proposed approach into the practice of Data Science allows the development of software components for cleaning data from anomalies, which are trained by parameters purely according to the structure and dynamics of the Time Series. Conclusions. The key advantage of the proposed method is its simple implementation into existing algorithms for clearing the sample from anomalies and the absence of the need for the developer to select parameters for the settings of the cleaning algorithms manually, which saves time during development. The effectiveness of the proposed method is confirmed by the results of calculations. UK: Актуальність. Популяризація задачі Data Science для завдань електронної комерції, банківського сектору економіки, для задач управління динамічними об’єктами – актуалізує вимоги до показників ефективності обробки даних формату Time Series.Зазначене стосується і підготовчого етапу аналізу даних на рівні виявлення та очищення статистичних вибірок від аномалій типу грубі виміри та пропуски. Метою роботи є розробка способу адаптації параметрів алгоритмів виявлення та очищення статистичної вибірки формату Time Series від аномалій для задач Data Science. Метод. У статті запропоновано спосіб адаптації параметрів алгоритмів виявлення та очищення статистичної вибірки від аномалій для задач data science. Запропонований підхід базується та відрізняється від аналогічних практик запровадженням оптимізаційного підходу в мінімізації динамічної та статистичної похибки моделі, що визначає параметри налаштувань популярних алгоритмів очищення статистичної вибірки від аномалій з використанням ковзного вікна (Moving Window Method). Результат. Запровадження запропонованого підходу в практику Data Science дозволяє розробляти програмні компонентидля очищення даних від аномалій, що навчаються за параметрами суто за структурою та динамікою Time Series. Це забезпечує підтримку широкого кола задач з нелінійними властивостями та сезонними закономірностями у даних. Отже спрощується процес супроводження подібних продуктів після впровадження їх в практику застосування. Висновки. Ключовою перевагою запропонованого методу є його проста імплементації в існуючі алгоритми очищення вибірки від аномалій та відсутність необхідності розробнику підбирати параметри налаштувань алгоритмів очищення вручну, що економить час при розробці. Ефективність запропонованого способу підтверджується результатами розрахунків.
  • Item
    Methods and algorithms of building a 3D mathematical model of the surrounding space for automatic localization of a mobile object
    (Національний університет «Запорізька політехніка», 2025) Korpan, Ya. W.; Nechyporenko, O. V.; Fedorov, E. E.; Utkina, T. Yu.; Корпань, Я. В.; Нечипоренко, О. В.; Федоров, Є. Є.; Уткіна, Т. Ю.
    EN: Context. The task of automating the positioning of a mobile object in a closed space under the condition of its partial or complete autonomy is considered. The object of study is the process of automatic construction of a 3D model of the surrounding space. Objective. The goal of the work is the develop an algorithm for creating a 3D model of the surrounding space for further localization of a mobile object in conditions of its partial or complete autonomy. Method. The results of the study of the problem of localization of a mobile object in space in real time are presented. The results of the analysis of existing methods and algorithms for creating mathematical models of the surrounding space are presented. Algorithms that are widely used to solve the problem of localization of a mobile object in space are described. A wide range of methods for constructing a mathematical model of the surrounding space has been researched – from methods that use the comparison of successive point clouds of the object of the surrounding space to methods that use a series of snapshots of characteristic points and comparison of information about them in different snapshots at points that are as similar as possible according to the parameter vector. Results. The method for three-stage construction of a 3D model of the surrounding space is proposed for solving the problem of localization of a mobile object in a closed space. Conclusions. The conducted experiments have confirmed the possibility of the proposed algorithm for three-stage construction of a mathematical model of the environment to determine the position of a mobile object in space. The methods used in the algorithm allow obtaining information about the surrounding space, which allows localizing a mobile object in a closed space. Prospects for further research may lie in the integration of information flows about the position of the object from different devices, depending on the type of data acquisition, into a centralized information base for solving a wide range of tasks performed by automatic mobile objects (robots). UK: Актуальність. Розглянуто задачу автоматизації позиціонування мобільного об’єкта в замкненому просторі при умові його часткової або повної автономності. Об’єктом дослідження є процес автоматичної побудови 3D-моделі навколишнього простору. Мета роботи – розробка методу створення 3D моделі навколишнього простору для подальшої локалізації мобільного об’єкта в умовах його часткової або повної автономності. Метод. Приведено результати дослідження проблеми локалізації мобільного об’єкта в просторі в реальному часі. Приведено результати аналізу існуючих методів та алгоритмів створення математичних моделей навколишнього простору. Описані алгоритми, які широко використовуються для вирішення проблеми локалізації мобільного об’єкта в просторі. Проведено дослідження широкого спектру методів побудови математичної моделі навколишнього простору – від методів, які використовують співставлення послідовних хмарин точок об’єкта навколишнього простору до методів, які використовують серії знімків характеристичних точок та порівнянні інформації про них на різних знімках в точках, максимально схожих за вектором параметрів. Результати. Запропоновано метод трьохетапної побудови 3D моделі навколишнього простору для вирішення задачі локалізації мобільного об’єкта в замкненому просторі. Висновки. Проведені експерименти підтвердили можливість запропонованого алгоритму трьохетапної побудови математичної моделі навколишнього середовища для визначення положення мобільного об’єкта у просторі. Методи, які використовуються в алгоритмі дозволяють отримати інформацію про навколишній простір, що дозволяє провести локалізацію мобільного об’єкту в замкненому просторі. Перспективи подальших досліджень можуть полягати в інтеграції інформаційних потоків про положення об’єкта з різних, за типом отримання даних, приладів в централізовану інформаційну базу для вирішення широкого спектру задач, які виконують автоматичні мобільні об’єкти (роботи).
  • Item
    Evaluating fault recovery in distributed applications for stream processing applications: business insights based on metrics
    (Національний університет «Запорізька політехніка», 2025) Bashtovyi, A. V.; Fechan, A. V.; Баштовий, А. В.; Фечан, А. В.
    EN: Context. Stream processing frameworks are widely used across industries like finance, e-commerce, and IoT to process real-time data streams efficiently. However, most benchmarking methodologies fail to replicate production-like environments, resulting in an incomplete evaluation of fault recovery performance. The object of this study is to evaluate stream processing frameworks under realistic conditions, considering preloaded state stores and business-oriented metrics. Objective. The aim of this study is to propose a novel benchmarking methodology that simulates production environments with varying disk load states and introduces SLO-based metrics to assess the fault recovery performance of stream processing frameworks. Method. The methodology involves conducting a series of experiments. The experiments were conducted on synthetic data generated by application using Kafka Streams in a Docker-based virtualized environment. The experiments evaluate system performance under three disk load scenarios: 0%, 50%, and 80% disk utilization. Synthetic failures are introduced during runtime, and key metrics such as throughput, latency, and consumer lag are tracked using JMX, Prometheus, and Grafana. The Business Fault Tolerance Impact (BFTI) metric is introduced to aggregate technical indicators into a simplified value, reflecting the business impact of fault recovery. Results. The developed indicators have been implemented in software and investigated for solving the problems of Fisher’s Iris classification. The approach for evaluating fault tolerance in distributed stream processing systems has been implemented, additionally, the investigated effect on system performance under different disk utilization. Conclusions. The findings underscore the importance of simulating real-world production environments in stream processing benchmarks. The experiments demonstrate that disk load significantly affects fault recovery performance. Systems with disk utilization exceeding 80% show increased recovery times by 2.7 times and latency degradation up to fivefold compared to 0% disk load. The introduction of SLO-based metrics highlights the connection between system performance and business outcomes, providing stakeholders with more intuitive insights into application resilience. The findings underscore the importance of simulating real-world production environments in stream processing benchmarks. The BFTI metric provides a novel approach to translating technical performance into business-relevant indicators. Future work should explore adaptive SLO-based metrics, framework comparisons, and long-term performance studies to further bridge the gap between technical benchmarks and business needs. UK: Актуальність. Фреймворки потокової обробки даних широко використовуються в галузях фінансів, електронної комерції та IoT для ефективної обробки потоків даних у реальному часі. Проте більшість методологій тестування не відтворюють умови реальної роботи після впровадження, що призводить до неповної оцінки продуктивності відновлення після збоїв. Об’єктом дослідження є оцінка фреймворків потокової обробки у реалістичних умовах з урахуванням попередньо завантажених сховищ даних та бізнес-орієнтованих метрик. Мета роботи. Розробка нової методології оцінювання продуктивності відновлення після збоїв у фреймворках потокової обробки, яка імітує виробничі умови з різними рівнями завантаження диска та вводить SLO-орієнтовані метрики для оцінки. Метод. Методологія передбачає серію експериментів із використанням Kafka Streams у віртуалізованому середовищі на базі Docker. Експерименти оцінюють продуктивність системи при трьох рівнях завантаження диска: 0%, 50% та 80%. Під час роботи вводяться синтетичні збої, а ключові метрики, такі як пропускна здатність, затримка та відставання споживачів, відстежуються за допомогою JMX, Prometheus та Grafana. Запропонована метрика Впливу Бізнесу на Толерантність до Збоїв (BFTI) агрегує технічні показники у спрощене значення, що відображає бізнес-ефекти відновлення після збоїв. Результати. Експерименти показують, що рівень завантаження диска суттєво впливає на продуктивність відновлення. При завантаженні диска понад 80% час відновлення збільшується у 2,7 рази, а затримка зростає до п’яти разів у порівнянні з 0% завантаження. Введення SLO-орієнтованих метрик підкреслює зв’язок між продуктивністю системи та бізнес-результатами, надаючи зацікавленим сторонам більш інтуїтивну оцінку стійкості програми. Висновки. Отримані результати підкреслюють важливість моделювання реальних виробничих умов у тестуванні фреймворків потокової обробки. Метрика BFTI пропонує новий підхід до перетворення технічних показників у бізнес-орієнтовані індикатори. Подальші дослідження повинні включати адаптивні SLO-метрики, порівняння фреймворків та дослідження продуктивності на довготривалих інтервалах для подальшого усунення розриву між технічними показниками та бізнес-потребами.
  • Item
    Method for studying the time-shifted mathematical model of a two-fragment signal with nonlinear frequency modulation
    (Національний університет «Запорізька політехніка», 2025) Kostyria, O. O.; Нryzo, A. A.; Trofymov, I. M.; Liashenko, O. I.; Biernik, Ye. V.; Костиря, О. О.; Гризо, А. А.; Трофимов, І. М.; Ляшенко, О. І.; Бєрнік, Є. В.
    EN: Context. The further development of the theory and techniques for forming and processing complex radar signals encompasses both the study of existing mathematical models of probing radio signals and the creation of new ones. One of the directions of such research focuses on reducing the maximum side lobe level in the autocorrelation functions of signals with intra-pulse modulation of frequency or phase. In this context, the instantaneous frequency may vary according to either a linear or nonlinear law. Nonlinear frequency modulation laws can reduce the maximum level of side lobes without introducing amplitude modulation in the output signal of the radio transmitting device and, consequently, without causing power loss in the sensing signals. The widespread implementation of nonlinear-frequency-modulated signals in radar technology is constrained by the insufficient development of their mathematical models. Therefore, the development of methods for analyzing existing mathematical models of signals with nonlinear frequency modulation remains an urgent scientific task. Objective. The purpose of this work is to develop a method for conducting research to evaluate the advantages and disadvantages of a mathematical model of a nonlinear-frequency-modulated signal consisting of two fragments with linear frequency modulation. Method. This study proposes a method for analyzing mathematical models of signals based on the transition from a shifted time scale to the current time scale. The methodology consists of the following main stages: a formalized description of mathematical models, transition to an alternative time scale, identification of components and determination of their physical essence, and a comparative analysis. The proposed method was validated through simulation modeling. Results. Using the proposed method, it has been determined that the mathematical operation of time scale shifting is equivalent to the introduction of additional components in the mathematical model. These components simultaneously and automatically compensate for the frequency jump at the junction of fragments, as well as introduce an additional linear phase increment in the second linearly frequency-modulated fragment. This approach provides a clear illustration of the frequency jump compensation mechanism in the studied mathematical model. The applied method enabled the identification of a drawback in the examined mathematical model, namely, the absence of a compensatory component for the instantaneous phase jump during the transition from the first LFM fragment to the second. Conclusions. A method has been developed to determine the essence and corresponding influence of the components of a mathematical model in a time-shifted, nonlinear, frequency-modulated signal, which consists of two fragments with linear frequency modulation. The model under study is not entirely accurate, as it lacks a component to compensate for the phase jump at the transition from the first signal fragment to the second. The introduction of such a component ensures a further reduction in the maximum level of the side lobes of the signal autocorrelation function. UK: Актуальність. Подальший розвиток теорії та техніки формування і оброки складних радіолокаційних сигналів передбачає дослідження існуючих та створення нових математичних моделей зондувальних радіосигналів. Один із напрямків таких досліджень спрямовується на зниження максимального рівня бічних пелюсток автокореляційних функцій сигналів з внутрішньо імпульсною модуляцією частоти або фази. При цьому миттєва частота може змінюватися за лінійним або ж нелінійним законом. Нелінійні закони частотної модуляції можуть забезпечити зниження максимального рівня бічних пелюсток без амплітудної модуляції вихідного сигналу радіопередавального пристрою, а значить без втрат потужності зондувальних сигналів. Широке запровадження нелінійно-частотно модульованих сигналів в радіолокаційну техніку стримується недостатньою проробкою їх математичних моделей. Тому розроблення методів для дослідження існуючих математичних моделей сигналів з нелінійною частотною модуляцією є актуальною науковою задачею. Метою роботи є розробка методу для виконання досліджень стосовно визначення переваг та недоліків математичної моделі нелінійно-частотно модульованого сигналу у складі двох фрагментів з лінійною модуляцією частоти. Метод. У цьому дослідженні запропоновано метод аналізу математичних моделей сигналів, який базується на переході від шкали зсунутого часу до шкали поточного часу. Методологія включає такі основні етапи: формалізований опис математичних моделей, перехід до іншої шкали часу, виділення складових та визначення їх фізичної сутності, проведення порівняльного аналізу. Перевірку працездатності методу виконано шляхом імітаційного моделювання. Результати. З використанням запропонованого методу визначено, що математична операція зсуву шкали часу є еквівалентною появі в математичній моделі додаткових складових, що здійснюють одночасну автоматичну компенсацію стрибка частоти на стику фрагментів, а також додаткового лінійного приросту фази у другому лінійно-частотно модульованому фрагменті. Застосований підхід забезпечує наочну ілюстрацію механізму компенсації стрибка частоти у математичної моделі, що досліджувалася. Використаний метод дозволив виявити недолік розглянутої математичної моделі, який полягає у відсутності компенсаційної складової стрибка миттєвої фази у момент переходу від першого ЛЧМ фрагменту до другого. Висновки. Розроблено метод для визначення сутності та відповідного впливу складових математичної моделі у зсунутому часі нелінійно-частотно модульованого сигналу, до складу якого входять два фрагменти з лінійною модуляцією частоти. Досліджувана модель є не зовсім коректною, оскільки не має у собі складової для компенсації стрибка фази у момент переходу від першого фрагменту сигналу до другого. Введення такої складової забезпечує подальше зниження максимального рівня бічних пелюсток автокореляційної функції сигналу.