Радіоелектроніка, інформатика, управління - 2023, №2 (65)
Permanent URI for this collectionhttps://eir.zp.edu.ua/handle/123456789/26438
Browse
Recent Submissions
Item Application of spline functions and walsh functions in problems of parametric identification of linear nonstationary systems(Національний університет "Запорізька політехніка", 2023) Stenin, А. A.; Drozdovych, I. G.; Soldatova, M. O.; Стенін, О. А.; Дроздович, І. Г.; Солдатова, М. О.EN: Context. In this article, a generalized parametric identification procedure for linear nonstationary systems is proposed, which uses spline functions and orthogonal expansion in a series according to the Walsh function system, which makes it possible to find estimates of the desired parameters by minimizing the integral quadratic criterion of discrepancy based on solving a system of linear algebraic equations for a wide class of linear dynamical systems. The accuracy of parameter estimation is ensured by constructing a spline with a given accuracy and choosing the number of terms of the Walsh series expansion when solving systems of linear algebraic equations by the A. N. Tikhonov regularization method. To improve the accuracy of the assessment, an algorithm for adaptive partitioning of the observation interval is proposed. The partitioning criterion is the weighted square of the discrepancy between the state variables of the control object and the state variables of the model. The choice of the number of terms of the expansion into the Walsh series is carried out on the basis of adaptive approximation of non-stationary parameters in the observation interval, based on the specified accuracy of their estimates. The quality of the management of objects with variable parameters is largely determined by the accuracy of the evaluation of their parameters. Hence, obtaining reliable information about the actual nature of parameter changes is undoubtedly an urgent task. Objective. Improving the accuracy of parameter estimation of a wide class of linear dynamical systems through the joint use of spline functions and Walsh functions. Method. A generalized parametric identification procedure for a wide class of linear dynamical systems is proposed. The choice of the number of terms of the expansion into the Walsh series is made on the basis of the proposed algorithm for adaptive partitioning of the observation interval. Results. The results of modeling of specific linear non-stationary systems confirm the effectiveness of using the proposed approaches to estimating non-stationary parameters. Conclusions. The joint use of spline functions and Walsh functions makes it possible, based on the proposed generalized parametric identification procedure, to obtain analytically estimated parameters, which is very convenient for subsequent use in the synthesis of optimal controls of real technical objects. This procedure is applicable to a wide class of linear dynamical systems with concentrated and distributed parameters. UK: Актуальність. У статті запропоновано узагальнену процедуру параметричної ідентифікації лінійних нестаціонарних систем, яка використовує сплайн-функції та ортогональне розкладання в ряд за системою функцій Уолша, що дозволяє знаходити оцінки шуканих параметрів шляхом мінімізації інтегрального квадратичного критерію незбіжності на основі розв’язання системи лінійних алгебраїчних рівнянь для широкого класу лінійних динамічних систем. Точність оцінювання параметрів забезпечується побудовою сплайна із заданою точністю та вибором кількості членів розкладу в ряд Уолша при розв’язанні систем лінійних алгебраїчних рівнянь методом регуляризації А. Н. Тихонова. Для підвищення точності оцінки запропоновано алгоритм адаптивного розбиття інтервалу спостереження. Критерієм розбиття є зважений квадрат розбіжності між змінними стану об’єкта керування та змінними стану моделі. Вибір кількості членів розкладу в ряд Уолша здійснюється на основі адаптивної апроксимації нестаціонарних параметрів на інтервалі спостереження, виходячи із заданої точності їх оцінок. Якість управління об’єктами зі змінними параметрами значною мірою визначається точністю оцінювання їх параметрів. Тому отримання достовірної інформації про дійсний характер зміни параметрів є, безперечно, актуальною задачею. Мета. Підвищення точності оцінювання параметрів широкого класу лінійних динамічних систем шляхом спільного використання сплайн-функцій та функцій Уолша. Метод. Запропоновано узагальнену процедуру параметричної ідентифікації широкого класу лінійних динамічних систем. Вибір кількості членів розкладу в ряд Уолша здійснюється на основі запропонованого алгоритму адаптивного розбиття інтервалу спостереження. Результати. Результати моделювання конкретних лінійних нестаціонарних систем підтверджують ефективність використання запропонованих підходів до оцінювання нестаціонарних параметрів. Висновки. Спільне використання сплайн-функцій та функцій Уолша дозволяє на основі запропонованої узагальненої процедури параметричної ідентифікації отримати оцінку параметрів в аналітичному вигляді, що є дуже зручним для подальшого використання при синтезі оптимальних систем управління реальними об’єктами. Дана процедура застосовна до широкого класу лінійних динамічних систем з зосередженими та розподіленими параметрами.Item Using the behavior antagonism and the bimatrix game theory in the IT project management(Національний університет "Запорізька політехніка", 2023) Chernov, S. K.; Chernova, Lb. S.; Chernova, Ld. S.; Kunanets, N. E.; Titov, S. D.; Trushliakov, E. I.; Чернов, С. К.; Чернова, Лб. С.; Чернова, Лд. С.; Кунанець, Н. Е.; Тітов, С. Д.; Трушляков, Е. І.EN: Context. The article proposes a method of analyzing the proposals of team members in order to avoid conflict situations at the stage of team formation. Objective. The object of the study is the method of analyzing the proposals of team members while solving project tasks. The purpose of the work is to analyze the developed method of analysis of proposals of team members to avoid or resolve conflict situations at the stage of team activation Method. The developed method is based on the theory of matrix games. Conflicts between individual team members mainly arise at the stage of team formation. For the project manager, it is important to identify the conflict situation in time and find a way out of it to satisfy both team members and without harming the teamwork as a whole. A team created to implement an IT project is often faced with a situation where two of its members have different visions of approaches to creating the final product. At the same time, each of them has experience in the development of similar software products or services by different teams. To effectively solve this situation, we suggest using approaches typical of bimatrix games, when each of these team members is considered as a player. This takes into account the fact that the bimatrix theory of games is based on a conflict between two players whose interests are opposite – an antagonistic zero-sum game is precisely the basis of the developed approach. Results. The proposed method of analysis of proposals of team members contributes to the avoidance or resolution of conflict situations at the stage of their closer interaction. For efficient solution of the said situation, we propose to use approaches being typical for bimatrix games when each of these team members is treated as a player. At the same time, account is taken of the fact that the bimatrix game theory is based on a conflict of two players whose interests are opposite – an antagonistic game with a zero sum being that very element to constitute the basis of the approach developed. Conclusions. The given calculation of the model example shows that the use of the proposed method allows the project manager to give a reasonable preference to another team member, since the expected average profit of this player is greater than that of the first player. In this case, the manager has an opportunity to simulate situations for the players (for the team) and promptly respond to probable deviations of their behavioral strategies from the optimal ones, establish healthy relationships between team members and choose the best proposals for solving project tasks. UK: Актуальність. У статті запропоновано методику аналізу пропозицій членів команди з метою уникнення конфліктних ситуацій на етапі формування команди. Об’єктом дослідження є методику аналізу пропозицій учасників команди при вирішенні завдань проекту. Мета роботи – Проаналізувати розроблену методику аналізу пропозицій учасників команди щодо уникненню або вирішенню конфліктних ситуацій на етапі спрацьовування команди Метод. Розроблений метод базується на теорії матричних ігор. Конфлікти між окремими членами команди в основному виникають на етапі формування команди. Для керівника проекту важливо вчасно виявити конфліктну ситуацію і знайти з неї вихід, щоб задовольнити обох членів команди і без шкоди для командної роботи в цілому. Команда, створена для реалізації IT-проекту, часто стикається з ситуацією, коли двоє її учасників мають різне бачення підходів до створення кінцевого продукту. При цьому кожен з них має великий досвід розробки подібних програмних продуктів або сервісів різними командами. Для ефективного вирішення зазначеної ситуації ми пропонуємо використовувати підходи, характерні для біматричних ігор, коли кожен із цих учасників команди розглядається як гравець. При цьому враховується той факт, що в основі біматричної теорії ігор лежить конфлікт двох гравців, інтереси яких протилежні – антагоністична гра з нульовою сумою якраз і є основою розробленого підходу. Результати. Запропонована методика аналізу пропозицій учасників команди сприяє уникненню або вирішенню конфліктних ситуацій на етапі їх більш тісної взаємодії. Для ефективного вирішення зазначеної ситуації ми пропонуємо використовувати підходи, характерні для біматричних ігор, коли кожен із цих учасників команди розглядається як гравець. При цьому враховується той факт, що в основі біматричної теорії ігор лежить конфлікт двох гравців, інтереси яких протилежні – антагоністична гра з нульовою сумою є саме таким елементом, який і є основою розробленого підходу. Висновки. Наведений розрахунок модельного прикладу показує, що використання запропонованого методу дозволяє керівнику проекту надавати обґрунтовану перевагу іншому члену команди, оскільки очікуваний середній виграш цього гравця є більшим, ніж першого гравця. У цьому випадку менеджер має можливість моделювати ситуації для гравців (для команди) і оперативно реагувати на ймовірні відхилення стратегій їх поведінки від оптимальних, налагоджувати здорові стосунки між членами команди і вибирати найкращі пропозиції щодо вирішення завдань проекту.Item Стабілізація дискретних систем з часовими затримками за станом та обмеженнями керуючих впливів(Національний університет "Запорізька політехніка", 2023) Дорофєєв, Ю. І.; Любчик, Л. М.; Мельников, О. С.; Dorofieiev, Yu. I.; Lyubchyk, L. M.; Melnikov, O. S.UK: Актуальність. Наявність затримок у часі має місце в багатьох складних динамічних системах, поширених у сферах сучасних комунікаційних та інформаційних технологій, зокрема при вирішенні задачі стабілізації мережевих керованих систем та високошвидкісних мереж зв’язку. У багатьох випадках часові затримки призводять до зниження ефективності систем та, навіть, до порушення умов стійкості. Для аналізу стійкості та синтезу стабілізуючих регуляторів для дискретних динамічних систем з невідомими, але обмеженими часовими затримками за станом в останнє десятиліття було запропоновано багато цікавих рішень з використанням методу функціоналів Ляпунова-Красовського. Наявність нелінійних обмежень на амплітуду керуючих впливів, зокрема у вигляді насичення, додатково ускладнює задачу та потребує розробки нових підходів та методів. Мета. Мета роботи полягає у запровадженні процедури обчислення матриці коефіцієнтів зворотного зв’язку за станом, який забезпечує асимптотичну стійкість досліджуваної системи, а також процедури обчислення максимального допустимого значення часової затримки за станом, за якого може бути забезпечена стійкість замкнутої системи для заданого набору допустимих початкових умов. Метод. В роботі використано метод дескрипторного перетворення моделі замкнутої системи та запропоновано поширення методу інваріантних еліпсоїдів на системи з невідомими, але обмеженими часовими затримками за станом. Застосування методу функціоналів Ляпунова-Красовського та техніки лінійних матричних нерівностей дозволило звести задачу обчислення матриці коефіцієнтів зворотного зв’язку до задачі напіввизначеного програмування, яка вирішується чисельно. Запропоновано ітераційний алгоритм вирішення білінійної матричної нерівності для обчислення максимального допустимого значення часової затримки за станом. Результати. Результати чисельного моделювання підтверджують ефективність запропонованого підходу в задачах стабілізації дискретних систем в умовах дії часових затримок за станом та нелінійних обмежень на керуючі впливи і дозволяють рекомендувати запропонований метод для використання на практиці з метою аналізу стійкості та синтезу стабілізуючих регуляторів, а також обчислення максимального допустимого значення часових затримок. Висновки. Запропоновано підхід, який дозволяє поширити метод інваріантних еліпсоїдів на дискретні динамічні системи з невідомими, але обмеженими часовими затримками за станом для вирішення задачі стабілізації системи за допомогою статичного зворотного зв’язку за станом на основі застосування методу функціоналів Ляпунова-Красовського. Результати чисельного моделювання підтверджують ефективність запропонованого підходу в умовах наявності нелінійних обмежень на керуючі впливи типу насичення. EN: Context. The presence of time delays occurs in many complex dynamical systems, particularly in the areas of modern communication and information technologies, such as the problem of stabilizing networked control systems and high-speed communication networks. In many cases, time-delays lead to a decrease in the efficiency of such systems and even to the loss of stability. In the last decade, many interesting solutions using the Lyapunov-Krasovskii functional have been proposed for stability analysis and synthesis of a stabilizing regulator for discrete-time dynamic systems with unknown but bounded state-delays. The presence of nonlinear constraints on the amplitude of controls such as saturation further complicates this problem and requires the development of new approaches and methods. Objective. The purpose of this study is to develop a procedure for calculating the control gain matrix of state feedback that ensures the asymptotic stability of the analyzed system, as well as a procedure for calculating the maximum permissible value of the state-delay under which the stability of the closed-loop system can be ensured for a given set of admissible initial conditions. Method. The paper uses the method of descriptor transformation of the model of a closed-loop system and extends the invariant ellipsoids method to systems with unknown but bounded state-delays. The application of the Lyapunov-Krasovskii functional and the technique of linear matrix inequalities made it possible to reduce the problem of calculating the control gain matrix to the problem of semi-definite programming, which can be solved numerically. An iterative algorithm for solving the bilinear matrix inequality is proposed for calculating the maximum permissible value of the time-delay. Results. The results of numerical modeling confirm the effectiveness of the proposed approach in the problems of stabilizing discrete-time systems under the conditions of state-delays and nonlinear constraints on controls, which allows to recommend the proposed method for practical use for the problem of stability analysis and synthesis of stabilizing regulator, as well as for calculating the maximum permissible value of time-delay. Conclusions. An approach is proposed that allows extending the invariant ellipsoids method to discrete-time dynamic systems with unknown but bounded state-delays for solving the problem of system stabilization using static state feedback based on the application of the Lyapunov-Krasovskii functional. The results of numerical modeling confirm the effectiveness of the proposed approach in the presence of the saturation type nonlinear constraints on the control signals.Item Method for selecting a software development methodology taking into account project characteristics(Національний університет "Запорізька політехніка", 2023) Seniv, M. M.; Сенів, М. М.EN: Context. With the development of the software industry, the number of applied methodologies and hybrid approaches based on them constantly increases, that is why, the choice of the most suitable/optimal methodology for the project is an urgent problem of software engineering, since the selection process is poorly formalized, requires sufficient experience of the person who will make this decision and depends on many related factors. Objective. The support of decision-making in the process of choosing a methodology for the software project development and increase of the level of adequacy of the above choice. Method. Based on the previously developed algorithm by the author, a generalized method for selecting the best software development methodology is proposed, which consists of 14 steps and takes into account the characteristics of the project, based on the multi-criteria analysis approaches, taking into consideration the opinions of experts for a more reasonable choice of the most suitable methodology for this project. The method uses the aggregated expert evaluation. It was decided to use the AHP to calculate the criteria weights. Based on the established values of criteria, their weights and expert evaluation, the score is calculated for each methodology using the weighted sum and TOPSIS methods. Results. The application of the developed method to the data of actual projects showed a match in 83% of cases (in five out of six cases, the application of the method resulted in the selection of methodology that corresponded to the one actually used in an existing project). In cases when the methodology chosen by the proposed method differed from the one that was actually used, the application of the proposed method recommends going to the stage of the initial determination of criteria and their weights, which will allow making a more adequate choice of methodology. Conclusions. The proposed method can be applied in practice by software project managers to support the decision-making process, and will allow reducing time spent on project management. UK: Актуальність. З розвитком програмної індустрії постійно зростає кількість застосовуваних методологій та гібридних підходів на їхній основі, тому вибір найбільш відповідної/оптимальної для даного проекту є актуальною проблемою програмної інженерії, оскільки процес вибору є слабко формалізованим, вимагає достатнього досвіду особи, яка буде приймати дане рішення та залежить від багатьох супутніх факторів. Мета. Підтримка прийняття рішень в процесі вибору методології розроблення програмного проекту та підвищення ступеня адекватності вищезазначеного вибору Метод. На основі попередньо розробленого автором алгоритму запропоновано узагальнений метод вибору оптимальної методології розробки програмного забезпечення, який складається з 14 кроків та враховує характеристики проекту базуючись на підходах багатокритеріального аналізу з урахуванням думок експертів для більш обґрунтованого вибору найбільш відповідної даному проекту методології. Метод використовує агреговані експертні оцінки, для обчислення ваг критеріїв вирішено використовувати AHP. Базуючись на встановлених значеннях критеріїв, їх ваг та експертних оцінках, обчислюється бал для кожної методології за допомогою методів Weighted Sum та TOPSIS. Результати. Застосування розробленого методу на даних реальних проектів показало співпадіння у 83% випадків (в п’яти з шести випадків застосування методу дало вибір методології, яка відповідала тій, що насправді застосовувалась на реальному проекті). У випадку, коли вибрана запропонованим методом методологія відрізнялась від тієї, що була застосована насправді, застосування запропонованого методу рекомендує перейти до етапу початкового визначення критеріїв та їхніх ваг, що дасть змогу більш адекватно здійснити вибір методології. Висновки. Запропонований метод може бути застосований в практичній діяльності керівниками програмних проектів для підтримки процесу прийняття рішень, а також дасть можливість скоротити часові затрати управління проектом.Item Development of a method for studying traffic of multiservice networks(Національний університет "Запорізька політехніка", 2023) Morkun, V. S.; Hryshchenko, S. M.; Nizhehorodtsev, V. O.; Filonenko, M. M.; Lagovsky, V. V.; Моркун, В. С.; Грищенко, С. М.; Ніжегородцев, В. О.; Філоненко, М. М.; Лаговський, В. В.EN: Context. The constant growth in the volume of information, the increase in the speed of information flows in digital communication networks, as before, makes the task of assessing the service stability for traffic flows an urgent one. A simple solution to ensure high service stability is to build a network of sufficient capacity for any traffic that will be thrown at it. To solve the problems of analyzing telecommunication systems, it is necessary to have appropriate models and engineering methods that allow to assess the service stability and predict the characteristics of their operation based on measurement data. In these conditions, the development of new methods for analyzing the traffic of multiservice networks that provide simplicity of calculations and their acceptable accuracy becomes especially relevant. Objective. The purpose of this paper is to study the traffic and service stability for users. Method. We propose a hybrid method for detecting anomalies in multiservice network traffic that uses algorithms without identification, adaptation and Mamdani fuzzy inference. The peculiarity of multiservice traffic as an object for assessing the existence of anomalies is the presence of stochastic processes in it subject to different distribution laws. For the experimental evaluation of the proposed method and algorithms, we have chosen the Poisson and Pareto distribution laws that define the limiting cases of traffic regularity. The method allows for monitoring and managing faults in a multiservice network in order to determine the causes of their occurrence. The following requirements are imposed on the developed algorithms for detecting anomalies in the traffic on multiservice networks: functioning in real or near real time; maintaining a given service stability; simplicity of implementation. The algorithms belong to the class of adaptive hybrid algorithms for identifying traffic parameters. They are used for both stationary and non-stationary traffic. Traffic is modeled as stochastic processes. Each belongs to the corresponding class, which is determined by the law of distribution of stochastic processes. Results. Experimental evaluation of the proposed method and algorithms has shown that they allow us to estimate the trends of these stochastic processes in real time, with high accuracy and while maintaining the service stability. Conclusions. The application of the developed method of troubleshooting management in a multiservice environment helps to improve the service stability by timely detecting problems, reducing the time of their elimination and reducing downtime, which, in turn, affects the increase in service reliability. UK: Актуальність. Постійне зростання обсягу інформації, збільшення швидкості передачі інформаційних потоків у цифрових мережах зв’язку, як і раніше, залишається актуальним завдання оцінки якості обслуговування потоків трафіку. Простим рішенням для забезпечення високої якості обслуговування є побудова мережі достатньої потужності для будь-якого трафіку, який буде кинутий на нього. Для розв’язання проблем аналізу телекомунікаційних систем необхідно мати у своєму розпорядженні відповідні моделі та інженерні методи, що дозволяють на основі даних вимірювань оцінювати якість надання послуг та прогнозувати характеристики їх роботи. У цих умовах розробка нових методів аналізу трафіку мультисервісних мереж, що забезпечують простоту розрахунків та їхню прийнятну точність, стає особливо актуальною. Мета роботи полягає в дослідженні трафіку та якості забезпечення для користувачів. Метод. Запропоновано гібридний метод виявлення аномалій у трафіку мультисервісних мереж, що використовує алгоритми без ідентифікаційної адаптації та нечіткого виведення Мамдані. Особливістю мультисервісного трафіку як об’єкту оцінювання існування аномалій є наявність у ньому стохастичних процесів, підпорядкованих різним законам розподілу. Для експериментальної оцінки запропонованих методу та алгоритмів було обрано закони розподілу Пуассона та Парето, що визначають граничні випадки регулярності трафіку. Метод дозволяє забезпечити контроль та управління несправностями в мультисервісній мережі з метою визначення причин їх виникнення. До розроблених алгоритмів виявлення аномалій у трафіку мультисервісних мереж пред’являються такі вимоги: функціонування як реального чи близького до реального часу; підтримка заданої якості сервісу; простота реалізації. Алгоритми належать до класу адаптивних гібридних алгоритмів ідентифікації параметрів трафіку. Вони використовуються як для стаціонарних, так і для нестаціонарних трафиків. Трафіки моделюються у вигляді стохастичних процесів. Кожен належить до відповідного класу, що визначається законом розподілу стохастичних процесів. Результати. Експериментальна оцінка запропонованих методу та алгоритмів показала, що вони дозволяють оцінювати тренди зазначених стохастичних процесів у реальному часі, з високою точністю та зі збереженням якості обслуговування. Висновки. Застосування розробленого методу управління усуненням несправностями в мультисервісній мережі допомагає підвищити якість обслуговування шляхом своєчасного виявлення проблем, зменшення часу їх усунення та скорочення часу простоїв, що, своєю чергою, впливає на підвищення показників надійності послуг.Item Technology for identifying and forming possible relationships between use cases in the process of the information system design(Національний університет "Запорізька політехніка", 2023) Kungurtsev, O. B.; Zinovatna, S. L.; Кунгурцев, О. Б.; Зіноватна, С. Л.EN: Context. Use cases are widely used as a means of formulating requirements in the development of information systems. All subsequent design stages depend on the quality of their presentation. Structuring use cases can significantly increase their understanding and maintenance in the face of changing requirements.. Objective. Flexible technologies involve working in small teams. The existing communication between teams is not sufficient to highlight sub use cases at the project level. There is a need for automated analysis of the corpus of all use cases. Method. A mathematical model of a use case which makes it possible to define the criteria for comparing scenarios and eliminate the redundancy of descriptions is proposed. A four-step method for restructuring use cases has been developed. At the first stage, use cases are presented in a formalized form. At the second, they are stored in the repository, which ensures their quick search and placement. At the third stage, procedures of scenario comparison are performed. Scenario similarity criteria are proposed. At the fourth stage, the formation of subordinate use cases is carried out, their texts are coordinated with all interested teams, and the use cases that cause subordinate use cases are corrected. Results. Experiments providing the formalized compilation of use cases by several development teams followed by automated restructuring were carried out to test the proposed solutions. As a result, new subordinate use cases were correctly identified and the scope of use of previously formed ones was expanded. There was a significant reduction in the time for restructuring. Conclusions. The proposed method of restructuring use cases improves the clarity and consistency of requirements, the possibility of their adjustment and maintenance, and reduces the compilation time. The method can be used in the design of any information system, where the requirements are presented in the form of use cases. UK: Актуальність. Варіанти використання широко використаються як засіб формулювання вимог при розробці інформаційних систем. Від якості їхнього представлення залежать всі наступні етапи проектування. Структуризація варіантів використання дозволяє істотно підвищити їхнє розуміння й супровід в умовах мінливих вимог. Гнучкі технології передбачають роботу в невеликих командах. Існуючий обмін інформацією між командами недостатній для виділення підлеглих варіантів використання на рівні проекту. Існує необхідність автоматизованого аналізу корпусу всіх варіантів використання. Метою дослідження є підвищення якості представлення функціональних вимог у вигляді варіантів використання шляхом усунення надмірності описів і введення структуризації варіантів використання на рівні всього проекту. Метод. Запропонована математична модель варіанта використання, яка дозволяє визначити критерії для порівняння сценаріїв. Розроблено метод реструктуризації варіантів використання, який включає чотири етапи. На першому етапі варіанти використання представляються у формалізованому вигляді. На другому – вони зберігаються в репозиторії, що забезпечує їхній швидкий пошук і розміщення. На третьому – виконуються процедури порівняння сценаріїв. Запропоновано критерії подоби сценаріїв. На четвертому – виконується формування підлеглих варіантів використання, узгодження їхніх текстів із із усіма зацікавленими командами, коректування варіантів використання, які викликають підлеглі варіанти використання. Результати. Для апробації запропонованих рішень проведені експерименти, які передбачають формалізоване складання варіантів використання декількома групами розроблювачів з наступною автоматизованою реструктуризацією. У результаті були коректно виявлені нові підлеглі варіанти використання й розширена область використання раніше сформованих. Спостерігалося істотне скорочення часу на реструктуризацію. Очікуване скорочення часу на реструктуризацію для реального проекту складе близько 35%. Висновки. Запропонований метод реструктуризації варіантів використання дозволяє поліпшити дохідливість і погодженість вимог, можливість їхнього коректування й супроводу, скоротити час на складання. Метод може бути використаний при проектуванні будь-якої інформаційної системи, де вимоги представляються у вигляді варіантів використання.Item Технологія аналізу україномовних твітів для прогнозування зміни динаміки громадської думки на основі машинного навчання(Національний університет "Запорізька політехніка", 2023) Прокіпчук,О. А.; Висоцька, В. А.; Prokipchuk, O.; Vysotska, V.UK: Актуальність. Автоматизація дослідження громадської думки дозволить не тільки зменшити кількість ручної праці, а й отримувати часові зрізи результатів без додаткових зусиль. Оскільки потрібно уникнути прямої взаємодії з респондентами, громадську думку необхідно аналізувати на основі джерел її вільного вираження. Соціальні мережі чудово підходять на цю роль, так як там люди вільно публікують свої думки або емоційно правдиво реагують на опубліковану інформації щодо певних подій. Статистика показує, що даних із соціальних мереж недостатньо для отримання повноцінного результату, бо чималий відсоток людей не користуються соціальними мережами. Проте автоматизація дослідження навіть такого прошарку населення уже є хорошим результатом для аналізу динаміки змін громадської думки відповідно подій в країні/світі та відповідно для корегування в подальшому процесів державного управління. Мета дослідження – розроблення технології аналізу україномовного потоку контенту в соціальних мережах для дослідження громадської думки на основі знаходження кластеризованих тематичних груп твітів. Метод. В статті розроблено технолгію пошуку трендів твітів на основі кластеризації, що формує потік даних у вигляді коротких репрезентацій кластерів та їхньої популярності для подальшого дослідження громадської думки. Описано ефективний підхід збору твітів, їх фільтрації, очищення та попереднього опрацювання на основі порівняльного аналізу алгоритмів Bag of Words, TF-IDF та BERT. Визначено вплив стемінгу та лематизації на якість отриманих кластерів. А також знайдено оптимальні поєднання методів кластеризації (ції K-Means, Agglomerative Hierarchical Clustering та HDBSCAN) та векторизації твітів на основі аналізу 27 кластеризацій однієї вибірки даних. Обрано спосіб подання кластерів твітів у короткому форматі. Результати. Найкращі результати показали алгоритми, що використовують Відстань Левенштейна, тобто fuzz sort, fuzz set та levenshtein. Дані алгоритми швидко здійснюють перевірки, мають більшу різницю подібностей, тож можна точніше визначити межу подібності. Згідно з результатами проведених кластеризацій, оптимальними рішеннями є використання алгоритму кластеризації HDBSCAN та алгоритму векторизації BERT для досягнення найточніших результатів, та використання K-Means разом із TF-IDF для досягнення найкращої швидкодії із оптимальним результатом. Для зменшення часу виконання можна застосовувати стемінг. Висновки. В даному дослідженні експериментально знайдено оптимальні варіанти для порівняння відбитків кластерів серед таких методів пошуку подібності: Fuzz Sort, Fuzz Set, Levenshtein, Jaro Winkler, Jaccard, Sorensen, Cosine, Sift4. У деяких алгоритмів середня подібність відбитків сягає вище 70%. Знайдено 3 ефективні інструменти для порівняння їхньої подібності, так як вони показують достатню відмінність між порівняннями подібних та різних кластерів (> 20%). На основі обраних ефективних методів, успішно проведено аналіз трендів для 90 000 твітів за 7 днів для 5 тем тижня за допомогою K-Means та TF-IDF для кластеризації та векторизації, а також fuzz sort для порівняння відбитків кластерів із межою подібності 55%. EN: Context. Automation of public opinion research will allow not only to reduce the amount of manual work, but also to obtain time slices of the results without additional efforts. Since direct interaction with respondents should be avoided, public opinion should be analyzed based on the sources of its free expression. Social networks are great for this role, as their people freely publish their thoughts or emotionally truthfully react to published information about certain events. Statistics show that data from social networks is not enough to obtain a full-fledged result, because a significant percentage of people do not use social networks. However, the automation of the study of even such a stratum of the population is already a good result for analyzing the dynamics of changes in public opinion in accordance with events in the country/world and, accordingly, for correcting the processes of public administration in the future. Objective of the study is to develop a technology for analyzing the flow of Ukrainian-language content in social networks for public opinion research based on finding clustered thematic groups of tweets. Method. The article develops a technology for finding tweet trends based on clustering, which forms a data stream in the form of short representations of clusters and their popularity for further research of public opinion. An effective approach to tweet collection, filtering, cleaning and pre-processing based on a comparative analysis of Bag of Words, TF-IDF and BERT algorithms is described. The impact of stemming and lemmatization on the quality of the obtained clusters was determined. And optimal combinations of clustering methods (K-Means, Agglomerative Hierarchical Clustering and HDBSCAN) and vectorization of tweets were found based on the analysis of 27 clusterings of one data sample. The method of presenting clusters of tweets in a short format is selected. Results. Algorithms using the Levenstein Distance, i.e. fuzz sort, fuzz set and levenshtein, showed the best results. These algorithms quickly perform checks, have a greater difference in similarities, so it is possible to more accurately determine the limit of similarity. According to the results of the clustering, the optimal solutions are to use the HDBSCAN clustering algorithm and the BERT vectorization algorithm to achieve the most accurate results, and to use K-Means together with TF-IDF to achieve the best speed with the optimal result. Stemming can be used to reduce execution time. Conclusions. In this study, the optimal options for comparing cluster fingerprints among the following similarity search methods were experimentally found: Fuzz Sort, Fuzz Set, Levenshtein, Jaro Winkler, Jaccard, Sorensen, Cosine, Sift4. In some algorithms, the average fingerprint similarity reaches above 70%. 3 effective tools were found to compare their similarity, as they show a sufficient difference between comparisons of similar and different clusters (> 20%). Based on the selected effective methods, trend analysis was successfully performed on 90,000 tweets over 7 days for 5 topics of the week using K-Means and TF-IDF for clustering and vectorization, as well as fuzz sort for cluster fingerprint comparison with a 55% similarity threshold.Item Видалення компонентів дощу з одиночних зображень з використанням рекурентної нейронної мережі(Національний університет "Запорізька політехніка", 2023) Петров, К. Е.; Кириченко, В. В.; Petrov, K. E.; Kyrychenko. V. V.UK: Актуальність. Видалення небажаних наслідків дощових ефектів з одиночних зображень є актуальною проблемою в багатьох задачах комп’ютерного зору, оскільки смуги дощу можуть суттєво погіршувати візуальну якість зображень та серйозно перешкоджати роботі різноманітних інтелектуальних систем, які використовуються для їх обробки та подальшого аналізу. Мета роботи полягає у розробці методу виявлення і видалення небажаних наслідків впливу ефекту дощу з одиночних зображень, який базується на використанні згорткової нейронної мережі з рекурентною структурою. Метод. Головною складовою запропонованого методу є згорткова нейронна мережа, яка має рекурентну багатоетапну структуру. Особливістю саме такої архітектури мережі є використання повторюваних блоків (шарів), на виході яких можна отримати проміжний результат «очищення» вихідного зображення. Причому на виході кожного наступного шару мережі отримуємо зображення з меншим впливом компонентів дощу ніж на попередньому. Кожен шар мережі містить дві незалежні підмережі (гілки) для паралельної обробки зображення. Головна гілка призначена для виявлення і видалення ефекту дощу з зображення, а гілка уваги використовується для покращення і пришвидшення процесу виявлення небажаних компонентів дощу (для формування карти уваги дощу). Результати. Розроблено підхід до автоматичного виявлення та видалення наслідків впливу ефекту дощу з одиночних зображень. Процес «очищення» вихідного зображення здійснюється на основі використання згорткової нейронної мережі з рекурентною структурою, навчання якої було проведено на наборах даних Rain100H і Rain100L. Наведено результати комп’ютерних експериментів, які свідчать про ефективність та доцільність використання запропонованого методу для вирішення практичних завдань з попередньої обробки «забруднених» зображень. Висновки. Перевагою розробленого методу видалення небажаних компонентів дощу з зображень є те, що рекурентна багатоетапна архітектура мережі, на якій він базується, дозволяє потенційно застосовувати його для вирішення завдань в умовах обмежених обчислювальних ресурсів. Запропонований метод може бути успішно використаний при розробці інтелектуальних систем для моніторингу територій за допомогою камер спостереження, автономного керування транспортними засобами, обробки результатів аерофотозйомки тощо. В перспективі слід розглянути можливість формування окремої підмережі для усунення розмитості на зображенні та провести навчання мережі на наборах даних, які містять зразки зображень з різними компонентами дощу, що зробить метод більш «стійким» до різних форм ефекту дощу і підвищить якість «очищення» зображень. EN: Context. Removing the undesirable consequences of rain effects from single images is an actual problem in many computer vision tasks, because rain streaks can significantly degrade the visual quality of images and seriously interfere with the operation of various intelligent systems, which are used for their processing and further analysis. Objective. The goal of the work is to develop a method for detecting and removing undesirable effects of the rain from single images, which is based on the using of a convolutional neural network with a recurrent structure. Method. The main component of the proposed method is a convolutional neural network, which has a recurrent multi-stage structure. A feature of this network architecture is the use of repeated blocks (layers), at the output of which you can get an intermediate result of «cleaning» the original image. Moreover at the output of each next layer of the network we get an image with less influence of rain components than on the previous one. Each network layer contains two independent sub-networks (branches) for parallel image processing. The main branch is designed to detect and remove the effect of rain from the image and the attention branch is used to improve and speed up the process of detecting undesirable rain components (for rain attention map formation). Results. An approach has been developed to automatically detect and remove the rain effect from single images. The process of “cleaning” the original image is based on the use of a convolutional neural network with a recurrent structure, which was trained on the Rain100H and Rain100L datasets. The results of computer experiments, which testifies to the effectiveness and expediency of using the proposed method for solving practical tasks of pre-processing “contaminated” images are presented. Conclusions. The advantage of the developed method for removing undesirable components of rain from images is that the recurrent multi-stage network architecture, on which it is based allows it to be potentially applied to solving tasks under conditions of limited computing resources. The proposed method can be successfully used in the development of intelligent systems for area monitoring with surveillance cameras, autonomous vehicles control, processing aerial photography results, etc. In the future, it should be considered the possibility of forming a separate sub-network to eliminate blurring in the image and train the network on datasets that contain image samples with different components of rain, which will make the method more «resistant» to different forms of the rain effect and increase the quality of image “cleaning”.Item Model-agnostic meta-learning for resilience optimization of artificial intelligence system(Національний університет "Запорізька політехніка", 2023) Moskalenko, V. V.; Москаленко, В. В.EN: Context. The problem of optimizing the resilience of artificial intelligence systems to destructive disturbances has not yet been fully solved and is quite relevant for safety-critical applications. The task of optimizing the resilience of an artificial intelligence system to disturbing influences is a high-level task in relation to efficiency optimization, which determines the prospects of using the ideas and methods of meta-learning to solve it. The object of current research is the process of meta-learning aimed at optimizing the resilience of an artificial intelligence system to destructive disturbances. The subjects of the study are architectural add-ons and the meta-learning method which optimize resilience to adversarial attacks, fault injection, and task changes. Objective. Stated research goal is to develop an effective meta-learning method for optimizing the resilience of an artificial intelligence system to destructive disturbances. Method. The resilience optimization is implemented by combining the ideas and methods of adversarial learning, fault-tolerant learning, model-agnostic meta-learning, few-shot learning, gradient optimization methods, and probabilistic gradient approximation strategies. The choice of architectural add-ons is based on parameter-efficient knowledge transfer designed to save resources and avoid the problem of catastrophic forgetting. Results. A model-agnostic meta-learning method for optimizing the resilience of artificial intelligence systems based on gradient meta-updates or meta-updates using an evolutionary strategy has been developed. This method involves the use of tuner and meta-tuner blocks that perform parallel correction of the building blocks of a original deep neural network. The ability of the proposed approach to increase the efficiency of perturbation absorption and increase the integral resilience indicator of the artificial intelligence system is experimentally tested on the example of the image classification task. The experiments were conducted on a model with the ResNet-18 architecture, with an add-on in the form of tuners and meta-tuners with the Conv-Adapter architecture. In this case, CIFAR-10 is used as a base set on which the model was trained, and CIFAR-100 is used as a set for generating samples on which adaptation is performed using a few-shot learning scenarios. We compare the resilience of the artificial intelligence system after pre-training tuners and meta-tuners using the adversarial learning algorithm, the fault-tolerant learning algorithm, the conventional model-agnostic meta-learning algorithm, and the proposed meta-learning method for optimizing resilience. Also, the meta-learning algorithms with meta-gradient updating and meta-updating based on the evolutionary strategy are compared on the basis of the integral resilience indicator. Conclusions. It has been experimentally confirmed that the proposed method provides a better resilience to random bit-flip injection compared to fault injection training by an average of 5%. Also, the proposed method provides a better resilience to -adversarial evasion attacks compared to adversarial training by an average of 4.8%. In addition, an average 4.8% increase in the resilience to task changes is demonstrated compared to conventional fine-tuning of tuners. Moreover, meta-learning with an evolutionary strategy provides, on average, higher values of the resilience indicator. On the downside, this meta-learning method requires more iterations. UK: Актуальність. Задача оптимізації резільєнтності систем штучного інтелекту до деструктивних збурень досі не була повністю вирішена і є досить актуальною для критичних до безпеки застосувань. Задача оптимізації резільєнтності системи штучного інтелекту до збурюючих впливів є високорівневою по відношенню до оптимізації ефективності, що обумовлює перспективність використання ідей і методів мета-навчання для її вирішення. Тому об’єктом дослідження є процес мета-навчання для оптимізації резільєнтності системи штучного інтелекту до деструктивних збурень. Предметом дослідження є архітектурні надстройки та метод мета-навчання, що забезпечують оптимізацію резільєнтності до протиборчих атак, інжекції несправностей і зміни задач. Мета дослідження – розроблення ефективного методу мета-навчання для оптимізації резільєнтності системи штучного інтелекту до деструктивних збурень. Методи дослідження. Оптимізація резільєнтності реалізується шляхом поєднання ідей і методів протиборчого навчання, навчання з ін’єкцією несправностей, незалежного від моделі мета-навчання, навчання за обмеженою кількістю зразків, методів градієнтної оптимізації та ймовірнісних стратегій апроксимації градієнту. При цьому вибір архітектурних надстройок базується на ефективному щодо параметрів трансфері знань для для економії ресурсів та уникнення проблеми катастрофічного забування. Результати. Розроблено незалежний від моделі метод мета-навчання для оптимізації резільєнтності систем штучного інтелекту на основі градієнтних мета-оновлень, або мета-оновлень за еволюційною стратегією. При цьому метод передбачає використання тюнерів і мета-тюнерів, що здійснюють паралельну корекцію будівельних модулів (блоків) глибокої нейромережі. На прикладі задачі класифікації зображень експериментально протестовано здатність запропонованого підходу підвищувати ефективність поглинання збурень та підвищувати інтегральний показник резільєнтності системи штучного інтелекту. Експерименти проводились на моделі з архітектурою ResNet-18, з надстройкою у вигляді тюнерів і мета-тюнерів з архітектурою Conv-Adapter. При цьому CІFAR-10 використовується як базовий набір, на якому була навчена модель, а CІFAR-100 використовується як набір для формування вибірок, на яких здійснюють адаптацію за обмеженою кількістю зразків. Порівнюється показники резільєнтності системи штучного інтелекту після попереднього навчання тюнерів і мета-тюнерів за алгоритмом протиборчого навчання, алгоритмом навчання з ін’єкцією несправностей, традиційним алгоритмом незалежного від моделі мета-навчання та за запропонованим метод мета-навчання для оптимізації резільєнтності. Також порівнюються за інтегральним показником резільєнтності алгоритм мета-навчання з мета-градієнтним оновленням та мета-оновленням на основі еволюційної стратегії. Висновки. Еспериментально підтверджено, що запропонований метод забезпечує кращий показник резільєнтності до ін’єкції випадкових інверсій біт порівняно з навчанням з ін’єкцією несправностей в середньому на 5%. Також запропонований метод забезпечує кращий показник резільєнтності до протиборчих атак ухилення порівняно з протиборчим навчання всередньому на 4.8%. Так само продемонстровано підвищення всередньому на 4.8% резільєнтності до зміни задач порівняно зі звичайною точною настройкою тюнерів. При цьому мета-навчання з еволюційною стратегією забезпечує всередньому більші значення показника резільєнтності, однак попереднє мета-навчання потребує більше ітерацій.Item Object detection performance indicator in video suveillance systems(Національний університет "Запорізька політехніка", 2023) Katerynchuk, I. S.; Babaryka, A. O.; Khoptinskiy, R. P.; Катеринчук, І. С.; Бабарика, А. О.; Хоптинський, Р. П.EN: Context. The probability of detecting the object by the operator of the video surveillance system depends on a number of parameters (geometric dimensions of the object of observation, distance to the object of observation, parameters of the video surveillance camera, monitor parameters, etc.). Objective. The purpose of the article is to develop an indicator of the effectiveness of detecting dynamic objects when evaluating the functioning of video surveillance systems. Method. An indicator of the effectiveness of object detection when evaluating the functioning of video surveillance systems is proposed. The proposed indicator is expressed in the probability of detection of the object of interest by the i-th operator thanks to the person’s own visual apparatus or with the help of a software algorithm. This indicator differs from the existing ones by taking into account the parameters of the optical system, the parameters of the information display device (monitor), the number of video surveillance cameras, etc. The developed indicator makes it possible to estimate the probability of detection of an object by a video surveillance system operator thanks to a person's own visual apparatus or with the help of a software algorithm, depending on the distance to such an object. Results. According to the results of experimental calculations, it has been proven that the effectiveness of the use of video surveillance systems with the use of video analytics functions (using the example of the dynamic object detection algorithm). Conclusions. The conducted experimental calculations confirmed the efficiency of the proposed mathematical apparatus and allow us to recommend it for use in practice when solving problems of evaluating the effectiveness of the functioning of video surveillance systems. UK: Актуальність. Ймовірність виявлення об’єкта оператором системи відеоспостереження залежить від ряду параметрів (геометричних розмірів об’єкта спостереження, дальності до об’єкта спостереження, параметрів камери відеоспостереження, параметрів монітору тощо. Метод. Запропоновано показник ефективності виявлення об’єктів при оцінці функціонування систем відеоспостереження. Запропонований показник виражається у ймовірності виявлення об’єкту інтересу оператором завдяки власному зоровому апарату людини чи за допомогою програмного алгоритму. Вказаний показник відрізняється від існуючих врахуванням параметрів оптичної системи, параметрів пристрою відображення інформації (монітору), кількості камер відеоспостереження тощо. Розроблений показник дає можливість оцінити ймовірність виявлення об’єкта оператором системи відеоспостереження завдяки власному зоровому апарату людини чи за допомогою програмного алгоритму, в залежності від відстані до такого об’єкта. Результати. За результатами експериментальних розрахунків доведено підвищення ефективності застосування систем відеоспостереження із застосуванням функцій відеоаналітики (на прикладі алгоритму виявлення динамічних об’єктів). Висновки. Проведені експериментальні розрахунки підтвердили працездатність запропонованого математичного апарату і дозволяють рекомендувати його для використання на практиці при вирішенні задач з оцінки ефективності функціонування систем відеоспостереження.Item Intelligence analysis of empirical data based on time series(Національний університет "Запорізька політехніка", 2023) Ivanets, O. B.; Khrashchevskyi, R. V.; Kulik, M. S.; Burichenko, M. Yu.; Іванець, О. Б.; Хращевський, Р. В.; Кулик, М. С.; Буриченко, М. Ю.EN: Context. The problem of intelligent data analysis for assessing the stability of operators’ functioning as a component of safety management is considered.The object of the study was to verify estimates of the complexity and chaotic nature of physiological processes based on nonlinear dynamics methods. Objective. The goal of work is intelligent data analysis for assessing the stability of the functioning of a dynamic system based on the methods of non-linear dynamics. Method. Data intelligence to obtain additional useful information to avoid wrong decisions when deciding on the current state of the operator to be able to perform professional duties. Quantitative assessment of the complexity of physiological dynamics to determine the stability of feedback control processes of body subsystems and their constant adaptation to changes in environmental conditions. The presence of significant nonlinearities in the biomedical signals of the body is associated with the appearance of a chaotic component that describes the chaotic nature of the body’s processes. Due to the fact that biomedical signals have both a periodic and a chaotic component, the study of the latter makes it possible to determine the informational component of the nature of the internal organization of the organism and provide information about the possible destabilization of the functional state of the operator. The use of nonlinear dynamics methods to study changes in the operator’s body and provide additional independent prognostic information complementing traditional data analysis in the time and frequency domains. Several indices obtained by the methods of nonlinear dynamics are proposed, which contribute to the expansion of the diagnostic solution based on the available data. Results. The results of the study can be used during the construction of mathematical methods of non-linear dynamics to describe empirical data of this kind. Conclusions. Experimental studies have suggested recommending the use of non-linear methods dynamics as an an additional independent component that allows analyzing the chaotic component of biomedical signals to avoid wrong decisions during professional selection and assessment of the current state of aviation industry operators as one of the causes of adverse events in aviation. Prospects for further research may include the creation of a methodology based on nonlinear dynamics methods that will allow to increase the reliability of predicting a malfunction of the cardiovascular system as an indicator of a change in the balance of the functional state of the operator based on additional informative parameters, which can be used to assess triggers that may cause an adverse event in aviation, as well as an experimental study of the proposed mathematical approaches for a wide range of diagnostic problems. UK: Актуальність. Розглянуто проблему інтелектуального аналізу даних для оцінки стабільності функціонування операторів як складової управління безпекою в авіації. Дослідження присвячене аналізу складності та хаотичності фізіологічних процесів на основі методів нелінійної динаміки. Об’єктом дослідження є процес аналізу варіабельності серцевого ритму методами нелінійної динамік. Мета роботи – оброблення біомедичних сигналів для оцінювання хаотичності процесів із використанням нелінійних методів. Результати дослідження можуть бути використані під час побудови математичних методів нелінійної динаміки для опису емпіричних даних такого роду. Експериментальні дослідження надають змогу рекомендувати використання методів нелінійної динаміки в якості додаткової незалежної інформації, що дозволяє проаналізувати хаотичну складову біомедичних сигналів для уникнення хибних рішень при професійному відборі та оцінюванні поточного стану операторів авіаційної галузі як одну з причин несприятливих подій в авіації. Перспективами подальших досліджень може бути створення методології на основі методів нелінійної динаміки, яка дозволить підвищити достовірність прогнозування дисфункції серцево-судинної системи, як індикатора зміни рівноваги функціонального стану оператора на основі додаткових інформативних параметрів, що можуть бути використані для оцінки тригерів несприятливих подій в авіації, а також експериментальне дослідження запропонованих математичних підходів для широкого кола діагностичних задач. Метод. Проведено аналіз біомедичних даних для отримання додаткової корисної інформації при оцінювання хаотичних процесів для визначення стабільності функціонування біологічної системи при прийнятті рішення про поточний стан оператора. Проведена кількісна оцінка складності фізіологічної динаміки для визначення стійкості процесів управління підсистемами організму та їх постійної адаптації до змін зовнішнього середовища. Наявність значних нелінійностей у біомедичних сигналах пов’язана з появою динамічної складової, яка описує хаотичний характер процесів організму. Завдяки тому, що біомедичні сигнали мають як періодичну, так і хаотичну складову, вивчення останньої дає змогу визначити інформаційну складову характеру внутрішньої організації організму та надати інформацію про можливу дестабілізацію функціонального стану оператора. Використання методів нелінійної динаміки для вивчення змін в організмі оператора та надання додаткової незалежної прогностичної інформації доповнює традиційний аналіз даних у часовій та частотній областях. Запропоновано декілька показників, отриманих методами нелінійної динаміки, що сприяють розширенню діагностичного рішення на основі емпірічних даних. Результати. Результати дослідження можуть бути використані під час побудови математичних моделей для опису емпіричних даних такого роду. Висновки. Застосування запропонованого підходу надає додаткову прогностичну інформацію та доповнює традиційний аналіз варіабельності серцевого ритму, оскільки саме зміна динаміки варіабельності серцевого ритму має прогностичне значення щодо прогресування порушення стабільності функціонування стану оператора. Зміни в динаміці варіабельності серцевого ритму мають прогностичне значення щодо прогресування біологічного дисбалансу на основі аналізу функціонування серцево-судинної системи. При застосуванні до окремої біологічної системи протягом певного періоду часу ці показники можуть бути діагностично корисними, диференціюючи прогресування функціональної нестабільності. Крім того, вони можуть бути цінним доповненням до сучасних систем моніторингу людського фактору. Перспективами подальших досліджень може бути створення методології із поєднанням використання класичних методів аналізу даних з додатковим використанням методів нелінійної динаміки для підтвердження адекватності прийняття рішення про поточний стан оператора за інформативними параметрами, а також експериментальне вивчення запропонованих математичних підходів для широкого кола практичних задач різного характеру та розмірності.Item Determination and comparison methods of body positions on stream video(Національний університет "Запорізька політехніка", 2023) Bilous, N. V.; Ahekian, I. A.; Kaluhin, V. V.; Білоус, Н. В.; Агекян, І. А.; Калугiн, В. В.EN: Context. One of the tasks of computer vision is the task of determining the human body in the image. There are many methods to solve this problem, some are based on specific equipment (motion capture, kinect) and provide the highest accuracy, some give less accuracy but do not require additional equipment and use less computing power. But usually, such equipment has a high cost, so to ensure the low cost of developments designed to determine the body in the image, you should develop algorithms based on computer vision technology. These algorithms can then be applied to various fields to analyze and compare body positions for a variety of purposes. Objective. The aim of the work is to study the effectiveness of existing libraries to determine the human body position in the image, as well as methods for comparing the obtained poses in terms of speed and accuracy of determination. Methods. A set of libraries and pose comparison algorithms were analyzed for the purpose of developing a system for determining the correctness of exercise by the user in real time. OpenPose, PoseNet and BlazePose libraries were analyzed for their suitability in recognizing and tracking body parts and movements in real-time video streams. The advantages and disadvantages of each library were evaluated based on their performance, accuracy, and computational efficiency. Additionally, different pose comparison algorithms were analyzed. The effectiveness of each algorithm was evaluated based on their ability to accurately determine and compare body positions. As a result, the combination of BlazePose and weighted distance method can achieve the best performance in pose recognition, with high accuracy and robustness across a range of challenging scenarios. The weighted distance method can be further enhanced with techniques such as L2 normalization and pose alignment to improve its accuracy and generalization. Overall, the combination of the BlazePose library and weighted distance methods offers a powerful and effective solution for pose recognition, with high F1 index. Results. Existing models for determining poses have shown similar results in the quality of determination with a run-up of about 2%. When developing a cross-platform software product, the BlazePose library, which has an API for working directly in the browser and on mobile platforms, has a significant advantage in speed and accuracy. Also, as the library uses extended 33 keypoint topology it becomes applicable to a wider list of tasks. In the study of comparison methods, the greatest influence on the results was exerted by the quality of pose determination. Conclusions. Among the methods of comparison, the method of weighted distances showed the best results. The speed of position determination is inversely proportional to the quality of determination and significantly exceeds the recommended value – 40ms. UK: Актуальність. Однією з задач комп’ютерного зору є задача визначення тіла людини на зображенні. Існує багато методів вирішення цієї задачі, деякі базуються на специфічному обладнані (motion capture, kinect) та надають найбільшу точність, деякі дають меншу точність, але не потребують додаткового обладнання та використовують меншу обчислювальну потужність. Але зазвичай таке обладнання мав високу вартість, тож щоб забезпечити низьку вартість розробок створених для визначення тіла на зображенні, слід розробляти алгоритми за базі технологій комп’ютерного зору. Ці алгоритми можна застосовувати до різних областей для аналізу та порівняння положень тіла та досягнення різноманітних цілей. Мета. Метою роботи є дослідження ефективності роботи існуючих бібліотек для визначення пози людини на зображенні а також методів порівняння отриманих поз з точки зору швидкості та точності визначення. Методи. Дослідження проводяться в контексті розробки системи визначення правильності виконання фізичних вправ користувачем у режимі реального часу. Бібліотеки OpenPose, PoseNet і BlazePose були проаналізовані на предмет їх придатності для розпізнавання та відстеження частин тіла та рухів на відео у реальному часі. Переваги та недоліки кожної бібліотеки були оцінені на основі їх продуктивності, точності та обчислювальної ефективності. Крім того, були проаналізовані різні алгоритми порівняння поз. Ефективність кожного алгоритму оцінювалася на основі їх здатності точно визначати та порівнювати положення тіла. У результаті поєднання BlazePose і методу зваженої відстані можно досягти найкращої продуктивності в розпізнаванні пози з високою точністю та надійністю в ряді складних сценаріїв. Метод зваженої відстані можна додатково вдосконалити за допомогою таких методів, як нормалізація L2 і вирівнювання пози для підвищення його точності та узагальнення. Загалом поєднання бібліотеки BlazePose та методів зваженої відстані пропонує потужне та ефективне рішення для розпізнавання пози з високим індексом F1. Результати. Існуючі моделі визначення поз показали схожі результати якості визначення з розбігом близько 2%. При розробці крос-платформного програмного продукту значну перевагу в швидкості має бібліотека BlazePose, що має API для роботи безпосередньо в браузері та на мобільних платформах. Крім того, оскільки бібліотека використовує розширену топологію з 33 ключовими точками, вона може бути застосована для ширшого списку завдань. При дослідженні методів порівняння найбільший вплив на результати справила якість визначення пози. Висновки. Серед методів порівняння найкращі результати продемонстрував метод зважених дистанцій. Швидкість визначення поз обернено пропорційна якості визначення і значно перевищує рекомендоване значення – 40мс.Item Векторно-логічне моделювання несправностей(Національний університет "Запорізька політехніка", 2023) Хаханов, В. І.; Чумаченко, С. В.; Литвинова, Є. І.; Хаханова, І. В.; Хаханова, Г. В.; Шкіль, О. С.; Рахліс, Д. Ю.; Хаханов, І. В.; Шевченко, О. Ю.; Hahanov, V.; Chumachenko, S.; Litvinova, Y.; Hahanova, I.; Khakhanova, A.; Shkil, A.; Rakhlis, D.; Hahanov, І.; Shevchenko, O.UK: Актуальність. Основна ідея – створення векторно-логічного in-memory комп’ютингу (ВЛК), який використовує лише read-write транзакції на адресної пам’яті для моделювання несправностей, як адрес. Традиційна логіка відсутня. ВЛК вільний від команд процесора та АЛП для організації обчислень і тому орієнтований на імплементацію у кристали SoC і FPGA. Пропонується векторно-логічний метод синтезу дедуктивних матриць для транспортування вхідних несправностей, який має квадратичну обчислювальну складність. Мета. Розробка векторного дедуктивного методу моделювання несправностей на основі примітивних read-write-транзакцій для аналізу логічних схем. Метод. Використовується вхідний тестовий набір та логічний вектор функціональності. Метод, що розробляється, є розвитком алгоритму синтезу дедуктивних векторів на основі таблиці істинності. Дедуктивна матриця призначена для синтезу та верифікації тестів за допомогою паралельного моделювання комбінацій несправностей, як адрес, на основі read-write-транзакцій над бітами дедуктивних векторів, що знаходяться в пам’яті. Результати. Запропоновано векторний метод синтезу дедуктивних матриць для транспортування вхідних несправностей векторів на вихід елемента. Розроблено структури даних для паралельного моделювання несправностей цифрових схем на основі примітивної read-write-транзакції в матричній пам’яті, де поєднання несправностей є стовпцями-адресами. Запропоновано секвенсор із п’яти блоків, що складають векторно-логічний комп’ютинг, пов’язаний з дедуктивним моделюванням несправностей на основі read-write транзакцій. Виконано верифікацію моделей та методів на тестових прикладах. Висновки. Наукова новизна полягає у розробці наступних інноваційних рішень: 1) вперше запропоновано векторно-логічний метод синтезу матриці дедуктивних векторів для паралельного моделювання комбінацій вхідних несправностей як адрес; 2) вперше запропоновано автомат векторно-дедуктивного моделювання несправностей, як адрес, на основі read-write транзакцій, орієнтований для імплементації в FPGA LUT, вбудований online симулятор SoC, як ядро для моделювання несправностей цифрових систем RTL-рівня; 3) демонстрація технологічних переваг векторно-логічного синтезу дедуктивних матриць виконана на численних прикладах традиційної та RTL-логіки, що підкреслює технологічність векторів у порівнянні з аналітичними дедуктивними формулами для побудови симуляторів; 4) матриця дедуктивних векторів, як сукупність вектор-стовпців булевих похідних використовується для побудови мінімальних тестів для логічних елементів; 5) рекурсивна формула синтезу матриці перестановки координат у логічному векторі активності дозволяє суттєво спростити отримання дедуктивної матриці для моделювання несправностей як адрес. Практичне значення полягає в тому, що in-memory simulator дозволить отримати швидкодію моделювання несправностей реальних цифрових блоків SoC на рівні сотень наносекунд. Наводяться оцінки складності відповідних алгоритмів. EN: Context. The main idea is the creation of vector-logical in-memory computing (VLC), which uses only read-write transactions on the address memory for faults-as-addresses simulation. There is no traditional logic. VLC is free from processor commands and ALU for computing organization and is therefore focused on implementation in SoC and FPGA. A vector-logical method of deductive matrix synthesis for the transportation of input faults, which has a quadratic computational complexity, is proposed. An in-memory simulator-automata for vector-deductive faults-as-addresses simulation, which based on read-write transactions for implementation in SoC is proposed. Objective. Development of a vector deductive method of fault simulation based on primitive read-write transactions for the analysis of logic circuits. Method. An input test set and a logical functionality vector are used. The proposed method is a development of the deductive vectors’ synthesis algorithm based on the truth table. The deductive matrix is intended for the synthesis and verification of tests using parallel simulation of faults-as-addresses combinations, based on read-write transactions over bits of deductive vectors in memory. Results. A vector method of the deductive matrices synthesis for the transportation of input faults vectors to the output of the element, was proposed. Data structures have been developed for parallel faults simulation of digital circuits based on a primitive read-write transaction in matrix memory, where combinations of faults serve as address-columns. A sequencer of five blocks, that constitute a vector-logic computing, connected with deductive faults simulation based on read-write transactions, is proposed. Verification of models and methods on test examples has been performed. Conclusions. The scientific novelty consists in the development of the following innovative solutions: 1) a vector-logic method of synthesis of the deductive vectors matrix for parallel simulation of combinations of input faults-as-addresses, is proposed for the first time; 2) an automata for vector-deductive faults-as-addresses simulation, on the basis of read-write transactions, which is oriented for implementation in FPGA LUT, embedded online simulator SoC, as a core for faults simulation of RTL-level digital systems, was proposed for the first time; 3) the demonstration of the technological advantages of the vector-logic synthesis of deductive matrices is performed on numerous examples of traditional and RTL-logic, which accentuate the manufacturability of vectors in comparison with analytical deductive formulas during simulators construction; 4) a matrix of deductive vectors, as a set of vector-columns of Boolean derivatives is used to construct minimal tests for logical elements; 5) the recursive formula for the synthesis of the permutation of coordinates matrix in the logical activity vector makes it possible to significantly simplify the obtaining of the deductive matrix for faults-as-addresses simulation. The practical significance lies in the fact that the in-memory simulator will allow to obtain the speed of faults simulation of real digital blocks for SoC at the level of hundreds of nanoseconds. Complexity estimates of the corresponding algorithms are given.Item Способи визначення подібності категоріальних впорядкованих даних(Національний університет "Запорізька політехніка", 2023) Кондрук, Н. Е.; Kondruk, N. E.UK: Актуальність. Розробка ефективних метрик відстані та мір подібності для категоріальних ознак є важливою задачею в аналізі даних, машинному навчанні, теорії прийняття рішень оскільки значна частина властивостей об’єктів описується саме не числовими значеннями. Зазвичай залежність між категоріальними ознаками може бути складнішою, ніж просто їх порівняння за рівністю чи нерівністю. Такі атрибути можуть бути відносно схожими, і для побудови ефективної моделі задачі необхідно врахувати цю подібність під час розрахунку відстані чи міри подібності. Метою дослідження є підвищення ефективності розв’язання прикладних задач аналізу даних шляхом розробки математичних засобів для визначення подібності об’єктів за категоріальними впорядкованими ознаками. Методи. Запропоновано відстань на базі зваженої манхетенської відстані та міру подібності для визначення схожості об’єктів за категоріальними впорядкованими ознаками ( тобто на множині значень атрибутів можна задати лінійний порядок із шкалами переваг враховуючи предметну область задачі). Доведено, що формула відстані задовольняє аксіомам невід’ємності, симетричності, нерівності трикутника та обмеження з верху, а отже є метрикою відстані в просторі ранжованих категоріальних ознак. Доведено, що міра подібності представлена в досліджені задовольняє аксіомам обмеженості, симетричності, максимальної та мінімальної подібності та описується спадною функцією. Результати. Розроблений підхід реалізовано на прикладній задачі визначення ступеню схожості об’єктів, які описані впорядкованими категоріальними ознаками. Висновки. В даному дослідженні розроблено математичні інструменти для визначення подібності структурованих даних, що описуються категоріальними атрибутами, які можна впорядкувати за певним пріоритетом у вигляді рангу із системою переваг. Проаналізовано їх властивості. Проведені експериментальні дослідження показали зручність, «інтуїтивну зрозумілість» логіки проведення обробки даних при розв’язанні прикладних задач. Представлений підхід може забезпечити можливість проводити нові змістовні дослідження аналізу даних. Перспективи подальших досліджень полягають у експериментальному використанні запропонованих інструментів в практичних задачах та вивченні їх ефективності. EN: Context. The development of effective distance metrics and similarity measures for categorical features is an important task in data analysis, machine learning, and decision theory since a significant portion of object properties is described by non-numerical values. Typically, the dependence between categorical features may be more complex than simply comparing them for equality or inequality. Such attributes can be relatively similar, and to construct an effective model, it is necessary to consider this similarity when calculating distance or similarity measures. Objective. The aim of the study is to improve the efficiency of solving practical data analysis problems by developing mathematical tools for determining the similarity of objects based on categorical ordered features. Method. A distance based on weighted Manhattan distance and a similarity measure for determining the similarity of objects based on categorical ordinal features (i.e. a linear order with scales of preference considering the problem domain can be specified on the attribute value set) are proposed. It is proven that the distance formula satisfies the axioms of non-negativity, symmetry, triangle inequality, and upper bound, and therefore is a distance metric in the space of ranked categorical features. It is also proven that the similarity measure presented in the study satisfies the axioms of boundedness, symmetry, maximum and minimum similarity, and is described by a decreasing function. Results. The developed approach has been implemented in an applied problem of determining the degree of similarity between objects described by ordered categorical features. Conclusions. In this study, mathematical tools were developed to determine similarity between structured data described by categorical attributes that can be ordered based on a specific priority in the form of a ranking system with preferences. Their properties were analyzed. Experimental studies have shown the convenience and “intuitive understanding” of the logic of data processing in solving practical problems. The proposed approach can provide the opportunity to conduct new meaningful research in data analysis. Prospects for further research lie in the experimental use of the proposed tools in practical tasks and in studying their effectiveness.Item Концепція інформаційно-ентропійного простору побудови моделей системних об’єктів для задач сталого розвитку(Національний університет "Запорізька політехніка", 2023) Козуля, Т. В.; Kozulia, T. V.UK: Актуальність. Вирішення завдань поглиблення міждисциплінарних системних досліджень при пошуку рішень задач сталого розвитку для реальних соціально-еколого-економічних об’єктів на основі системологічного моделювання та запровадження інформаційно-ентропійного простору визначення оцінки стану та функціональності таких об’єктів для прийняття управлінських рішень в умовах невизначеності. Мета. Моделювання поточної ситуації дослідного соціально-еколого-економічного об’єкта у вигляді кооперативного зв’язку «дослідна система – навколишнє середовище» на базі системологічної моделі, що визначатиме умови досягнення цілі дослідження об’єкта завдяки виявленню синергетичної взаємодії внутрішніх і зовнішніх факторів у інформаційно-ентропійному просторі подання функціонування об’єкта. Метод. У роботі наведено результати логіко-експериментального дослідження з оцінки стану складних об’єктів соціально-еколого-економічної природи, їх розвитку в умовах стохастичного зовнішнього середовища з позицій відповідності вимогам сталого розвитку на основі запропонованого підходу, що становить системологічну основу створення ентропійної моделі дослідного об’єкта, алгоритмізації розв’язку задачі оцінки цільового стану складних системних об’єктів за значенням екологічного функціоналу якості, що становить співвідношення ентропійних функцій стану «системи об’єкта – навколишнє середовище» і процесів взаємодії між ними, отриманих за результатами статистичного аналізу даних моніторингу об’єктів, віднесених до техногенних (економічних), соціальних і природних систем. Результати. Вперше запропоновано використання комплексного поєднання положень системології для визначення структури об’єкта дослідження, теоретичного знання з інформаційної ентропії для опису параметрів стану будь-якого елемента систем об’єкта та метрики ентропійного опису станів і процесів. Для остаточної оцінки рівноваги функціонування дослідного об’єкта впроваджено відносний функціонал відповідності, що дозволяє оцінити наявність точок нестабільності системного і процесного характеру на основі моделі вкладеної системної структури, що важливо для прийняття рішень з передбаченням синергетичних позитивних відгуків. Висновки. Визначені переваги запропонованого комплексного підходу ентропійного оцінювання станів систем і процесів у них на основі системологічної моделі «об’єкт – навколишнє середовище» для визначення умов регулювання сталого розвитку дослідного об’єкта завдяки використанню виявлених самодовільних і природних синергетичних відгуків. Отримано універсальну базу дослідження складних системних утворень з оцінки сталості їх стану та функціональності завдяки синергії процесів і зв’язків «об’єкт – навколишнє середовище» на основі комплексного використання системологічного моделювання, ентропійного оцінювання вхідних даних. EN: Context. Solving tasks of interdisciplinary research deepening during sustainable development problems solutions search for real social-ecological-economical objects based on systemological modelling and introducing information-entropy space of such objects state and functionality determining for making managerial decisions in uncertainty conditions. Objective. Modelling current situation of researched social-ecological-economical object as the cooperative connection «studied system-environment» based on systemological model, which determines object study goal conditions due to discovery of internal and external factors interaction inside information-entropy space of object functioning representation. Method. The paper presents the logical-experimental research results of complex social-ecological-economical objects state estimation, their development in stochastic environment conditions from the point of view of sustainable development requirements match based on proposed approach. This approach is the systemological basis of studied object entropy model creation and algorithmization by ecological functional of quality of the complex system objects goal state. The quality functional is the interrelation of «object systems-environment» state entropy functions and their interaction processes, which are gotten through monitoring data statistical analyses of objects that belong to technogenic (economical), social and natural systems. Results. The usage of systemology basis complex union for studied object structure identification is suggested for the first time, along with identification of theoretical knowledge for informational entropy for any object system element description and entropic description of states and process. The relative accordance functional is introduced for final evaluation of the studied object equilibrium. It allows to estimate the presence of system and processes unstable points on the basis of nested system structure. It is important for decision making with synergistically positive feedbacks prediction. Conclusions. The systems and process states entropic estimation complex approach is determined. The systemological model «object-environment» is the basis for determining conditions of studied object sustainable development due to usage of found spontaneous and natural synergistically feedbacks. The universal research base for complex systems study was received for their state and functionality estimation due to process synergy and «object-environment» connections that are based on complex usage of systemological modelling and input information entropy estimation.Item Detection of the signals of the terrestrial radar stations by spacecraft with a passive synthesis of the antenna aperture(Національний університет "Запорізька політехніка", 2023) Vakaliuk, T. A.; Andreiev, O. V.; Dubyna, O. F.; Nikitchuk, T. M.; Puleko, I. V.; Вакалюк, T. A.; Aндреєв, O. В.; Дубина, O. Ф.; Нікітчук, T. M.; Пулекo, I. В.EN: Context is due to the need to analyze the electromagnetic accessibility of terrestrial radio radiation sources at long distances, which is typical for the operation of a spacecraft of radio technical intelligence with a passive synthesis of the antenna aperture. Objective is to calculate the probability indicators of detecting the fact of signal emission of ground-based radar stations using radio-technical intelligence installed on a space carrier. Method. Analytical calculation of the correct detection probability of the signal of the radio radiation sources by the spacecraft of radio technical intelligence based on the determination of the signal-to-noise ratio at the input of the detection device. The analysis of the technical characteristics of the group of ground radars made it possible to calculate the probability of correct detection only for the virtual radar, which generates the minimum number of pulses with the minimum energy during reconnaissance among all the analyzed radars. Results. The fulfillment of the conditions of electromagnetic accessibility is checked and the correct detection probability of the signals of modern radar stations by the space radio-technical intelligence system with a passive synthesis of the antenna aperture was calculated. Conclusion. Proposed use of the correct detection probability of the signal as the resulting indicator of electromagnetic accessibility of the radio radiation source. In the example radar stations of the air defense proved, that the proposed parameters of the space radio technical intelligence system with a passive synthesis of the antenna aperture provide the values of the correct detection probability of the signal, which are quite acceptable for modern monitoring systems. UK: Актуальність зумовлена необхідністю проведення аналізу електромагнітної доступності та розрахунку ймовірнісних показників виявлення сигналів наземних джерел радіовипромінення на досить великих відстанях, що характерно для роботи космічного апарату радіотехнічної розвідки із синтезованою апертурою антени. Метою роботи є визначення електромагнітної доступності наземних радіолокаційних станцій для космічних засобів радіотехнічної розвідки з пасивним синтезом апертури антени та розрахунок ймовірнісних показників виявлення факту випромінення сигналів. Метод. Аналітичний розрахунок ймовірності правильного виявлення сигналу джерел радіовипромінення космічною системою радіотехнічної розвідки з пасивним синтезом апертури антени на основі визначення відношення сигнал/шум на вході пристрою виявлення, при заданих параметрах космічної системи розвідки. Аналіз технічних характеристик групи наземних РЛС дозволив розрахувати ймовірність правильного виявлення лише для віртуальної РЛС, яка генерує мінімальну кількість імпульсів з мінімальною енергією за час розвідки серед усіх РЛС, що підлягали аналізу. Результати. Перевірено виконання умов електромагнітної доступності та розрахована ймовірність виявлення сигналів сучасних радіолокаційних станцій космічною системою радіотехнічної розвідки з пасивним синтезом апертури антени. Висновки. Як результуючий показник електромагнітної доступності запропоновано використовувати ймовірність правильного виявлення сигналу джерела радіовипромінення. Доведено, що обрані параметри космічної системи радіотехнічної розвідки забезпечують цілком прийнятні значення ймовірності правильного виявлення сигналів наземних радіолокаційних станцій протиповітряної оборони.Item Phase frequency interpretation of the coincidence method for frequency to code conversion(Національний університет "Запорізька політехніка", 2023) Petrushak, V. S.; Петрушак, В. С.EN: Context. The problem of fast conversion of radio signal frequency for monitoring the radial velocity of a moving object. The object of the study was the process of converting frequency into a code based on the coincidence method. Objective. The goal of the work is to improve the coincidence method for creating a new signal-to-code frequency converter without fixing the conversion time interval. Method. The coincidence method for converting the signal frequency into a code has been improved. The improved frequency conversion method, unlike the existing ones, consists in counting the number of complete phase cycles of the known and unknown signals during the time of double coincidence and asynchronous mode of hardware determination of the particle. The improved method has advantages in comparison with the method of an electro-counter frequency meter when determining the radial speed of objects and does not have a methodical error, which in an electro-counter frequency meter increases as the unknown frequency approaches the reference to 100%. However, the improved coincidence method compared to other versions has a hardware scheme for tracking the moments of coincidence and determining the fraction and does not require expensive and high-speed microprocessors to calculate the conversion results. Results. Based on the phase-frequency interpretation and the derived conversion equation and the proposed frequency-to-code conversion scheme using the coincidence method, a functional scheme of the frequency converter was developed. This made it possible to implement a 16-bit frequency converter in code on Intel’s MAX V series CPLD. Conclusions. The coincidence method for converting the signal frequency into a code received further development, which, unlike the existing ones, consists in counting the number of complete phase cycles of the known and unknown signals during the time of double coincidence and the asynchronous mode of hardware determination of the fraction. The influence of the frequency of signals on the time of a single measurement was studied using the coincidence method, as a result of which it was found that with an increase in the difference between the reference and unknown frequency, the time of a single measurement decreases. The obtained research results can be used for the development of high-speed means of converting the signal frequency into a binary code: in industrial tomography, radar and radio navigation for monitoring moving objects. UK: Актуальність. Розглянуто проблема швидкого перетворення частоти радіосигналу для моніторингу швидкості рухомого об’єкту. Об’єктом дослідження є процес перетворення частоти в код на базі методу коінциденції. Мета роботи – удосконалення методу коінциденції для створення нового перетворювача частоти сигналу в код без фіксації часового інтервалу перетворення. Метод. Удосконалено метод коінциденції для перетворення частоти сигналу в код. Удосконалений метод перетворення частоти, на відміну від існуючих, полягає у підрахунку кількості повних фазових циклів відомого і невідомого сигналів за час подвійного збігу і асинхронного режиму апаратного визначення частки. Удосконалений метод має переваги в порівнянні з методом електролічильного частотоміра під час визначення радіальної швидкості об’єктів і не має методичної похибки, яка у електролічильного частотоміра збільшується з наближенням невідомої частоти до опорної до 100%. Разом з тим, удосконалений метод коінциденції в порівнянні з порівнянні з іншими версіями має апаратну схему відслідковування моментів збігу та визначення частки і не потребує дорого вартісних і високошвидкісних мікропроцесорів для обрахунку результатів перетворення. Результати. На основі фазочастотної інтерпретації і виведеного рівняння перетворення та запропонованої схеми перетворення частоти у код методом коінциденції, розроблено функціональну схему перетворювача частоти. Це дозволило реалізувати 16-розрядний перетворювач частоти в коді на CPLD серії МАХ V компанії Intel. Висновки. Отримав подальший розвиток метод коінциденції для перетворення частоти сигналу в код, який, на відміну від існуючих, полягає у підрахунку кількості повних фазових циклів відомого і невідомого сигналів за час подвійного збігу і асинхронного режиму апаратного визначення частки. Досліджено вплив частоти сигналів на час поодинокого вимірювання за допомогою методу коінциденції, в результаті чого з’ясовано, що зі збільшенням різниці між опорною і невідомою частотою час поодинокого вимірювання зменшується. Отримані результати досліджень можуть бути використані для розробки високошвидкісних засобів перетворення частоти сигналу у двійковий код: у промисловій томографії, радіолокації та радіонавігації для моніторингу рухомих об’єктів.