Радіоелектроніка, інформатика, управління - 2024, №1 (68)

Permanent URI for this collectionhttps://eir.zp.edu.ua/handle/123456789/25026

Browse

Recent Submissions

Now showing 1 - 20 of 22
  • Item
    Stewart platform dynamics model identification
    (Національний університет «Запорізька політехніка», 2024) Zozulya, V. A.; Osadchy, S. І.; Nedilko, S. N.; Зозуля, В. А.; Осадчий, С. І.; Неділько, С. М.
    EN: Context. At the present stage, with the current demands for the accuracy of motion control processes for a moving object on a specified or programmable trajectory, it is necessary to synthesize the optimal structure and parameters of the stabilization system (controller) of the object, taking into account both real controlled and uncontrolled stochastic disturbing factors. Also, in the process of synthesizing the optimal controller structure, it is necessary to assess and consider multidimensional dynamic models, including those of the object itself, its basic components, controlled and uncontrolled disturbing factors that affect the object in its actual motion. Objective. The aim of the research, the results of which are presented in this article, is to obtain and assess the accuracy of the Stewart platform dynamic model using a justified algorithm for the multidimensional moving object dynamics identification. Method. The article employs a frequency-domain identification method for multidimensional stochastic stabilization systems of moving objects with arbitrary dynamics. The proposed algorithm for multidimensional moving object dynamics model identification is constructed using operations of polynomial and fractional-rational matrices addition, multiplication, Wiener factorization, Wiener separation, and determination of dispersion integrals. Results. As a result of the conducted research, the problem of identifying the dynamic model of a multidimensional moving object is formalized, illustrated by the example of a test stand based on the Stewart platform. The outcomes encompass the identification of the dynamic model of the Stewart platform, its transfer function, and the transfer function of the shaping filter. The verification of the identification results confirms the sufficient accuracy of the obtained models. Conclusions. The justified identification algorithm allows determining the order and parameters of the linearized system of ordinary differential equations for a multidimensional object and the matrix of spectral densities of disturbances acting on it under operating conditions approximating the real functioning mode of the object prototype. The analysis of the identification results of the dynamic models of the Stewart platform indicates that the primary influence on the displacement of the center of mass of the moving platform is the variation in control inputs. However, neglecting the impact of disturbances reduces the accuracy of platform positioning. Therefore, for the synthesis of the control system, methods should be applied that enable determining the structure and parameters of a multidimensional controller, considering such influences. UK: Актуальність. За сучасних вимог до точності процесів керування рухом рухомого об'єкта на заданій або програмованій траєкторії руху необхідно синтезувати оптимальні структуру та параметри системи стабілізації (регулятора) об’єкта з урахуванням як реальних контрольованих, так і неконтрольованих стохастичних збурюючих факторів. Також у процесі синтезу оптимальної структури регулятора необхідно оцінювати і враховувати багатовимірні моделі динаміки як самого об’єкта, його базових частин, контрольованих і неконтрольованих збурюючих факторів, що впливають на об’єкт у його реальному русі. Мета роботи. Метою дослідження, результати якого представлені у цій статті, є отримання та оцінка точності моделі динаміки платформи Стюарта за допомогою обґрунтованого алгоритму ідентифікації динаміки багатовимірного рухомого об’єкта. Метод. У статті використано метод ідентифікації в частотній області багатовимірних стохастичних систем стабілізації рухомих об’єктів з довільною динамікою. Обґрунтований алгоритм ідентифікації моделі динаміки багатовимірного рухомого об’єкта, побудований за допомогою операцій додавання, множення поліноміальних та дробово – раціональних матриць, вінеровської факторизації, вінеровської сепарації дробово – раціональних матриць, знаходження дисперсійних інтегралів. Результати. В результаті проведених досліджень формалізовано задачу ідентифікації моделі динаміки багатовимірного рухомого об’єкта на прикладі дослідного зразока верстата на основі платформи Стюарта. Результати включають ідентифікацію динамічної моделі платформи Стюарта, її передатної функції та передатної функції формуючого фільтра та верифікація результатів ідентифікації яка підтверджує достатню точність отриманих моделей. Висновки. Обґрунтований алгоритм ідентифікації дозволяє знаходити порядок та параметри лінеаризованої системи звичайних диференціальних рівнянь багатовимірного об’єкта та матриці спектральних щільностей збурень, які діють на нього в умовах роботи наближених до реального режиму функціонування дослідного зразка об’єкту. Аналіз результатів ідентифікації динамічних моделей платформи Стюарта показує, що основний вплив на переміщення центру мас рухомої платформи має зміна керуючих впливів. Однак нехтування впливом збурень знижує точність позиціонування платформи. Тому для синтезу системи керування слід застосовувати методи, які дозволяють визначити структуру та параметри багатовимірного регулятора з урахуванням таких впливів.
  • Item
    Method for determining the bit grid overflow of a computer system operating in the system of residual classes
    (Національний університет «Запорізька політехніка», 2024) Yanko, A. S.; Krasnobayev, V. A.; Nikolsky, S. B.; Kruk, O. O.; Янко, А. С.; Краснобаєв, В. А.; Нікольський, С. Б.; Крук, О. О.
    EN: Context. Consideration of a set of examples of practical application of the procedure for identifying overflow of the bit grid of a computer system operating in a non-positional number system in residual classes. The object of the study is the process of processing data represented in the residual class system. Objective. The goal of the work is to consider and analyze examples of the bit grid overflow definition of a computer system when implementing the operation of adding two numbers in a system of residual classes based on the application of a method for determining the bit grid overflow, based on the use of the concept of number rank. Method. The specificity of the functioning of a computer system in a system of residual classes requires the implementation of not only modular operations, but also requires the implementation of additional, so-called non-modular operations. Non-modular operations include the operation of determining the overflow of the bit grid of a computer system in the system of residual classes. In a non-positional number system in residual classes, implementing the process of detecting overflow of the bit grid of a computer system is a difficult task to implement. The method considered in the work for determining the overflow of the bit grid is based on the use of positional features of a non-positional code of numbers in the system of residual classes, namely the true and calculated ranks of a number. The process of determining the overflow of the result of the operation of adding two numbers in the system of residual classes has been studied, since this arithmetic operation is the main, basic operation performed by a computer system. Results. The developed methods are justified theoretically and studied when performing arithmetic modular operations of addition, subtraction and multiplication using tabular procedures. Conclusions. The main advantage of the presented method is that the process of determining the overflow of the bit grid can be carried out in the dynamics of the computing process of the computer system, i.e. without stopping the solution of the problem. This circumstance makes it possible to reduce the unproductive expenditure of the computer system in the system of residual classes. In addition, this method can be used to control the operation of adding two numbers in the residual class system. This increases the reliability of obtaining the true result of the operation of adding two numbers in the system of residual classes. UK: Актуальність. Розглянуто метод визначення переповнення розрядної сітки, а також комплекс прикладів практичного застосування процедури ідентифікації переповнення розрядної сітки комп’ютерної системи, що функціонує в непозиційній системі числення в залишкових класах. Об’єктом дослідження є процес обробки даних, представлених у системі залишкових класів. Мета роботи – розглянути та проаналізувати приклади визначення переповнення розрядної сітки комп’ютерної системи при реалізації операції додавання двох чисел у системі залишкових класів на основі застосування методу визначення переповнення розрядної сітки, заснованого на використанні поняття рангу числа. Метод. Специфіка функціонування комп’ютерної системи у системі залишкових класів вимагає виконання як модульних операцій, так й реалізації додатково, так званих, немодульних операцій. До немодульних операцій належить операція визначення переповнення розрядної сітки комп’ютерної системи у системі залишкових класів. У непозиційній системі числення в залишкових класах реалізація процесу виявлення переповнення розрядної сітки комп’ютерної системи є важко реалізованим завданням. Розглянутий у статті метод визначення переповнення розрядної сітки ґрунтується на використанні позиційних ознак непозиційного коду чисел у системі залишкових класів, а саме істинного та розрахункового рангів числа. Досліджено процес визначення переповнення розрядної сітки результату операції додавання двох чисел у системі залишкових класів, оскільки саме виконання арифметичної операції додавання є основною, базовою операцією комп’ютерної системи. Результати. Наведено приклади використання методу визначення переповнення результату операції додавання двох чисел у системі залишкових класів, в основу якого покладено модульні операції визначення розрахункового та істинного рангів безпосередньо доданків та рангу суми двох доданків. Аналіз отриманих результатів показав практичну застосовність розглянутого методу. Висновки. Основним перевагою представленого методу є те, що визначення переповнення розрядної сітки можна здійснювати у динаміці обчислювального процесу комп’ютерної системи, тобто без зупинки розв’язання задачі. Ця обставина дозволяє знизити непродуктивні витрати комп’ютерної системи в системі залишкових класів. Крім цього, цей метод можна використовувати для контролю операції додавання двох чисел в системі залишкових класів. Це підвищує достовірність отримання істинного результату операції додавання двох чисел в системі залишкових класів.
  • Item
    Proactive horizontal scaling method for kubernetes
    (Національний університет «Запорізька політехніка», 2024) Rolik, O. I.; Omelchenko, V. V.; Ролік, О. І.; Омельченко, В. В.
    EN: Context. The problem of minimizing redundant resource reservation while maintaining QoS at an agreed level is crucial for modern information systems. Modern information systems can include a large number of applications, each of which uses computing resources and has its own unique features, which require a high level of automation to increase the efficiency of computing resource management processes. Objective. The purpose of this paper is to ensure the quality of IT services at an agreed level in the face of significant dynamics of user requests by developing and using a method of proactive automatic application scaling in Kubernetes. Method. This paper proposes a proactive horizontal scaling method based on the Prophet time series prediction algorithm. Prometheus metrics storage is used as a data source for training and validating forecasting models. Based on the historical metrics, a model is trained to predict the future utilization of computation resources using Prophet. The obtained time series is validated and used to calculate the required number of application replicas, considering deployment delays. Results. The experiments have shown the effectiveness of the proposed proactive automated application scaling method in comparison with existing solutions based on the reactive approach in the selected scenarios. This method made it possible to reduce the reservation of computing resources by 47% without loss of service quality compared to the configuration without scaling. Conclusions. A method for automating the horizontal scaling of applications in Kubernetes is proposed. Although the experiments have shown the effectiveness of this solution, this method can be significantly improved. In particular, it is necessary to consider the possibility of integrating a reactive component for atypical load patterns. UK: Актуальність. Інформаційні системи можуть включати велику множину додатків, кожен з яких використовує обчислювальні ресурси та має свої унікальні особливості роботи, що вимагає високого рівня автоматизації задля підвищення ефективності виконання процесів управління обчислювальними ресурсами. Проблема мінімізації збиткового резервування ресурсів при підтриманні показників QoS на узгодженому рівні є важливою для сучасних інформаційних систем. Мета роботи. Метою даної роботи є забезпечення якості ІТ-сервісів на узгодженому рівні в умовах суттєвої динаміці запитів користувачів шляхом розробки та використання методу проактивного автоматичного масштабування додатків в Kubernetes. Метод. В даній роботі пропонується метод проактивного горизонтального масштабування на основі алгоритму передбачення часових рядів Prophet. Як джерело даних пропонується використовувати сховище метрик Prometheus. На основі історичних метрик використання обчислювальних ресурсів отримується модель для передбачення майбутніх об’ємів використання за допомогою Prophet. Отримані значення валідуються, після чого застосовуються для обрахунку необхідної кількості реплік додатку з врахуванням затримок розгортання подів. Результати. Проведені досліди показали ефективність запропонованого методу для проактивного автоматичного масштабування додатків у порівнянні з існуючими рішеннями з використанням реактивного методу в обраних сценаріях. Даний метод дозволив зменшити резервування обчислювальних ресурсів на 47% без втрати в якості обслуговування у порівнянні з конфігурацією без масштабування. Висновки. Запропоновано метод автоматизації горизонтального масштабування додатків в Kubernetes. Хоча проведені досліди показали ефективність даного рішення, даний метод може бути значно доповнений. Зокрема, необхідно розглянути можливість інтеграції реактивної складової для нетипових шаблонів навантаження.
  • Item
    LaMa-Wavelet: image impainting with high quality of fine details and object edges
    (Національний університет «Запорізька політехніка», 2024) Kolodochka, D. O.; Polyakova, M. V.; Колодочка, Д. О.; Полякова, М. В.
    EN: Context. The problem of the image impainting in computer graphic and computer vision systems is considered. The subject of the research is deep learning convolutional neural networks for image inpainting. Objective. The objective of the research is to improve the image inpainting performance in computer vision and computer graphics systems by applying wavelet transform in the LaMa-Fourier network architecture. Method. The basic LaMa-Fourier network decomposes the image into global and local texture. Then it is proposed to improve the network block, processing the global context of the image, namely, the spectral transform block. To improve the block of spectral transform, instead of Fourier Unit Structure the Simple Wavelet Convolution Block elaborated by the authors is used. In this block, 3D wavelet transform of the image on two levels was initially performed using the Daubechies wavelet db4. The obtained coefficients of 3D wavelet transform are splitted so that each subband represents a separate feature of the image. Convolutional layer, batch normalization and ReLU activation function are sequentially applied to the results of splitting of coefficients on each level of wavelet transform. The obtained subbands of wavelet coefficients are concatenated and the inverse wavelet transform is applied to them, the result of which is the output of the block. Note that the wavelet coefficients at different levels were processed separately. This reduces the computational complexity of calculating the network outputs while preserving the influence of the context of each level on image inpainting. The obtained neural network is named LaMa-Wavelet. The FID, PSNR, SSIM indexes and visual analysis were used to estimate the quality of images inpainted with LaMa-Wavelet network. Results. The proposed LaMa-Wavelet network has been implemented in software and researched for solving the problem of image inpainting. The PSNR of images inpainted using the LaMa-Wavelet exceeds the results obtained using the LaMa-Fourier network for narrow and medium masks in average by 4.5%, for large masks in average by 6%. The LaMa-Wavelet applying can enhance SSIM by 2–4% depending on a mask size. But it takes 3 times longer to inpaint one image with LaMa-Wavelet than with LaMa-Fourier network. Analysis of specific images demonstrates that both networks show similar results of inpainting of a homogeneous background. On complex backgrounds with repeating elements the LaMa-Wavelet is often more effective in restoring textures. Conclusions. The obtained LaMa-Wavelet network allows to improve the image inpainting with large masks due to applying wavelet transform in the LaMa network architecture. Namely, the quality of reconstruction of image edges and fine details is increased. UK: Актуальність. Розглянуто проблему реконструкції зображень в системах комп’ютерної графіки та комп’ютерного зору. Предметом дослідження є згорткові нейронні мережi глибокого навчання для реконструкції зображень. Мета роботи. Покращення якості реконструйованих зображень в системах комп’ютерного зору та комп’ютерної графіки шляхом застосування вейвлет-перетворення в архітектурі нейронної мережі LaMa-Fourier. Метод. Базова мережа LaMa-Fourier окремо обробляє глобальний та локальний контекст зображення. Пропонується вдосконалити для цієї мережі блок обробки глобального контексту зображення, а саме блок спектрального перетворення. Для цього замість Fourier Unit Structure використовується розроблений авторами Simple Wavelet Convolution Block, у якому спочатку виконується тривимірне вейвлет-перетворення зображення на двох рівнях. Отримані коефіцієнти розбиваються так, що кожна субполоса представляє окрему ознаку зображення. Згортковий шар, пакетна нормалізація та функція активації ReLU послідовно застосовуються до субполос коефіцієнтів на кожному рівні вейвлет-перетворення. Отримані субполоси вейвлет-коефіцієнтів конкатенуються і до них застосовується зворотне вейвлет-перетворення, результат якого передається на вихід блоку. Окрема обробка вейвлет-коефіцієнтів на різних рівнях зменшує обчислювальну складність, зберігаючи при цьому вплив контексту кожного рівня на реконструкцію зображення. Отриману нейронну мережу названо LaMa-Wavelet. Показники FID, PSNR, SSIM та візуальний аналіз були використані для оцінки якості зображень, реконструйованих мережею LaMa-Wavelet. Результати. Запропоновану мережу LaMa-Wavelet програмно реалізовано та досліджено для вирішення проблеми реконструкції зображень. PSNR зображень, відновлених за допомогою мережі LaMa-Wavelet, перевищує результати, отримані за допомогою мережі LaMa-Fourier для малих і середніх масок у середньому на 4,5%, для великих масок – у середньому на 6%. Застосування LaMa-Wavelet може збільшити SSIM на 2–4% залежно від розміру маски. Але реконструкція одного зображення за допомогою LaMa-Wavelet займає в 3 рази більше часу, ніж за допомогою мережі LaMa-Fourier. Аналіз конкретних зображень демонструє, що обидві мережі показують схожі результати реконструкції однорідного фону. На складних фонах із повторюваними елементами LaMa-Wavelet часто ефективніше відновлює текстури. Висновки. Отримана мережа LaMa-Wavelet дозволяє покращити відновлення великих областей зображень за рахунок застосування вейвлет-перетворення в архітектурі мережі LaMa. А саме, підвищується якість реконструкції країв зображення та дрібних деталей.
  • Item
    Проектування конвеєрного процесора RISC-V архітектури з апаратним співпроцесором цифрової обробки сигналів
    (Національний університет «Запорізька політехніка», 2024) Ваврук, Є. Я.; Махров, В. В.; Гедеон, Г. О.; Vavruk, Y. Y.; Makhrov, V. V.; Hedeon, H. O.
    UK: Актуальність. Цифрова обробка сигналів використовується в багатьох сферах науки, техніки та діяльності людини. Одним із шляхів реалізації алгоритмів цифрової обробки сигналів є розробка співпроцесорів, як складової частини відомих архітектур. У випадку розробки конвеєрного пристрою такий підхід дозволить використовувати програмні та апаратні засоби відповідної архітектури, забезпечити швидше виконання алгоритмів обробки сигналів, скоротити кількість тактів та кількість звернень до пам’яті. Мета роботи – проектування та дослідження характеристик конвеєрного процесора архітектури RISC-V з співпроцесором цифрової обробки сигналів, що виконує швидке перетворення Фур’є. Метод. Аналіз технічної літератури та існуючих рішень дозволяє оцінити переваги і недоліки сучасних розробок та на основі них сформувати актуальність обраної теми. Побудова моделей і дані симуляцій дозволяють перевірити працездатність моделі, знайти слабкі ланки компонентів та поліпшити параметри моделі. Результати. Спроектовано конвеєрний процесор архітектури RISC-V, який виконує базовий набір інструкцій. Проаналізовано час виконання простої асемблерної програми на конвеєрному та однотактному процесорах. Згідно результатів, тестова програма на конвеєрному процесорі виконується за 29 тактів, тоді як на однотактному – за 60 тактів. Розроблено структуру співпроцесора виконання алгоритму швидкого перетворення Фур’є та набір процесорних інструкцій, які дозволяють працювати із співпроцесором. Кількість тактів виконання співпроцесором алгоритму швидкого перетворення Фур’є за основою два для 512 точок складає 2358 тактів, а для 1024 точок – 5180 тактів. Висновки. Проведені дослідження та розрахунки показали, що використання розробленого апаратного співпроцесора зменшує час виконання алгоритму ШПФ та навантаження на процесор під час обчислень. EN: Context. The digital signal processing is applied in many fields of science, technology and human activity. One of the ways of implementing algorithms of digital signal processing is the development of coprocessors as an integral part of well-known architectures. In the case of developing a pipelined device, the presented approach will allow to use software and hardware tools of the appropriate architecture, provide the faster execution of signal processing algorithms, reduce the number of cycles and memory accesses. Objective. Objectives are design and characterization study of a pipelined RISC-V processor and coprocessor of digital signal processing which performs fast Fourier transform. Method. Analyzing technical literature and existing decisions allow to assess advantages and disadvantages of modern developments and on the basis of which to form the relevance of the selected topic. Model designing and simulation results allow to examine a model efficiency, to determine weak components’ parts and to improve model parameters. Results. The pipelined RISC-V processor has been designed which executes a basic set of instructions. Execution time of assembly program on the single-cycled and the pipelined processors have been analyzed. According to the results, the test program on the pipelined processor is executed in 29 cycles, while on the single-cycle processor it takes 60 cycles. The structure of the coprocessor for the fast Fourier transform algorithm and a set of processor instructions that allow working with the coprocessor have been developed. The number of cycles of the coprocessor based on Radix-2 fast Fourier transform algorithm for 512 points is 2358 cycles, and for 1024 points is 5180 cycles. Conclusions. Conducted researches and calculations have showed that the application of the developed hardware coprocessor reduces the fast Fourier transform algorithm execution time and the load of the pipelined processor during calculations.
  • Item
    Method of creating a minimal spanning tree on an arbitrary subset of vertices of a weighted undirected graph
    (Національний університет «Запорізька політехніка», 2024) Batsamut, V. M.; Hodlevsky, S. O.; Babkov, Yu. P.; Morkvin, D. A.; Бацамут, В. М.; Годлевський, С. О.; Бабков, Ю. П.; Морквін, Д. А.
    EN: Context. The relevance of the article is determined by the need for further development of models for optimal restoration of the connectivity of network objects that have undergone fragmentation due to emergency situations of various origins. The method proposed in this article solves the problematic situation of minimizing the amount of restoration work (total financial costs) when promptly restoring the connectivity of a selected subset of elements of a network object after its fragmentation. The purpose of the study is to develop a method for creating a minimal spanning tree on an arbitrary subset of vertices of a weighted undirected graph to minimize the amount of restoration work and/or total financial costs when promptly restoring the connectivity of elements that have a higher level of importance in the structure of a fragmented network object. Method. The developed method is based on the idea of searching for local minima in the structure of a model undirected graph using graph vertices that are not included in the list of base vertices to be united by a minimal spanning tree. When searching for local minima, the concept of an equilateral triangle and a radial structure in such a triangle is used. In this case, there are four types of substructures that provide local minima: first, those with one common base vertex; second, those with two common base vertices; third, those with three common base vertices; fourth, those without common base vertices, located in different parts of the model graph. Those vertices that are not included in the list of basic ones, but through which local minima are ensured, are added to the basic ones. Other vertices (non-basic) along with their incident edges are removed from the structure of the model graph. Then, using one of the well-known methods of forming spanning trees, a minimal spanning tree is formed on the structure obtained in this way, which combines the set of base vertices. Results. 1) A method for creating a minimal spanning tree on an arbitrary subset of vertices of a weighted undirected graph has been developed. 2) A set of criteria for determining local minima in the structure of the model graph is proposed. 3) The method has been verified on test problems. Conclusions. The theoretical studies and several experiments confirm the efficiency of the developed method. The solutions developed using the developed method are accurate, which makes it possible to recommend it for practical use in determining strategies for restoring the connectivity of fragmented network objects. UK: Актуальність. Актуальність статті обумовлюється потребою у подальшому розвитку моделей оптимального відновлення зв’язності мережних об’єктів, що зазнали фрагментації внаслідок надзвичайних ситуацій різного характеру походження. Запропонований у статті метод усуває проблемну ситуацію, що полягає у необхідності мінімізації обсягу відновлювальних робіт (загальних фінансових витрат) при оперативному відновленні зв’язності обраної підмножини елементів мережевого об’єкту після його фрагментації. Мета роботи полягає у розробленні методу побудови мінімального кістякового дерева на довільній підмножині вершин зваженого неорієнтованого графу для мінімізації обсягу відновлювальних робіт і/або загальних фінансових витрат при оперативному відновленні зв’язності елементів, які мають вищий рівень важливості в структурі фрагментованого мережного об’єкту. Метод. Розроблений метод заснований на ідеї пошуку в структурі модельного неорієнтованого графа локальних мінімумів з використанням вершин графу, що не входять до переліку базових вершин, які потрібно об’єднати мінімальним кістяковим деревом. Під час пошуку локальних мінімумів використовується поняття рівностороннього трикутника та радіальної структури в такому трикутнику. При цьому розрізняються чотири типи підструктур, які забезпечують локальні мінімуми: перші, ті що мають одну спільну базову вершину; другі, ті що мають дві спільні базові вершини; треті, ті що мають три спільні базові вершини; четверті, ті що не мають спільних базових вершин – знаходяться в різних частинах модельного графа. Ті вершини, що не входять до переліку базових, але через які забезпечуються локальні мінімуми, додаються до складу базових. Інші вершини (небазові) разом з інцидентними їм ребрами видаляються з структури модельного графа. Далі, на отриманій таким чином структурі, одним із відомих методів побудови кістякових дерев, будується мінімальне кістякове дерево, яке поєднує набір базових вершин. Результати. 1) Розроблено метод побудови мінімального кістякового дерева на довільній підмножині вершин зваженого неорієнтованого графа. 2) Запропонована сукупність критеріїв для визначення локальних мінімумів в структурі модельного графа. 3) Виконано верифікацію методу на тестових задачах. Висновки. Проведені теоретичні дослідження та низка експериментів підтверджують працездатність розробленого методу. Рішення, що виробляються із використанням розробленого методу, є точними, що дозволяє рекомендувати його до практичного використання при визначенні стратегій відновлення зв’язності фрагментованих мережевих об’єктів.
  • Item
    Realization of the decision-making support system for twitter users’ publications analysis
    (Національний університет «Запорізька політехніка», 2024) Batiuk, T.; Dosyn, D.; Батюк, T. M.; Батюк, T. M.
    EN: Context. The paper emphasizes the need for a decision-making system that can analyze users’ messages and determine the sentiment to understand how news and events impact people’s emotions. Such a system would employ advanced techniques to analyze users’ messages, delving into the sentiment expressed within the text. The primary goal is to gain insights into how news and various events reverberate through people’s emotions. Objective. The objective is to create a decision-making system that can analyze and determine the sentiment of user messages, understand the emotional response to news and events, and distribute the data into clusters to gain a broader understanding of users’ opinions. This multifaceted objective involves the integration of advanced techniques in natural language processing and machine learning to build a robust decision-making system. The primary goals are sentiment analysis, comprehension of emotional responses to news and events, and data clustering for a holistic view of user opinions. Method. The use of long-short-term memory neural networks for sentiment analysis and the k-means algorithm for data clustering is proposed for processing large volumes of user data. This strategic combination aims to tackle the challenges posed by processing large volumes of user-generated data in a more nuanced and insightful manner. Results. The study and conceptual design of the decision-making system have been completed and the decision-making system was created. The system incorporates sentiment analysis and data clustering to understand users’ opinions and the sentiment value of such opinions dividing them into clusters and visualizing the findings. Conclusions. The conclusion is that the development of a decision-making system capable of analyzing user sentiment and clustering data can provide valuable insights into users’ reactions to news and events in social networks. The proposed use of long-short-term memory neural networks and the k-means algorithm is considered suitable for sentiment analysis and data clustering tasks. The importance of studying existing works and systems to understand available algorithms and their applications is emphasized. The article also describes created and implemented a decision-making system and demonstrated the functionality of the system using a sample dataset. UK: Актуальність. У статті наголошується на необхідності створення системи прийняття рішень, яка може аналізувати повідомлення користувачів і визначати настрої, щоб зрозуміти, як новини та події впливають на емоції людей. Така система використовуватиме передові методи для аналізу повідомлень користувачів, заглиблюючись у почуття, виражені в тексті. Основна мета – отримати уявлення про те, як новини та різноманітні події відбиваються на емоціях людей. Метою дослідження є створення системи прийняття рішень, яка зможе аналізувати та визначати настрої повідомлень користувачів, розуміти емоційну реакцію на новини та події та розподіляти дані в кластери, щоб отримати ширше розуміння думок користувачів. Ця багатогранна мета передбачає інтеграцію передових методів обробки природної мови та машинного навчання для створення надійної системи прийняття рішень. Основними цілями є аналіз настроїв, розуміння емоційних реакцій на новини та події та кластеризація даних для цілісного уявлення про думки користувачів. Метод. Для обробки великих обсягів даних користувача пропонується використання нейронних мереж довгострокової пам’яті для аналізу настрою та алгоритму k-середніх для кластеризації даних. Ця стратегічна комбінація спрямована на вирішення проблем, пов’язаних із обробкою великих обсягів даних, створених користувачами, у більш глибокий та цілеспрямований спосіб. Результати. Виконано дослідження та концептуальне проектування системи прийняття рішень та створено систему прийняття рішень. Система включає аналіз настроїв і кластеризацію даних для розуміння думок користувачів і цінності настроїв таких думок, розділяючи їх на кластери та візуалізуючи результати. Висновки. Розробка системи прийняття рішень, здатної аналізувати настрої користувачів і кластеризувати дані, може надати цінну інформацію про реакцію користувачів на новини та події в соціальних мережах. Запропоноване використання нейронних мереж довгострокової пам’яті та алгоритму k-середніх вважається придатним для аналізу настроїв і завдань кластеризації даних. Підкреслюється важливість вивчення існуючих робіт і систем для розуміння доступних алгоритмів і їх застосування. У статті також описано створену та впроваджену систему прийняття рішень та продемонстровано функціональність системи на прикладі набору даних.
  • Item
    Інтелектуальний комп’ютинг в пам’яті
    (Національний університет «Запорізька політехніка», 2024) Хаханов, В. І.; Абдуллаєв, В. Х.; Чумаченко, С. В.; Литвинова, Є. І.; Хаханова І. В.; Hahanov, V. I.; Abdullayev, V. H.; Chumachenko, S. V.; Lytvynova, E. I.; Hahanova, I. V.
    UK: Актуальність. Оброблені великі дані мають соціальне значення для розвитку суспільства та промисловості. Інтелектуальна обробка великих даних є умовою створення колективного розуму соціальної групи, компанії, держави та планети в цілому. При цьому економіка великих даних (Data Economy) виходить на перше місце в оцінці механізмів обробки, оскільки дуже важливими є два параметри: швидкодія обробки даних та енерговитрати. Тому механізми, орієнтовані на паралельну обробку великих даних усередині центру зберігання даних, будуть завжди затребувані на IT-ринку. Мета. Мета дослідження – підвищення економіки великих даних (Data Economy) завдяки аналізу даних як адрес таблиці істинності для ідентифікації патернів виробничих функціональностей на основі метрики подібності-відмінності. Метод. Пропонуються архітектури Intelligent computing для управління кіберсоціальними процесами на основі моніторингу та аналізу великих даних. Пропонується обробка великих даних, як адрес таблиці істинності, для вирішення завдань ідентифікації, кластеризації, класифікації патернів соціальних та виробничих процесів. Пропонується сімейство автоматів для аналізу великих даних, як адрес. Розглядається таблиця істинності як розумна форма явних структур даних, що мають корисну константу – стандартний порядок прямування адрес. Мета обробки великих даних – зробити їх структурованими за допомогою таблиці істинності для подальшої ідентифікації до ухвалення актюаторних рішень. Таблиця істинності розглядається як механізм паралельної структуризації та пакування великих даних у її стовпці для визначення їх подібності-відмінності та еквівалентування даних за однаковими адресами. Подання даних, як адрес, пов’язане з унітарним кодуванням патернів двійковими векторами на знайденому універсумі примітивних даних. Механізм орієнтований на безпроцесорну обробку даних на основі read-write транзакцій за технологією in-memory комп’ютингу з суттєвою економією часу та енергії. Метрика обробки великих даних на таблиці істинності – це паралелізм, технологічна простота та лінійна обчислювальна складність. Платою за такі переваги є експоненційні витрати пам’яті зберігання явних структурованих даних. Результати. Запропоновано паралельні алгоритми in-memory комп’ютингу для економічних механізмів перетворення великих неструктурованих даних, як адрес, корисні структуровані дані. Запропоновано архітектуру in-memory computing із глобальним зворотним зв’язком та алгоритм матричної паралельної обробки великих даних, як адрес. Вона включає структуру матричного аналізу великих даних для визначення подібності між векторами, які надходять на входи матричного секвенсора. Векторний аналіз даних перетворюється на матричний комп’ютинг для обробки великих даних. Швидкодія паралельного алгоритму аналізу великих даних на матриці MDV дедуктивних векторів ставиться в лінійну залежність від числа бітів вхідних векторів або потужності універсуму примітивів. Розроблено метод ідентифікації патернів ключовими словами. Він характеризується використанням унітарно-кодованих компонент даних для синтезу таблиці істинності бізнес-процесу. Це дозволяє застосовувати read-write транзакції для паралельної обробки великих даних, як адрес. Висновки. Наукова новизна полягає у розробці наступних інноваційних рішень: 1) запропоновано нову векторно-матричну технологію паралельної обробки великих даних, як адрес, що характеризується використанням read-write транзакцій на матричній пам’яті без використання процесорної логіки; 2) запропоновано архітектуру in-memory computing з глобальним зворотним зв’язком та алгоритм матричної паралельної обробки великих даних, як адрес; 3) запропоновано метод ідентифікації патернів ключовими словами, який характеризується використанням унітарно-кодованих компонентів даних для синтезу таблиці істинності бізнес-процесу, що дає можливість використовувати транзакцію read-write для паралельної обробки великих даних, як адрес. Практична значимість дослідження полягає в тому, що будь-яке завдання штучного інтелекту (подібність-відмінність, класифікація-кластеризація та розпізнавання, ідентифікація образів) можна технологічно просто та ефективно вирішувати за допомогою таблиці істинності (або її похідних) та унітарно кодованих великих даних. Перспективи дослідження пов’язані з імплементацією цієї технології моделювання цифрових пристроїв на ринку EDA. EN: Context. Processed big data has social significance for the development of society and industry. Intelligent processing of big data is a condition for creating a collective mind of a social group, company, state and the planet as a whole. At the same time, the economy of big data (Data Economy) takes first place in the evaluation of processing mechanisms, since two parameters are very important: speed of data processing and energy consumption. Therefore, mechanisms focused on parallel processing of large data within the data storage center will always be in demand on the IT market. Objective. The goal of the investigation is to increase the economy of big data (Data Economy) thanks to the analysis of data as truth table addresses for the identification of patterns of production functionalities based on the similarity-difference metric. Method. Intelligent computing architectures are proposed for managing cyber-social processes based on monitoring and analysis of big data. It is proposed to process big data as truth table addresses to solve the problems of identification, clustering, and classification of patterns of social and production processes. A family of automata is offered for the analysis of big data, such as addresses. The truth table is considered as a reasonable form of explicit data structures that have a useful constant – a standard address routing order. The goal of processing big data is to make it structured using a truth table for further identification before making actuator decisions. The truth table is considered as a mechanism for parallel structuring and packing of large data in its column to determine their similarity-difference and to equate data at the same addresses. Representation of data as addresses is associated with unitary encoding of patterns by binary vectors on the found universe of primitive data. The mechanism is focused on processorless data processing based on read-write transactions using in-memory computing technology with significant time and energy savings. The metric of truth table big data processing is parallelism, technological simplicity, and linear computational complexity. The price for such advantages is the exponential memory costs of storing explicit structured data. Results. Parallel algorithms of in-memory computing are proposed for economic mechanisms of transformation of large unstructured data, such as addresses, into useful structured data. An in-memory computing architecture with global feedback and an algorithm for matrix parallel processing of large data such as addresses are proposed. It includes a framework for matrix analysis of big data to determine the similarity between vectors that are input to the matrix sequencer. Vector data analysis is transformed into matrix computing for big data processing. The speed of the parallel algorithm for the analysis of big data on the MDV matrix of deductive vectors is linearly dependent on the number of bits of the input vectors or the power of the universe of primitives. A method of identifying patterns using key words has been developed. It is characterized by the use of unitary coded data components for the synthesis of the truth table of the business process. This allows you to use read-write transactions for parallel processing of large data such as addresses. Conclusions. The scientific novelty consists in the development of the following innovative solutions: 1) a new vector-matrix technology for parallel processing of large data, such as addresses, is proposed, characterized by the use of read-write transactions on matrix memory without the use of processor logic; 2) an in-memory computing architecture with global feedback and an algorithm for matrix parallel processing of large data such as addresses are proposed; 3) a method of identifying patterns using keywords is proposed, which is characterized by the use of unitary coded data components for the synthesis of the truth table of the business process, which makes it possible to use the read-write transaction for parallel processing of large data such as addresses. The practical significance of the study is that any task of artificial intelligence (similarity-difference, classification-clustering and recognition, pattern identification) can be solved technologically simply and efficiently with the help of a truth table (or its derivatives) and unitarily coded big data . Research prospects are related to the implementation of this digital modeling technology devices on the EDA market.
  • Item
    UA-LLM: advancing context-based question answering in ukrainian through large language models
    (Національний університет «Запорізька політехніка», 2024) Syromiatnikov, M. V.; Ruvinskaya, V. M.; Сиром’ятніков, М. В.; Рувінська, В. М.
    EN: Context. Context-based question answering, a fundamental task in natural language processing, demands a deep understanding of the language’s nuances. While being a sophisticated task, it’s an essential part of modern search systems, intelligent assistants, chatbots, and the whole Conversational AI field. While English, Chinese, and other widely spoken languages have gathered an extensive number of datasets, algorithms, and benchmarks, the Ukrainian language, with its rich linguistic heritage and intricate syntax, has remained among low-resource languages in the NLP community, making the Question Answering problem even harder. Objective. The purpose of this work is to establish and benchmark a set of techniques, leveraging Large Language Models, combined in a single framework for solving the low-resource problem for Context-based question-answering task in Ukrainian. Method. A simple yet flexible framework for leveraging Large Language Models, developed as a part of this research work, enlights two key methods proposed and evaluated in this paper for dealing with a small amount of training data for context-based question-answering tasks. The first one utilizes Zero-shot and Few-shot learning – the two major subfields of N-shot learning, where N corresponds to the number of training samples, to build a bilingual instruction-based prompt strategy for language models inferencing in an extractive manner (find an answer span in context) instead of their natural generative behavior (summarize the context according to question). The second proposed method is based on the first one, but instead of just answering the question, the language model annotates the input context through the generation of question-answer pairs for the given paragraph. This synthetic data is used for extractive model training. This paper explores both augmentation-based training, when there is some annotated data already, and completely synthetic training, when no data is available. The key benefit of these two methods is the ability to obtain comparable prediction quality even without an expensive and long-term human annotation process. Results. Two proposed methods for solving the low-to-zero amount of training data problem for context-based question-answering tasks in Ukrainian were implemented and combined into the flexible LLM experimentation framework. Conclusions. This research comprehensively studied OpenAI GPT-3.5, OpenAI GPT-4, Cohere Command, and Meta LLaMa-2 language understanding capabilities applied to context-based question answering in low-resource Ukrainian. The thorough evaluation of proposed methods on a diverse set of metrics proves their efficiency, unveiling the possibility of building components of search engines, chatbot applications, and standalone general-domain CBQA systems with Ukrainian language support while having almost zero annotated data. The prospect for further research is to extend the scope from the CBQA task evaluated in this paper to all major NLU tasks with the final goal of establishing a complete benchmark for LLMs’ capabilities evaluation in the Ukrainian language. UK: Актуальність. Відповідь на запитання за контекстом, фундаментальне завдання обробки природної мови, вимагає глибокого розуміння мови. Будучи складною задачею, вона є невід’ємною частиною сучасних пошукових систем, інтелектуальних помічників, чат-ботів і всієї сфери розмовного штучного інтелекту. У той час як англійська, китайська та інші широко поширені мови налічують велику кількість наборів даних, алгоритмів і тестів, українська – з її багатою лінгвістичною спадщиною та складним синтаксисом залишається серед малоресурсних мов, що ще більше ускладнює задачу відповіді на запитання за контекстом. Мета роботи. Мета роботи полягає у розробці та оцінюванні методів на базі великих мовних моделей, об’єднаних у фреймворк для вирішення проблеми низькоресурсності задачі відповіді на запитання за контекстом в українській мові. Метод. Простий, але гнучкий фреймворк для використання великих мовних моделей, розроблений в рамках цієї дослідницької роботи, висвітлює два ключові методи для вирішення проблеми даних у задачі відповіді на запитання за контекстом, запропоновані та оцінені в цій статті. Перший метод використовує Zero-shot і Few-shot learning – дві основні гілки N-shot learning, де N відповідає кількості тренувальних прикладів, для побудови двомовної стратегії підказок на основі інструкцій для роботи з мовними моделями у екстрактивний спосіб (пошук сегменту відповіді у контексті) замість їхньої природної генеративної поведінки (генерація відповіді на основі контексту). Другий запропонований метод базується на першому, але замість простої відповіді на запитання мовна модель розмічає вхідний контекст шляхом генерації пар запитання-відповідь. Отримані синтетичні дані використовуються для тренування екстрактивної моделі. У цій статті розглядається як навчання на основі аугментації даних, коли вже є деякі розмічені дані, так і повністю синтетичне навчання, коли дані відсутні. Ключовою перевагою запропонованих методів є можливість отримати якість передбачень на рівні натренованих екстрактивних моделей навіть без дорогого та довготривалого процесу розмітки даних людьми. Результати. Два запропонованих методи для розв’язання проблеми недостатньої кількості тренувальних даних у задачі відповіді на запитання за контекстом для української мови було реалізовано та об’єднано в гнучкий фреймворк для роботи з великими мовними моделями . Висновки. Дана робота демонструє результати всеосяжного дослідження рівня розуміння мови моделями OpenAI GPT-3.5, OpenAI GPT-4, Cohere Command і Meta LLaMa-2 на прикладі вирішення задачі відповіді на запитання за контекстом для низькоресурсної української мови. Ретельна оцінка запропонованих методів за різноманітним набором показників доводить їх ефективність, розкриваючи можливість побудови компонентів пошукових систем, інтелектуальних чат-ботів та автономних систем відповіді на запитання з підтримкою української мови та близькою до нуля кількістю розмічених тренувальних даних. Перспектива подальших досліджень полягає у розширенні сфери застосування від завдання відповіді на запитання за контекстом, розглянутого у цій статті, до усіх основних задач розуміння природної мови з кінцевою метою встановлення повного тесту для оцінювання можливостей великих мовних моделей в українській мові.
  • Item
    A research of the latest approaches to visual image recognition and classification
    (Національний університет «Запорізька політехніка», 2024) Lysechko, V. P.; Sadovnykov, B. I.; Komar, O. M.; Zhuchenko, О. S.; Лисечко, В. П.; Садовников, Б. І.; Комар, О. М.; Жученко, О. С.
    EN: Context. The paper provides an overview of current methods for recognizing and classifying visual images in static images or video stream. The paper will discuss various approaches, including machine learning, current problems of these methods and possible improvements. The biggest challenges of the visual image retrieval and classification task are discussed. The main emphasis is placed on the review of such promising algorithms as SSD, YOLO, R-CNN, an overview of the principles of these methods, network architectures. Objective. The aim of the work is to analyze existing studies and find the best algorithm for recognizing and classifying visual images for further activities. Method. Primary method is to compare different factors of algorithms in order to select the most perspective one. There are different marks to compare, like image processing speed, accuracy. There are a number of studies and publications that propose methods and algorithms for solving the problem of finding and classifying images in an image [3–6]. It should be noted that most promising approaches are based on machine learning methods. It is worth noting that the proposed methods have drawbacks due to the imperfect implementation of the Faster R-CNN, YOLO, SSD algorithms for working with streaming video. The impact of these drawbacks can be significantly reduced by applying the following solutions: development of combined identification methods, processing of edge cases – tracking the position of identified objects, using the difference between video frames, additional preliminary preparation of input data. Another major area for improvement is the optimization of methods to work with real-time video data, as most current methods focus on images. Results. As an outcome of the current research we have found an optimal algorithm for further researches and optimizations. Conclusions. Analysis of existent papers and researches has demonstrated the most promising algorithm for further optimizations and experiments. Also current approaches still have some space for further. The next step is to take the chosen algorithm and investigate possibilities to enhance it. UK: Актуальність. У статті представлено огляд сучасних методів розпізнавання та класифікації візуальних образів на статичних зображеннях або у відеопотоці. Будуть розглянуті різні підходи, включаючи машинне навчання, поточні проблеми цих методів та можливі вдосконалення. Обговорюються найбільші проблеми пошуку та класифікації візуальних зображень. Основний акцент зроблено на огляді таких перспективних алгоритмів, як SSD, YOLO, R-CNN, огляді принципів роботи цих методів, мережевих архітектур. Мета. Метою роботи є аналіз існуючих досліджень та пошук найкращого алгоритму розпізнавання та класифікації візуальних зображень для подальшої діяльності. Метод. Основним методом є порівняння різних факторів алгоритмів з метою вибору найбільш перспективного. Існують різні показники для порівняння, такі як швидкість обробки зображень, точність. Існує ряд досліджень та публікацій, в яких пропонуються методи та алгоритми розв’язання задачі пошуку та класифікації образів на зображенні [3–6]. Слід зазначити, що найбільш перспективні підходи базуються на методах машинного навчання. Варто зазначити, що запропоновані методи мають недоліки, пов’язані з недосконалою реалізацією алгоритмів Faster R-CNN, YOLO, SSD для роботи з потоковим відео. Вплив цих недоліків можна суттєво зменшити шляхом застосування наступних рішень: розробка комбінованих методів ідентифікації, обробка крайніх випадків – відстеження положення ідентифікованих об’єктів, використання різниці між відеокадрами, додаткова попередня підготовка вхідних даних. Іншим важливим напрямком вдосконалення є оптимізація методів для роботи з відеоданими в реальному часі, оскільки більшість сучасних методів орієнтовані на зображення. Результати. В результаті проведеного дослідження було знайдено оптимальний алгоритм для подальших досліджень та оптимізацій. Висновки. Аналіз існуючих робіт та досліджень показав найбільш перспективний алгоритм для подальших оптимізацій та експериментів. Також існуючі підходи все ще мають певний простір для розвитку. Наступним кроком є робота над обраним алгоритмом та дослідження можливостей його вдосконалення.
  • Item
    Approach to the automatic creation of an annotated dataset for the detection, localization and classification of blood cells in an image
    (Національний університет «Запорізька політехніка», 2024) Kovalenko, S. M.; Kutsenko, O. S.; Kovalenko, S. V.; Kovalenko, A. S.
    EN: Context. The paper considers the problem of automating the creation of an annotated dataset for further use in a system for detecting, localizing and classifying blood cells in an image using deep learning. The subject of the research is the processes of digital image processing for object detection and localization. Objective. The aim of this study is to create a pipeline of digital image processing methods that can automatically generate an annotated set of blood smear images. This set will then be used to train and validate deep learning models, significantly reducing the time required by machine learning specialists. Method. The proposed approach for object detection and localization is based on digital image processing methods such as filtering, thresholding, binarization, contour detection, and filling. The pipeline for detection and localization includes the following steps: The given fragment of text describes a process that involves noise reduction, conversion to the HSV color model, defining a mask for white blood cells and platelets, detecting the contours of white blood cells and platelets, determining the coordinates of the upper left and lower right corners of white blood cells and platelets, calculating the area of the region inside the bounding box, saving the obtained data, and determining the most common color in the image; filling the contours of leukocytes and platelets with said color; defining a mask for red blood cells; defining the contours of red blood cells; determining the coordinates of the upper left and lower right corners of red blood cells; calculating the area of the region within the bounding box; entering data about the found objects into the dataframe; saving to a .csv file for future use. With an unlabeled image dataset and a generated .csv file using image processing libraries, any researcher should be able to recreate a labeled dataset. Results. The developed approach was implemented in software for creating an annotated dataset of blood smear images Conclusions. The study proposes and justifies an approach to automatically create a set of annotated data. The pipeline is tested on a set of unlabelled data and a set of labelled data is obtained, consisting of cell images and a .csv file with the attributes “file name”, “type”, “xmin”, “ymin”, “xmax”, “ymax”, “area”, which are the coordinates of the bounding box for each object. The number of correctly, incorrectly, and unrecognised objects is calculated manually, and metrics are calculated to assess the accuracy and quality of object detection and localisation. UK: Актуальність. Розглянуто проблему автоматизації створення анотованого набору даних для його подальшого використання в системі виявлення, локалізації та класифікації клітин крові на зображенні з використанням глибокого навчання. Об’єктом дослідження є процеси обробки цифрових зображень для виявлення та локалізації об’єктів. Мета роботи – розробка пайплайну із послідовності методів обробки цифрових зображень для автоматичного створення анотованого набору зображень мазків крові з подальшим використанням для навчання та валідації моделей глибокого навчання, що має суттєво скоротити час спеціалістів з машинного навчання. Метод. Запропонований підхід для виявлення та локалізації об’єктів базується на методах обробки цифрових зображень: методах фільтрації, порогової фільтрації, бінаризації, знаходження та заливки контурів тощо. Пайлайн по виявленню та локалізації складається з наступних кроків: приглушення шумів; перетворення в HVS кольорову модель; визначення маски для лейкоцитів та тромбоцитів; визначення контурів лейкоцитів та тромбоцитів; визначення координат верхнього лівого та правого нижнього кутів лейкоцитів та тромбоцитів; обчислення площі області всередині обмежувальної рамки; збереження отриманих даних; визначення найпоширенішого кольору на зображенні; заливка цим кольором контурів лейкоцитів та тромбоцитів; визначення маски для еритроцитів; визначення контурів еритроцитів; визначення координат верхнього лівого та правого нижнього кутів еритроцитів; обчислення площі області всередині обмежувальної рамки; занесення до датафрейму даних про знайдені об’єкти; збереження в файлі .csv для подальшого використання. Результати. Розроблений підхід був впроваджений у програмне забезпечення для створення анотованого набору даних зображень мазків крові. Висновки. В дослідженні запропоновано та обґрунтовано підхід для автоматичного створення набору анотованих даних. Пайплайн протестовано на наборі нерозмічених даних та отримано набір розмічених даних, що складається з зображень клітин та файлу в форматі .csv, що має ознаки «назва файлу», «тип клітини», «xmin», «ymin», «xmax», «ymax», що є координатами обмежувальної рамки для кожного об’єкту. Підраховано кількість правильно, неправильно та нерозпізнаних об’єктів та розраховано метрики для оцінки точності та якості виявлення та локалізації об’єктів.
  • Item
    Machine learning for automatic extraction of water bodies using Sentinel-2 imagery
    (Національний університет «Запорізька політехніка», 2024) Kashtan, V. Yu.; Hnatushenko, V. V.; Каштан, В. Ю.; Гнатушенко, В. В.
    EN: Context. Given the aggravation of environmental and water problems, there is a need to improve automated methods for extracting and monitoring water bodies in urban ecosystems. The problem of efficient and automated extraction of water bodies is becoming relevant given the large amount of data obtained from satellite systems. The object of study is water bodies that are automatically extracted from Sentinel-2 optical satellite images using machine learning methods. Objective. The goal of the work is to improve the efficiency of the process of extracting the boundaries of water bodies on digital optical satellite images by using machine learning methods. Method. The paper proposes an automated information technology for delineating the boundaries of water bodies on Sentinel-2 digital optical satellite images. The process includes eight stages, starting with data download and using topographic maps to obtain basic information about the study area. Then, the process involved data pre-processing, which included calibrating the images, removing atmospheric noise, and enhancing contrast. Next, the EfficientNet-B0 architecture is applied to identify water features, facilitating optimal network width scaling, depth, and image resolution. ResNet blocks compress and expand channels. It allows for optimal connectivity of large-scale and multi-channel links across layers. After that, the Regional Proposal Network defines regions of interest (ROI), and ROI alignment ensures data homogeneity. The Fully connected layer helps in segmenting the regions, and the Fully connected network creates binary masks for accurate identification of water bodies. The final step of the method is to analyze spatial and temporal changes in the images to identify differences, changes, and trends that may indicate specific phenomena or events. This approach allows automating and accurately identifying water features on satellite images using machine learning. Results. The implementation of the proposed technology is development through Python software development. An assessment of the technology’s accuracy, conducted through a comparative analysis with existing methods, such as water indices and K-means, confirms a high level of accuracy in the period from 2017 to 2023 (up to 98%). The Kappa coefficient, which considers the degree of consistency between the actual and predicted classification, confirms the stability and reliability of our approach, reaching a value of 0.96. Conclusions. The experiments confirm the effectiveness of the proposed automated information technology and allow us to recommend it for use in studies of changes in coastal areas, decision-making in the field of coastal resource management, and land use. Prospects for further research may include new methods that seasonal changes and provide robustness in the selection and mapping of water surfaces. UK: Актуальність. Враховуючи загострення екологічних та водних проблем, виникає необхідність у вдосконаленні автоматизованих методів визначення та моніторингу водних об’єктів у міських екосистемах. З врахуванням великого обсягу даних, отриманих від супутникових систем, проблема ефективного та автоматизованого вилучення водних об’єктів стає актуальною. Об’єктом дослідження є водні об’єкти, які автоматично виділяються з оптичних космічних знімків Sentinel-2 за допомогою методів машинного навчання. Мета роботи – підвищення ефективності процесу виділення границь водних об’єктів на цифрових оптичних космічних знімках за допомогою використання методів машинного навчання. Метод. Запропоновано автоматизовану інформаційну технологію виділення границь водних об’єктів на цифрових оптичних супутникових знімках Sentinel-2. Процес включає вісім етапів, починаючи з завантаження даних та використання топографічних карт для отримання базової інформації про предметну область. Після цього відбувається попередня обробка даних, включаючи калібрування зображень, видалення атмосферного шуму та підвищення контрастності. Далі застосовується архітектура EfficientNet-B0 для ідентифікації водних об’єктів, сприяючи оптимальному масштабуванню ширини мережі, глибини та роздільної здатності зображення. Використані ResNet блоки для стиснення та розширення каналів, що дозволяє оптимальне з’єднання великомасштабних та багатоканальних зв’язків у шарах. Після цього Regional Proposal Network визначає області інтересу (ROI), а ROI alignment забезпечує однорідність даних. Застосування Fully connected layer допомагає в сегментації областей, а Fully connected network створює бінарні маски для точної ідентифікації водних об’єктів. Заключним етапом методу є аналіз просторових та часових змін на зображеннях для виявлення різниць, змін та тенденцій, що можуть свідчити про конкретні явища чи події. Такий підхід дозволяє автоматизувати та точно визначати водні об’єкти на супутникових знімках з використанням машинного навчання. Результати. Розроблено програмне забезпечення мовою Python, що реалізує запропонований підхід. Оцінка точності технології, проведена шляхом порівняльного аналізу з існуючими методами, такими як водні індекси та K-means, підтверджує високий рівень точності в період з 2017 по 2023 роки (досягає 98%). Коефіцієнт Каппа, який враховує ступінь узгодженості між реальною та передбачуваною класифікацією, підтверджує стабільність та достовірність нашого підходу, досягаючи значення 0.96. Висновки. Проведені експерименти підтверджують ефективність запропонованої автоматизованої інформаційної технології та дозволяють рекомендувати її для використання в дослідженнях змін на прибережних територіях, прийняття рішень у сфері управління прибережними ресурсами та земельним використанням. Перспективи подальших досліджень можуть включати створення нових методів, які враховують сезонні зміни та забезпечують робастність при виділенні та картографуванні водних поверхонь.
  • Item
    Method of generative-adversarial networks searching architectures for biomedical images synthesis
    (Національний університет «Запорізька політехніка», 2024) Berezsky, O. M.; Liashchynskyi, P. B.; Березький, О. М.; Лящинський, П. Б.
    EN: Context. The article examines the problem of automatic design of architectures of generative-adversarial networks. Generative-adversarial networks are used for image synthesis. This is especially true for the synthesis of biomedical images – cytological and histological, which are used to make a diagnosis in oncology. The synthesized images are used to train convolutional neural networks. Convolutional neural networks are currently among the most accurate classifiers of biomedical images. Objective. The aim of the work is to develop an automatic method for searching for architectures of generative-adversarial networks based on a genetic algorithm. Method. The developed method consists of the stage of searching for the architecture of the generator with a fixed discriminator and the stage of searching for the architecture of the discriminator with the best generator. At the first stage, a fixed discriminator architecture is defined and a generator is searched for. Accordingly, after the first step, the architecture of the best generator is obtained, i.e. the model with the lowest FID value. At the second stage, the best generator architecture was used and a search for the discriminator architecture was carried out. At each cycle of the optimization algorithm, a population of discriminators is created. After the second step, the architecture of the generative-adversarial network is obtained. Results. Cytological images of breast cancer on the Zenodo platform were used to conduct the experiments. As a result of the study, an automatic method for searching for architectures of generatively adversarial networks has been developed. On the basis of computer experiments, the architecture of a generative adversarial network for the synthesis of cytological images was obtained. The total time of the experiment was ~39.5 GPU hours. As a result, 16,000 images were synthesized (4000 for each class). To assess the quality of synthesized images, the FID metric was used.The results of the experiments showed that the developed architecture is the best. The network’s FID value is 3.39. This result is the best compared to well-known generative adversarial networks. Conclusions. The article develops a method for searching for architectures of generative-adversarial networks for the problems of synthesis of biomedical images. In addition, a software module for the synthesis of biomedical images has been developed, which can be used to train CNN. UK: Актуальність. У статті досліджено проблему автоматичного проектування архітектур генеративно-змагальних мереж. Генеративно-змагальні мережі використовуються для синтезу зображень. Особливо це актуально для синтезу біомедичних зображень –цитологічних і гістологічних, які використовуються для постановки діагнозу в онкології. Синтезовані зображення використовуються для навчання згорткових нейронних мереж. Згорткові нейронні мережі є одними із найточніших класифікаторів біомедичних зображень на сьогодні.. Мета роботи – це розробка автоматичного методу для пошуку архітектур генеративно-змагальних мереж на основі генетичного алгоритму. Метод. Розроблений метод складається з етапу пошуку архітектури генератора з фіксованим дискримінатором і етапу пошуку архітектури дискримінатора із найкращим генератором. На першому етапі визначається фіксована архітектура дискримінатора та здійснюється пошук генератора. Відповідно після першого кроку отримується архітектура найкращого генератора, тобто модель із найнижчим значенням FID. На другому етапі використано найкращу архітектуру генератора та проводено пошук аріхтектури дискримінатора. На кожному циклі алгоритму оптимізації створюється популяція дискримінаторів. Після другого кроку отримується аріхтектура генеративно-змагальної мережі. Результати. Для проведення експериментів використано цитологічні зображення раку молочної залози на платформі Zenodo. В результаті дослідження розроблено автоматичний метод пошуку архітектур генеративно змагальних мереж.В результаті комп’ютерних експериментів отримано архітектуру генеративно змагальної мережі для синтезу цитологічних зображень. Загальний час експерименту склав ~39.5 GPU годин. В результаті синтезовано 16 000 зображень (по 4000 на кожен клас). Для оцінки якості синтезованих зображень використано метрику FID . Результати експериментів показали, що розроблена архітектура є найкращою. Значення FID мережі становить 3.39. Цей результат є найкращим, порівняно з відомими генеративно-змагальними мережами. Висновки. У статті розроблено метод пошуку архітектур генеративно-змагальних мереж для задач синтезу біомедичних зображень. Крім цього розроблено програмний модуль для синтезу біомедичних зображень, який може бути використаний для навчання CNN.
  • Item
    Refinement and accuracy control of the solution method for the durability problem of a corroding structure using neural network
    (Національний університет «Запорізька політехніка», 2024) Brychkovskyi, O. D.; Бричковський, О. Д.
    EN: Context. The prediction of the time until failure of corroding hinge-rod structures is a crucial component in risk management across various industrial sectors. An accurate solution to the durability problem of corroding structures allows for the prevention of undesired consequences that may arise in the event of an emergency situation. Alongside this, the question of the effectiveness of existing methods for solving this problem and ways to enhance them arises. Objective. The objective is to refine the method of solving the durability problem of a corroding structure using an artificial neural network and establish accuracy control. Method. To refine the original method, alternative sets of input data for the artificial neural network which increase information about the change in axial forces over time are considered. For each set of input data a set of models is trained. Based on target metric values distribution among the obtained sets, a set is selected where the minimum value of the mathematical expectation of the target metric is achieved. For the set of models corresponding to the identified best set, accuracy control of the method is determined by establishing the relationship between the mathematical expectation of the target metric and the parameters of the numerical solution. Results. The conditions under which a lower value of the mathematical expectation of the target metric is obtained compared to the original method are determined. The results of numerical experiments, depending on the considered case, show, in average, an improvement on 43.54% and 9.67% in the refined method compared to the original. Additionally, the proposed refinement reduces the computational costs required to find a solution by omitting certain steps of the original method. An accuracy control rule of the method is established, which allows to obtain on average a given error value without performing extra computations. Conclusions. The obtained results indicate the feasibility of applying the proposed refinement. A higher accuracy in predicting the time until failure of corroding hinge-rod structures allows to reduce the risks of an emergency situation. Additionally, accuracy control enables finding a balance between computational costs and the accuracy of solving the problem. UK: Актуальність. Прогнозування часу виходу з ладу кородуючих шарнірно-стрижневих конструкції є важливою складовою управління ризиками багатьох сфер промисловості. Точний розв’язок задачі довговічності кородуючої конструкції дозволяє попередити ряд небажаних наслідків, що виникають у разі настання аварійної ситуації. Разом з цим постає питання ефективності існуючих методів розв’язання даної задачі та способів їх покращення. Мета роботи полягає в уточненні методу розв’язання задачі довговічності кородуючої конструкції із використанням штучної нейронної мережі і встановлення керованості за точністю. Метод. Для уточнення оригінального методу розглядаються альтернативні набори вхідних даних для штучної нейронної мережі, що дозволяють збільшити інформацію про зміну осьових зусиль у часі. Для кожного набору вхідних даних навчається множина моделей. На основі розподілів значень цільової метрики моделей із отриманих множин обирається набір, на якому досягається найменше значення математичного сподівання цільової метрики. Для множини моделей, що відповідає знайденому найкращому набору, визначається керованість за точністю методу шляхом встановлення залежності між математичним сподіванням цільової метрики і параметрами чисельного розв’язання. Результати. Визначено умови, за яких отримано менше значення математичного сподівання цільової метрики порівняно з оригінальним методом. Результати чисельних експериментів, в залежності від розглядуваного випадку, показують в середньому на 43.54% і 9.67% кращі результати уточненого методу порівняно з оригінальним. Окрім цього, запропоноване уточнення зменшує необхідні для знаходження розв’язку обчислювальні витрати за рахунок відмови від деяких кроків оригінального методу. Отримано закон керованості методу за точністю, який дозволяє в середньому отримувати задане значення похибки без виконання зайвих обчислень. Висновки. Отримані результати свідчать про доцільність застосування запропонованого уточнення. Більш висока точність прогнозування часу виходу з ладу кородуючих шарнірно-стрижневих конструкцій дозволяє зменшити ризики настання аварійних ситуацій, а керованість за точністю – знаходити баланс між обчислювальними витратами і точністю розв’язання задачі.
  • Item
    A nonlinear regression model for early loc estimation of open-source Kotlin-based applications
    (Національний університет «Запорізька політехніка», 2024) Prykhodko, S. B.; Prykhodko, N. V.; Koltsov, A. V.; Приходько, С. Б.; Приходько, Н. В.; Кольцов, А. В.
    EN: Context. The early lines of code (LOC) estimation in software projects holds significant importance, as it directly influences the prediction of development effort, covering a spectrum of different programming languages, and open-source Kotlin-based applications in particular. The object of the study is the process of early LOC estimation of open-source Kotlin-based apps. The subject of the study is the nonlinear regression models for early LOC estimation of open-source Kotlin-based apps. Objective. The goal of the work is to build the nonlinear regression model with three predictors for early LOC estimation of open-source Kotlin-based apps based on the Box-Cox four-variate normalizing transformation to increase the confidence in early LOC estimation of these apps. Method. For early LOC estimation in open-source Kotlin-based apps, the model, confidence, and prediction intervals of nonlinear regression were constructed using the Box-Cox four-variate normalizing transformation and specialized techniques. These techniques, relying on multiple nonlinear regression analyses incorporating multivariate normalizing transformations, account for the dependencies between variables in non-Gaussian data scenarios. As a result, this method tends to reduce the mean magnitude of relative error (MMRE) and narrow confidence and prediction intervals compared to models utilizing univariate normalizing transformations. Results. An analysis has been carried out to compare the constructed model with nonlinear regression models employing decimal logarithm and Box-Cox univariate transformation. Conclusions. The nonlinear regression model with three predictors for early LOC estimation of open-source Kotlin-based apps is constructed using the Box-Cox four-variate transformation. Compared to the other nonlinear regression models, this model demonstrates a larger multiple coefficient of determination, a smaller value of the MMRE, and narrower confidence and prediction intervals. The prospects for further research may include the application of other data sets to construct the nonlinear regression model for early LOC estimation of open-source Kotlin-based apps for other restrictions on predictors. UK: Актуальність. Раннє оцінювання рядків коду (LOC) у проектах програмного забезпечення має важливе значення, оскільки це безпосередьно впливає на прогнозування зусиль з розробки програмного забезпечення для цілого спектру мов програмуання, включаючи застосунки з відкритим кодом на Kotlin. Об’єктом дослідження є процес раннього оцінювання метрики LOC застосунків з відкритим кодом на Kotlin. Предметом дослідження є нелінійні регресійні моделі для раннього оцінювання метрики LOC застосунків з відкритим кодом на Kotlin. Мета. Метою роботи є побудова нелінійної регресійної моделі з трьома предикторами для раннього оцінювання метрики LOC застосунків з відкритим кодом на Kotlin на основі чотирьохвимірного нормалізуючого перетворення Бокса-Кокса для підвищення достовірності раннього оцінювання LOC цих застосунків. Метод. Для раннього оцінювання LOC у застосунках із відкритим кодом на Kotlin модель, довірчі та прогнозні інтервали нелінійної регресії були побудовані за допомогою нормалізуючого перетворення Бокса-Кокса з чотирма змінними та за допомогою відповідних методів. Ці методи базуються на множинному нелінійному регресійному аналізі з використанням багатовимірних нормалізуючих перетворень та враховують кореляцію між залежними та незалежними змінними у випадку негаусових даних. Як наслідок, такий підхід має тенденцію до змешненя середньої величини відносної похибки, зменшення ширини довірчих інтрвалів та інтервалів прогнозування порівняно з моделями, що використовують однофакторні нормалізуючі перетворення. Результати. Проведено порівняння побудованої моделі з моделями нелінійної регресії з використанням десяткового логарифму та одновимірного перетворення Бокса-Кокса. Висновки. Модель нелінійної регресії з трьома предикторами для ранньої оцінки метрики LOC застосунків із відкритим вихідним кодом на Kotlin побудовано на основі перетворення чотирьох змінних Бокса-Кокса. Порівняно з іншими моделями нелінійної регресії, ця модель демонструє більший множинний коефіцієнт детермінації, менше значення середньої величини відносної похибки та менші ширини довірчих інтервалів та інтервалів прогнозування. Перспективи подальших досліджень можуть включати застосування інших багатовимірних нормалізуючих перетворень і наборів даних для побудови моделі нелінійної регресії для ранньої оцінки метрики LOC застосунків із відкритим вихідним кодом на Kotlin для інших обмежень на предиктори.
  • Item
    Evaluation of the influence of environmental factors and cognitive parameters on the decision-making process in human-machine systems of critical application
    (Національний університет «Запорізька політехніка», 2024) Perederyi, V. I.; Borchik, E. Y.; Zosimov, V. V.; Bulgakova, O. S.; Передерій, В. І.; Борчик, Є. Ю.; Зосімов, В. В.; Булгакова, О. С.
    EN: Context. A feature of human-machine systems of critical application operating in real time is that they include as elements both technical systems and people interacting with these systems. At the same time, the main difficulties are associated not only with the improvement of hardware and software, but also with the insufficient development of methods for reliably predicting the impact of the production environment on the human factor and, as a result, on the relevance of decisions made by decision makers. As a result, the task of developing methods for determining the mutual influence of environmental factors and cognitive parameters of decision makers on the decision-making process becomes very relevant. Objective. The aim of the work is to propose methodological foundations for the development and study of fuzzy hierarchical relational cognitive models to determine the influence of environmental factors and cognitive parameters of decision makers on the DMP. Method. When building FHRCM methods of “soft computing”, methodologies of cognitive and fuzzy cognitive modeling were used, providing an acceptable formalization uncertainty of mutual influence of factors on the DMP. Results. A fuzzy cognitive model based on a fuzzy Bayesian belief network has been developed, which makes it possible to draw a connection between qualitative and quantitative assessments of mutually influencing factors on the DMP. The proposed model makes it possible to probabilistically predict the influence of factors and choose rational ways of their interaction in the DMP. Conclusions. The results of the experiments make it possible to recommend using the developed model, which takes into account the mutual influence of factors of various nature, including cognitive ones, in the DMP in order to improve the efficiency of HMSCA management as a whole. UK: Актуальність. Особливість людино-машинних систем критичного застосування, що працюють в режимі реального часу, полягає в тому, що в якості елементів вони включають як технічні системи, так і людей, що взаємодіють з цими системами. При цьому основні труднощі пов’язані не тільки з удосконаленням апаратного і програмного забезпечення, але і з недостатньою розробленістю методів достовірного прогнозування впливу виробничого середовища на людський фактор і, як наслідок, на релевантність рішень, прийнятих особами, що приймають рішення. В результаті задача розробки способів визначення взаємного впливу факторів зовнішнього середовища і когнітивних параметрів ОПР, на процес прийняття рішень стає актуальною. Мета роботи – методологічна основа розробки та дослідження нечітких ієрархічних реляційних когнітивних моделей для визначення впливу факторів навколишнього середовища та когнітивних параметрів осіб, що приймають рішення, на процес прийняття рішень. Метод. При побудові нечітких ієрархічних реляційних когнітивних моделей використані методи «м’яких обчислень», методологія когнітивного і нечіткого когнітивного моделювання, які забезпечують прийнятну формалізацію невизначеності взаємного впливу факторів на процес прийняття рішень. Результати. Розроблені нечіткі когнітивні моделі на основі нечітких байєсівських мереж довіри, які дозволяють провести зв’язок між якісними та кількісними оцінками факторів взаємного впливу на процес прийняття рішень особами, що приймають рішення. Запропоновані моделі мають можливість імовірнісного прогнозування впливу факторів і вибору раціональних способів їх взаємодії в процесі прийняття рішень. Висновки. Результати експериментів дозволяють рекомендувати розроблені моделі, що враховують взаємний вплив факторів різної природи, в тому числі когнітивних, на процес прийняття рішень особами, що приймають рішення, та підвищують ефективність управління в людино-машинних системах критичного застосування в цілому.
  • Item
    Design Models of Bit-Stream Online-Computers for Sensor Components
    (Національний університет «Запорізька політехніка», 2024) Larchenko, L. V.; Parkhomenko, A. V.; Larchenko, B. D.; Korniienko, V. R.; Ларченко, Л. В.; Пархоменко, Анжеліка В.; Ларченко, Б. Д.; Корнієнко, В. Р.
    EN: Context. Currently, distributed real-time control systems need the creation of devices that perform online computing operations close to the sensor. The proposed online-computers of elementary mathematical functions can be used as components for the functional conversion of signals in the form of pulse streams received from measuring sensors with frequency output. Objective. The objective of the study is the development of mathematical, architectural and automata models for the design of bit-stream online-computers of elementary mathematical functions in order to create a unified approach to their design, due to which the accuracy of calculating functions can be increased, functional capabilities expanded, hardware costs reduced, and design efficiency increased. Method. Mathematical models of devices were developed using the method of forming increments of ascending step functions based on inverse functions with minimization of calculation error. Automata models of online-computers based on Moore’s Finite State Machine have been developed, the graph diagrams of which made it possible to ensure the clarity of function implementation algorithms, to increase visibility and invariance of implementation in formal languages of programming and hardware description. Results. The paper presents the results of research, development and practical approbation of design models of bit-stream online-computers of power functions and root extraction function. A generalized architecture of an online-computer was proposed. Conclusions. The considered functional online-computers are effective from the point of view of calculation accuracy, simplicity of technical implementation, and universality of the architecture. UK: Актуальність. В даний час розподілені системи управління реального часу потребують створення пристроїв, які виконують онлайн-обчислювальні операції в оточенні датчика. Запропоновані online-обчислювачі елементарних математичних функцій можуть бути використані як компоненти для функціонального перетворення сигналів у вигляді імпульсних потоків, що надходять від вимірювальних датчиків з частотним виходом. Мета роботи. Розробка математичних, архітектурних та автоматних моделей проєктування біт-потокових онлайн- обчислювачів елементарних математичних функцій з метою створення єдиного підходу до їх проєктування, завдяки якому можливо підвищити точність обчислення функцій, розширити функціональні можливості, зменшити апаратупні витрати та підвищити ефективність проєктування. Метод. Розроблено математичні моделі пристроїв з використанням методу формування приростів ступінчастих функцій на основі обернених функцій з мінімізацією похибки обчислень. Розроблено автоматні моделі онлайн- обчислювачів на основі кінцевого автомата Мура, графові моделі яких дозволили забезпечити чіткість алгоритмів реалізації функцій, підвищити наочність та інваріантність реалізації на формальних мовах програмування та опису апаратури. Результати. У статті наведено результати дослідження, розробки та практичної апробації моделей проєктування біт-потокових онлайн- обчислювачів степеневої функції та функції вилучення кореня. Запропоновано узагальнену архітектуру онлайн- обчислювача. Висновки. Розглянуті функціональні онлайн- обчислювачі ефективні з точки зору точності обчислень, простоти технічної реалізації та універсальності архітектури.
  • Item
    Decision-making models and their application in transport delivery of building materials
    (Національний університет «Запорізька політехніка», 2024) Bashkatov, A. M.; Yuldashova, O. A.; Башкатов, О. М.; Юлдашова, О. О.
    EN: Context. The task of determining a generalized parameter characterizing a comprehensive assessment of the action of criteria affecting the sequence of execution of orders for the manufacture and delivery of products to the customer. Objective. The purpose of the work is to develop an algorithm for calculating priorities when solving the problem of transport services in conditions of uncertainty of choice. Method. When considering the problem of the efficiency of order fulfillment, the reasons are given that affect the efficiency of the tasks being solved for the delivery of paving slabs to the customer in the shortest possible time. In order to select a scheme that reflects the main stages of decision-making, a justification was carried out and a comparative analysis of existing models was carried out. The criteria for the requirements for describing such models have been determined. It is indicated that the objective function depends on a group of reasons, i.e. represents a composite indicator. The stochastic nature of such factors led to the use of statistical analysis methods for their assessment. The limits of variation of the parameters used in the calculations are established. The solution to the multicriteria problem consists in bringing the role of the acting factors to one unconditional indicator, grouping and subsequent ranking of their values. The decision-making and the choice of the indicator will depend on the set threshold and the priority level of the factor. The indices that form the priority of the factor are determined analytically or expertly. The sequence of actions performed is presented in the form of an algorithm, which allows automating the selection of a model and the calculation of indicators. To assess the adequacy of the proposed solutions, tables of comparative results for the selection of the priority of the executed orders are given. Results. The method allows a comprehensive approach to taking into account the heterogeneous factors that determine the order in which the order is selected when making managerial decisions, ensuring the achievement of a useful effect (streamlining the schedule for the delivery of paving slabs to the customer) by ranking the values of priority indices. Conclusions. The proposed scheme for the transition to a complex unconditional indicator (priority index) makes it possible to quantitatively substantiate the procedure for choosing the next order when performing work. A special feature is that the list of operating factors can be changed (reduced or supplemented with new criteria). The values of these parameters will improve and have a higher reliability with the expansion of the experimental design, depending on the retrospective of their receipt, the accuracy of the data. As a prospect of the proposed method, the optimization of the process of selecting applications using queuing methods (for the type of the corresponding flow – homogeneous, without consequences, stationary, gamma flow, etc.) can be considered. UK: Актуальність. У статті зображено, що визначення критеріїв, що впливають на черговість виконання замовлень по доставці продукції замовнику є головною задачею. Мета такої роботи міститься у розробці алгоритму щодо вибору пріоритетів при вирішенні завдання транспортного обслуговування в умовах невизначеності. Мета роботи – розробка алгоритму розрахунку пріоритетів при вирішенні задачі транспортного обслуговування в умовах невизначеності вибору. Метод. В контексті проблеми оперативності виконання замовлень наведені причини, що впливають на логістику розв’язуваної задачі – поставки будівельної продукції за місцем вимоги. З метою вибору схеми, що відбиває основні етапи прийняття рішень по доставці тротуарної плитки замовнику, виконано обґрунтування і проведено порівняльний аналіз існуючих моделей. Визначено критерії, що пред’являються вимоги для опису таких моделей. Зазначено, що цільова функція залежить від різних причин, тобто є комплексним показником. Стохастичний характер таких факторів зумовив використання для їх оцінки методів статистичного аналізу. Встановлено межі зміни використовуваних в розрахунках параметрів. Рішення багатокритеріальної задачі укладено в зведенні діючих факторів до безумовним показниками, їх угруповання і подальшому ранжируванні. Ухвалення рішення та вибір показника буде залежати від встановленого порога і рівня пріоритету фактору. Індекси, що формують пріоритет фактору, визначаються аналітично або експертним шляхом. Черговість виконуваних дій представлена у вигляді алгоритму, що дозволяє автоматизувати вибір моделі і визначення пріоритетів. Для оцінки адекватності пропонованих рішень наведені таблиці порівняльних результатів за вибором пріоритетності виконуваних замовлень. Результати. Метод дозволяє комплексно підійти до врахування різнорідних чинників, що впливають на пріоритети вибору при прийнятті управлінських рішень, забезпечивши досягнення корисного ефекту (упорядкування графіка виконання робіт з доставки тротуарної плитки замовнику). Висновки. Пропонована схема по переходу до комплексного безумовному показником (індексом пріоритету) дозволяє кількісно обґрунтувати прийняття управлінських рішень. Особливістю є те, що список діючих факторів може бути змінений або доповнений новими параметрами. Значення цих параметрів можуть уточнювати і мати більш високу вірогідність з розширенням плану пасивного експерименту, оскільки залежать від ретроспективи отримання, а також точності наявних даних. Як перспектив, при визначенні пріоритетів, можлива оптимізація вибору заявок із застосуванням методів масового обслуговування (для типу відповідного потоку – однорідного, без наслідків, стаціонарного, гамма-потоку та ін.).
  • Item
    Scattering of electromagnetic waves on flat grid two-periodic structures
    (Національний університет «Запорізька політехніка», 2024) Vanin, V. A.; Pershyna, I. I.; Ванін, В. А.; Першина, Ю. І.
    EN: Context. One of the scientific hypotheses for the creation of nonreciprocal optical metasurfaces is based on the use of a wave channel in which rays of the direct and reverse diffraction scenarios are realized on two-periodic flat structures with nonlinear elements. Such processes in the nanometer wavelength range of electronic devices require precise calculations of the interaction of waves and microstructures of devices. It is also important to describe the behavior of antenna devices in mobile communications. Expanding the wavelength range of stable communication is achieved by using prefractal structures in antenna devices in combination with periodic structuring. Similar modeling problems arise when electromagnetic waves penetrate materials with a crystalline structure (radio transparency). Objective. To test this hypothesis, it is necessary to carry out mathematical modeling of the process of scattering of electromagnetic waves by metasurfaces under conditions of excitation of several diffraction orders. It is known that among two-periodic flat lattices of different structures there are five types that fill the plane. These are the Bravais grilles. The problem of scattering of an incident monochromatic TE polarized wave on a metal screen with recesses in two-periodic structures filled with silicon was considered. Method. The paper builds mathematical models for the study of spatial-amplitude spectra of metasurfaces on Brave lattices and gives some results of their numerical study. The condition for determining the diffraction orders propagating over the grating is proposed. Scattered field amplitudes are from the solution of the boundary value problem for the Helmholtz equation in the COMSOL Multiphysics 5.4 package. Similar problem formulations are possible when studying the penetration of an electromagnetic field into a crystalline substance. Results. Obtained relations for diffraction orders of electromagnetic waves scattered by a diffraction grating. The existence of wavelengths incident on a two-periodic lattice for which there is no reflected wave is shown for different shapes (rectangular, square, hexagonal) of periodic elements in the center of which a depression filled with silicon was made. Distributions of reflection coefficients for different geometric sizes of colored elements and recesses are given. The characteristics of the electric field at resonant modes in the form of modulus isolines show the nature of the interaction of the field over the periodic lattice and the scatterers-depressions. At the resonant wavelengths of the incident waves, standing waves appear in the scatterers. Conclusions. A mathematical model of the set of diffraction orders propagating from a square and hexagonal lattice into half-space is proposed It has been shown that flat periodic lattice with square or hexagonal periodicity elements and resonant scatterers in the form of cylindrical recesses filled with silicon can produce a non-mirrored scattered field in metal. The response of the lattices to changes in the wavelength of the incident field by the structure of diffraction orders of the scattered field and high sensitivity to the rotation of the incident plane were revealed. The two-periodic lattices have prospects for creating anti-reflective surfaces of various devices. Two-periodic lattices have prospects for creating anti-reflective surfaces for various devices, laser or sensor electronic devices, antennas in mobile communication elements, and radio transparency elements. They have more advanced manufacturing technologies in relation to spatial crystal structures. UK: Актуальність. Одна з наукових гіпотез створення невзаємних контрольованих оптичних метаповерхонь є використання хвильового каналу, який базується на променях прямого та зворотного сценаріїв дифракції на двоперіодичних плоских структурах з нелінійними елементами. Такі процеси в нанометровому діапазоні хвиль електронних пристроїв вимагають точних розрахунків процесів взаємодії хвиль і мікроструктур приладів. Важливо також описати поведінку антенних пристроїв в засобах мобільного зв’язку. Розширення діапазону довжин хвиль стабільного зв’язку досягається на дофрактальних структурах в антенних пристроях у поєднанні із періодичним структуруванням. Схожі проблеми моделювання виникають і при проникненні електромагнітних хвиль через матеріали із кристалічною структурою (радіопрозорість). Мета. Для перевірки цієї гіпотези необхідно провести математичне моделювання процесу розсіяння електромагнітних хвиль метаповерхнями в умовах збудження декількох дифракційних порядків. Як відомо, серед двохперіодичних плоских решіток різних структур є п’ять типів, які покривають площину. Це є решітки Браве. Розглядалась задача розсіювання падаючої монохроматичної ТЕ поляризованої хвилі на металевий екран із заглибленнями в двохперіодичних структурах, заповнених кремнієм. Метод. В роботі побудовані математичні моделі для вивчення просторових амплітудних спектрів метаповерхонь на решітках Браве та наведені деякі результати їх чисельного дослідження. Запропонована умова визначення дифракційних порядків які розповсюджуються над решіткою. Амплітуди розсіяного поля знаходяться із розв’язання крайової задачі для рівняння Гельмгольця в пакеті COMSOL Multiphysics 5.4. Аналогічні постановки задач можливі і при дослідженні проникнення електромагнітного поля в кристалічну речовину. Результати. Отримані співвідношення для дифракційних порядків розсіяних електромагнітних хвиль дифракційною решіткою. Показано існування довжин падаючих хвиль на двохперіодичну решітку для яких відсутня віддзеркалена хвиля при різних формах (прямокутна, квадратна, шестикутна) періодичних елементів в центрі яких було виконане заглиблення, наповнене кремнієм. Приведені розподіли коефіцієнту віддзеркалення при різних геометричних розмірах періодичних елементів і заглиблення. Характеристики електричного поля на резонансних режимах у вигляді ізоліній його модуля показують характер взаємодії поля над періодичною решіткою і розсіювачами-заглибленнями. На резонансних довжинах падаючих хвиль виникають стоячі хвилі в розсіювачах. Висновки. Запропонована математична модель множини дифракційних порядків які розповсюджуються від квадратної та шестикутної решітки в півпростір. Показано, що плоскі періодичні решітки із квадратними або шестикутними елементами періодичності та резонансними розсіювачами у вигляді циліндричних заглиблень, заповнених кремнієм, у металі можуть створювати недзеркальне розсіяне поле. Виявлена реакція решіток на зміну довжини хвилі падаючого поля структурою дифракційних порядків розсіяного поля та висока чутливість до повороту площини падіння. Двохперіодичні решітки мають перспективу при створенні антиблікових поверхонь різних пристроїв. The two-periodic lattices have prospects for creating anti-reflective surfaces of various devices. Двоперіодичні решітки мають перспективу при створенні антиблікових поверхонь різних пристроїв, лазерних чи сенсорних радіоелектронних пристроїв, антен в елементах мобільного зв’язку, радіопрозорорихелементів. Вони мають більш розвинені технології виготовлення по відношенню до просторових кристалічних структур.
  • Item
    Research of the features of digital signal formation in satellite communication lines
    (Національний університет «Запорізька політехніка», 2024) Мagro, V. І.; Panfilov, O. G.; Магро, В. И.; Панфілов, О. Г.
    EN: Context. Remote sensing of the Earth is now widely used in various fields. One of the challenges of remote sensing is the creation of inexpensive satellite systems operating in polar circular orbits. These systems require the development of a reception-transmission system that allows tens of gigabits of video information to be transmitted to an earth receiving station within ten minutes. That is, there is a need to create a communication system that provides high speed data transmission from small satellites weighing up to 50 kg. Objective. The aim of the work is to study the features of digital signal formation in modern satellite communication lines and to develop a communication system with a high data transfer rate (usually 300 Mbit/s), which can be applied to small Earth Observation satellites. Method. Proposed concept for building a high-speed data transmitter from a remote sensing earth satellite using commercially available off-the-shelf technology. Calculations of the power flow density created at the input of the receiving earth station were performed to find out the possible power of the on-board transmitter. Results. A diagram of a communication system based on the DVB-S standard using the technology of commercially available off-the-shelf products has been developed. The high-speed data transmitter is implemented on a Xilinx® Zynq Ultrascale+ ™ MPSoC FPGA microchip, which is located on an Enclustra Mercury XU8 module with a high-performance dual 16-bit AD9174 DAC. The on-board transmitter with a power of up to 2 W meets the requirements of the ITU Radio Regulations for the power flux density on the surface of the Earth, which is created by the radiation of the space station EESS in the range 8025–8400 MHz. It is shown that the energy reserve of the communication line of 3 dB is achieved for various commands for coding and modulation changes with an increase in the elevation angle, which allows to increase the speed of information transmission. Conclusions. An original receiving-transmitting system was developed for use in small satellites for remote sensing of the Earth. It is shown that the function of adaptive modeling of ACM of the DVB-S standard allows you to automatically change the transmission parameters in real time depending on the changing conditions of the channel, providing opportunities for more flexible and effective data transmission in various conditions, which will allow to increase the volumes of information transmitted by communication session. The proposed system operates in the X-band and is built using commercially available off-the-shelf products. An antenna with double circular polarization is used as the emitter. Two physical channels represent two polarization modes: right circular polarization and left circular polarization, each of which has three frequency channels. UK: Актуальність. Дистанційне зондування Землі нині знаходить широке застосування в різних галузях. Однією із проблем дистанційного зондування є створення недорогих супутникових систем, що працюють на полярних кругових орбітах. Дані системи потребують розробки прийомо-передавальної системи, що дозволяє передавати десятки гігабіт відеоінформації на земну приймальну станцію протягом десятка хвилин. Тобто існує потреба у створенні системи зв’язку що забезпечує високу швидкість передачі даних з малих супутників, вагою до 50 кг. Мета. Метою роботи є дослідження особливостей формування цифрового сигналу в сучасних супутникових лініях зв’язку та розробка системи зв’язку з високою швидкістю передачі даних (зазвичай 300 Мбіт/с), яка може бути застосована до малих супутників дистанційного зондування Землі. Метод. Запропонована концепція побудови високошвидкісного передавача даних із супутника дистанційного зондування землі із використанням технології комерційно готових або комерційно доступних готових продуктів. Виконані розрахунки щільності потоку потужності для з’ясування можливої потужності бортового передавача. Виконані розрахунки бюджету радіолінії супутник-Земля із застосуванням передбачених режимів команд на зміни кодування та модуляції. Результати. Розроблена схема систему зв’язку на основі стандарту DVB-S з використанням технології комерційно готових продуктів. Високошвидкісний передавач даних реалізовано на FPGA Xilinx® Zynq Ultrascale+ ™ MPSoC, який розташований на модулі Enclustra Mercury XU8 з високопродуктивним подвійний 16-розрядним DAC AD9174. Бортовий передавач потужністю до 2 Вт задовольняє вимогам Регламенту радіозв’язку ITU до щільності потоку потужності на поверхні Землі, який створюється випромінюванням космічної станції EESS у діапазоні 8025–8400 МГц. Показано, що енергетичний запас лінії зв’язку в 3 дБ досягається для різних команд на зміни кодування та модуляції при збільшенні кута місця, що дозволяє збільшувати швидкості передачі інформації. Висновки. Розроблена оригінальна прийомо-передавальна система для застосування в малих супутниках дистанційного зондування землі. Показано, що саме функція адаптивного моделювання ACM стандарту DVB-S дозволяє автоматично змінювати параметри передачі в реальному часі в залежності від змінюваних умов каналу, надаючи можливості більш гнучкої і ефективної передачі даних у різних умовах, що дозволить збільшити об’єми інформації, які передаються за сеанс зв’язку. Запропонована система працює в X-діапазоні і побудована з використанням деталей COTS. У якості випромінювачів використовуються антенами с двійною поляризацією. Два фізичні канали представляють два режими поляризації: праву кругову поляризацію і ліву кругову поляризацію, кожна з яких має три частотні канали.