Радіоелектроніка, інформатика, управління - 2022, №1 (60)
Permanent URI for this collectionhttps://eir.zp.edu.ua/handle/123456789/26543
Browse
Recent Submissions
Item Decision-making at evolutionary search during limited number of fuzzy experiments with multiple criteria(Національний університет "Запорізька політехніка", 2022) Irodov, V. F.; Shaptala, M. V.; Dudkin, K. V.; Shaptala, D. E.; Chirin, D. A.; Іродов, В. Ф.; Шаптала, М. В.; Дудкін, К. В.; Шаптала, Д. Е.; Чирін, Д. А.EN: Context. The mechanism of decision-making during limited number of fuzzy experiments with multiple criteria are considered. The investigation object is process decision-making for project or control in complex systems with multiple criteria. Objective. It is necessary to determine optimal (most preferred) parameters of the systems with multiple criteria. It is no the mathematical model of the system, there is limited number of fuzzy experiments only. Method. experimental study of a process with several criteria (functions) depending on its parameters; the use of expert fuzzy evaluation to build a matrix of preferences for individual implementations; building a function of choosing preferred solutions based on a preference matrix by constructing a mathematical model of preference recognition, formulation and solving the problem of generalized mathematical programming as the final step in building the selection mechanism. The decision-making mechanism depends on the expert assessment procedure when comparing a limited set of results with each other, as well as on the statement of conditions when solving the problem of generalized mathematical programming. Comparison of a finite number of fuzzy experiments is convenient for expert evaluation. Presentation of the final choice as a result of solving the problem of generalized mathematical programming is convenient for using such a mechanism in automatic control systems already without human intervention. The proposed scheme of decision-making during limited number of fuzzy experiments has been applied to decision-making of project management for pellet burner. Results. Experimental decision-making fuzzy results are presented in the presence of several criteria for a pellet burner of a tubular heater, which confirm the acceptability of the developed decision-making mechanism. It was proposed the new scheme for constructing a selection mechanism for decision-making in systems with several criteria where there is a sample of fuzzy experimental results. Conclusions. The scheme of decision-making is includes the solving the generalized mathematical programming as the final step in building the selection mechanism. For the problem of generalized mathematical programming it may be applied the evolutionary search with choice function in form of preference or in form of lock. UK: Актуальність. Розглянуто механізм прийняття рішень під час обмеженої кількості нечітких експериментів з кількома критеріями. Об’єктом дослідження є процес прийняття рішень щодо проекту або управління в складних системах з декількома критеріями. Мета. Необхідно визначити оптимальні (найбільш переважні) параметри систем з кількома критеріями, користуючись не математичною моделлю системи, а лише обмеженою кількістю нечітких експериментів. Метод. Експериментальне дослідження процесу з кількома критеріями (функціями) залежно від його параметрів; використання експертної нечіткої оцінки для побудови матриці уподобань для окремих реалізацій; побудова функції вибору кращих рішень на основі матриці переваг шляхом побудови математичної моделі розпізнавання переваг, формулювання та вирішення проблеми узагальненого математичного програмування як завершального етапу побудови механізму відбору. Механізм прийняття рішень залежить від процедури експертної оцінки при порівнянні обмеженого набору результатів між собою, а також від постановки умов при вирішенні задачі узагальненого математичного програмування. Порівняння кінцевої кількості нечітких експериментів зручно для експертної оцінки. Презентація остаточного вибору в результаті вирішення задачі узагальненого математичного програмування зручна для використання такого механізму в системах автоматичного управління вже без участі людини. Запропонована схема прийняття рішень під час обмеженої кількості нечітких експериментів була застосована до прийняття рішень з управління проектами паливних гранул. Результати. Нечіткі результати експериментального прийняття рішень представлені за наявності кількох критеріїв для пелетного пальника трубчастого нагрівача, які підтверджують прийнятність розробленого механізму прийняття рішень. Запропоновано нову схему побудови механізму відбору для прийняття рішень в системах з декількома критеріями, де є вибірка нечітких експериментальних результатів. Висновки. Схема прийняття рішень включає вирішення узагальненого математичного програмування як завершальний етап побудови механізму відбору. Для проблеми узагальненого математичного програмування може бути застосований еволюційний пошук з функцією вибору у формі переваги або у формі блокування.Item Domain ontology development for condition monitoring system of industrial control equipment and devices(Національний університет "Запорізька політехніка", 2022) Vlasenko, L. O.; Lutska, N. M.; Zaiets, N. A.; Shyshak, A. V.; Savchuk, O. V.; Власенко, Л. О.; Луцька, Н. М.; Заєць, Н. А.; Шишак, А. В.; Савчук, О. В.EN: Context. Modern intelligent systems of failure identification of control equipment and devices in food industry are based on a complexation of approaches implemented on various methods and algorithms. The feature of such systems is that within them operates a large amount of heterogeneous data and knowledge that are difficult to combine. The use of ontologies of different levels in the system development process solves this problem. Objective. Domain ontology development for equipment condition monitoring system as a basis for designing intelligent decision support system with ontology knowledge base. Methods. There are different ontology development approaches. They may differ in the quantity of levels and types of ontologies or be a combination of subject and problem domains ontologies depending on the complexity of the problem and the chosen ontology development method. This paper represents two levels of the three-level ontology being developed for intelligent condition monitoring system of control equipment and devices. The upper level is represented by top-level ontology Basic Formal Ontology (BFO) which provides systematization of the meta-level, including temporal part. International standards and technical reports such as IEC 62890, ISO 55000, ISA 95, ISA 106, IEC 62264, ISO 10303-242: 2020 are considered in the development process of the second ontology level – Domain ontology. Results. The article provides Domain ontology for equipment condition monitoring system in food industry. The developed Domain ontology systematizes, structures engineering knowledge and uses BFO which provides a set of basic elements at the meta-level. They set the values of the following entities: type of production, methods of failure identification, causes, failures, events, equipment, etc. The developed Domain ontology has semantic cross-links. A fragment of the Domain ontology relationships for the “Control equipment” subclass of “Equipment” class is also presented in the paper. Conclusions. The developed ontology can be used to analyze the knowledge base on the causes, locations and types of failures and their identification methods. The developed ontology is a basis for application ontology development. UK: Актуальність. Сучасні інтелектуальні системи ідентифікації поломок технічних засобів автоматизації харчової промисловості будуються на комплексуванні підходів, що реалізовані на різних методах і алгоритмах. Особливістю таких систем є те, що в їх межах функціонує велика кількість різнорідних даних і знань, які важко поєднати між собою. Використання онтологій різних рівнів при розробці системи вирішує дану проблему. Мета. Побудова онтології предметної області для моніторингу стану обладнання, що є основою для проектування інтелектуальної системи підтримки прийняття рішень з онтологічною базою знань. Метод. Існують різні підходи до побудови онтологій. В залежності від складності задачі і обраного способу проектування онтологій вони можуть відрізнятися кількістю рівнів та видів онтологій або являти собою поєднання онтологій предметної та проблемної областей. В даній роботі сформована трирівнева онтологія, що проектується для інтелектуальної системи моніторингу стану технічних засобів автоматизації. Верхній рівень представлено онтологією верхнього рівня Basic Formal Ontology, що забезпечує систематизацію метарівня, включаючи темпоральну частину. При проектуванні другого рівня – онтологій предметної області, враховано міжнародні стандарти: IEC 62890, ISO 55000, ISA 106, IEC 62264, ISO 10303-242:2020. Результати. В статті наведено онтологію предметної області для системи моніторингу стану обладнання харчової галузі, яка систематизує та структурує інженерні знання. Розроблена онтологія предметної області використовує Basic Formal Ontology, яка надає набір базових елементів на метарівні. Вони задають значення виділених сутностей: вид виробництва, методи визначення поломок, причини, поломки, події, обладнання тощо. Онтологія розробленої предметної області має введені семантичні перехресні зв’язки. Також в роботі наведено фрагмент відношень в онтології предметної області системи для підкласу Технічні засоби автоматизації класу Обладнання. Висновки. Дана онтологія може бути використана для аналізу бази знань за причинами, місцями та видами поломок і методами їх визначення, та є основою для розробки прикладної онтології.Item The reliability improving of computer system elements with using modular encoding(Національний університет "Запорізька політехніка", 2022) Freyman, V. I.; Фрейман, В. І.EN: Context. Computing systems are implemented in many industries and economies of the modern world. The quality indicators of the systems in which they are used depend on the reliability of their work. The reliability of a computing system consists of the reliability of the construction and functioning of its elements. It is not always possible to ensure reliability in the design by choosing a high-quality element base, structural redundancy, or other well-known methods. Therefore, important and critical elements of computing systems are protected by built-in control schemes. They allow you to detect errors that occur when performing basic data operations. An effective way of constructing such circuits is to use actions on the remainder of the division of the operands by a selected module or by several modules (modular coding). Especially the task of choosing the most accurate and least redundant means of control is relevant for a wide range of basic elements of modern computing systems. Objective. The aim of the work is research and development of recommendations on the use of modular coding to improve the reliability of the functioning of elements of modern computing systems in various hardware and software basis. Methods. A method for numerical control of the correctness of performing basic arithmetic and logical operations by computing devices is selected and analyzed. On its basis, a schematic model of a computing system was built and verified in the MatLab Simulink environment, which uses modular coding as a means of ensuring the reliability of the functioning of elements. The analysis of the probabilistic characteristics of decision-making is carried out, estimates of the probability of an erroneous decision-making are given. A software implementation of the simulation algorithm in the Visual Basic for Applications environment has been created, which made it possible to plot the dependence of reliability indicators on coding parameters. Results. A schematic model of a computing system has been developed. It allows study various combinations of faults in the functioning of elements and errors in their operations. An algorithm for simulating all kinds of malfunctions and errors in the functioning of elements of computing systems when they perform basic operations is implemented in software. The qualitative dependences of the probabilistic characteristics of reliability on the coding parameters are determined. Based on the analysis of the characteristics obtained, conclusions are drawn and practical recommendations are given on the use of modular coding in the elements of computing systems in order to achieve the specified reliability indicators. Conclusions. To improve the reliability of the functioning of the elements of computing systems, it is effective to use built-in control schemes using modular coding. Taking into account the recommendations for choosing the parameters of the codes will ensure the required reliability with minimal redundancy of circuits and the computational complexity of the calculation algorithms. UK: Актуальність. Обчислювальні системи запроваджено у багато галузей промисловості та економіки сучасного світу. Від надійності їхньої роботи залежать якісні показники тих систем, у яких вони використовуються. Надійність обчислювальної системи складається з надійності побудови та функціонування її елементів. Не завжди можна забезпечити надійність під час проектування вибором якісної елементної бази, структурною надмірністю або іншими відомими способами. Тому важливі та відповідальні елементи обчислювальних систем захищають схемами вбудованого контролю. Вони дозволяють виявляти помилки, які відбуваються під час виконання основних операцій із даними. Ефективним способом побудови таких схем є застосування дій над залишками від розподілу операндів за вибраним модулем або за декількома модулями (модулярне кодування). Особливо завдання вибору найточнішого та найменш надлишкового засобу контролю актуальне для широкого спектру базисних елементів сучасних обчислювальних систем. Мета роботи. Метою роботи є проведення досліджень та розробка рекомендацій щодо застосування модулярного кодування для підвищення надійності функціонування елементів сучасних обчислювальних систем у різному апаратурно- програмному базисі. Методи. Вибрано та проаналізовано спосіб числового контролю правильності виконання основних арифметичних та логічних операцій обчислювальними пристроями. На його основі було побудовано та верифіковано схемотехнічну модель обчислювальної системи в середовищі MatLab Simulink, що використовує модулярне кодування як засіб забезпечення надійності функціонування елементів. Проведено аналіз імовірнісних характеристик ухвалення рішення, дано оцінки ймовірності помилкового ухвалення рішення. Створено програмну реалізацію алгоритму імітаційного моделювання у середовищі Visual Basic for Applications, яка дозволила побудувати залежності показників надійності від параметрів кодування. Результати. Розроблено схемотехнічну модель обчислювальної системи, яка дозволяє досліджувати різні поєднання несправностей функціонування елементів та помилок у виконанні ними операцій. Програмно реалізований алгоритм імітаційного моделювання різноманітних несправностей та помилок функціонування елементів обчислювальних систем під час виконання ними базисних операцій. Визначено якісні залежності ймовірнісних характеристик надійності від параметрів кодування. На підставі аналізу отриманих характеристик зроблено висновки та надано практичні рекомендації щодо застосування модулярного кодування в елементах обчислювальних систем з метою досягнення ними заданих показників надійності. Висновки. Для підвищення надійності функціонування елементів обчислювальних систем є ефективним застосування схем вбудованого контролю з використанням модулярного кодування. Облік рекомендацій щодо вибору параметрів кодів дозволить забезпечити необхідну надійність за мінімальної надмірності схем та обчислювальної складності алгоритмів розрахунку.Item Моделювання Ігрової задачі призначення персоналу для виконання ІТ-проектів на основі онтологій(Національний університет "Запорізька політехніка", 2022) Кравець, П. О.; Литвин, В. В.; Висоцька, В. А.; Kravets, P.; Lytvyn, V.; Vysotska, V.UK: Актуальність. У цій статті описано розв’язування ігрової задачі призначення персоналу для роботи над проектами на основі онтологічного підходу. Суть задачі полягає у такому. Існує потреба у створенні команд для виконання декількох проектів. Кожен проект задається набором необхідних онтологічних знань. Для виконання проектів менеджери залучають кваліфікованих спеціалістів (агентів), здібності яких також задаються наборами онтологій. Склад команд повинен бути таким, щоб об’єднані онтології їх агентів покривали множини онтологій відповідних проектів. Кожен агент з певними імовірностями може прийняти послідовну участь у виконанні декількох проектів. Одночасна робота агента над різними проектами не допускається. Необхідно визначити порядок виконання проектів і відповідний йому порядок призначення персоналу. Метою дослідження є розроблення математичної моделі стохастичної гри, рекурентних марковських методів для її розв’язування, алгоритмічного та програмного забезпечення, проведення комп’ютерного експерименту, аналіз результатів та виробленням рекомендацій щодо їх практичного застосування. Метод. Для планування виконання проектів використано стохастичний ігровий алгоритм розфарбовування неорієнтованого випадкового графа. Для цього кількість вершин графа прийнята рівною кількості проектів. Ребрами з’єднано ті вершини графа проектів, для виконання яких залучено одного і того ж агента. З урахуванням відновлювальних відмов агентів зв’язки між вершинами графа динамічно змінюються. Необхідно досягнути правильного розфарбування випадкового графа. Тоді проекти з однаково зафарбованими вершинами графа можуть бути виконані паралельно, а проекти з різними кольорами вершин – послідовно. Результати. У статті побудовано математичну модель стохастичної гри та самонавчальний марковський метод для її розв’язування. Кожна вершина графа контролюється гравцем. Чистими стратегіями гравця є елементи палітри кольорів. Після вибору кольору власної вершини кожен гравець обчислює поточний програш як відносну кількість однакових кольорів у локальній множині сусідніх гравців. Мета гравців полягає у мінімізації функцій середніх програшів. Марковський рекурентний метод забезпечує адаптивний вибір кольорів вершин випадкового графа на основі динамічних векторів змішаних стратегій, значення яких залежать від поточних програшів гравців. Результатом стохастичної гри є асимптотично правильно розфарбований випадковий граф, коли кожному ребру початкового детермінованого графа будуть відповідати у середньому різні кольори вершин. Висновки. Проведено комп’ютерний експеримент, який підтвердив збіжність стохастичної гри для задачі розфарбовування випадкового графа. Це дало можливість визначити порядок призначення персоналу для виконання проектів. EN: Context. This article describes how to solve the game problem of assigning staff to work on projects based on an ontological approach. The essence of the problem is this. There is a need to create teams to carry out several projects. Each project is defined by a set of necessary ontological knowledge. To implement projects, managers invite qualified specialists (agents), whose abilities are also defined by sets of ontologies. The composition of the teams should be such that the combined ontologies of their agents cover the set of ontologies of the respective projects. Each agent with a certain probability can take part in the implementation of several projects. Simultaneous work of the agent on different projects is not allowed. It is necessary to determine the order of project implementation and the corresponding order of personnel appointment. Objective of the study is to develop a mathematical model of stochastic game, recurrent Markov methods for its solution, algorithmic and software, computer experiment, analysis of results and development of recommendations for their practical application. Method. A stochastic game algorithm for coloring an undirected random graph was used to plan project execution. To do this, the number of vertices of the graph is taken equal to the number of projects. The edges of the project graph for which the same agent is invited are connected by edges. Due to the recovery failures of agents, the connections between the vertices of the graph change dynamically. It is necessary to achieve the correct coloring of the random graph. Then projects with the same colored vertices of the graph can be executed in parallel, and projects with different colors of vertices – in series. Results. The article builds a mathematical model of a stochastic game and a self-learning Markov method for its solution. Each vertex of the graph is controlled by the player. The player’s pure strategies are the elements of the color palette. After selecting the color of their own top, each player calculates the current loss as a relative number of identical colors in the local set of neighboring players. The goal of the players is to minimize the functions of average losses. The Markov recurrent method provides an adaptive choice of colors for the vertices of a random graph based on dynamic vectors of mixed strategies, the values of which depend on the current losses of players. The result of a stochastic game is an asymptotically correctly colored random graph, when each edge of the initial deterministic graph will correspond on average to different colors of vertices. Conclusions. A computer experiment was performed, which confirmed the convergence of the stochastic game for the problem of coloring a random graph. This made it possible to determine the procedure for appointing staff to implement projects.Item Neuromodeling of operational processes(Національний університет "Запорізька політехніка", 2022) Subbotin, S. A.; Pukhalska, H. V.; Leoshchenko, S. D.; Oliinyk, A. O.; Gofman, Ye. O.; Субботін, Сергій Олександрович; Пухальська, Гульнара Вікторівна; Леощенко, Сергій Дмитрович; Олійник, Андрій Олександрович; Гофман, Євген ОлександровичEN: Context. The problem of synthesis a neural network model of operational processes with the determination of the optimal topology, which is characterized by a high level of logical transparency and acceptable accuracy, is considered. The object of the study is the process of neural network modeling of operational processes using an indicator system to simplify the selection of the topology of neuromodels. Objective of the work is to synthesis a neural network model of operational processes with a high level of logical transparency and acceptable accuracy based on the use of an indicator system. Method. It is proposed to use a system of indicators to determine the topological features of ANN, which is the basis for modeling operational processes. The assessment of the level of complexity of the task obtained on the basis of information about the input data and the values of the criteria for assessing the specificity of the task allows to categorize the task to one of the types of complexity in order to determine the approach to the synthesis of a neuromodel. Complexity category OS allows, based on analytical data about the selection of input data, to obtain the exact number of neurons in the hidden layer for the synthesis of a neuromodel with a high level of logical transparency, which significantly expands their practical use and reduces the cost of subsequent operational processes. Results. The obtained neuromodels of operational processes based on historical data. The use of the indicator system made it possible to significantly increase the level of logical transparency of the models, while maintaining high accuracy. Synthesized neuromodels reduce the resource intensity of operational processes by increasing the level of previous modeling. Conclusions. The conducted experiments confirmed the operability of the proposed mathematical software and allow to recommend it for use in practice when modeling operational processes. The prospects for further research may consist in the use of more complex methods of feature selection to fix the group relationships of information features for the construction of more complex models. UK: Актуальність. Розглянуто завдання побудови нейромережевої моделі експлуатаційних процесів з визначенням оптимальної топології, яка відрізняється високим рівнем логічної прозорості та прийнятною точністю. Об’єктом дослідження є процес нейромережевого моделювання експлуатаційних процесів із застосуванням індикаторної системи для спрощення вибору топології нейромоделей. Мета роботи полягає в побудові нейромережевої моделі експлуатаційних процесів з високим рівнем логічної прозорості і прийнятною точністю на основі використання індикаторної системи. Метод. Запропоновано використовувати систему індикаторів для визначення топологічних особливостей штучних нейронних мереж, які є базисом для моделювання експлуатаційних процесів. Оцінка рівня складності задачі отримана на основі інформації про вхідні дані та значень критеріїв оцінки специфічності задачі дозволяє категоризувати задачу до одного з видів складності, щоб визначити підхід до синтезу нейромоделі. Категорія складності організована простота дозволяє на основі аналітичних даних про вибірку вхідних даних отримати точну кількість нейронів в прихованому шарі для синтезу нейромоделі з високим рівнем логічної прозорості, що значно розширює їх практичне використання і знижує вартість наступних експлуатаційних процесів. Результати. Отримані нейромоделі експлуатаційних процесів на основі історичних даних. Використання системи індикаторів дозволило в значній мірі збільшити рівень логічної прозорості моделей, зберігаючи високу точність. Синтезовані нейромоделі знижують ресурсоємність промислових процесів за рахунок збільшення рівня попереднього моделювання. Висновки. Проведені експерименти підтвердили працездатність запропонованого математичного забезпечення і дозволяють рекомендувати його для використання на практиці при моделюванні експлуатаційних процесів. Перспективи подальших досліджень можуть полягати у використанні більш складних методів відбору ознак для фіксації групових взаємозв’язків інформаційних ознак для побудови більш складних моделей.Item Developing a fuzzy risk assessment model for ERP-systems(Національний університет "Запорізька політехніка", 2022) Kozhukhivskyi, A. D.; Kozhukhivska, O. A.; Кожухівський, А. Д.; Кожухівська, О. А.EN: Context. Because assessing information security risks is a complex and complete uncertainty process, and uncer-tainties are a major factor influencing valuation performance, it is advisable to use fuzzy methods and models that are adaptive to non-calculated data. The formation of vague assessments of risk factors is subjective, and risk assessment depends on the practical results obtained in the process of processing the risks of threats that have already arisen during the functioning of the organization and experience of information security professionals. Therefore, it will be advisable to use models that can adequately assess fuzzy factors and have the ability to adjust their impact on risk assessment. The greatest performance indicators for solving such problems are neuro-fuzzy models that combine methods of fuzzy logic and artificial neural networks and systems, i.e. “human-like” style of considerations of fuzzy systems with training and simulation of mental phenomena of neural networks. To build a model for calculating the risk assessment of information security, it is proposed to use a fuzzy product model. Fuzzy product models (Rule-Based Fuzzy Mo-dels/Systems) this is a common type of fuzzy models used to describe, analyze and simulate complex systems and processes that are poorly formalized. Objective. Development of the structure of a fuzzy model of quality of information security risk assessment and protection of ERP systems through the use of fuzzy neural models. Method. To build a model for calculating the risk assessment of information security, it is proposed to use a fuzzy product model. Fuzzy product models are a common kind of fuzzy models used to describe, analyze and model complex systems and processes that are poorly formalized. Results. Identified factors influencing risk assessment suggest the use of linguistic variables to describe them and use fuzzy variables to assess their qualities, as well as a system of qualitative assessments. The choice of parameters is substantiated and the structure of the fuzzy product model of risk assessment and the basis of the rules of fuzzy logical conclusion is developed. The use of fuzzy models for solving problems of information security risk assessment, as well as the concept and construction of ERP systems and analyzed problems of their security and vulnerabilities are considered. Conclusions. A fuzzy model has been developed risk assessment of the ERP system. Selected a list of factors affecting the risk of information security. Methods of risk assessment of information resources and ERP-systems in general, assessment of financial losses from the implementation of threats, determination of the type of risk according to its assessment for the formation of recommendations on their processing in order to maintain the level of protection of the ERP-system are proposed. The list of linguistic variables of the model is defined. The structure of the database of fuzzy product rules – MISO-structure is chosen. The structure of the fuzzy model was built. Fuzzy variable models have been identified. UK: Актуальність. Оскільки оцінка ризиків інформаційної безпеки є складним і повним процесом невизначеності, а невизначеність є основним фактором, що впливає на ефективність оцінки, доцільно використовувати нечіткі методи та моделі, які є адаптивними до необчислюваних даних. Формування розпливчастих оцінок факторів ризику є суб’єктивним, а оцінка ризиків залежить від практичних результатів, отриманих у процесі обробки ризиків загроз, які вже виникли під час функціонування організації та досвіду фахівців з інформаційної безпеки. Тому доцільним буде використання моделей, що здатні адекватно оцінювати нечіткі фактори та мають можливість корегування їх впливу на оцінку ризику. Найбільші показники ефективності для вирішення таких задач мають нейро-нечіткі моделі, що комбінують методи нечіткої логіки та штучних нейронних мереж і систем, тобто «людиноподібного» стилю міркувань нечітких систем з навчанням та моделюванням розумових явищ нейронних мереж. Для побудови моделі розрахунку оцінки ризику інформаційної безпеки пропонується використовувати нечітку продукційну модель. Нечіткі продукційні моделі (нечіткі моделі/системи на основі правил) це поширений тип нечітких моделей, які використовуються для опису, аналізу та моделювання складних систем і процесів, що слабо формалізуються. Мета роботи – розробка структури нечіткої моделі оцінки ризиків інформаційної безпеки та захисту систем ERP шляхом використання нечітких нейронних моделей. Метод. Для побудови структури моделі розрахунку оцінки ризику інформаційної безпеки пропонується використовувати нечітку продукційну модель. Нечіткі продукційні моделі це загальний вид нечітких моделей, які використовуються для опису, аналізу та моделювання складних систем і процесів, що слабо формалізуються. Результати. Визначено фактори, що впливають на оцінку ризиків, запропоновано використання лінгвістичних змінних для їх опису та використання нечітких змінних для оцінки їх якостей, а також системи якісних оцінок. Обґрунтовано вибір параметрів та розроблено структуру нечіткої продукційної моделі оцінювання ризиків та бази правил нечіткого логічного висновку. Розглянуто використання нечітких моделей для вирішення задач оцінки ризиків інформаційної безпеки, а також концепцію та побудову ERP-систем та проаналізовано проблеми їх безпеки та вразливості. Висновки. Розроблено нечітку модель оцінки ризиків ERP-системи. Обрано перелік факторів, що впливають на ризик інформаційної безпеки. Запропоновано методи оцінки ризику інформаційних ресурсів та ERP-систем взагалі, оцінки фінансових збитків від реалізації загроз, визначення типу ризику за його оцінкою для формування рекомендацій відносно їх обробки з метою підтримки рівня захищеності ERP-системи. Визначено перелік лінгвістичних змінних моделі. Обрано структуру бази нечітких продукційних правил – MISO-структуру. Побудовано структуру нечіткої моделі. Визначено нечіткі змінні моделі.Item Development of mathematical models of group decision synthesis for structuring the rough data and expert knowledge(Національний університет "Запорізька політехніка", 2022) Kovalenko, I. I.; Shved, A. V.; Davydenko, Ye. O.; Коваленко, І. І.; Швед, А. В.; Давиденко, Є. О.EN: Context. The problem of aggregating the decision table attributes values formed out of group expert assessments as the classification problem was solved in the context of structurally rough set notation. The object of study is the process of the mathematical models synthesis for structuring and managing the expert knowledge that are formed and processed under incompleteness and inaccuracy (roughness). Objective. The goal of the work is to develop a set of mathematical models for group expert assessments structuring for classification inaccuracy problem solving. Method. A set of mathematical models for structuring the group expert assessments based on the methods of the theory of evidence has been proposed. This techniques allow to correctly manipulate the initial data formed under vagueness, imperfection, and inconsistency (conflict). The problems of synthesis of group decisions has been examined for two cases: taking into account decision table existing data, only, and involving additional information, i.e. subjective expert assessments, in the process of the aggregation of the experts’ judgments. Results. The outcomes gained can become a foundation for the methodology allowing to classify the groups of expert assessments with using the rough sets theory. This make it possible to form the structures modeling the relationship between the classification attributes of the evaluated objects, the values of which are formed out of the individual expert assessments and their belonging to the certain classes. Conclusions. Models and methods of the synthesis of group decisions in context of structuring decision table data have been further developed. Three main tasks of structuring decision table data gained through the expert survey has been considered: the aggregation of expert judgments of the values of the decision attributes in the context of modeling of the relationship between the universe element and certain class; the aggregation of expert judgments of the values of the condition attributes; the synthesis of a group decision regarding the belonging of an object to a certain class, provided that the values of the condition attributes are also formed through the expert survey. The proposed techniques of structuring group expert assessments are the theoretical foundation for the synthesis of information technologies for the solution of the problems of the statistical and intellectual (classification, clustering, ranking and aggregation) data analysis in order to prepare the information and make the reasonable and effective decisions under incompleteness, uncertainty, inconsistency, inaccuracy and their possible combinations. UK: Актуальність. Розглянуті питання агрегування значень атрибутів таблиці рішень, сформованих на основі групових експертних оцінок при вирішенні задачі неточної класифікації в рамках нотації теорії грубих множин. Об’єктом дослідження є процеси синтезу математичних моделей структуризації та управління експертними знаннями, які формуються та оброблюються в умовах неточності (грубості) та неповноти. Мета роботи – розробка математичних моделей структуризації групових експертних оцінок при вирішенні задачі «неточної класифікації». Метод. Запропоновано комплекс математичних моделей структуризації групових експертних оцінок, в основу яких покладено методи теорії свідоцтв, які дозволяють коректно оперувати з вихідними даними, сформованими в умовах невизначеності, неповноти, неузгодженості (конфлікту). Розглянуті питання синтезу групових рішень для двох випадків: тільки на основі існуючих даних таблиці рішень, і з залученням додаткової інформації (суб’єктивних експертних оцінок) в процесі агрегування суджень експертів. Результати. Отримані результати можуть бути покладені в основу методики, що дозволяє виконувати класифікацію групових експертних оцінок із застосуванням теорії грубих множин. Це дає можливість формувати структури, що моделюють залежність між класифікаційними атрибутами оцінюваних об’єктів, значення яких формуються на основі індивідуальних експертних оцінок, і їх приналежністю відповідним класам. Висновки. Дістали подальшого розвитку моделі та методи синтезу групових рішень у контексті структурування даних таблиці рішень. Три основні задачі структурування даних таблиці рішень, одержаних у результаті експертного опитування, було розглянуто: агрегування експертних суджень щодо значень атрибутів рішень при моделюванні залежності «елемент універсуму – визначений клас»; агрегування експертних оцінок щодо значень атрибутів умов; синтез групового рішення щодо належності об'єкта до певного класу за умови, що значення атрибутів умов також формуються шляхом експертного опитування. Запропоновані техніки структуризації групових експертних оцінок становлять теоретичне підґрунтя для синтезу інформаційних технологій вирішення задач статистичного та інтелектуального (класифікація, кластеризація, ранжування, агрегування) аналізу даних з метою підготовки інформації для прийняття обґрунтованих та ефективних рішень в умовах неповноти, невизначеності, неузгодженості неточності та їх можливих комбінацій.Item Faster optimization-based meta-learning adaptation phase(Національний університет "Запорізька політехніка", 2022) Khabarlak, K. S.; Хабарлак, К. С.EN: Context. Neural networks require a large amount of annotated data to learn. Meta-learning algorithms propose a way to decrease number of training samples to only a few. One of the most prominent optimization-based meta-learning algorithms is MAML. However, its adaptation to new tasks is quite slow. The object of study is the process of meta-learning and adaptation phase as defined by the MAML algorithm. Objective. The goal of this work is creation of an approach, which should make it possible to: 1) increase the execution speed of MAML adaptation phase; 2) improve MAML accuracy in certain cases. The testing results will be shown on a publicly available few-shot learning dataset CIFAR-FS. Method. In this work an improvement to MAML meta-learning algorithm is proposed. Meta-learning procedure is defined in terms of tasks. In case of image classification problem, each task is to try to learn to classify images of new classes given only a few training examples. MAML defines 2 stages for the learning procedure: 1) adaptation to the new task; 2) meta-weights update. The whole training procedure requires Hessian computation, which makes the method computationally expensive. After being trained, the network will typically be used for adaptation to new tasks and the subsequent prediction on them. Thus, improving adaptation time is an important problem, which we focus on in this work. We introduce Λ (lambda) pattern by which we restrict which weight we update in the network during the adaptation phase. This approach allows us to skip certain gradient computations. The pattern is selected given an allowed quality degradation threshold parameter. Among the pattern that fit the criteria, the fastest pattern is then selected. However, as it is discussed later, quality improvement is also possible is certain cases by a careful pattern selection. Results. The MAML algorithm with Λ pattern adaptation has been implemented, trained and tested on the open CIFAR-FS dataset. This makes our results easily reproducible. Conclusions. The experiments conducted have shown that via Λ adaptation pattern selection, it is possible to significantly improve the MAML method in the following areas: adaptation time has been decreased by a factor of 3 with minimal accuracy loss. Interestingly, accuracy for one-step adaptation has been substantially improved by using Λ patterns as well. Prospects for further research are to investigate a way of a more robust automatic pattern selection scheme. UK: Актуальність. Нейронні мережі потребують багато розмічених даних для навчання. Алгоритми мета-навчання пропонують спосіб навчатися лише за декількома прикладами. Один з найзначніших алгоритмів оптимізаційного мета-навчання – це MAML. Однак, його процедура адаптації до нових задач є досить повільною. Об’єктом дослідження є процес мета-навчання та фаза адаптації в тому вигляді, як її визначено в алгоритмі MAML. Мета. Метою даної роботи є створення підходу, що дозволить: 1) зменшити час виконання адаптації алгоритму MAML; 2) покращити якість алгоритму в ряді випадків. Показати результати тестування на публічно доступному наборі даних для мета-навчання CIFAR-FS. Метод. В даній роботі запропоновано покращення алгоритму мета-навчання MAML. Процедура мета-навчання визначається через так звані «задачі». В разі класифікації зображень кожна задача є спробою навчитися класифікувати зображення нових класів лише за декількома навчальними прикладами. В алгоритмі MAML визначено 2 кроки процедури навчання: 1) адаптація до нової задачі; 2) оновлення мета-параметрів мережі. Вся тренувальна процедура потребує обчислення гесіану, що робить метод обчислювально складним. Після навчання мережа, зазвичай, буде використовуватися для адаптації до нових задач та наступної класифікації на них. Таким чином, покращення часу адаптації мережі є важливою проблемою. Саме на цій проблемі ми фокусуємося в даній роботи. Нами запропоновано шаблон Λ (лямбда) за допомогою якого ми обмежуємо, які параметри мережі слід оновлювати під час кроку адаптації. Даний підхід дозволяє не обчислювати градієнти для обраних параметрів та таким чином зменшити кількість необхідних обчислень. Шаблон обирається в межах параметру дозволеного зменшення якості мережі. Серед шаблонів, що відповідають заданому критерію, обирається найшвидший. Однак, як буде показано далі, в деяких випадках також можливе підвищення якості за допомогою правильно обраного шаблону адаптації. Результати. Було реалізовано, навчено та перевірено якість роботи алгоритму MAML із шаблоном адаптації Λ на відкритому наборі даних CIFAR-FS, що робить отримані результати легко відтворюваними. Висновки. Проведені експерименти показують, що із вибором шаблону Λ можливе значне покращення методу MAML в наступних областях: час адаптації було зменшено в 3 рази за мінімальних втрат якості. Цікаво, що для однокрокової адаптації якість значно виросла за умови використання запропонованого шаблону. Перспективи подальших досліджень можуть полягати в розробці більш робастного методу автоматичного вибору шаблонів.Item Швидка нечітка правдоподібна кластеризація на основі аналізу піків щільності розподілу даних(Національний університет "Запорізька політехніка", 2022) Бодянський, Є. В.; Плісс, І. П.; Шафроненко, А. Ю.; Bodyanskiy, Ye. V.; Pliss, I. P.; Shafronenko, A. Yu.UK: Актуальність. Проблема кластеризації (класифікації без вчителя), що часто зустрічається при обробці масивів даних різної природи, є досить цікавою і невід’ємною частиною штучного інтелекту. Для вирішення цього завдання існує безліч відомих методів та алгоритмів, які базуються на принципах щільності розподілу спостережень в даних, що аналізуються. Однак ці методи досить складні в програмній реалізації та не позбавлені недоліків, а саме: проблеми визначення значущих кластерів в наборах даних різної щільності, багатоепохове самонавчання, застрягання в локальних екстремумах цільових функцій, тощо. Слід зазначити, що методи, засновані на аналізі піків щільності розподілу даних, є за своєю природою чіткими, тому для розширення можливостей цих методів доцільно ввести їх нечітку модифікацію. Мета. Мета роботи полягає у запровадженні швидкої нечіткої кластеризації даних з використанням піків щільності розподілу даних, яка може знаходити екстемуми (центоїди) кластерів, що перетинаються незалежно від кількості даних, що надходять. Метод. Розглянуто задачу нечіткої кластеризації масивів даних на основі гібридного методу, заснованого на одночасному використанні правдоподібного підходу до нечіткої кластеризації і алгоритму знаходження типів щільності розподілу вихідних даних. Особливістю запропонованого методу є обчислювальна простота і висока швидкість, пов’язана з тим, що весь масив обробляється тільки один раз, тобто виключається необхідність в багатоепоховому самонавчанні, що реалізується в традиційних алгоритмах нечіткої кластеризації. Результати. Особливістю запропонованого методу швидкої нечіткої правдоподібної кластеризації на основі аналізу піків щільності розподілу даних є обчислювальна простота і висока швидкість, пов’язана з тим, що весь масив обробляється тільки один раз, тобто виключається необхідність у багатоепоховому самонавчанні, що реалізується в традиційних алгоритмах нечіткої кластеризації. Результати обчислювального експерименту підтверджують ефективність запропонованого підходу в задачах кластерзаціі в умовах, коли кластери перетинаються. Висновки. Результати експерименту дозволяють рекомендувати розроблений метод для вирішення проблем автоматичної кластеризації та класифікації даних та максимально швидко знаходити центри кластерів. Запропонований метод швидкої нечіткої правдоподібної кластеризації на основі аналізу піків щільності розподілу даних призначений для використання в системах обчислювального інтелекту, нейро-фаззі системах,в навчанні штучних нейронних мереж та у завданнях кластеризації. EN: Context. The problem of clustering (classification without a teacher) is often occures when processing data arrays of various natures, which is quite an interesting and integral part of artificial intelligence. To solve this problem, there are many known methods and algorithms based on the principles of the distribution density of observations in the analyzed data. However, these methods are rather complicated in software implementation and are not without drawbacks, namely: the problem of determining significant clusters in datasets of different densities, multiepoch self-learning, getting stuck in local extrema of goal functions, etc. It should be noted that the methods based on the analysis of the peaks of the data distribution density are clear in nature, therefore, to expand the capabilities of these methods, it is advisable to introduce their fuzzy modification. Objective. The aim of the work is to introduce fast fuzzy data clustering using density peaks distribution of the datasets, that can find the prototypes (centroids) of clusters that overlapping regardless of the amount of incoming data. Method. The problem of fuzzy clustering data arrays based on a hybrid method that based on the simultaneous use of a credibilistic approach to fuzzy clustering and an algorithm for finding the types of distribution density of the initial data is proposed. A feature of the proposed method is computational simplicity and high speed, due to the fact that the entire array is processed only once, that is, eliminates the need for multi-era self-learning, implemented in traditional fuzzy clustering algorithms. Results. A feature of the proposed method of fast fuzzy credibilistic clustering using of density peaks distribution is characterized by computational simplicity and high speed due to the fact that the entire array is processed only once, that is, the need for multiepoch self-learning is eliminated, which is implemented in traditional fuzzy clustering algorithms. The results of the computational experiment confirm the effectiveness of the proposed approach in clustering problems under conditions in the case when the clusters are ovelap. Conclusions. The experimental results allow us to recommend the developed method for solving the problems of automatic clustering and data classification, as quickly as possible to find the centroids of clusters. The proposed method of fast fuzzy credibilistic clustering using of density peaks distribution of dataset is intended for use in computational intelligence systems, neuro-fuzzy systems, in training artificial neural networks and in clustering problems.Item Two pairs of dual queueing systems with conventional and shifted distribution laws(Національний університет "Запорізька політехніка", 2022) Tarasov, V. N.; Bakhareva, N. F.; Тарасов, В. Н.; Бахарєва, Н. Ф.EN: Context. The relevance of studies of G/G/1 systems is associated with the fact that they are in demand for modeling data transmission systems for various purposes, as well as with the fact that for them there is no final solution in the general case. We consider the problem of deriving a solution for the average delay of requests in a queue in a closed form for ordinary systems with Erlang and exponential input distributions and for the same systems with distributions shifted to the right. Objective. Obtaining a solution for the main characteristic of the system – the average delay of requests in a queue for two pairs of queuing systems with ordinary and shifted Erlang and exponential input distributions, as well as comparing the results for systems with normalized Erlang distributions. Methods. To solve the problem posed, the method of spectral solution of the Lindley integral equation was used, which allows one to obtain a solution for the average delay for the systems under consideration in a closed form. For the practical application of the results obtained, the method of moments of the theory of probability was used. Results. Spectral solutions of the Lindley integral equation for two pairs of systems are obtained, with the help of which calculation formulas are derived for the average delay of requests in the queue in a closed form. Comparison of the results obtained with the data for systems with normalized Erlang distributions confirms their identity. Conclusions. The introduction of the time shift parameter into the distribution laws of the input flow and service time for the systems under consideration transforms them into systems with a delay with a shorter waiting time. This is because the time shift operation reduces the value of the variation coefficients of the intervals between the arrivals of claims and their service time, and as is known from the queuing theory, the average delay of requests is related to these variation coefficients by a quadratic dependence. If a system with Erlang and exponential input distributions works only for one fixed pair of values of the coefficients of variation of the intervals between arrivals and their service time, then the same system with shifted distributions allows operating with interval values of the coefficients of variations, which expands the scope of these systems. The situation is similar with shifted exponential distributions. In addition, the shifted exponential distribution contains two parameters and allows one to approximate arbitrary distribution laws using the first two moments. This approach makes it possible to calculate the average latency and higher-order moments for the specified systems in mathematical packets for a wide range of changes in traffic parameters. The method of spectral solution of the Lindley integral equation for the systems under consideration has made it possible to obtain a solution in closed form, and these obtained solutions are published for the first time. UK: Актуальність. Актуальність дослідження систем G/G/1 пов’язана з тим, що вони потрібні для моделювання систем передачі різного призначення, а також з тим, що для них не існує рішення в кінцевому вигляді в загальному випадку. Розглянуто задачу виведення рішення для середньої затримки вимог у черзі в замкнутій формі для звичайних систем з ерлангiвським i експонентним вхідними розподілами i для цих систем зі зсунутими вправо розподілами. Мета роботи. Отримання рішення для основної характеристики системи – середньої затримки вимог у черзі для двох пар систем масового обслуговування зі звичайними i зі зсунутими ерлангівськими та експоненціальними вхідними розподілами, а також порівняння результатів для систем із нормованими ерлангівськими розподілами. Отримання рішення для основної характеристики системи – середнього часу очікування вимог в черзі для двох систем масового обслуговування типу G/G/1 зі зсунутими вхідними розподілами. Метод. Для вирішення поставленого завдання був використаний метод спектрального рішення інтегрального рівняння Ліндлі, який дозволяє отримати рішення для середньої затримки в черзі для розглянутих систем в замкнутій формі. Для практичного застосування отриманих результатів було використаний відомий метод моментів теорії ймовірностей. Результати. Отримано спектральні рішення інтегрального рівняння Ліндлі для двох пар систем, за допомогою яких виведені розрахункові формули для середньої затримки вимог у черзі в замкнутій формі. Порівняння отриманих результатів зі даними для систем зі нормованими ерлангівськими розподілами підтверджує їхню ідентичність. Висновки. Введення параметра зсуву в часі в закони розподілу вхідного потоку і часу обслуговування для систем, що розглядаються, перетворює їх в системи запізненням з меншим часом очікування. Це пов’язано з тим, що операція зсуву у часі зменшує величину коефіцієнтів варіацій інтервалів між надходженнями вимог та його часу обслуговування, а як відомо з теорії масового обслуговування, середня затримка вимог пов’язана з цими коефіцієнтами варіацій квадратичною залежністю. Якщо система з ерлангівським і експонентним вхідними розподілами працює тільки при одній фіксованій парі значень коефіцієнтів варіацій інтервалів між надходженнями вимог та їх часу обслуговування, то ця ж система зі зрушеними розподілами дозволяє оперувати з інтервальними значеннями коефіцієнтів варіацій, що розширює сферу застосування цих систем. Аналогічно і зі зрушеними експонентними розподілами. Крім того, зрушений експонентний розподіл містить два параметри і дозволяє апроксимувати довільні закони розподілу з використанням перших двох моментів. Такий підхід дозволяє розрахувати середній час очікування та моменти вищих порядків для зазначених систем у математичних пакетах для широкого діапазону зміни параметрів трафіку. Метод спектрального вирішення інтегрального рівняння Ліндлі для розглянутих систем дозволив отримати рішення у замкнутій формі, і ці отримані рішення публікується вперше.Item The modular exponentiation with precomputation of redused set of residues for fixed-base(Національний університет "Запорізька політехніка", 2022) Prots’ko, I.; Gryshchuk, O.; Процько, І.; Грищук, О.EN: Context. Modular exponentiation is an important operation in many applications that requires a large number of calculations Fast computations of the modular exponentiation are extremely necessary for efficient computations in theoretical-numerical transforms, for provide high crypto capability of information data and in many other applications. Objective – the runtime analysis of software functions for computation of modular exponentiation of the developed program that uses the precomputation of redused set of residuals for fixed-base. Method. Modular exponentiation is implemented using of the development of the right-to-left binary exponentiation method for a fixed basis with precomputation of redused set of residuals. To efficient compute the modular exponentiation over big numbers, the property of a periodicity for the sequence of residuals of a fixed base with exponents equal to an integer power of two is used. Results. Comparison of the runtimes of five variants of functions for computing the modular exponentiation is performed. In the algorithm with precomputation of redused set of residuals for fixed-base provide faster computation of modular exponentiation for values larger than 1K binary digits compared to the functions of modular exponentiation of the MPIR and Crypto++ libraries. The MPIR library with an integer data type with the number of binary digits from 256 to 2048 bits is used to develop an algorithm for computing the modular exponentiation. Conclusions. In the work has been considered and analysed the developed software implementation of the computation of modular exponentiation on universal computer systems. One of the ways to implement the speedup of computing modular exponentiation is developing algorithms that can use the precomputation of redused set of residuals for fixed-base. The software implementation of modular exponentiation with increasing from 1K the number of binary digit of exponent shows an improvement of computation time with comparison with the functions of modular exponentiation of the MPIR and Crypto++ libraries. UK: Актуальність. Модульне піднесення до степеня є важливою операцією в багатьох застосуваннях, що вимагає великої кількості обчислень. Швидкі обчислення модульної експоненти вкрай необхідні для ефективних обчислень у теоретично-числових перетвореннях, для забезпечення високої криптостійкості інформаційних даних та в багатьох інших завданнях. Мета – аналіз часу виконання програмних функцій розрахунку модульної експоненти з розробленою програмою, що використовує попереднє обчислення зменшеного набору залишків для фіксованої бази. Метод. Модульне піднесення до степеня реалізовано з використанням методу двійкового зсуву справа наліво для фіксованого базису з попереднім обчисленням зменшеного набору залишків. Для ефективного обчислення модульної експоненти великих чисел використовується властивість періодичності послідовності залишків фіксованої бази з експонентами, що дорівнюють цілочисельній степені двійки. Результати. Проведено порівняння часу виконання п’яти варіантів функцій для обчислення модульного піднесення до степеня. В алгоритмі з попереднім обчисленням зменшеного набору залишків для фіксованої бази забезпечується більш швидке обчислення модульної експоненти для значень даних, що перевищують 1K двійкових розрядів, порівняно з функціями модульного піднесення до степеня бібліотек MPIR і Crypto++. Бібліотека MPIR з цілочисельним типом даних з кількістю двійкових розрядів від 256 до 2048 біт використовується для розробки алгоритму обчислення модульного піднесення до степеня. Висновки. У роботі розглянуто та проаналізовано розроблену програмну реалізація обчислення модульної експоненти на універсальних комп’ютерних системах. Одним із способів реалізації прискорення обчислення модульного піднесення до степеня є розробка алгоритмів, які можуть використовувати попереднє обчислення зменшеного набору залишків для фіксованої бази. Програмна реалізація модульного піднесення до степеня зі збільшенням від числа 1K двійкових розрядів даних показує покращення часу обчислень у порівнянні з функцією модульного піднесення до степеня бібліотек MPIR та Crypto++.Item Solving Poisson equation with convolutional neural networks(Національний університет "Запорізька політехніка", 2022) Kuzmych, V. A.; Novotarskyi, M. A.; Nesterenko, O. B.; Кузьмич, В. А.; Новотарський, M. A.; Нестеренко, О. Б.EN: Context. The Poisson equation is the one of fundamental differential equations, which used to simulate complex physical processes, such as fluid motion, heat transfer problems, electrodynamics, etc. Existing methods for solving boundary value problems based on the Poisson equation require an increase in computational time to achieve high accuracy. The proposed method allows solving the boundary value problem with significant acceleration under the condition of acceptable loss of accuracy. Objective. The aim of our work is to develop artificial neural network architecture for solving a boundary value problem based on the Poisson equation with arbitrary Dirichlet and Neumann boundary conditions. Method. The method of solving boundary value problems based on the Poisson equation using convolutional neural network is proposed. The network architecture, structure of input and output data are developed. In addition, the method of training dataset generation is described. Results. The performance of the developed artificial neural network is compared with the performance of the numerical finite difference method for solving the boundary value problem. The results showed an acceleration of the computational speed in x10–700 times depending on the number of sampling nodes. Conclusions. The proposed method significantly accelerated speed of solving a boundary value problem based on the Poisson equation in comparison with the numerical method. In addition, the developed approach to the design of neural network architecture allows to improve the proposed method to achieve higher accuracy in modeling the process of pressure distribution in areas of arbitrary size. UK: Актуальність. Рівняння Пуассона – це одне з фундаментальних диференціальних рівнянь, яке використовується для моделювання складних фізичних процесів, таких як рух рідини, проблеми теплообміну, електродинаміки тощо. Існуючі методи розв’язування крайових задач на основі рівняння Пуассона для досягнення високої точності, вимагають збільшення часу обчислень. Запропонований метод дозволяє розв’язувати крайову задачу зі значним прискоренням, за умови незначної втрати точності. Мета. Метою нашої роботи є розробка архітектури штучної нейронної мережі для розв’язування крайової задачі на основі рівняння Пуассона з довільними крайовими умовами Діріхле та Неймана. Метод. Запропоновано метод розв’язування крайових задач на основі рівняння Пуассона за допомогою згорткової нейронної мережі. Розроблено архітектуру мережі, структуру вхідних та вихідних даних. Також описано метод формування навчального набору даних. Результати. Результати роботи розробленої нейронної мережі були порівняні з продуктивністю чисельного методу скінченних різниць для вирішення крайової задачі. Результати продемонстрували прискорення обчислювальної швидкості у x10–700 разів, в залежності від кількості вузлів дискретизації. Висновки. Запропонований метод значно прискорив швидкість вирішення крайової задачі на основі рівняння Пуассона в порівнянні з чисельним методом. Також розроблений підхід до проектування архітектури нейронної мережі дозволяє вдосконалити запропонований метод для досягнення більш високої точності при моделюванні процесу розподілу тиску у областях довільного розміру.Item Properties of generators of pseudo-random sequences constructed using fuzzy logic and two-dimensional chaotic systems(Національний університет "Запорізька політехніка", 2022) Kushnir, M. Ya.; Kosovan, Hr. V.; Kroyalo, P. M.; Кушнір, М. Я.; Косован, Г. В.; Крояло, П. М.EN: Context. The problem of generating pseudo-random sequences of bits using the rules of fuzzy logic and two-dimensional chaotic systems is considered. Objective. Pseudo-random sequences generators built using two-dimensional chaotic systems and fuzzy logic. The purpose of the work is to develop and implement pseudo-random bit sequences generators based on the rules of fuzzy logic and two-dimensional chaotic systems and to evaluate the statistical characteristics of the generated sequences using statistical tests of National Institute of Standards and Technology. Method. A method for generating pseudo-random bit sequences is proposed, which allows form bit sequences with characteristics that meet the requirements of secure communication systems and cryptographic protection of information based on the rules of fuzzy logic and two-dimensional chaotic systems. In the process of studying the operation of generators, histograms of the distribution of output values were constructed, which allows to clearly determine whether the entire range of output values of the two-dimensional system could be used to generate pseudo-random bit sequence or only part of it. A study of the statistical characteristics of the generated sequences using a set of statistical tests was also performed. Results. Bit sequences formed using fuzzy logic rules and two-dimensional chaotic systems can be used to transmit information in secure communication systems. Results. The proposed generators were implemented in software, histogram analysis and evaluation of compliance with the criteria for a set of statistical tests of National Institute of Standards and Technology. Conclusions. The experiments confirmed the ability of the proposed generators to generate bit sequences with good statistical characteristics, which allows them to be recommended for use in practice in solving problems of cryptographic protection of information and secure transmission of information over open communication channels. Prospects for further research may be to create cryptographic methods of information protection based on the proposed pseudo-random bit sequences generators, the implementation of secure communication systems. UK: Актуальність. Розглянуто задачу генерування псевдовипадкових послідовностей (ПВП) бітів із застосуванням правил нечіткої логіки та двовимірних хаотичних систем. Об’єктом дослідження є генератори псевдовипадкових бітових послідовностей побудовані із застосуванням двовимірних хаотичних систем. Мета роботи – розроблення та реалізація генераторів ПВП бітів на основі правил нечіткої логіки та двовимірних хаотичних систем та оцінка статистичних характеристик сформованих послідовностей за допомогою статистичних тестів NIST. Метод. Запропоновано спосіб генерування псевдовипадкових послідовностей бітів, що дозволяє сформувати бітові послідовності із характеристиками, що задовольняють вимогам захищених систем зв’язку та криптографічного захисту інформації на основі правил нечіткої логіки та двовимірних хаотичних систем. В процесі дослідження роботи генераторів побудовано гістограми розподілу вихідних значень, що дозволяє чітко встановити, чи весь діапазон вихідних значень двовимірної системи може бути використаний для генерування ПВП бітів чи тільки його частина. Також проведено дослідження статистичних характеристик генерованих послідовностей за допомогою набору статистичних тестів. Результати. Послідовності бітів сформовані із застосуванням правил нечіткої логіки та двовимірних хаотичних систем можуть бути використані для передачі інформації в захищених системах зв’язку. Висновки. Проведені експерименти підтвердили здатність запропонованих генераторів генерувати бітові послідовності із хорошими статистичними характеристиками, що і дозволяє їх рекомендувати для використання на практиці при вирішенні задач криптографічного захисту інформації та захищеної передачі інформації по відкритих каналах зв’язку. Перспективи подальших досліджень можуть полягати в створенні криптографічних методів захисту інформації на основі запропонованих генераторів ПВП бітів, реалізації захищених систем зв’язку.Item Fast algorithm for solving a one-dimensional unclosed desirable neighbors problem(Національний університет "Запорізька політехніка", 2022) Kodnyanko, V. A.; Коднянко, В. А.EN: Contex. The paper formulates a general combinatorial problem for the desired neighbors. Possible areas of practical application of the results of its development are listed. Within the framework of this problem, an analysis of the scientific literature on the optimization of combinatorial problems of practical importance that are close in subject is carried out, on the basis of which the novelty of the formulated problem accepted for scientific and algorithmic development is established. Objective. For a particular case of the problem, the article formulates a one-dimensional unclosed integer combinatorial problem of practical importance about the desired neighbors on the example of the problem of distributing buyers on land plots, taking into account their recommendations on the desired neighborhood. Method. A method for solving the mentioned problem has been developed and an appropriate effective algorithm has been created, which for thousands of experimental sets of hundreds of distribution subjects allows to get the optimal result on an ordinary personal computer in less than a second of counting time. The idea of developing the optimization process is expressed, which doubles the practical effect of optimization by cutting off unwanted neighbors without worsening the maximum value of the desirability criterion. Results. The results of the work include the formulation of a one-dimensional unclosed combinatorial problem about the desired neighbors and an effective algorithm for its solution, which makes it possible to find one, several, and, if necessary, all the options for optimal distributions. The main results of the work can also include the concept and formulation of a general optimization combinatorial problem of desirable neighbors, which may have theoretical and practical prospects. Conclusions. The method underlying the algorithm for solving the problem allows, if necessary, to easily find all the best placement options, the number of which, as a rule, is very large. It is established that their number can be reduced with benefit up to one by reducing the number of undesirable neighborhoods, which contributes to improving the quality of filtered optimal distributions in accordance with this criterion. The considered problem can receive prospects for evolution and development in various subject areas of the economy, production, architecture, urban studies and other spheres. UK: Актуальність. У роботі сформульовано спільну комбінаторну проблему бажаного сусідства. Наведено можливі сфери практичного застосування результатів її розробки. В рамках цієї проблеми проведено аналіз наукової літератури з оптимізації близьких за тематикою комбінаторних завдань, що мають практичне значення, на основі якого встановлено новизну сформульованої проблеми, прийнятої до наукової та алгоритмічної розробки. Ціль. Для окремого випадку проблеми у статті сформульовано одномірне незамкнене цілечисленне комбінаторне завдання, що має практичне значення, про бажане сусідство на прикладі проблеми розподілу покупців по земельних ділянках з урахуванням їх рекомендацій про бажане сусідство. Метод. Розроблено метод вирішення згаданої задачі та створено відповідний ефективний алгоритм, який для тисяч експериментальних множин із сотень суб’єктів розподілу дозволяє на звичайному персональному комп'ютері отримати оптимальний результат менш ніж за секунду часу рахунку. Висловлено ідею розвитку процесу оптимізації, яка подвоює практичний ефект від оптимізації за рахунок відсікання небажаних сусідств без погіршення максимальної величини критерію бажаності. Результати. До результатів роботи відносяться постановка одновимірної незамкнутої комбінаторної задачі про бажаних сусідів та ефективний алгоритм її вирішення, який дозволяє знайти один, кілька, а за необхідності всі варіанти оптимальних розподілів. До основних результатів роботи можна також віднести концепцію та постановку загальної оптимізаційної комбінаторної проблеми бажаних сусідів, яка може мати реальні теоретичні та практичні перспективи. Висновки. Метод, що лежить в основі алгоритму розв’язання задачі, дозволяє при необхідності легко знайти всі оптимальні варіанти розміщення, число яких як правило, дуже велике. Встановлено, що їх кількість може бути зменшена з користю до одиниці за рахунок зменшення кількості небажаних сусідств, що сприяє підвищенню якості відфільтрованих оптимальних розподілів відповідно до даного критерію. Розглянута проблема може отримати перспективи розвитку та розробки у різних предметних галузях економіки, виробництва, архітектури, урбаністики та інших сферах.Item Systematization of the formulas of the resonant ferrite isolator loss(Національний університет "Запорізька політехніка", 2022) Zaichenko, O. B.; Zaichenko, N. Ya.; Зайченко, О. Б.; Зайченко, Н. Я.EN: Context. The problem is to systematize and improve the models of a resonance ferrite isolator in the rectangular waveguide for the antenna-feeder devices, generating, receiving, measuring microwave equipment containing ferrite decoupling devices: ferrite isolators and circulators. Objective. The goal of the work is to verify the formula for the losses of the resonant ferrite isolator in the direct and reverse directions, as well as the isolator ratio. Method. The research method of the work is a critical analysis of literary sources, which was carried out, but did not bring the desired results, since it did not allow to verify the correctness of the derivation of the formula [17]. Therefore, a number of hypotheses were put forward, what the formula might mean. The difficulty lay in the presence in the formula of the product of trigonometric functions that can be attributed to frequency properties, which was taken as an initial hypothesis, which was not subsequently confirmed. The check included transformation of formulas using mathematical physics in terms of microwave electrodynamics, trigonometry and algebra. The beginning was the formula of the classics [16], similar to the formula of [18], accepted without proof. As it is known, for the main type of wave in a rectangular waveguide, the components of the magnetic field strength, obtained as a solution to the wave equation under the boundary conditions inherent in a rectangular waveguide. One component of the magnetic field strength is along the direction of wave propagation, and the second one is in the transverse direction in the section of the waveguide are proportional to the trigonometric functions cosine and sine with the same arguments. The equality of the two components of the strengths is traditionally uses to find the plane of circular polarization where to place the ferrite isolator, and so the authors use this proportionality to trigonometric functions in their derivation, namely the formulas of trigonometric functions of a double angle, the basic trigonometric identity sine squared plus cosine squared is equal to one for replacing the propagation constants with trigonometric functions, this allows to get rid of radicals in the formulas, these radicals in the formula are due to the phenomenon of dispersion in a rectangular waveguide. The rest of the manipulations with the formula are the reduction of similar terms. Results. There was obtained analytical expressions for the losses of the resonant ferrite isolator in the forward and reverse directions, as well as the isolator ratio by strict mathematical transformations. There was performed such transformations. The ratios of the longitudinal propagation constant to the transverse propagation constant are replaced by the ratios of the trigonometric functions sine and cosine, since they are continuous as opposed to tangents and cotangents. Such a transformation allows to avoid square roots in the formula for the losses of the ferrite isolator in the forward and reverse directions, which are associated with the presence of dispersion in the waveguide, as in the formula for wavelength in the waveguide. The conversion is based on microwave electrodynamics. The formulas are used for the distribution of fields in a rectangular waveguide for the main type of wave. Further transformations consist in taking the common factor out of brackets and other arithmetic transformations. Conclusions. Тhrer was obtained results partially coincide with the well-known [17], the derivation of the formula [17] was obtained for the first time, the studies carried out allowed us to reject the hypothesis that the product of cosines and sines in the loss formula of a ferrite isolator is a frequency characteristic, it appears as a result of arithmetic transformations. To take into account the frequency range, it is used that there is circular polarization at the middle frequency, there will also be circular polarization at the extreme frequency of the range, but the plane of circular polarization will shift in comparison with the position of the plane of circular polarization at the middle frequency. That is, a peculiar system of two equations is obtained with respect to two positions of the polarization plane relative to the wide side of the rectangular waveguide section. The scientific novelty consists in systematization and generalization of the formulas of the loss of the resonance ferrite isolator, the connection between the formulas from different literature sources, both foreign and domestic, is proved, which saves time for researchers of ferrite isolators for the verification of the formula. The practical significance. It may be useful for teaching purposes and in optimization of the ferrite isolator design. UK: Актуальність роботи полягає в удосконаленні моделі резонансного феритового вентиля для прямокутного хвилеводу. Антенно-фідерні пристрої, генераторна, приймальна, вимірювальна НВЧ апаратура містять в своєму складі феритові розв’язуючі прилади, тобто феритові вентилі і циркулятори. Об’єктом дослідження є процес поширення електромагнітних хвиль через феритовий вентиль у прямокутному хвилеводі. Метою роботи є верифікація формули для втрат резонансного феритового вентиля в прямому і зворотному напрямку, а також вентильного відношення. Метод. Методом дослідження в роботі, по-перше, є критичний аналіз літературних джерел, який був проведений, але не приніс бажаних результатів, оскільки він не дозволив перевірити правильність виведення формули [17]. Тому було висунуто ряд гіпотез, що може означати формула. Це другий метод дослідження висування та спростовування гіпотез. Складність полягала в наявності у формулі добутку тригонометричних функцій, який можна віднести до частотних властивостей, що було прийнято за початкову гіпотезу, що згодом не підтвердилось. Перевірка включала перетворення формул з використанням математичної фізики в терміни мікрохвильової електродинаміки, тригонометрії та алгебри. Початком стала класична формула [16], подібна до формули [18], прийнята без доказів. Як відомо, для основного типу хвилі в прямокутному хвилеводі компоненти напруженості магнітного поля, отримані як розв’язок хвильового рівняння в граничних умовах, властивих прямокутному хвилеводу. Одна складова напруженості магнітного поля орієнтована вздовж напрямку поширення хвилі, а друга, в поперечному напрямку в перерізі хвилеводу, пропорційні тригонометричним функціям косинус і синус з однаковими аргументами. Ця рівність двох компонентів напруженості між собою традиційно використовується для пошуку площини кругової поляризації, де розмістити ферритовий вентиль. Це третій метод дослідження – метод аналогій. Автори використовують цю пропорційність тригонометричним функціям при запропонованому виведенні, а саме у формулах тригонометричних функцій подвійний кут, основної тригонометричної тотожності синус у квадраті плюс косинус у квадраті дорівнює одиниці для заміни констант поширення тригонометричними функціями, це дозволяє позбутися радикалів у формулах, ці радикали знаходяться у формулі через явище дисперсії в прямокутний хвилевід. Решта маніпуляцій з формулою – це приведення подібних термінів. Результати. Як результати отримані аналітичні вирази втрат резонансного феритового вентиля у прямому та зворотному напрямках, а також вентильне співвідношення за допомогою послідовних математичних перетворень. Здійснено такі перетворення. Відношення поздовжньої константи розповсюдження до поперечної константи поширення замінюються відношеннями тригонометричних функцій синус і косинус, оскільки вони є неперервними на відміну від тангенсів та котангенсів. Таке перетворення дозволяє уникнути квадратних коренів у формулі для втрат феритового ізолятора в прямому і зворотному напрямках, які пов’язані з наявністю дисперсії у хвилеводі, як у формулі для довжини хвилі в хвилеводі. Перетворення базується на мікрохвильовій електродинаміці, а саме використовуються формули для розподілу полів у прямокутному хвилеводі для основного типу хвилі. Подальші перетворення полягають у виведенні спільного множника з дужок та інших арифметичних перетвореннях. Висновки. Отримані результати частково збігаються з відомими [17], виведення формули [17] отримано вперше, проведені дослідження дозволили відкинути гіпотезу про те, що добуток косинусів і синусів у втратах Формула феритового ізолятора є частотною характеристикою, вона з’являється в результаті арифметичних перетворень. Для врахування частотного діапазону використовується, що існує кругова поляризація на середній частоті, також буде циркулярна поляризація на крайній частоті діапазону, але площина кругової поляризації зміститься в порівнянні з положенням площина кругової поляризації на середній частоті. Тобто виходить своєрідна система двох рівнянь відносно двох положень площини поляризації щодо широкої сторони прямокутного перетину хвилеводу. Наукова новизна полягає в систематизації та узагальненні формул втрат резонансного феритового вентиля, доведено зв’язок між формулами з різних літературних джерел, як зарубіжних, так і вітчизняних, що призведе до економії часу для дослідників феритових вентилів для перевірки формули. Практичне значення. Це може бути корисно для навчальних цілей та для оптимізації конструкції феритового ізолятора.Item Методи спектрального оцінювання для комбінованої системи виявлення нешумливих цілей і пеленгації джерел шумових випромінювань(Національний університет "Запорізька політехніка", 2022) Атаманський, Д. В.; Рябуха, В. П.; Карташов, В. М.; Семеняка, А. В.; Прокопенко, Л. В.; Atamanskyi, D. V.; Riabukha, V. P.; Semeniaka, A. V.; Kartashov, V. M.; Procopenco, L. V.UK: Актуальність. Для багатьох РЛС автономні системи виявлення нешумливих повітряних цілей (ПЦ) і пеленгації джерел шумових випромінювань (ДШВ) можна замінити одною економною системою виявлення ПЦ-пеленгації ДШВ, в яких загальні операції, що використовуються в процесі виявлення ПЦ і пеленгації ДШВ виконуються тільки один раз. Для такої системи розглядаються групи непараметричних і параметричних «надрозділяючих» методів спектрального аналізу (СА) для обґрунтування доцільного методу пеленгації ДШВ. Мета. Порівняльний аналіз ефективності методів СА різних груп за сукупністю критеріїв і пропозиції щодо їх практичного застосування. Метод. Ефективність методів визначається аналітично, за результатами імітаційного моделювання та їхнього порівняння з новими результатами, викладеними у відкритій літературі. У процесі моделювання непараметричних методів СА використовувалась обґрунтована й практично перевірена програмно-алгоритмічна база адаптивних решітчастих фільтрів. Результати. Показано, що методи СА обох груп не мають обмежень на конфігурацію антенної решітки (плоска, кільцева і т.п.), в тому числі в ході використання в нееквидистантних «розріджених» антенних решітках (АР) з міжелементними відстанями більше половини довжини хвилі РЛС. Порівняно роздільну здатність (визначення кількості ДШВ) і ефективність пеленгації ДШВ методами різних груп під час використання різних АР. Показано, що методи першої групи (непараметричні) за ймовірністю правильного розділення майже не поступаються відомим і новим методам другої групи (параметричним). За сукупністю критеріїв і практичних умов використання для пеленгації джерел шумових випромінювань доцільно використовувати метод мінімуму дисперсії Кейпона, якщо існують обмеження на обчислювальну складність методу. За відсутності таких обмежень доцільно використовувати набір методів. Висновки. Для практичної реалізації комбінованої системи виявлення нешумливої точкової цілі і пеленгації джерел шумових випромінювань пропонується структурно-алгоритмічна основа адаптивного решітчастого фільтра. На ньому поряд з формуванням вагового вектора для виявлення цілі можна для пеленгації ДШВ реалізувати не тільки метод Кейпона, а і набір методів, якщо різним чином комбінувати квадрати модулів компонент його вихідних векторів. EN: Context. For many radars, the autonomous systems of the non-noise-like aerial targets (AT) detection and the noise radiating sources (NRS) localization (direction-of-arrival estimation) may be replaced with a single detection-localization system, which carries out the common operations of the AT-detection and the NRS-localization only once. For such a system, groups of non-eigenvalue and eigenvalue decomposition based “super-resolving” spectral estimation (SE) methods are considered to substantiate efficient one for the NRS-localization. Objective. The comparative analysis efficiency of the SE-methods of different groups by a set of criteria and recommendations on their practical application. Method. The methods’ efficiency is analyzed analytically, under simulation results and their comparison with new results presented in the open literature. In the simulation, a well-grounded and practically examined software-algorithmic basis of adaptive lattice filters for nonparametric SE-methods implementation is used. The results. It is shown that the SE-methods of both groups have no restrictions on the antenna array configuration (flat, ring, etc.), including when used in non-equal spaced “sparse” antenna arrays with inter-element distances of more than half radar wavelength. A comparison is made on the resolution (determination of the NRS number) and the NRS-localization (direction-of-arrival estimation) efficiency by methods of different groups when using various antenna arrays. It is shown that the methods of the first group (non-eigenvalue based) in terms of the probability of correct resolution, are almost not inferior to the known and new methods of the second group (eigenvalue ones). Based on the set of criteria and practical application conditions for direction-of-arrival estimation of the noise radiating sources, it is recommended to use the Capon’s minimum variance method if there are limitations on the computational complexity of the method. In the absence of such restrictions, it is advisable to use the SE-bank of methods. Conclusions. For the practical implementation of a joint system of the non-noise-like aerial target detection and the noise radiating sources localization, a structural-algorithmic basis of adaptive lattice filters is preferred. Using latter, along with the weight vector forming for the target detection, it is possible to implement not only the Capon’s method, but also a SE-bank of methods by combining the squares of absolute values of its original vectors’ components.