Радіоелектроніка, інформатика, управління - 2021, №2 (57)
Permanent URI for this collectionhttps://eir.zp.edu.ua/handle/123456789/27183
Browse
Recent Submissions
Item Criteria for estimating the sensorimotor reaction time by the small UAV operator(Національний університет "Запорізька політехніка", 2021) Vakaliuk, T. A.; Pilkevych, I. A.; Tokar, A. M.; Loboda, R. I.; Вакалюк, Т. А.; Пількевич, I. A.; Toкар, A. M.; Лобода, Р. I.EN: Context. The rapid development of science and technology predetermines a significant expansion of the fields of application of UAVs different purposes. The key to the effective use UAVs is high-quality training of operators, an important element of which is the PPS of candidates, in particular, the assessment of their sensorimotor reactions. This can be achieved by selecting and justifying appropriate criteria. Objective. The goal of the work is the justification criteria for estimating the time sensorimotor reactions of a small UAV operator by analyzing the density distribution of statistical data. Method. A method has been developed to determine criteria for evaluating the time of sensorimotor reactions a small UAV operator based on the accumulation statistical material and its mathematical processing based on the results of a field experiment. The method allows to estimate numerical characteristics the distribution of the average reaction time in three modes: training production, in the conditions overload, in the conditions of overtraining and to obtain a generalized estimation. It was possible, by analyzing the occasional non-interruptible values, which take values within a certain range of values, to establish standards against which the obtained values the sensorimotor reaction time of the small UAV operator are compared and a decision is made on their suitability for training. Results. We obtained statistical series for the modes of assessment: skill development, under obstacle conditions, under conditions skill restructuring. For a visual representation of the series the corresponding histograms the distribution of the average reaction time duration were constructed. In order to eliminate the representativeness error, statistical series alignment was carried out by selecting a theoretical distribution curve for each series, which displays only essential features of the statistical material. For this purpose, we approximated the histogram of distribution by the polynomialf fourth degree. The interval theoretical density of distribution, in which the time sensomotor reaction of an arbitrary person is considered normal, with a given probability reliability such event – 0.95 has been established. To verify the effectiveness of the proposed method, algorithms for estimating the sensorimotor reaction time of a small UAV operator in three modes have been synthesized and the corresponding software that implements the proposed algorithms has been developed. Conclusions. The criteria for evaluating the sensorimotor reaction time for UAV operator to a visual stimulus using specialized software were substantiated. This allowed the previous PPS training candidates to take into account the requirements to the motor skills of the small UAV operator and the specificity his movements. The conducted experiments confirmed the validity of decisions made. Prospects for further research may include expansion of testing modes with justification for appropriate evaluation criteria. UK: Актуальність. Стрімкий розвиток науки та техніки зумовлює значне розширення сфер застосування БпЛА різного призначення. Запорукою ефективного використання БпЛА є якісна підготовка операторів, важливим елементом якої є професійний психологічний відбір (ППВ) кандидатів, зокрема, оцінювання їх сенсомоторних реакцій. Це можна забезпечити шляхом вибору та обґрунтування відповідних критеріїв. Мета. Метою роботи є обґрунтування критеріїв оцінювання часу сенсомоторних реакцій оператора малих БпЛА шляхом аналізу щільності розподілу статистичних даних. Метод. Запропоновано метод, що дозволив визначити критерії оцінювання часу сенсомоторних реакцій оператора малих БпЛА на основі накопичення статистичного матеріалу та його математичного оброблення за результатами проведення натурного експерименту. Метод дозволяє оцінити числові характеристики розподілу тривалості середнього часу реакції у трьох режимах: вироблення навички, в умовах перешкод, в умовах перебудови навички та отримати узагальнену оцінку. Вдалося, шляхом аналізу випадкових неперервних величин, що приймають значення з деякого проміжку значень, встановити нормативи, з якими порівнюються отримані значення часу сенсомоторної реакції оператора малих БпЛА та приймається рішення щодо їх придатності до навчання. Результати. У роботі отримано статистичні ряди для режимів оцінювання: вироблення навички, в умовах перешкод, в умовах перебудови навички. Для наочного представлення рядів побудовано відповідні гістограми розподілу тривалості середнього часу реакції. З метою усунення помилки репрезентативності здійснено вирівнювання статистичних рядів шляхом підбору для кожного ряду теоретичної кривої розподілу, що відображає лише суттєві риси статистичного матеріалу. Для цього здійсненна апроксимація гістограми розподілу поліномом четвертого ступеня. Встановлено інтервал теоретичної щільності розподілу, попадання в який часу сенсомоторної реакції довільної особи вважається нормою, при задані ймовірності достовірності такої події – 0,95. Для перевірки дієвості запропонованого методу синтезовано алгоритми оцінювання часу сенсомоторної реакції оператора малих БпЛА у трьох режимах та розроблено відповідне програмне забезпечення, що реалізує запропоновані алгоритми. Висновки. Обґрунтовано критерії оцінювання часу сенсомоторної реакції оператора БпЛА на зоровий подразник з використанням спеціалізованого програмного забезпечення. Це дозволило проводити попередній ППВ кандидатів на навчання з урахуванням вимог до моторики оператора малих БпЛА і специфіки його рухів. Проведені експерименти підтвердили обґрунтованість прийнятих рішень. Перспективи подальших досліджень можуть включати розширенняItem Guided hybrid genetic algorithm for solving global optimization problems(Національний університет "Запорізька політехніка", 2021) Avramenko, S. E.; Zheldak, T. A.; Koriashkina, L. S.; Авраменко, С. Є.; Желдак, Т. А.; Коряшкіна, Л. С.EN: Context. One of the leading problems in the world of artificial intelligence is the optimization of complex systems, which is often represented as a nonlinear function that needs to be minimized. Such functions can be multimodal, non-differentiable, and even set as a black box. Building effective methods for solving global optimization problems raises great interest among scientists. Objective. Development of a new hybrid genetic algorithm for solving global optimization problems, which is faster than existing analogues. Methods. One of the crucial challenges for hybrid methods in solving nonlinear global optimization problems is the rational use of local search, as its application is accompanied by quite expensive computational costs. This paper proposes a new GBOHGA hybrid genetic algorithm that reproduces guided local search and combines two successful modifications of genetic algorithms. The first one is BOHGA that establishes a qualitative balance between local and global search. The second one is HGDN that prevents re-exploration of the previously explored areas of a search space. In addition, a modified bump-function and an adaptive scheme for determining one of its parameters – the radius of the “deflation” of the objective function in the vicinity of the already found local minimum – were presented to accelerate the algorithm. Results. GBOHGA performance compared to other known stochastic search heuristics on a set of 33 test functions in 5 and 25-dimensional spaces. The results of computational experiments indicate the competitiveness of GBOHGA, especially in problems with multimodal functions and a large number of variables. Conclusions. The new GBOHGA hybrid algorithm, developed on the basis of the integration of guided local search ideas and BOHGA and HGDN algorithms, allows to save significant computing resources and speed up the solution process of the global optimization problem. It should be used to solve global optimization problems that arise in engineering design, solving organizational and management problems, especially when the mathematical model of the problem is complex and multidimensional. UK: Актуальність. Провідною проблемою в світі штучного інтелекту є оптимізація складних систем, що нерідко подається у вигляді нелінійної функції, яку необхідно мінімізувати. Такі функції можуть виявитися мультимодальними, недиференційованими, і навіть, заданими у формі чорної скриньки. Побудова ефективних методів розв’язання задач глобальної оптимізації і сьогодні викликав значний інтерес серед науковців. Мета. Розробка нового гібридного генетичного алгоритму розв’язання задачі безумовної глобальної оптимізації, швидшого за існуючі аналоги. Методи. Одним з важливих викликів, з якими стикаються гібридні методи під час розв’язування задач нелінійної глобальної оптимізації, є раціональне використання локального пошуку, оскільки його реалізація супроводжується достатньо коштовними обчислювальними витратами. В даній роботі запропонований новий гібридний генетичний алгоритм GBOHGA, який відтворює керований локальний пошук, і поєднує дві успішні модифікації генетичних алгоритмів, перша з яких BOHGA встановлює якісний баланс між локальним та глобальним пошуком, друга – HGDN – запобігає повторному дослідженню раніше вже розвіданої області пошукового простору. Окрім цього, було запропоновано модифіковану bump-функцію та адаптивну схему визначення її параметру – радіусу області «дефляції» цільової функції в околі вже знайденого локального мінімуму – задля прискорення роботи алгоритму. Результати. Роботу GBOHGA з іншими відомими стохастичними пошуковими евристиками на наборі із 33 тестових функцій в 5 та 25 вимірному просторах. Результати обчислювальних експериментів свідчать про конкурентну спроможність GBOHGA, особливо в задачах з мультимодальними функціями і великою кількістю змінних. Висновки. Новий гібридний алгоритм GBOHGA, розроблений на основі інтеграції ідей керованого локального пошуку і алгоритмів BOHGA та HGDN, дозволяє значно економити обчислювальні ресурси та прискорювати розв’язання задачі глобальної оптимізації. Його варто застосовувати для розв’язання задач глобальної оптимізації, що виникають в інженерному проектуванні, вирішення організаційно-управлінських проблем, особливо коли математична модель задачі є складною і має високу розмірність.Item Реализация конечно-элементной библиотеки классов с использованием обобщенного программирования(Національний університет "Запорізька політехніка", 2021) Чопоров, С. В.; Игнатченко, М. С.; Кудин, А. В.; Кривохата, А. Г.; Гоменюк, С. И.; Чопоров, С. В.; Ігнатченко, М. С.; Кудін, О. В.; Кривохата, А. Г.; Гоменюк, С. І.; Choporov, S. V.; Ihnatchenko, M. S.; Kudin, O. V.; Kryvokhata, A. G.; Homeniuk, S. I.RU: Актуальность. Для компьютерного моделирования сложных объектов и явлений различной природы на практике часто используют численный метод конечных элементов. Его программная реализация (особенно для исследования новых классов задач) является достаточно трудоемким процессом. Высокая стоимость разработки программного обеспечения обусловливает актуальность разработки новых подходов к повышению эффективности программирования и сопровождения (в т.ч. добавление новых функций). Цель. Цель работы – создание новой эффективной архитектуры программ конечно-элементного анализа проблем математической физики, позволяющей легко расширять их функциональность для решения новых классов задач. Метод. Предложен метод разработки программ для конечно-элементного анализа с использованием обобщенного программирования, что дает возможность существенно упростить архитектуру программного обеспечения и сделать его более удобным для сопровождения и модификации за счет разделения алгоритмов и структур данных. Предложена новая архитектура классов, реализующих конечно-элементный расчет, позволяющая легко расширять функциональность программ за счет добавления новых типов конечных элементов, методов решения систем линейных алгебраических уравнения, параллельных вычислений и т.д. Результаты. Предложенный подход был программно реализован в виде библиотеки классов на языке С++. Проведен ряд вычислительных экспериментов, подтвердивших его работоспособность при решении практических задач. Выводы. Разработанный подход можно использовать как для создания систем конечно-элементного анализа общего назначения с открытой архитектурой, так и для реализации специализированных программных пакетов, ориентированных на решение конкретных классов задач (механики разрушения, эластомеров, контактного взаимодействия и т.п.). UK: Актуальність. Для комп’ютерного моделювання складних об’єктів і явищ різної природи на практиці часто застосовують чисельний метод скінченних елементів. Його програмна реалізація (особливо для дослідження нових класів задач) є досить трудомістким процесом. Висока вартість розробки програмного забезпечення обумовлює актуальність розробки нових підходів до підвищення ефективності програмування й супроводу (у т.ч. додавання нових функцій). Мета. Мета роботи – створення нової ефективної архітектури програм скінченно-елементного аналізу проблем математичної фізики, що дозволяє легко розширювати їх функціональність для розв’язання нових класів задач. Метод. Запропоновано метод розробки програм для скінченно-елементного аналізу з використанням узагальненого програмування, що дає можливість істотно спростити архітектуру програмного забезпечення й зробити його більш зручним для супроводу і модифікації за рахунок розділення алгоритмів і структур даних. Запропоновано нову архітектура класів, які реалізують скінченно-елементний розрахунок, що дозволяє легко розширювати функціональність програм за рахунок додавання нових типів скінченних елементів, методів розв’язання систем лінійних алгебраїчних рівняння, паралельних обчислень тощо. Результати. Запропонований підхід було програмно реалізовано у вигляді бібліотеки класів на мові С++. Проведено ряд обчислювальних експериментів, які підтвердили його працездатність при вирішенні низки практичних задач. Висновки. Розроблений підхід може бути використаний як для створення систем скінченно-елементного аналізу загального призначення з відкритою архітектурою, так і для реалізації спеціалізованих програмних пакетів, орієнтованих на розв’язання конкретних класів задач (механіки руйнування, еластомерів, контактної взаємодії і т.д.) EN: Context. For computer modeling of complex objects and phenomena of various nature, in practice, the numerical finite element method is often used. Its software implementation (especially for the study of new classes of problems) is a rather laborious process. The high cost of software development makes the development of new approaches to improving the efficiency of programming and maintenance (including the addition of new functions) urgent. Objective. The aim of the work is to create a new effective architecture of programs for finite element analysis of problems in mathematical physics, which makes it easy to expand their functionality to solve new classes of problems. Method. A method for developing programs for finite element analysis using generalized programming is proposed, which makes it possible to significantly simplify the architecture of the software and make it more convenient for maintenance and modification by separating algorithms and data structures. A new architecture of classes that implement finite element calculation is proposed, which makes it possible to easily expand the functionality of programs by adding new types of finite elements, methods for solving systems of linear algebraic equations, parallel computations, etc. Results. The proposed approach was implemented in software as a class library in C ++. A number of computational experiments have been carried out, which have confirmed its efficiency in solving practical problems. Conclusions. The developed approach can be used both to create general-purpose finite element analysis systems with an open architecture, and to implement specialized software packages focused on solving specific classes of problems (fracture mechanics, elastomers, contact interaction, etc.).Item Information technology of climate monitoring(Національний університет "Запорізька політехніка", 2021) Talakh, M. V.; Holub, S. V.; Turkin, I. B.; Талах, М. В.; Голуб, С. В.; Туркін, І. Б.EN: Context. Information monitoring technology is used to reduce information uncertainty about the regularity of air temperature changes during managing work in hard-to-reach places [1]. The task was to create a method for modelling one of the climatic indicators, air temperature, in the given territories in the information monitoring technology structure. Climate models are the main tools for studying the response of the ecological system to external and internal influences. The problem of reducing information uncertainty in making managerial decisions is eliminated by predicting the consequences of using planned control actions using climate modelling methods in information monitoring technology. The information technology of climate monitoring combines satellite observation methods and observations on climate stations, taking into account the spatial and temporal characteristics, to form an array of input data. It was made with the methods for synthesizing models of monitoring information systems [1] and methods of forming multilevel model structures of the monitoring information systems [1] for converting observation results into knowledge, and with the rules for interpreting obtained results for calculating the temperature value in the uncontrolled territories. Objective of the work is to solve the problem of identifying the functional dependence of the air temperature in a given uncontrolled territory on the results of observations of the climate characteristics by meteorological stations in the information technology of climate monitoring structure. Method. The methodology for creating information technologies for monitoring has been improved to expand its capabilities to perform new tasks of forecasting temperature using data from thermal imaging satellites and weather stations by using a new method of climate modelling. A systematic approach to the process of climate modelling and the group method of data handling were used for solving problems of functional dependence identification, methods of mathematical statistics for evaluating models. Results. The deviation of the calculated temperature values with the synthesized monitoring information systems models from the actual values obtained from the results of observations by artificial earth satellites does not, on average, exceed 2.5°С. Temperature traces obtained from satellite images and weather stations at similar points show similar dynamics. Conclusions. The problem of the functional dependence identification of air temperature in uncontrolled territories on the results of observations at meteorological stations is solved. The obtained results were used in the process of creating a new method of climate modelling within information technology of climate monitoring. Experimental confirmation of the hypothesis about the possibility of using satellite images in regional models of temperature prediction has been obtained. The effectiveness of the application of the methodology for the creation of monitoring information technologies during the implementation of the tasks of reducing uncertainty for management decisions during works in non-controlled territories has been proven. UK: Актуальність. Для зниження інформаційної невизначеності про закономірності зміни температури повітря при управлінні роботами у важкодоступних місцях використовується інформаційна технології моніторингу [1]. Виконувалось завдання створення методу моделювання одного із кліматичних показників, температури повітря, на заданих територіях в структурі інформаційної технології моніторингу. Кліматичні моделі є основними інструментами для дослідження реакції екологічної системи на зовнішні та внутрішні впливи. Проблема зниження інформаційної невизначеності при прийнятті управлінських рішень усувається шляхом прогнозування наслідків застосування запланованих керуючих впливів за допомогою використання в інформаційній технології моніторингу методів кліматичного моделювання. В інформаційну технологію кліматичного моніторингу поєднані методи супутникових спостережень і спостережень за кліматом на поверхні ґрунту з урахуванням просторово-часових характеристик, для формування масиву вхідних даних, із методами синтезу моделей моніторингових інформаційних систем [1] і методами формування багаторівневих модельних структур моніторингових інформаційних систем [1] для перетворення результатів спостережень у знання, та із правилами інтерпретації отриманих результатів для розрахунку значення температури на непідконтрольних територіях. Мета роботи полягає в розв’язанні задачі ідентифікації функціональної залежності температури повітря на заданій непідконтрольній території від результатів спостережень за характеристиками клімату метеорологічними станціями на поверхні ґрунту в структурі інформаційної технології кліматичного моніторингу. Метод. Удосконалено методологію створення інформаційних технологій моніторингу з метою розширення її можливостей для виконання нових завдань прогнозування температури за допомогою даних тепловізійних супутників та метеостанцій шляхом використання нового методу кліматичного моделювання. Застосовувався системний підхід до процесу кліматичного моделювання, метод групового урахування аргументів для розв’язання задач ідентифікації функціональної залежності, методи математичної статистики для оцінки моделей. Результати. Відхилення розрахованих значень температури за синтезованими моделями МІС від дійсних значень, отриманих за результатами спостережень штучними супутниками Землі у середньому не перевищує 2,5°С. Сліди температури, отримані від супутникових зображень та метеорологічних станцій у подібних точках, мають схожу динаміку. Висновки. Розв’язана задача ідентифікації функціональної залежності температури повітря у непідконтрольних місцях від результатів спостережень на метеорологічних станціях. Отримані результати використані в процесі створення нового методу кліматичного моделювання в межах інформаційної технології кліматичного моніторингу. Отримано експериментальне підтвердження гіпотези про можливість використання супутникових зображень в регіональних моделях прогнозування температури. Доведена ефективність застосування методології створення інформаційних технологій моніторингу при виконанні завдань зниження невизначеності при прийнятті рішень із управління роботами на непідконтрольних територіях.Item Formalization coding methods of information under toroidal coordinate systems(Національний університет "Запорізька політехніка", 2021) Riznyk, V. V.; Різник, В. В.EN: Contents. Coding and processing large information content actualizes the problem of formalization of interdependence between information parameters of vector data coding systems on a single mathematical platform. Objective. The formalization of relationships between information parameters of vector data coding systems in the optimized basis of toroidal coordinate systems with the achievement of a favorable compromise between contradictory goals. Method. The method involves the establishing harmonious mutual penetration of symmetry and asymmetry as the remarkable property of real space, which allows use decoded information for forming the mathematical principle relating to the optimal placement of structural elements in spatially or temporally distributed systems, using novel designs based on the concept of Ideal Ring Bundles (IRB)s. IRBs are cyclic sequences of positive integers which dividing a symmetric sphere about center of the symmetry. The sums of connected sub-sequences of an IRB enumerate the set of partitions of a sphere exactly R times. Two-and multidimensional IRBs, namely the “Glory to Ukraine Stars”, are sets of t-dimensional vectors, each of them as well as all modular sums of them enumerate the set node points grid of toroid coordinate system with the corresponding sizes and dimensionality exactly R times. Moreover, we require each indexed vector data “category-attribute” mutually uniquely corresponds to the point with the eponymous set of the coordinate system. Besides, a combination of binary code with vector weight discharges of the database is allowed, and the set of all values of indexed vector data sets are the same that a set of numerical values. The underlying mathematical principle relates to the optimal placement of structural elements in spatially and/or temporally distributed systems, using novel designs based on t-dimensional “star” combinatorial configurations, including the appropriate algebraic theory of cyclic groups, number theory, modular arithmetic, and IRB geometric transformations. Results. The relationship of vector code information parameters (capacity, code size, dimensionality, number of encodingvectors) with geometric parameters of the coordinate system (dimension, dimensionality, and grid sizes), and vector data characteristic (number of attributes and number of categories, entity-attribute-value size list) have been formalized. The formula system is derived as a functional dependency between the above parameters, which allows achieving a favorable compromise between the contradictory goals (for example, the performance and reliability of the coding method). Theorem with corresponding corollaries about the maximum vector code size of conversion methods for t-dimensional indexed data sets “category-attribute” proved. Theoretically, the existence of an infinitely large number of minimized basis, which give rise to numerous varieties of multidimensional “star” coordinate systems, which can find practical application in modern and future multidimensional information technologies, substantiated. Conclusions. The formalization provides, essentially, a new conceptual model of information systems for optimal coding and processing of big vector data, using novel design based on the remarkable properties and structural perfection of the “Glory to Ukraine Stars” combinatorial configurations. Moreover, the optimization has been embedded in the underlying combinatorial models. The favorable qualities of the combinatorial structures can be applied to vector data coded design of multidimensional signals, signal compression and reconstruction for communications and radar, and other areas to which the GUS-model can be useful. There are many opportunities to apply them to numerous branches of sciences and advanced systems engineering, including information technologies under the toroidal coordinate systems. A perfection, harmony and beauty exists not only in the abstract models but in the real world also. UK: Актуальність. Кодування та опрацювання великого інформаційного контенту актуалізує проблему формалізації взаємозалежності між інформаційними параметрами систем кодування векторних даних на єдиній математичній платформі. Об’єктом дослідження є модель кодування масивів векторних даних в базисі тороїдних систем координат. Мета роботи – формалізація методів кодування векторних даних в оптимізованому базисі тороїдних систем координат. Метод. В основу дослідження покладено встановлений факт гармонійного спряження симетричних та асиметричних структур у вигляді оптимальних співвідношень між симетрією і вбудованими в неї асиметричними просторовими структурами з груповими властивостями, притаманними для векторних комбінаторних конфігурацій «зіркового» класу – наборів t-вимірних векторів двійкового коду як базису t-вимірної системи координат тороїда. Для опису математичної моделі «зіркових» систем координат використано математичний апарат теорії множин, теоретико-числові і теоретико-групові методи комбінаторного аналізу та елементи алгебричної теорії ідеальних кільцевих в’язанок. Метод дозволяє формалізувати взаємозв’язок інформаційних параметрів векторного коду (число кодових комбінацій, розрядність, кількість способів кодування однакових наборів) з геометричними параметрами системи координат (розмірність і розміри сітки по числу атрибутів і категорій векторних даних). Виведено функціональну залежність між вищезгаданими параметрами, що дозволяє досягати вигідного компромісу між суперечними цілями (наприклад, продуктивністю і надійністю методу кодування). Результати. Розроблені методи реалізовані при оптимальному кодуванні векторних даних в базисі тороїдних систем координат. Висновки. Проведені обчислювальні експерименти підтвердили працездатність запропонованого математичного забезпечення і дозволяють рекомендувати його для використання на практиці при вирішенні задач формалізації методів оптимального кодування масивів векторних даних та опрацювання інформації різної природи в тороїдних системах координат визначених розмірів і розмірності.Item An approach Web service selection by quality criteria based on sensitivity analysis of MCDM methods(Національний університет "Запорізька політехніка", 2021) Polska, O. V.; Kudermetov, R. K.; Shkarupylo, V. V.; Кудерметов, Равіль Камілович; Шкарупило, Вадим ВікторовичEN: Context. The problem of QoS based Web service from the list of Web services with equal or similar functionality was considered. This task is an essential part of the processes of finding, discover, matching and using Web services on the Internet due to the numerous offerings of Web services with equal or similar functionality. The reasonable selection of a suitable Web service takes into account a lot of user’s quality requirements, such as response time, throughput, reliability, cost, etc. Such a task is usually formulated as an MCDM problem, in which the parameters are the Web service quality factors and the importance degree of these factors. The object of this research is a process of selection Web services using MCDM methods, taking into accounts the user’s preferences and requirements to the Web service quality characteristics. The subject of the research is the LSP method, which, in addition to the degree of importance of the criteria used in all MCDM methods, simulates the user’s reasoning about quality, taking into account, in particular, such characteristics of the criteria as mandatory, sufficiency, desirability, simultaneity and substitutability. Objective. The objective of the work is to develop an approach for comparing the result of using the LSP method with the results of using other MCDM methods. Method. A method for calculating the weights of input criteria that are not always explicitly specified in the LSP method was proposed. For this, the conjunctive coefficients of impact are used, which are calculated as a result of the sensitivity analysis of the Web service generalized quality criterion to changes the partial quality criteria. This method underlies the proposed approach to comparing the efficiency of the LSP method with other MCDM methods, which consists of using the obtained weights as the weights of the input criteria for the MCDM methods. Results. The developed method and approach was verified experimentally. The Web service ranking produced by the LSP method was compared with the ones produced by SAW, AHP, TOPSIS and VIKOR methods. This comparison confirmed the efficiency of the proposed method and approach. Conclusions. From the obtained results of comparing the LSP method and the MCDM methods considered in this study, it follows that the proposed method and approach provide the equivalent input conditions for these methods as for the LSP method, which is a necessary condition for the correct comparison of MCDM methods. The use of the proposed approach made it possible to study the sensitivities of the considered MCDM methods. In practical applications, this approach can be used to select a suitable MCDM method. The proposed method can be useful for creating professional evaluation systems in which it is necessary to assess the importance (weights) of tens and hundreds of quality criteria. quality of Web service UK: 24 Актуальність. Розглянуто задачу вибору вебсервісів за критеріями якості зі списку вебсервісів з однаковими або подібними функціональними характеристиками. Це завдання є невід’ємною частиною процесів пошуку, вибору, узгодження і використання таких вебсервісів в зв’язку з численними пропозиціями вебсервісів в Інтернеті. Розумний вибір необхідного вебсервісу може враховувати безліч вимог користувача до якісних характеристик, наприклад, часу відгуку, пропускної здатності, надійності, вартості тощо. Така задача зазвичай формулюється як багатокритеріальна задача прийняття рішень, в якій параметрами є чинники якості вебсервісів і ступеню значущості параметрів якості. Об’єктом дослідження є процеси ранжування вебсервісів за допомогою методів MCDM з урахуванням переваг та вимог користувача до характеристик якості вебсервісів. Предмет дослідження – метод LSP, який крім ступеню важливості критеріїв, що використовується у всіх методах MCDM, моделює міркування користувача про якість, враховуючи, зокрема, такі характеристики критеріїв, як обов’язковість, достатність, бажаність, одночасність та взаємозамінюванність. Мета дослідження – розробити підхід для порівняння результатів використання методу LSP з іншими методами MCDM. Метод. Запропоновано метод обчислення ваг вхідних критеріїв, які не завжди задані явно в методі LSP. Для цього використовуються коефіцієнти кон’юнктивного впливу, які обчислюються в результаті процедури аналізу чутливості узагальненого критерію якості до змін вхідних критеріїв якості. Цей метод лежить в основі запропонованого підходу до порівняння ефективності методу LSP з іншими методами MCDM, який полягає в використанні отриманих ваг в якості ваг вхідних критеріїв для MCDM методів. Результати. Розроблені метод і підхід було перевірено експериментально. В якості MCDM методів, з якими здійснювалось порівняння метод LSP, використовувалися методи SAW, AHP, TOPSIS і VIKOR. Порівняння результатів ранжування вебсервісів цими методами з результатом ранжирування методом LSP підтвердило працездатність запропонованих методу та підходу. Висновки. З отриманих результатів порівняння методу LSP і розглянутих в даному дослідженні методів MCDM випливає, що запропоновані метод і підхід забезпечують для цих методів рівнозначні з методом LSP вхідні умови, що є необхідною умовою коректності порівняння методів MCDM. Використання запропонованого підходу дозволило дослідити чутливості розглянутих методів MCDM. У практичному застосуванні даний підхід можна використовувати для вибору підходящого MCDM методу. Запропонований метод може бути корисний для створення професійних систем оцінювання, коли необхідно оцінювати важливість (ваги) десятків і сотень критеріїв якості.Item Automated pansharpening information technology of satellite images(Національний університет "Запорізька політехніка", 2021) Hnatushenko, V. V.; Kashtan, V. Yu.; Гнатушенко, В. В.; Каштан, В. Ю.EN: Context. Nowadays, information technologies are widely used in digital image processing. The task of joint processing of satellite image obtained by different space systems that have different spatial differences is important. The already known pansharpening methods to improve the quality of the resulting image, there are new scientific problems associated with increasing the requirements for high-resolution image processing and the development of automated technology for processing the satellite data for further thematic analysis. Most spatial resolution techniques result in artifacts. Our work explores the major remote sensing data fusion techniques at pixel level and reviews the concept, principals, limitations and advantages for each technique with the program implementation of research. Objective. The goal of the work is analyze the effectiveness of the traditional pan-sharpening methods like the Brovey, the wavelet-transform, the GIHS, the HCT and the combined pansharpening method for satellite images of high-spatial resolution. Method. In this paper we propose the information technology for pansharpening high spatial resolution images with automation of choosing the best method based on the analysis of quantitative and qualitative evolutions. The method involves the scaling multispectral image to the size of the panchromatic image; using histogram equalization to adjust the primary images by aligning the integral areas of the sections with different brightness; conversion of primary images after the spectral correction on traditional pan-sharpening methods; analyze the effectiveness of the results obtained for conducts their detailed comparative visual and quantitative evaluation. The technology allows determining the best method of pansharpening by analyzing quantitative metrics: the NDVI index, the RMSE and the ERGAS. The NDVI index for the methods Brovey and HPF indicate color distortion in comparison with the reference data. This is due to the fact that the Brovey and HPF methods are based on the fusion of three channel images and do not include the information contained in the near infrared range. The RMSE and the ERGAS show the superiority of the combined HSV-HCT-Wavelet method over the conventional and state-of-art image resolution enhancement techniques of high resolution satellite images. This is achieved, in particular, by preliminary processing of primary images, data processing localized spectral bases, optimized performance information, and the information contained in the infrared image. Results. The software implementing proposed method is developed. The experiments to study the properties of the proposed algorithm are conducted. Experimental evaluation performed on eight-primary satellite images of high spatial resolution obtained WorldView-2 satellite. The experimental results show that a synthesized high spatial resolution image with high information content is achieved with the complex use of fusion methods, which makes it possible to increase the spatial resolution of the original multichannel image without color distortions. Conclusions. The experiments confirmed the effectiveness of the proposed automated information technology for pansharpening high-resolution satellite images with the development of a graphical interface to obtain a new synthesized image. In addition, the proposed technology will effectively carry out further recognition and real-time monitoring infrastructure. UK: Актуальність. На сьогоднішній день інформаційні технології широко використовуються при цифровій обробці зображень дистанційного зондування Землі. Актуальною є задача сумісної обробки супутникових зображень, отриманих різними космічними системами, які мають різне просторове розрізнення. Одними із найсучасних супутників є WorldView-2 та WorldView-3, що дозволяють отримати восьмиканальне зображення високого просторового розрізнення. Незважаючи на розроблені методи, призначені для поліпшення якості результуючого зображення, з’являються нові наукові проблеми, які пов’язані із підвищенням вимог до результатів обробки знімків високого просторового розрізнення та розробкою автоматизованої технології обробки цих даних для подальшого їх тематичного аналізу. В роботі розглянуто концепції, принципи, обмеження та переваги традиційних методів злиття з програмною реалізацією. Мета. Метою роботи є аналіз ефективності традиційних методів злиття, таких як Brovey, вейвлет-перетворення, GIHS, HCT та комбінованого методу для супутникових зображень високого просторового розрізнення. Метод. У роботі запропоновано інформаційну технологію злиття знімків високого просторового розрізнення з автоматизацією вибору найкращого методу злиття на основі аналізу кількісних та якісних показників. Запропонована технологія включає: масштабування мультиспектрального зображення до розміру панхроматичного зображення; використання еквалізації гістограми для коригування первинних зображень шляхом вирівнювання інтегральних областей з різною яскравістю; перетворення первинних зображень після спектральної корекції за традиційними методами «паншарпінг»; аналіз ефективності отриманих результатів. Технологія дозволяє визначити кращий метод злиття шляхом аналізу кількісних метрик: індексу NDVI, RMSE та ERGAS. Індекс NDVI для методів Brovey та HPF вказує на спектральні спотворення у порівнянні з еталонними даними. Це пов’язано з тим, що методи Brovey та HPF засновані на злитті трьохканальних зображень і не включають інформацію, що міститься в ближньому інфрачервоному діапазоні. Отримані значення RMSE та ERGAS демонструють перевагу комбінованого методу HSV-HCT-Wavelet над традиційними та найсучаснішими методами підвищення просторового розрізнення супутникових зображень. Це досягається, зокрема, попередньою обробкою первинних зображень, обробкою даних локалізованих спектральних компонент та використанням інформації, що міститься в інфрачервоному каналі зображення. Результати. Розроблено програмне забезпечення, що реалізує запропонований підхід. Експериментальна оцінка проведена на восьмиканальних первинних супутникових знімках високого просторового розрізнення, отриманих супутником WorldView-2. Експериментальні результати показують, що синтезоване зображення з високою просторовою роздільною здатністю з високим інформаційним вмістом досягається за допомогою комплексного використання методів злиття, що дозволяє збільшити просторову роздільну здатність вихідного багатоканального зображення без спектральних спотворень. Висновки. Проведені експерименти підтвердили ефективність запропонованої автоматизованої інформаційної технології, що дозволяє рекомендувати її при подальшому дослідженні таких задач як розпізнавання й оперативний моніторинг об’єктів інфраструктури.Item Стохастична псевдоспінова нейронна мережа з тридіагональними синаптичними зв’язками(Національний університет "Запорізька політехніка", 2021) Пелещак, Р. М.; Литвин, В. В.; Черняк, О. І.; Пелещак, І. Р.; Дорошенко, М. В.; Peleshchak, R. М.; Lytvyn, V. V.; Cherniak, О. І.; Peleshchak, І. R.; Doroshenko, М. V.UK: Актуальність. Для скорочення часу обчислювального ресурсу в задачах діагностування та розпізнавання спотворених образів на основі повнозв’язної стохастичної псевдоспінової нейронної мережі виникає необхідність прорідження синаптичних зв’язків між нейронами, що вирішується за допомогою методу діагоналізації матриці синаптичних зв’язків без втрати взаємодії між всіма нейронами в мережі. Мета роботи. Створення архітектури стохастичної псевдоспінової нейромережі з розрідженими та діагональними синаптичними зв’язками без втрати взаємодії між всіма нейронами в мережі для зменшення часу її навчання. Метод. У статті використовується метод Хаусхолдера, метод стиску вхідних образів на основі діагоналізації матриці синаптичних зв’язків та система комп’ютерної математики MATLAB для зведення повнозв’язної нейромережі до тридіагонального вигляду з прихованими синаптичними зв’язками між всіма нейронами. Результати. Розроблено модель архітектури стохастичної нейромережі з розрідженими перенормованими синаптичними зв’язками, які враховують вилучені синаптичні зв’язки. На основі перетворення матриці синаптичних зв’язків повнозв’язної нейронної мережі до матриці Гессенберга з тридіагональними синаптичними зв’язками запропоновано перенормоване локальне правило Хебба. За допомогою системи комп’ютерної математики «WolframMathematica 11.3» розраховано в залежності від числа нейронів N відносний час налаштування синаптичних зв’язків (за одну ітерацію) у стохастичній псевдоспіновій нейронній мережі з тридіагональною матрицею зв’язків, відносно часу налаштування синаптичних зв’язків (за одну ітерацію) у повнозв’язній синаптичній нейронній мережі. Висновки. Встановлено, що зі збільшенням числа нейронів час налаштування синаптичних зв’язків (за одну ітерацію) у стохастичній псевдоспіновій нейронній мережі з тридіагональною матрицею зв’язків, відносно часу налаштування синаптичнихзв’язків (за одну ітерацію) у повнозв’язній синаптичній нейронній мережі, зменшується за гіперболічним законом. В залежності від напрямку псевдоспінів нейронів, запропоновано класифікацію перенормованої нейронної мережі із феромагнітною структурою, антиферомагнітною структурою та дипольним склом. EN: Context. To reduce the computational resource time in the problems of diagnosing and recognizing distorted images based on a fully connected stochastic pseudospin neural network, it becomes necessary to thin out synaptic connections between neurons, which is solved using the method of diagonalizing the matrix of synaptic connections without losing interaction between all neurons in the network. Objective. To create an architecture of a stochastic pseudo-spin neural network with diagonal synaptic connections without loosing the interaction between all the neurons in the layer to reduce its learning time. Method. The paper uses the Hausholder method, the method of compressing input images based on the diagonalization of the matrix of synaptic connections and the computer mathematics system MATLAB for converting a fully connected neural network into a tridiagonal form with hidden synaptic connections between all neurons. Results. We developed a model of a stochastic neural network architecture with sparse renormalized synaptic connections that take into account deleted synaptic connections. Based on the transformation of the synaptic connection matrix of a fully connected neural network into a Hessenberg matrix with tridiagonal synaptic connections, we proposed a renormalized local Hebb rule. Using the computer mathematics system “WolframMathematica 11.3”, we calculated, as a function of the number of neurons N, the relative tuning time of synaptic connections (per iteration) in a stochastic pseudospin neural network with a tridiagonal connection Matrix, relative to the tuning time of synaptic connections (per iteration) in a fully connected synaptic neural network. Conclusions. We found that with an increase in the number of neurons, the tuning time of synaptic connections (per iteration) in a stochastic pseudospin neural network with a tridiagonal connection Matrix, relative to the tuning time of synaptic connections (per iteration) in a fully connected synaptic neural network, decreases according to a hyperbolic law. Depending on the direction of pseudospin neurons, we proposed a classification of a renormalized neural network with a ferromagnetic structure, an antiferromagnetic structure, and a dipole glass.Item Tree-based semantic analysis method for natural language phrase to formal query conversion(Національний університет "Запорізька політехніка", 2021) Litvin, A. A.; Velychko, V. Yu.; Kaverynskyi, V. V.; Литвин, А. А.; Величко, В. Ю.; Каверінскій, В. В.EN: Context. This work is devoted to the problem of natural language interface construction for ontological graph databases. The focus here is on the methods for the conversion of natural language phrases into formal queries in SPARQL and CYPHER query languages. Objective. The goals of the work are the creation of a semantic analysis method for the input natural language phrases semantic type determination and obtaining meaningful entities from them for query template variables initialization, construction of flexible query templates for the types, development of program implementation of the proposed technique. Method. A tree-based method was developed for semantic determination of a user’s phrase type and obtaining a set of terms from it to put them into certain places of the most suiting formal query template. The proposed technique solves the tasks of the phrase type determination (and this is the criterion of the formal query template selection) and obtaining meaningful terms, which are to initialize variables of the chosen template. In the current work only interrogative and incentive user’s phrases are considered i.e. ones that clearly propose the system to answer or to do something. It is assumed that the considered dialog or reference system uses a graph ontological database, which directly impacts the formal query patterns – the resulting queries are destined to be in SPARQL or Cypher query languages. The semantic analysis examples considered in this work are aimed primarily at inflective languages, especially, Ukrainian and Russian, but the basic principles could be suitable to most of the other languages. Results. The developed method of natural language phrase to a formal query in SPARQL and CYPHER conversion has been implemented in software for Ukrainian and Norwegian languages using narrow subjected ontologies and tested against formal performance criteria. Conclusions. The proposed method allows the dialog system fast and with minimum number of steps to select the most suitable query template and extract informative entities from a natural language phrase given the huge phrase variability in inflective languages. Carried out experiments have shown high precision and reliability of the constructed system and its potential for practical usage and further development. UK: Актуальність. Ця робота присвячена проблемі побудови природномовного інтерфейсу для отримання інформації з графових баз даних. Основна увага приділяється методам перетворення фраз природною мовою у формальні запити на мовах запитів SPARQL та CYPHER. Мета. Цілями роботи є створення методу семантичного аналізу типу вхідних природномовних фраз та виділення з них значущих сутностей для ініціалізації змінних шаблону запиту, побудова гнучких шаблонів запитів для відповідних семантичних типів фраз, розробка програмної реалізації запропонованого способу. Метод. Розроблено метод, що базується на дереві прийняття рішень, для визначення семантичного типу фрази користувача і отримання з неї набору понять, для підстановки їх у певні місця найбільш підходящого шаблону формального запиту. Пропонована методика вирішує завдання визначення типу фрази (що безпосередньо пов’язано з критерієм вибору шаблону формального запиту) і отримання значущих понять, для ініціалізації змінних обраного шаблону. У поточній роботі розглядаються тільки питальні й наказові фрази користувача, тобто ті, які в явному вигляді пропонують системі дати відповідь. Передбачається, що розглянута діалогова або довідкова система використовує графову онтологічну базу даних, що безпосередньо впливає на формальні шаблони запитів – результуючі запити використовують SPARQL або Cypher. Приклади семантичного аналізу, розглянуті в цій роботі, відносяться переважно до мов флективного типу, а саме, української та російської, але основні принципи можуть бути придатними і для більшості інших мов. Результати. Розроблений метод перетворення фрази на природній мови у формальний запит на SPARQL або CYPHER було програмно реалізовано для української та норвезької мов із використанням вузьких предметних онтологій та протестовано на відповідність формальним критеріям ефективності. Висновки. Запропонований метод дозволяє діалоговій системі швидко та з мінімальною кількістю кроків вибрати найбільш підходящий шаблон запиту та витягти інформативні сутності із вхідної природномовної фрази, враховуючи величезну варіативність фраз у флективних мовах. Проведені експерименти показали високу точність та надійність побудованої системи та її потенціал для практичного використання та подальшого розвитку.Item Синтез та використання нейромережевих моделей з ймовірнісним кодуванням структури(Національний університет "Запорізька політехніка", 2021) Леощенко, Сергій Дмитрович; Олійник, Андрій Олександрович; Субботін, Сергій Олександрович; Гофман, Євген Олександрович; Ільяшенко, Матвій Борисович; Leoshchenko, S. D.; Oliinyk, A. O.; Subbotin, S. A.; Gofman, Ye. O.UK: Актуальність. Розглянуто задачу кодування інформації моделей на базі штучних нейронних мереж для подальшого пересилання та використання таких моделей. Об’єктом дослідження є процес кодування штучних нейронних мереж з використанням ймовірнісних структур даних. Мета роботи полягає у розробці методу кодування нейронних мереж для зменшенні ресурсоємності процесу нейроеволюційного синтезу моделей. Метод. Запропоновано метод кодування нейронних мереж на основі ймовірнісних структур даних. На початку метод використовує основні принципи підходу прямого кодування інформації про мережу та базуючись на секвенуванні кодує матрицю міжнейронних зв’язків у вигляді біополімерів. Потім використовуються ймовірнісні структури даних для більш компактного представлення початкової матриці. Для цього використовуються хеш-функції, початкова матриця проходить через процес хешування, що дозволяє значно знизити вимоги до ресурсів пам’яті. Метод дозволяє скоротити витрати пам’яті при пересилці штучних нейронних мереж, що значно розширює практичне використання таких моделей, запобігаючи різкому зменшенню точності їх роботи. Результати. Розроблений метод реалізовано та досліджено при вирішенні задачі класифікації стану південнонімецьких кредиторів. Використання розробленого методу дозволило збільшити швидкість синтезу нейромоделі на 15–17,6%, в залежності від використовуваних обчислювальних ресурсів. Також метод дозволив скоротити долю пересилок інформації на 8%, що також свідчить про прискорення та більш раціональне використання ресурсів. Висновки. Проведені експерименти підтвердили працездатність запропонованого математичного забезпечення і дозволяють рекомендувати його для використання на практиці при кодуванні моделей на основі штучних нейронних мереж для подальшого вирішення задач діагностування, прогнозування, оцінювання та розпізнавання образів. Перспективи подальших досліджень можуть полягати в попередній обробці даних для більш жорсткого контролю процесу кодування з метою мінімізації втрат якості роботи моделей на основі нейронних мереж. EN: Context. The problem of encoding information of models based on artificial neural networks for further transmission and use of such models is considered. The object of research is the process of coding artificial neural networks using probabilistic data structures. Objective of this work is to develop a method for coding neural networks to reduce the resource intensity of the process of neuroevolutionary model synthesis. Method. A method for encoding neural networks based on probabilistic data structures is proposed. At the beginning, the method uses the basic principles of the approach of direct encoding of network information and, based on sequencing, encodes a matrix of interneuronal connections in the form of biopolymers. Then, probabilistic data structures are used to represent the original matrix more compactly. For this purpose, hash functions are used, the initial matrix goes through the hashing process, which significantly reduces the requirements for memory resources. The method allows to reduce memory costs when sending artificial neural networks, which significantly expands the practical use of such models, preventing a sharp decrease in the accuracy of their operation. Results. The developed method is implemented and investigated in solving the problem of classification of the state of South German creditors. The use of the developed method allowed increasing the rate of neuromodel synthesis by 15–17.6%, depending on the computing resources used. The method also reduced the share of information transfers by 8%, which also indicates faster and more efficient use of resources. Conclusions. The conducted experiments confirmed the efficiency of the proposed mathematical software and allow us to recommend it for use in practice, when encoding models based on artificial neural networks, for further solving problems of diagnostics, forecasting, evaluation and pattern recognition. Prospects for further research may consist in pre-processing data for more strict control of the encoding process in order to minimize the loss of quality of models based on neural networks.Item The automatic synthesis of Petri nets based on the functioning of artificial neural network(Національний університет "Запорізька політехніка", 2021) Gurskiy, A. A.; Denisenko, A. V.; Dubna, S. M.; Гурський, О. О.; Денисенко, А. В.; Дубна, С. М.EN: Context. The important task was solved during the scientific research related to the development of the methods for automatic synthesis of Petri nets while tuning up of the coordinating automatic control systems. The importance of development of these methods is due to the evolution of intelligent systems. These systems provide the automation of labor intensive processes in the particular case this is the tuning of the certain type of complex control systems. Objective. The purpose of the scientific work is to minimize the time and automation of process in tuning of the multilevel coordinating automatic control systems. Method. The principle of automatic synthesis of Petri nets and the implementation of certain algorithms for tuning complex control systems based on the functioning of an artificial neural network are proposed. The mathematical description of the method for changing the coefficients in neural connections of network in the synthesis of Petri nets is presented. Results. The experiments were conducted in the Matlab\Simulink 2012a environment. These experiments were bound to the joint functioning of an artificial neural network and Petri nets. The functioning of Petri nets was presented in the Matlab \ Simulink environment using Statflow diagrams. As a result of the experiments we have obtained the temporal characteristics of the functioning of artificial neural network providing the composition of Petri nets. The fundamental suitability of using artificial neural network to provide the automatic composition of Petri nets was determined on the basis of analysis of temporal characteristics. Conclusion. The problem linked to the development of system for the joint functioning of neural network and Petri nets for the formation of algorithms and sequential calculations was solved in this work. Thus the method of automatic synthesis of Petri nets and the method of developing of the certain algorithms based on the functioning of a neural network were further developed. UK: Актуальність. Вирішена актуальна задача, що пов’язана з розробкою методів автоматичного синтезу мереж Петрі для настроювання координувальних систем автоматичного управління. Важливість розробки даних методів обумовлена розвитком інтелектуальних систем, що забезпечують автоматизацію трудомістких процесів, в окремому випадку це настроювання певного класу складних систем управління. Мета роботи – мінімізація часу та автоматизація процесу настроювання багаторівневих координувальних систем автоматичного управління. Метод. Запропоновано принцип автоматичного синтезу мереж Петрі та певних алгоритмів настроювання складних систем управління на основі функціонування штучної нейронної мережі. Представлений математичний опис методу зміни коефіцієнтів міжнейронних зв’язків мережі при синтезі мереж Петрі. Результати. У програмному середовищі Matlab\Simulink 2012a були проведені експерименти, пов’язані зі спільним функціонуванням штучної нейронної мережі і мереж Петрі. Функціонування мереж Петрі в середовищі Matlab\Simulink було представлено за допомогою Statflow діаграм. У результаті експериментів були отримані часові характеристики функціонування штучної нейронної мережі, яка забезпечує композицію мереж Петрі. На основі часових характеристик була встановлена принципова придатність застосування штучної нейронної мережі для забезпечення автоматичної композиції мереж Петрі. Висновки. У даній роботі було вирішено задачу, яка пов’язана з розробкою системи спільного функціонування нейронної мережі і мереж Петрі для формування алгоритмів і послідовних обчислень. Тим самим, одержали подальший розвиток методика автоматичного синтезу мереж Петрі та методика розробки певних алгоритмів на основі функціонування нейронної мережі.Item Experimental analysis of multinational genetic algorithm and its modifications(Національний університет "Запорізька політехніка", 2021) Gulayeva, N. M.; Yaremko, S. A.; Гулаєва, Н. М.; Яремко, С. А.EN: Context. Niching genetic algorithms are one of the most popular approaches to solve multimodal optimization problems. When classifying niching genetic algorithms it is possible to select algorithms explicitly analyzing topography of fitness function landscape; multinational genetic algorithm is one of the earliest examples of these algorithms. Objective. Development and analysis of the multinational genetic algorithm and its modifications to find all maxima of a multimodal function. Method. Experimental analysis of algorithms is carried out. Numerous runs of algorithms on well-known test problems are conducted and performance criteria are computed, namely, the percentage of convergence, real (global, local) and fake peak ratios; note that peak rations are computed only in case of algorithm convergence. Results. Software implementation of a multinational genetic algorithm has been developed and experimental tuning of its parameters has been carried out. Two modifications of hill-valley function used for determining the relative position of individuals have been proposed. Experimental analysis of the multinational genetic algorithm with classic hill-valley function and with its modifications has been carried out. Conclusions. The scientific novelty of the study is that hill-valley function modifications producing less number of wrong identifications of basins of attraction in comparison with classic hill-valley function are proposed. Using these modifications yields to performance improvements of the multinational genetic algorithm for a number of test functions; for other test functions improvement of the quality criteria is accompanied by the decrease of the convergence percentage. In general, the convergence percentage and the quality criterion values demonstrated by the algorithm studied are insufficient for practical use in comparison with other known algorithms. At the same time using modified hill-valley functions as a post-processing step for other niching algorithms seems to be a promising improvement of performance of these algorithms. UK: Актуальність. Генетичні алгоритми утворення ніш є одним з найпоширеніших підходів до розв’язання задач багатоекстремальної оптимізації. При проведенні класифікації цих алгоритмів можна виділити алгоритми, що ґрунтуються на явному аналізі топографії ландшафту функції пристосованості. Одним з ранніх прикладів таких алгоритмів є багатонаціональний генетичний алгоритм. Мета. Розробка та аналіз багатонаціонального генетичного алгоритму та його модифікацій. Алгоритм застосовується для розв’язання задачі пошуку всіх максимумів багатоекстремальної функції. Метод. Виконано експериментальний аналіз алгоритмів. Проведено численні прогони алгоритмів на відомих тестових задачах та обчислено критерії ефективності роботи алгоритмів, а саме, відсоток збіжності, частка реальних (глобальних, локальних) та хибних піків; зауважимо, що частки піків обчислюються тільки в разі збіжності алгоритму. Результати. Виконано програмну реалізацію багатонаціонального генетичного алгоритму та проведено експериментальне налаштування його параметрів. Запропоновано дві модифікації функції долин і пагорбів, яка використовується в алгоритмі для визначення взаємного розташування особин. Проведено експериментальний аналіз багатонаціонального генетичного алгоритму з класичного функцією долин і пагорбів та з її модифікаціями. Висновки. Наукова новизна роботи полягає в тому, що були запропоновані модифікації функції долин і пагорбів, які продукують меншу кількість помилкових ідентифікацій зон притягання порівняно з класичним варіантом цієї функції. Як наслідок, використання цих модифікацій призводить до покращення продуктивності багатонаціонального генетичного алгоритму для низки тестових задач. Втім, для деяких тестових задач поліпшення критеріїв якості супроводжується зменшенням відсотка збіжності. Загалом, відсоток збіжності та значення критеріїв якості, продемонстровані дослідженим алгоритмом, є недостатніми для практичного використання багатонаціонального генетичного алгоритму у порівнянні з іншими відомими алгоритмами. У той же час, використання модифікованих функцій долин і пагорбів як етапу постобробки в інших алгоритмах утворення ніш видається перспективним підходом до покращення роботи цих алгоритмів.Item Онлайн метод можливісної кластеризації даних на основі еволюційної оптимізації котячих зграй(Національний університет "Запорізька політехніка", 2021) Бодянський, Є. В.; Шафроненко, А. Ю.; Клімова, І. М.; Bodyanskiy, Ye. V.; Shafronenko, A. Yu.; Klymova, I. N.UK: Актуальність. Проблема кластеризації великих даних сьогодні є дуже цікавою сферою штучного інтелекту. Це завдання часто зустрічається у багатьох додатках, пов’язаних з інтелектуальним аналізом даних, глибоким навчанням, веб-майнінгом тощо. Для вирішення цих проблем традиційні підходи та методи вимагають, щоб уся вибірка даних подавалася у пакетній формі. Мета. Метою роботи було запропонувати метод нечіткої можливісної кластеризації даних з використанням еволюційної оптимізації котячих зграй, який був би позбавлений недоліків традиційних підходів до кластеризації даних. Метод. Процедура нечіткої можливісної кластеризації даних із використанням еволюціних алгоритмів, для більш швидкого визначення екстремумів вибірки, центроїдів кластерів та адаптивних функцій, що дозволяють не витрачати ресурси машини для зберігання проміжних розрахунків та не потребують додаткового часу для вирішення поставленої задачі кластеризації даних незалежно від розмірності та способу подачі на обробку. Результати. Запропонований алгоритм кластеризації даних на основі еволюційної оптимізації є достатньо простим у чисельній реалізації, позбавлений недоліків, властивих традиційним методам нечіткої кластеризації та може працювати з великим розміром вихідної інформації, що обробляється, в режимі онлайн у реальному часі. Висновки. Результати експерименту дозволяють рекомендувати розроблений метод для вирішення проблем автоматичної кластеризації та класифікації великих даних, максимально швидко знаходити екстремуми цільової функції, незалежно від способу подачі даних на обробку. Запропонований метод онлайн можливісної нечіткої кластеризації даних на основі еволюційної оптимізації котячих зграй призначений для використання у гібридних системах обчислювального інтелекту, нейро-фаззі системах,в навчанні штучних нейронних мереж, у завданнях кластеризації та класифікації. EN: Context. The problems of big data clustering today is a very relevant area of artificial intelligence. This task is often found in many applications related to data mining, deep learning, etc. To solve these problems, traditional approaches and methods require that the entire data sample be submitted in batch form. Objective. The aim of the work is to propose a method of fuzzy probabilistic data clustering using evolutionary optimization of cat swarm, that would be devoid of the drawbacks of traditional data clustering approaches. Method. The procedure of fuzzy probabilistic data clustering using evolutionary algorithms, for faster determination of sample extrema, cluster centroids and adaptive functions, allowing not to spend machine resources for storing intermediate calculations and do not require additional time to solve the problem of data clustering, regardless of the dimension and the method of presentation for processing. Results. The proposed data clustering algorithm based on evolutionary optimization is simple in numerical implementation, is devoid of the drawbacks inherent in traditional fuzzy clustering methods and can work with a large size of input information processed online in real time. Conclusions. The results of the experiment allow to recommend the developed method for solving the problems of automatic clustering and classification of big data, as quickly as possible to find the extrema of the sample, regardless of the method of submitting the data for processing. The proposed method of online probabilistic fuzzy data clustering based on evolutionary optimization of cat swarm is intended for use in hybrid computational intelligence systems, neuro-fuzzy systems, in training artificial neural networks, in clustering and classification problems.Item Delay models based on systems with usual and shifted hyperexponential and hypererlangian input distributions(Національний університет "Запорізька політехніка", 2021) Tarasov, V. N.; Bakhareva, N. F.; Тарасов, В. Н.; Бахарєва, Н. Ф.EN: Context. In the queueing theory, the study of systems with arbitrary laws of the input flow distribution and service time is relevant because it is impossible to obtain solutions for the waiting time in the final form for the general case. Therefore, the study of such systems for particular cases of input distributions is important. Objective. Getting a solution for the average delay in the queue in a closed form for queuing systems with ordinary and with shifted to the right from the zero point hyperexponential and hypererlangian distributions in stationary mode. Method. To solve this problem, we used the classical method of spectral decomposition of the solution of the Lindley integral equation. This method allows to obtaining a solution for the average delay for two systems under consideration in a closed form. The method of spectral decomposition of the solution of the Lindley integral equation plays an important role in the theory of systems G/G/1. For the practical application of the results obtained, the well-known method of moments of probability theory is used. Results. For the first time, a spectral decomposition of the solution of the Lindley integral equation for systems with ordinary and with shifted hyperexponential and hyperelangian distributions is obtained, which is used to derive a formula for the average delay in a queue in closed form. Conclusions. It is proved that the spectral expansions of the solution of the Lindley integral equation for the systems under consideration coincide; therefore, the formulas for the mean delay will also coincide. It is shown that in systems with a delay, the average delay is less than in conventional systems. The obtained expression for the waiting time expands and complements the well-known incomplete formula of queuing theory for the average delay for systems with arbitrary laws of the input flow distribution and service time. This approach allows us to calculate the average delay for these systems in mathematical packages for a wide range of traffic parameters. In addition to the average waiting time, such an approach makes it possible to determine also moments of higher orders of waiting time. Given the fact that the packet delay variation (jitter) in telecommunications is defined as the spread of the waiting time from its average value, the jitter can be determined through the variance of the waiting time. UK: Актуальність. У теорії масового обслуговування дослідження систем довільними законами розподілів вхідного потоку і часу обслуговування актуальні в зв’язку з тим, що не можна отримати рішення для затримки в кінцевому вигляді в загальному випадку при довільних законах розподілів вхідного потоку і часу обслуговування. Тому в сучасній теорії телетрафіка важливі дослідження таких систем для окремих випадків вхідних розподілів. Мета роботи. Отримання рішення для середньої затримки в черзі в замкнутій формі для систем масового обслуговування зі звичайними і з зсунутими вправо від нульової точки розподілами в сталому режимі. Метод. Для вирішення поставленого завдання був використаний класичний метод спектрального розкладання рішення інтегрального рівняння Ліндлі. Цей метод дозволяє отримати рішення для середнього часу очікування для розглянутих систем в замкнутій формі. Метод спектрального розкладання рішення інтегрального рівняння Ліндлі грає важливу роль в теорії систем G/G/1. Для практичного застосування отриманих результатів було використано відомий метод моментів теорії ймовірностей. Результати. Вперше отримано спектральні розкладання рішення інтегрального рівняння Линдли для систем зі звичайними та з зсунутими гиперекспониціональне і гиперерлангівське розподілами, за допомогою якого виведено розрахункове вираз для середньої затримки в черзі в замкнутій формі. Висновки. Доведено, що спектральні розкладання рішення інтегрального рівняння Линдли для розглянутих систем збігаються, тому формули для середньої затримки також будуть збігатися. Показано, що в системах з запізненням у часі середній час очікування менше, ніж в звичайних системах. Отримане розрахункове вираз для часу очікування розширює і доповнює відому незавершену формулу теорії масового обслуговування для середньої затримки для систем з довільними законами розподілів вхідного потоку і часу обслуговування. Такий підхід дозволяє розрахувати середньої затримки для зазначених систем в математичних пакетах для широкого діапазону зміни параметрів трафіку. Крім середньої затримки, такий підхід дає можливість також визначити моменти вищих порядків часу очікування. З огляду на той факт, що варіація затримки пакетів (джиттер) в телекомунікації визначається як дисперсія часу очікування від його середнього значення, то джиттер можна буде визначити через дисперсію затримки.Item Combined Newton’s third-order convergence method for minimize one variable functions(Національний університет "Запорізька політехніка", 2021) Kodnyanko, V. A.; Grigorieva, O. A.; Strok, L. V.; Коднянко, В. А.; Григор’єва, О. А.; Строк, Л. В.EN: Contex. The article deals with the actual problem of numerical optimization of slowly computed unimodal functions of one variable. The analysis of existing methods of minimization of the first and second orders of convergence, which showed that these methods can be used to quickly solve these problems for functions, the values of which can be obtained without difficulty. For slowly computed functions, these methods give slow algorithms; therefore, the problem of developing fast methods for minimizing such functions is urgent. Objective. Development of a combined third-order Newtonian method of convergence to minimize predominantly slowly computed unimodal functions, as well as the development of a database, including smooth, monotonic and partially constant functions, to test the method and compare its effectiveness with other known methods. Method. A technique and an algorithm for solving the problem of fast minimization of a unimodal function of one variable by a combined numerical Newtonian method of the third order of convergence presented. The method is capable of recognizing strictly unimodal, monotonic and constant functions, as well as functions with partial or complete sections of a flat minimum. Results. The results of comparison of the proposed method with other methods, including the fast Brent method, presented. 6954 problems were solved using the combined Newtonian method, while the method turned out to be faster than other methods in 95.5% of problems, Brent’s method worked faster in only 4.5% of problems. In general, the analysis of the calculation results showed that the combined method worked 1.64 times faster than the Brent method. Conclusions. A combined third-order Newtonian method of convergence proposed for minimizing predominantly slowly computed unimodal functions of one variable. A database of problems developed, including smooth, monotone and partially constant functions, to test the method and compare its effectiveness with other known methods. It is shown that the proposed method, in comparison with other methods, including the fast Brent method, has a higher performance. UK: Актуальність. У статті розглядається актуальна проблема чисельної оптимізації повільно обчислюваних унімодальних функцій однієї змінної. Проведено аналіз існуючих методів мінімізації першого і другого порядку збіжності, який показав, що ці методи можуть бути використані для швидкого вирішення цих завдань для функцій, значення яких можуть бути отримані без труднощів. Для повільно обчислюваних функцій ці методи дають повільні алгоритми, тому актуальною є задача розробки швидких методів для мінімізації таких функцій. Мета. Розробка комбінованого ньютоновского методу третього порядку збіжності для мінімізації переважно повільно обчислюваних унімодальних функцій, а також розробка бази даних, що включає гладкі, монотонні і частково постійні функції, для перевірки методу і порівняння його ефективності з іншими відомими методами. Метод. Викладається методика і алгоритм вирішення завдання швидкої мінімізації унімодальної функції однієї змінної комбінованим чисельним ньютоновским методом третього порядку збіжності. Метод здатний розпізнавати строго унімодальне, монотонні і постійні функції, а також функції з частковими або повними ділянками плоского мінімуму. Результати. Наводяться результати порівняння запропонованого методу з іншими методами, в тому числі швидким методом Брента. За допомогою комбінованого ньютоновского методу вирішено 6954 завдання, при цьому метод виявився швидше за інших методів в 95,5% завдань, метод Брента працював швидше лише в 4,5% завдань.В цілому аналіз результатів розрахунку показав, що комбінований метод працював в 1,64 рази швидше, ніж метод Брента. Висновки. Запропоновано комбінований ньютоновский метод третього порядку збіжності для мінімізації переважно повільно обчислюваних унімодальних функцій однієї змінної. Розроблено базу даних завдань, включаючи гладкі, монотонні і частково постійні функції, для перевірки методу і порівняння його ефективності з іншими відомими методами. Показано, що запропонований метод в порівнянні з іншими методами, включаючи швидкий метод Брента, має більш високу швидкодію.Item On the Kolmogorov-Wiener filter for random processes with a power-law structure function based on the Walsh functions(Національний університет "Запорізька політехніка", 2021) Gorev, V. N.; Gusev, A. Yu.; Korniienko, V. I.; Safarov, A. A.; Горєв, В. М.; Гусєв, О. Ю.; Корнієнко, В. І.; Сафаров, О. О.EN: Context. We investigate the Kolmogorov-Wiener filter weight function for the prediction of a continuous stationary random process with a power-law structure function. Objective. The aim of the work is to develop an algorithm of obtaining an approximate solution for the weight function without recourse to numerical calculation of integrals. Method. The weight function under consideration obeys the Wiener-Hopf integral equation. A search for an exact analytical solution for the corresponding integral equation meets difficulties, so an approximate solution for the weight function is sought in the framework of the Galerkin method on the basis of a truncated Walsh function series expansion. Results. An algorithm of the weight function obtaining is developed. All the integrals are calculated analytically rather than numerically. Moreover, it is shown that the accuracy of the Walsh function approximations is significantly better than the accuracy of polynomial approximations obtained in the authors’ previous papers. The Walsh function solutions are applicable in wider range of parameters than the polynomial ones. Conclusions. An algorithm of obtaining the Kolmogorov-Wiener filter weight function for the prediction of a stationary continuous random process with a power-law structure function is developed. A truncated Walsh function expansion is the basis of the developed algorithm. In opposite to the polynomial solutions investigated in the previous papers, the developed algorithm has the following advantages. First of all, all the integrals are calculated analytically, and any numerical calculation of the integrals is not needed. Secondly, the problem of the product of very small and very large numbers is absent in the framework of the developed algorithm. In our opinion, this is the reason why the accuracy of the Walsh function solutions is better than that of the polynomial solutions for many approximations and why the Walsh function solutions are applicable in a wider range of parameters than the polynomial ones. The results of the paper may be applied, for example, to practical traffic prediction in telecommunication systems with data packet transfer. UK: Актуальність. Розглянуто вагову функцію фільтра Колмогорова-Вінера для прогнозування неперервного стаціонарного випадкового процесу зі степеневою структурною функцією. Мета роботи. Метою роботи є розробити алгоритм отримання наближеного розв’язку для вагової функції, який не містить числового обчислення інтегралів. Метод. Вагова функція, що розглядається, підпорядковується інтегральному рівнянню Вінера-Хопфа. Пошук точного аналітичного розв’язку відповідного інтегрального рівняння стикається з труднощами, тож шукається наближений розв’язок для вагової функції в рамках методу Галеркіна, який базується на основі обірваного розвинення в ряд за функціями Уолша. Результати. Розроблено відповідний алгоритм отримання вагової функції. Усі інтеграли обчислено аналітично, а не чисельно. Більше того, показано, що точність отриманих наближень, що базуються на функціях Уолша, є значно кращою за точність поліноміальних розв’язків, отриманих у попередніх роботах авторів. Розв’язки, що базуються на функціях Уолша, є застосовними у ширшому діапазоні параметрів, ніж поліноміальні розв’язки. Висновки. Розроблено алгоритм отримання вагової функції фільтра Колмогорова-Вінера для прогнозування неперервного стаціонарного випадкового процесу зі степеневою структурною функцією. Основою алгоритму є розвинення за функціями Уолша. На відміну від поліноміальних розв’язків, досліджених у минулих статтях, розроблений алгоритм має наступні переваги. По-перше, усі інтеграли обчислено аналітично, і немає потреби в числовому розрахунку інтегралів. По-друге, проблема добутку дуже малих та дуже великих чисел відсутня в рамках запропонованого алгоритму. На наш погляд, це є причиною того, що точність розв’язків, що базуються на функціях Уолша, є кращою за точність поліноміальних розв’язків для багатьох наближень, і це є причиною того, що розв’язки на основі функцій Уолша є застосовними у ширшому діапазоні параметрів, ніж поліноміальні розв’язки. Результати роботи можуть бути застосовані до, наприклад, прогнозування на практиці трафіку в телекомунікаційних системах з пакетною передачею даних.Item Порядок оцінки несучої частоти сигналу, що приймається супутниковою системою зв’язку в безперервному режимі(Національний університет "Запорізька політехніка", 2021) Туровський, О. Л.; Дробик, О. В.; Turovsky, A. L.; Drobik, O. V.UK: Актуальність. Однією з особливостей систем супутникового зв’язку є переважне використання в них під час прийому сигналу в безперервному режимі фазової модуляції сигналів, що призначені для передачі корисної інформації. Використання вказаного виду модуляції потребує вирішення завдання що до оцінки несучої частоти сигналу. А сама оцінка зводиться до задачі оцінки частоти максимуму в спектрі фрагменту синусоїдального сигналу на фоні адитивного гаусівського шуму. В статті розглянуто процес оцінки несучої частоти сигналу, що приймається супутниковою системою зв’язку в безперервному режимі по правилу максимальної правдоподібності. Мета. Розробка порядку оцінки несучої частоти сигналу, що приймається супутниковою системою зв’язку в безперервному режимі по правилу максимальної правдоподібності. Метод. Запропонований в роботі порядок та розроблений на його основі алгоритм дає змогу здійснити оцінку несучої частоти по правилу максимальної правдоподібності з врахуванням умов невизначеності всіх параметрів сигналу, що приймається супутникової системою зв’язку в безперервному режимі. Результати. З метою практичного впровадження вказаного алгоритму в діючі схеми супутникового зв’язку, в роботі запропоновані схеми його апаратної реалізації. Для ілюстрації співвідношення кордонів мінімально граничної дисперсії оцінки несучої частоти в роботі подані залежності, які дозволяють здійснити порівняння мінімально граничної дисперсії, визначеної нижнім кордоном Крамера-Рао та мінімально граничної дисперсії, визначеної з урахуванням всіх параметрів сигналу. Висновки. Аналіз поданих залежностей показав, що реальних умовах мінімальна дисперсія проведення несучої частоти сигналу по правилу максимальної правдоподібності, що приймається супутникової системою зв’язку в безперервному режимі при невизначеності всіх параметрів сигналу може істотно відрізнятися від мінімальної дисперсії, отриманої на основі застосування нижнього кордону Крамера-Рао. Перспективи подальших досліджень слід спрямувати на розробку та створення алгоритмів та методик, спрямованих на МП-оцінку при умові максимального наближення мінімально граничної дисперсії оцінки несучої частоти реального сигналу до нижнього кордону Крамера-Рао, визначеного для оцінки несучої частоти в умовах визначеності інших параметрів сигналу. EN: Context. One of the features of satellite communication systems is the advantageous use in them during the reception of the signal in the continuous mode of phase modulation of signals intended for the transmission of useful information. The use of this type of modulation requires solving the problem of estimating the carrier frequency of the signal. And the estimation itself is reduced to the problem of estimating the frequency of the maximum in the spectrum of a fragment of a sinusoidal signal against the background of additive Gaussian noise. The article considers the process of estimating the carrier frequency of a signal by a satellite communication system in a continuous mode according to the rule of maximum likelihood. Objective. Development of a procedure for estimating the carrier frequency of a signal received by a satellite communication system in a continuous mode according to the maximum likelihood rule. Method. The procedure proposed in the work and the algorithm developed on its basis allows to estimate the carrier frequency according to the rule of maximum likelihood, taking into account the conditions of uncertainty of all signal parameters by the satellite communication system in continuous mode. The results. For the purpose of practical introduction of the specified algorithm in operating schemes of satellite communication, schemes of its hardware realization are offered in work. To illustrate the ratio of the limits of the minimum limiting variance of the carrier frequency estimate, the paper presents dependencies that allow comparing the minimum limiting variance defined by the lower Cramer-Rao boundary and the minimum limiting variance determined taking into account all signal parameters. Conclusions. Analysis of these dependences showed that in real conditions the minimum dispersion of the carrier frequency of the signal according to the rule of maximum likelihood received by the satellite communication system in continuous mode with uncertainty of all signal parameters may differ significantly from the minimum dispersion obtained by applying the lower Kramer – Rao boundary. Prospective research, development and creation of algorithms and techniques aimed at estimating the carrier frequency at the minimum limiting variance in the conditions of uncertainty of all parameters of the received signal should be aimed at the maximum approximation of the minimum limiting variance of the estimated carrier frequency to the lower Cramer-Rao boundary to estimate the carrier frequency under conditions of certainty of other signal parameters.Item Optimization of preventive threshold for condition-based maintenance of radio electronic equipment(Національний університет "Запорізька політехніка", 2021) Solomentsev, O. V.; Zaliskyi, M. Yu.; Shcherbyna, O. A.; Asanov, M. M.; Соломенцев, О. В.; Заліський, М. Ю.; Щербина, О. А.; Асанов, М. М.EN: Context. Operation costs throughout the life cycle of radio electronic equipment are very significant, which value far exceeds the initial cost of the equipment. Therefore, the up-to-date scientific and technical problem is to minimize operation costs. One of the ways to solve this problem is the introduction of statistical data processing technologies in the operation systems of radio electronic equipment. Objective. The goal of the paper is to improve the efficiency of thecondition-based maintenance with the determining parameters monitoring, which is widely used in civil aviation. Method. The solution of this problem is based on finding the functional dependence of the efficiency indicator in the form of specific operation costs on the basic parameters of radio electronic equipment and its operation system. To determine this dependence, the probability-event model is used,as well as methods of probability theory and mathematical statistics, in particular methods of statistical classification of sample sets and functional transformations of random variables. To determine the optimal level of the preventive threshold by the criterion of minimizing operation costs, the method of statistical simulation of Monte-Carlo is used. Results. Maintenance strategy with the determining parameters monitoring based on additional statistical data processing and technology of the optimal preventive threshold calculation are improved. Conclusions. The obtained results can be used during the development and modernization of operation systems of radio electronic equipment in terms of application of statistical data processing procedures. A comparative analysis of the two maintenance strategies showed that the use of additional statistical data processing might reduce specific operation costs. The proposed technology for determining the optimal preventive threshold can be extended to use during the operation of complex technical systems, in particular for those whose technical condition is associated with the values of the determining parameters. UK: Актуальність. Експлуатаційні витрати протягом всього життєвого циклу радіоелектронного обладнання складають значну величину, що набагато перевищує власне вартість обладнання. Тому актуальною науково-технічною проблемою є мінімізація експлуатаційних витрат. Одним із шляхів вирішення цієї проблеми є впровадження технологій оброблення статистичних даних у системах експлуатації радіоелектронного обладнання. Мета роботи − підвищення ефективності стратегії технічного обслуговування за станом з контролем визначальних параметрів, яка широко застосовується в цивільній авіації. Метод. Вирішення поставленої проблеми базується на знаходженні функціональної залежності показника ефективності у вигляді питомих експлуатаційних витрат від основних параметрів радіоелектронного обладнання та системи його експлуатації. Для визначення цієї залежності використовується імовірнісно-подієва модель, а також методи теорії ймовірності та математичної статистики, зокрема методи статистичної класифікації вибіркових сукупностей та функціональних перетворень випадкових величин. Для визначення оптимального рівня превентивного порога за критерієм мінімізації експлуатаційних витрат використовується метод статистичного моделювання Монте-Карло. Результати. Удосконалена стратегія технічного обслуговування за станом з контролем визначальних параметрів, що базується на додатковій статистичній обробці експлуатаційних даних та технології знаходження оптимального превентивного порогу. Висновки. Отримані результати можуть бути використані під час розробки та модернізації систем експлуатації радіоелектронного обладнання в частині застосування процедур оброблення статистичних даних. Порівняльний аналіз двох стратегій технічного обслуговування показав, що використання додаткової статистичної обробки даних дозволяє зменшити питомі експлуатаційні втрати. Запропонована технологія визначення оптимального превентивного порогу може бути поширена для використання під час експлуатації складних технічних систем, зокрема для таких, чий технічний стан пов’язаний зі значеннями визначальних параметрів.Item Алгоритми пошуку періодичностей у цифрових послідовностях з блоковим кодуванням за їх кореляційними властивостями(Національний університет "Запорізька політехніка", 2021) Романов, О. М.; Котюбін, В. Ю.; Romanov, О. М.; Kotiubin, V. Yu.UK: Актуальність Для підвищення завадостійкості систем зв’язку і передачі даних широко застосовується завадостійке кодування. Найбільш розповсюдженими через свою ефективність є методи блокового кодування. В умовах часткової апріорної невизначеності виду і параметрів кодування перед декодуванням цифрової послідовності проводиться попередній аналіз для їх визначення. При блоковому кодуванні для визначення періоду цифрової послідовності, обумовленого додаванням до неї синхропослідовності, і який може визначати вид і параметри кодування, розповсюдженим підходом є використання їх кореляційних властивостей. Метою роботи є викладення алгоритмів пошуку періодичностей у цифрових послідовностях з блоковим завадостійким кодуванням в умовах часткової апріорної невизначеності виду і параметрів завадостійкого коду. Метод. У статті наведено два алгоритми пошуку періодичностей у цифрових послідовностях з блоковим кодуванням та описано принцип їх роботи. В основі одного алгоритму лежить обчислення АКФ, в основі іншого – ВКФ. Показано, що довжина цифрової послідовності повинна бути щонайменше в два рази більше максимально можливого періоду. Роботу обох алгоритмів проілюстровано на прикладах. Результати. На основі запропонованих алгоритмів розроблено СПЗ. Результати визначення періоду цифрових послідовностей з блоковим завадостійким кодуванням при різних значеннях періоду підтвердили працездатність запропонованих алгоритмів. Обидва запропоновані алгоритми дають приблизно однаковий результат. Встановлено експериментальні залежності часу обчислення АКФ і ВКФ від довжини цифрової послідовності і максимально можливого періоду. Алгоритм пошуку періоду цифрової послідовності за ВКФ її складових є більш ефективним через меншу кількість обчислень. Висновки. У роботі вперше отримано два алгоритми пошуку періодичностей у цифрових послідовностях з блоковим завадостійким кодуванням, які засновані на визначенні їх кореляційних функцій. Застосування розроблених алгоритмів на практиці дає змогу в умовах часткової апріорної невизначеності виду і параметрів завадостійкого коду визначати період цифрових послідовностей у масштабі реального часу навіть при великих значеннях періоду, а на його основі – ідентифікувати вид і параметри блокових завадостійких кодів. EN: Context. To improve the noise immunity of communication and data transmission systems, error-correcting coding is widely used. The most common because of their effectiveness are block coding methods. Under conditions of partial a priori uncertainty of the type and parameters of encoding, before decoding the digital sequence, a preliminary analysis is carried out to determine them. In block coding, to determine the period of a digital sequence caused by the addition of a sync sequence to it, and which can determine the type and parameters of coding, a common approach is to use their correlation properties. Objective. The object of the research is the presentation of periodicity search algorithms in digital sequences with block error-correcting coding under conditions of partial a priori uncertainty of the type and parameters of the error-correcting code. Method. The article presents two periodicity search algorithms in digital sequences with block coding and describes the principle of their operation. The basis of one algorithm is the calculation of the autocorrelation function, the basis of the other is calculation of the cross-correlation function. It is shown that the length of the digital sequence should be twice as long as the maximum possible period. The operation of both algorithms is illustrated by examples. Results. Based on the proposed algorithms, special software has been developed. The results of determining the period of digital sequences with block error-correcting coding at different values of the period confirmed the efficiency of the proposed algorithms. Both proposed algorithms give approximately the same result. Experimental dependences of the calculation time of auto- and cross-correlation functions from the length of the digital sequence and the maximum possible period are established. The period search algorithm in a digital sequence, that use the cross-correlation function of its components, is more efficient due to fewer calculations. Conclusions. For the first time, two periodicity search algorithms in digital sequences with block error-correcting based on the determination of their correlation functions are obtained. The application of the developed algorithms in practice allows, under partial a priori uncertainty of the type and parameters of the error-correcting code, to determine the period of digital sequences in real time even at large values of the period, and based on it, to identify the type and parameters of block error-correcting codes.