Радіоелектроніка, інформатика, управління - 2020, №1 (52)
Permanent URI for this collectionhttps://eir.zp.edu.ua/handle/123456789/27328
Browse
Recent Submissions
Item Method of uncertain coefficients in problems of optimal stabilization of technological processes(Національний університет "Запорізька політехніка", 2020) Stenin, A. A.; Drozdovich, I. G.; Soldatova, M. A.; Стенін, О. А.; Дроздович, І. Г.; Солдатова, М. О.EN: Context. The equivalent transformation method is examined in the given article. Its essence lies in changing of a certain class of non-stationary systems with the stationary ones, for which optimization methods are well processed. Urgency of the method is determined by the fact that in most optimal control methods, developed for continuous systems, tasks are considered in the temporary space using the states space and the matrix theory. All real control objects are known to be non-linear and non-stationary in one way or another. Analysis and synthesis of control systems for such objects is a complex mathematical issue, and its solution is received for some separate occasions for now. As a result of using the suggested method, when the variable coefficients matrix is known, the task of the non-stationary system optimal control is reduced to the task of the equivalent stationary system optimal control for which solution methods are well-known and well processed. Objective. Reducing energy intensity and improving the quality of products of various technological processes is an urgent task of the national economy of Ukraine. Methods. To achieve this goal, we propose a method of modal synthesis of optimal stabilization laws using the method of uncertain coefficients, developed by the authors Results. Algorithm of synthesis of the optimal controller in the absence and presence of delay in the control loop is developed. The method of selection and correction of the desired spectrum of roots is proposed. To eliminate self-oscillations in the presence of a delay in the control circuit, the R. Bass method is used. Conclusions. The modal synthesis of optimal laws of stabilization of technological processes is proposed on the basis of the original method of uncertain coefficients. The complexity of the choice of the desired eigenvalues is overcome by the proposed procedure of construction and correction of the spectrum of roots in a closed system of optimal control. To eliminate the occurrence of stable self-oscillations (in the presence of a delay) in the stabilization process near a given trajectory, the Bass’s method is proposed to be used. The simulation results confirm the correctness and effectiveness of the results. UK: Актуальність В даній статті розглядається метод еквівалентного перетворення, зміст якого полягає в заміні деякого класу нестаціонарних систем стаціонарними, для яких методи оптимізації добре опрацьовані. Актуальність методу обумовлена тим, що у більшості методів оптимального управління, які розроблені для неперервних систем, задачі розглядаються у часовому просторі з використанням простору станів та теорії матриць. Відомо, що всі реальні об’єкти управління в той чи іншій мірі є нелінійними та нестаціонарними. Аналіз та синтез систем управління для таких об’єктів представляє собою складну математичну проблему, рішення якої до теперішнього часу отримано для деяких окремих випадків. В результаті використання запропонованого методу, коли відома матриця змінних коефіцієнтів, задача оптимального управління нестаціонарною системою зводиться до рішення задачі оптимального управління еквівалентною стаціонарною системою, методи рішення якої достатньо відомі та добре опрацьовані. Метод. Для досягнення поставленої мети запропоновано метод модального синтезу оптимальних законів стабілізації з використанням розробленого авторами методу невизначених коефіцієнтів Результат. Розроблено алгоритм синтезу оптимального регулятора у випадках відсутності і наявності запізнювання в контурі управління. Запропонована методика вибору і корекції бажаного спектру коренів. Для усунення автоколивань при наявності запізнювання в контурі управління використовується метод Р. Бесса. Висновок Запропоновано модальний синтез оптимальних законів стабілізації технологічних процесів на основі оригінального методу невизначених коефіцієнтів. Складність вибору шуканих власних значень долається запропонованою процедурою побудови і корекції спектру коренів в замкнутій системі оптимального управління. Для виключення виникнення стійких автоколивань (при наявності затримки) в процесі стабілізації поблизу заданої траєкторії пропонується використовувати метод Бесса. Результати моделюванняItem Decision-making during limited number of experiments with multiple criteria(Національний університет "Запорізька політехніка", 2020) Irodov, V. F.; Barsuk, R. V.; Іродов, В. Ф.; Барсук, Р. В.EN: Context. The mechanism of decision-making during limited number of experiments with multiple criteria are considered. The investigation object is process decision-making for project or control in complex systems with multiple criteria. Objective. It is necessary to determine optimal (most preferred) parameters of the systems with multiple criteria. It is no the mathematical model of the system, there is limited number of experiments only. Method. A scheme is proposed for constructing a selection mechanism for decision-making in systems with several criteria for which there is a sample of experimental results. The scheme includes the following procedures: an experimental study of a process with several criteria (functions) depending on its parameters; the use of expert evaluation to build a matrix of preferences for individual implementations; building a function of choosing preferred solutions based on a preference matrix by constructing a mathematical model of preference recognition, formulation and solving the problem of generalized mathematical programming as the final step in building the selection mechanism. The decision-making mechanism depends on the expert assessment procedure when comparing a limited set of results with each other, as well as on the statement of conditions when solving the problem of generalized mathematical programming. Comparison of a finite number of experiments is convenient for expert evaluation. Presentation of the final choice as a result of solving the problem of generalized mathematical programming is convenient for using such a mechanism in automatic control systems already without human intervention. Results. The proposed scheme of decision-making during limited number of experiments has been applied to decision-making of project management for pellet burner. Experimental decision-making results are presented in the presence of several criteria for a pellet burner of a tubular heater, which confirm the acceptability of the developed decision-making mechanism. Conclusions. It was proposed the new scheme for constructing a selection mechanism for decision-making in systems with several criteria where there is a sample of experimental results only. The scheme of decision-making is includes the solving the problem of generalized mathematical programming as the final step in building the selection mechanism. For the solving the problem of generalized UK: Актуальність. Розглянуто задачу прийняття рішень для системи з декількома критеріями на основі обмеженої кількості експериментальних результатів. Об’єктом дослідження є процес прийняття рішень, починаючи з експериментального дослідження системи до рішення задачі оптимізації системи з декількома критеріями. Мета. Мета роботи – викладення цільного механізму прийняття рішень для системи з декількома критеріями на основі обмеженої кількості експериментів. Метод. Запропоновано використовувати алгоритми еволюційного пошуку переважних рішень для двох основних процедур: пошук оптимальної функції вибору на базі матриці пере важності експериментальних рішень; пошук оптимальних по бінарному відношенню вибору рішень на всій множині допустимих параметрів (рішення задачі узагальненого математичного програмування). Алгоритм еволюційного пошуку, який застосовується, вирішує задачу пошуку оптимальних по бінарному відношенню вибору рішень без потреби випуклості відношення вибору. У роботі застосовані експериментальні результати дослідження пальника на паливних гранулах (пелетах). Вхідні параметри системи налічують п’ять розмірних параметрів, а вихідні параметри три розмірні критерії. Усього експерименти налічують 45 результатів, з яких 25 експериментів склали навчальну послідовність і 20 результатів – контрольну послідовність, які застосовувались для отримання функції вибору. Результати. Розроблена цільна система побудови механізму прийняття рішень для системи з декількома критеріями на основі обмеженої кількості експериментів. Висновки. Наведені експерименти та їх обробка показали достовірність основних наукових результатів – можливості побудови механізму вибору у системі з декількома критеріями на основі обмеженої кількості експериментів і поширення кінцевого вибору на всю допустиму область вхідних параметрів, а не тільки на множині експериментальних результатів.Item Algorithms for tuning of the coordinating automatic control systems(Національний університет "Запорізька політехніка", 2020) Gurskiy, A. A.; Goncharenko, A. E.; Dubna, S. M.; Гурський, О. О.; Гончаренко, О. Є.; Дубна, С. М.EN: Context. The important task was solved during the scientific research related to the development of the algorithm for tuning of the coordinating automatic control system. The reason why the development of those algorithms is important is because of the progress in field of certain classes of complex multilayered control systems, which provide coordination of the transient processes while the regulating technological parameters. Objective. The purpose of the scientific work is the minimizing of time and the automation of tuning process for the complex multilevel control systems. Method. We offer the step-by-step tuning of the double-level coordinating systems of automatic control for the refrigeration facilities in the particular for the refrigerating turbocompressor facilities and systems with the tunnel refrigerating chambers. We offer the block-scheme of algorithms which may be used during the realization of automatic search for the system tuning parameters providing coordination of the transient processes under automatic control. Results. The experiments were conducted in the Matlab 2012a environment. The result of the experiments is graphs of certain transient processes obtained on various steps of the tuning for multilevel coordinating automatic control system. Based on the simulation results we have done the conclusion about efficiency of the different algorithms. The possibility for using of the presented algorithms was also considered, particularly the specificity of the functioning of the automatic tuning of the automatic control multilevel system complex. Conclusion. These experiments have showed the applicability of certain algorithms of step-by-step tuning for the double-level coordinating automatic control system. It is estimated, that the automatic tuning of the automatic control coordinating systems with algorithm utilization will increase the scope of the modern intellectual technologies. UK: Актуальність. Вирішена актуальна задача, що пов’язана з розробкою алгоритмів настроювання координувальних систем автоматичного управління. Важливість розробки даних алгоритмів викликана розвитком, у цей час, певного класу складних багаторівневих систем управління, що забезпечують узгодження перехідних процесів при регулюванні технологічних параметрів. Мета роботи – мінімізація часу та автоматизація процесу настроювання багаторівневих координувальних систем автоматичного управління. Метод. Запропоновано поетапне настроювання дворівневих координувальних систем автоматичного управління для об’єктів холодильної техніки, в окремому випадку для холодильних турбокомпресорних установок і систем з тунельними холодильними камерами. Наводяться блок-схеми алгоритмів, які можуть бути використані на етапі автоматизованого пошуку параметрів настроювання системи, що забезпечує узгодження перехідних процесів при автоматичному управлінні. Результати. Експерименти були проведені в середовищі Matlab 2012a, за результатами яких були отримані графіки певних перехідних процесів на різних етапах настроювання багаторівневої системи автоматичного управління. На підставі аналізу результатів моделювання робиться висновок про доцільність використання різних алгоритмів настроювання. Також була визначена галузь застосування розроблених алгоритмів поетапного настроювання багаторівневих систем. В окремому випадку були представлені особливості функціонування комплексу автоматизованого настроювання багаторівневих систем автоматичного управління. Висновки. Проведені експерименти показали принципову придатність певних алгоритмів поетапного настроювання дворівневих координувальних систем автоматичного управління. Встановлено, що реалізація автоматизованого настроювання координувальних систем автоматичного управління із застосуванням відповідних алгоритмів має місце в галузі сучасних інтелектуальних технологій.Item A method of the transmitted blocks information integrity control(Національний університет "Запорізька політехніка", 2020) Tanygin, M. O.; Alshaeaa, H. Y.; Kuleshova, E. A.; Танигін, М. О.; Алшаиа, Х. Я.; Кулешова, О. О.EN: Context. For the proper operation of the hardware and software systems, it is necessary that the hardware component receives data only from the corresponding software. Otherwise, the data received from extraneous programs that can be perceived and processed by the device, which can lead to errors in the operation of the device or even a complete loss of its functionality or data. Objective. In order to increase the reliability of legal software data and identify the challenges of the transfer of blocks, this article focuses on a comprehensive study of the problems arising from the transmission of information in the form of separate data blocks. Method. The methods of integrity control in modes of transmission are described. The method based on hashes and block delivery time is analyzed in detail, analysis the methods of reducing the probability of errors occurring in the receiver and the possibility of reducing the reception of the extraneous blocks when receiving individual blocks of information. This is done by using a set of mathematical equations. And measure the extent of the effect of intensity of receiving extraneous blocks and hash field length. Results. In the process of analyzing systems in which information is transmitted by block, when using the method of formation of information chains based on the method the hashes and the delivery time of the block, where we note, when the value of the hash field is equal to 6 or more, the probability of occurrence of duplicate branches is acceptably low. Where, when hash field more then 6, the parameter of length of a chain practically does not affect the final probability of constructing a chain from the extraneous blocks. The very same value of the probability of constructing a false chain, the length exceeding the chain of legal blocks at hash field more 6 is about1 10–3, which it’s acceptable for real information transmission systems. Conclusions. Based on the analysis, we can conclude that in systems in which information is transmitted block by block, when using the method of generating information chains based on the hash and block arrival time, with a hash field of 6 or more, the probability of occurrence of duplicate branches is acceptably low. UK: Актуальність. У статті приділено увагу всебічному вивченню проблем, що викликають передачу інформації у вигляді окремих блоків даних (кадрів, фреймів). Метод. Описані методи контролю цілості у таких способах передачі. Детально розглянуто метод на основі ґешів і часу доставки блоку, проаналізованих методами зниження ймовірності помилок, відновлюючих прийомів при приєднанні окремих блоків інформації. Результати. У процесі аналізу систем, в яких інформація передається блоком, при використанні методу формування інформаційних ланцюгів на основі методу хешів і часу доставки блоку, де ми зазначаємо, коли значення ґеш-поля дорівнює 6 і більше, ймовірність появи повторюваних гілок є прийнятно низькою. Де, коли ґеш-поле більше 6, параметр довжини ланцюга практично не впливає на остаточну ймовірність побудови ланцюга із сторонніх блоків. Саме це значення ймовірності побудови помилкового ланцюга, довжина якого перевищує ланцюжок легальних блоків у ґеш-полі більше 6 становить приблизно 10–3, що є прийнятним для реальних систем передачі інформації. Висновки. На основі проведеного аналізу можна зробити висновок, що в системах, в яких інформація передається поблоково, при використанні методу формування інформаційних ланцюжків на основі ґешу і часу надходження блоку, при величині поля ґешу від 6 і більше ймовірність виникнення дублюючих гілок є прийнятно низьклю.Item Multimodal data processing based on algebraic system of aggregates relations(Національний університет "Запорізька політехніка", 2020) Sulema, Yevgeniya; Сулема, Є. С.EN: Context. In many engineering tasks where the monitoring of changes in the characteristics of an observation object, subject, or process is required, it is necessary to process multimodal data recorded with respect to time moments when these characteristics are registered. In this paper, the author presents a new approach to solving the problem of multimodal data structures timewise processing, which allows to simplify the processing of such data by using the mathematical apparatus of an algebraic system of aggregates and thereby reduce the requirements to computing resources. The algebraic system of aggregates operates with such specific data structures as aggregates and multi-images. These complex data structures can be obtained as a result of data measuring, generating, recording, etc. The processing of such multimodal data can also require discrete intervals processing. Objective. The goal of the work is to formalise the relations between basic mathematical objects defined in the algebraic system of aggregates, such as elements, tuples and aggregates, as well as the data structures based on these mathematical objects, namely, discreet intervals and multi-images. Method. The research presented in this paper is based on both the algebraic system of aggregates and the concept of multi-image which enable multimodal data timewise processing. A carrier of the algebraic system of aggregates is an arbitrary set of specific structures – aggregates. An aggregate is a tuple of arbitrary tuples, elements of which belong to predefined sets. Aggregates can be processed by using logical, ordering, and arithmetical operations defined in the algebraic system of aggregates. A multi-image is a non-empty aggregate, the first tuple of which is a tuple of time values. Such tuple of time values represents a certain discrete interval. To process discrete intervals and multi-images, a set of relations is defined in the algebraic system of aggregates. This set includes relations between tuple elements, relations between tuples, and relations between aggregates. The relations between tuples enable arithmetical comparison, frequency comparison, and interval comparison. This mathematical apparatus can be used for both complex representation of object (process) multimodal characteristics and further timewise processing of data represented as multi-images. Results. The approach to discrete intervals and multi-images processing based on relations, which are defined in the algebraic system of aggregates, has been developed and presented in the paper. The author provides examples of the developed approach practical implementation. Conclusions. The results obtained in the research presented in this paper has shown that the relations defined in algebraic system of aggregates enable processing of complex data structures named multi-images in data modelling, prediction and other tasks. To allow data processing with respect to time scale, discrete intervals can be employed. A discrete interval is a tuple of time values. In the paper, the author shows how relations for discrete intervals comparison can be used for solving practical tasks. Besides, the author presents the software tools which can be used for practical implementation of the given theoretical approach by employing the domain-specific language ASAMPL. UK: Актуальність. В багатьох інженерних задачах, пов’язаних з необхідністю моніторингу змін характеристик об’єкта, суб’єкта або процесу спостереження, є потреба у обробленні мультимодальних даних, що реєструються зі встановленням моменту часу їх вимірювання. У цій статті автор представляє новий підхід до вирішення задачі часового оброблення структур мультимодальних даних, який дозволяє спростити оброблення таких даних за рахунок використання математичного апарата алгебраїчної системи агрегатів й тим самим зменшити вимоги, що висуваються до обчислювальних ресурсів. Алгебраїчна система агрегатів оперує такими специфічними структурами даних як агрегати, мультиобрази та дискретні інтервали. Метою цієї роботи є формалізація відношень меж базовими математичними об’єктами, що визначені в алгебраїчній системі агрегатів, а саме, елементами, кортежами та агрегатами, а також структурами даних, які ґрунтуються на цих математичних об’єктах, а саме, дискретними інтервалами та мультиобразами, що дозволить виконувати ефективне оброблення мультимодальних даних, що визначені з урахуванням часу їх реєстрації. Метод. Дослідження, результати якого представлені у цій статті, ґрунтується на використанні основних положень алгебраїчної системи агрегатів та концепції мультиобразу, які дозволяють спростити оброблення структур мультимодальних даних, що визначені у часі. Носієм алгебраїчної системи агрегатів є множина структур даних, що називають агрегатами. Агрегат являє собою кортеж кортежів, елементи яких належать наперед визначеним множинам. В алгебраїчній системі агрегатів визначені логічні операції, операції впорядкування та арифметичні операції над агрегатами. Мультиобразом називають непорожній агрегат, перший кортеж якого є кортежом значень часу. Такий кортеж часових міток являє собою дискретний інтервал. Для оброблення дискретних інтервалів та мультиобразів в алгебраїчній системі агрегатів визначено множину відношень. Ця множина включає відношення між елементами кортежів, відношення між кортежами та відношення між агрегатами. Зокрема, відношення між кортежами дозволяють виконувати арифметичне порівняння, частотне порівняння та інтервальне порівняння. Математичний апарат алгебраїчної системи агрегатів може використовуватись як для комплексного подання мультимодальних характеристик об’єкта (суб’єкта, процесу) дослідження, так і для подальшого оброблення цих даних, зв’язаних з часовими мітками і поданих у вигляді мультиобразу. Результати. У статті розроблено та представлено новий підхід до оброблення мультимодальних даних, зокрема, дискретних інтервалів та мультиобразів, який ґрунтується на відношеннях, що визначені в алгебраїчній системі агрегатів. Наведено приклади практичного застосування розробленого підходу. Висновки. Результати, що отримані у цьому досліджені, дозволяють зробити висновок про те, що відношення, які визначені в алгебраїчній системі агрегатів, можуть бути застосовані для оброблення складних структур даних, що мають назву мультиобрази, в задачах аналізу даних, моделювання, прогнозування тощо. Для оброблення даних, що визначені у прив’язці до деякої шкали часу, можуть застосовуватись цифрові інтервали. У статте автор демонструє, як відношення для порівняння цифрових інтервалів можуть використовуватись для вирішення практичних задач. Крім того, автор представляє програмні інструменти, які можуть бути застосовані для практичної реалізації запропонованого теоретичного підходу з використанням спеціалізованої мови програмування ASAMPL.Item Method of data depersonalization in protected automated information systems(Національний університет "Запорізька політехніка", 2020) Spevakov, A. G.; Spevakova, S. V.; Primenko, D. V.; Спeваков, О. Г.; Спeвакова, С. В.; Применко, Д. В.EN: Context. The problem of data depersonalization in information systems is considered. The analysis of modern approaches to depersonalization of data is carried out, it is revealed and proved by need of creation of the new method allowing to increase security of the processed data and their reliability. The object of the study was a model of data depersonalization, allowing to reduce the cost of protecting information systems. Objective. The goal of the work is the analysis of modern methods of depersonalization and the creation of a method that eliminates the identified shortcomings, with an increased level of confidentiality and use of hashing of critical data and a private key. Method. A method of personal data depersonalization is proposed, based on the method of entering identifiers using hashing of critical data and a private key, which allows to increase the confidentiality of information processed in information systems. Methods are proposed for selecting key critical attributes from primary documents that uniquely identify the subject of personal data, the method of generating initial sets, which divides the source data into two disjoint subsets, the method of generating a hash identifier from a unique sequence and a private key that depersonalizes information and enhances its confidentiality. Results. The developed method is implemented in software and researched while solving the problems of depersonalization. Conclusions. The carried out experiments confirmed the efficiency of the proposed method and allow to recommend it for implementation in automated information systems for processing personal data for solving problems of depersonalization. Prospects for further research may be in the creation of hardware streamlined data depersonalization allowing to increase the speed of processing and confidentiality of data in the information systems. UK: Актуальність. Розглянуто завдання знеособлення даних в інформаційних системах. Проведено аналіз сучасних підходів до знеособлювання даних, виявлено та обґрунтовано необхідністю створення нового методу, що дозволяє підвищити захищеність оброблюваних даних і їх достовірність. Об’єктом дослідження є модель деперсоналізації даних, що дозволяє знизити витрати на захист інформаційних систем. Мета роботи – аналіз сучасних методів знеособлення і створення методу, що усуває виявлені недоліки, з підвищеним рівнем конфіденційності та використанням хешування критично важливих даних і приватного ключа. Мета: аналіз сучасних методів знеособлення і створення методу, що усуває виявлені недоліки, з підвищеним рівнем конфіденційності та використанням хешування критично важливих даних і приватного ключа. Метод. Запропоновано метод знеособлення персональних даних, заснований на методі введення ідентифікаторів з використанням хешування критично важливих даних і приватного ключа, що дозволяє досягти підвищення конфіденційності інформації, оброблюваної в інформаційних системах. Запропоновано методи вибору ключових критично важливих атрибутів з первинних документів, що дозволяють однозначно ідентифікувати суб’єкта персональних даних, методу формування вихідних множин, розбиває вихідні дані на два непересічних підмножини, методу формування хеш ідентифікатора з унікальної послідовності і приватного ключа, обезлічівающего інформацію і підвищує її конфіденційність. Результати. Розроблений метод реалізований програмно і досліджений при вирішенні завдань знеособлення. Висновки. Проведені експерименти підтвердили працездатність запропонованого методу та дозволяють рекомендувати його для впровадження в автоматизованих інформаційних системах обробки персональних даних для вирішення завдань знеособлення. Перспективи подальших досліджень можуть полягати у створенні апаратних засобів потокового знеособлення даних, що дозволяють підвищити швидкість обробки і конфіденційність даних в інформаційних системах.Item Diagnostic system of perception of navigation danger when implementation complicated maneuvers(Національний університет "Запорізька політехніка", 2020) Nosov, P. S.; Zinchenko, S. M.; Popovych, I. S.; Ben, A. P.; Nahrybelnyi, Y. А.; Mateichuk, V. M.; Носов, П. С.; Зінченко, С. М.; Попович, І. С.; Бень, A. П.; Нагрибельний, Я. А.; Матейчук, В. М.EN: Context. The article focuses on the question of automated decision-making analysis made by the operator in ergatic systems of critical infrastructures on the example of marine transport control in difficult navigation conditions. It is evident enough that the main criterion for an adequate perception of input information done by an operator is highly likely to predict the choice of behavioral decision-making strategies in discrete time conditions. However, the difficulty of modeling the operator’s actions is found to be lying in non-linear pattern of taking definite decisions in emergency situations and deviations from the Codes and Rules. Objective. The research purpose strategy of conducted investigation can be defined as the development of the mathematical platform for a decision support system (DSS) module with an aim to identify the class-forming set of atomic elements. In particular this issue determines the fact of distortion of the perception of information about navigation risks predicting the operator’s behavior pattern while having vessel running process. This is possible to have it depicted through formal analysis. Method. To capture the analysis of danger perception by the operator the paper introduces a mathematical model of data collection which identifies the fact of perception distortion in the form of attribute space of metadata obtained by the method of converting information from navigation devices. Besides, the factor of disorientation of the operator can be considered to be a shift on a displaced bridge which significantly affects on the analysis of information for adequate decision making. In addition, taking into account the failure of navigation equipment such as: RADAR, ARPA, AIS, ECDIS, especially while doing exit from the automatic control mode, a dangerous precedent can possibly be created for the operator not ready to perceive the complexity of the situation. To make it work a formal analysis was carried out using the extending risks possibility level tasks during the transition under these conditions. In addition to this item, a probabilistic model of perceiving the situation under the conditions of the error set is reported to have been constructed. So, as the result, the modeling process turned out to show the definite evidence of getting no way possibility to have the degree of criticality of the navigation situation determined without a clear identification of factors affecting the distortion of perception of the operator. Nevertheless, generalized statistical data are sure to be not enough and there is a special need of taking into account an individual information model of each operator for the effective work of DSS as this process faces real challenges. It must be significantly noticed that in order to analyze the perception of information by the operator a special test for defining preferences when choosing a strategy of control actions in the form of maneuvering under difficult navigation conditions purpose was created. Regarding the test results, as well as data on the passage of locations, certain attention is advised to be drawn to the classification analysis of 15 parameters using artificial neural networks having been carried out by our team and, as a consequence, the boundaries of deviations in the perception of navigational danger were found out and clarified. Additional superior item to be spoken about is certainly the introduction of rules and algorithms having been welcomed into the DSS core including the following: interaction field, RADAR and NIS synchronization tools; actual navigational hazard in a given cartographic area; ships trajectories and, as a result, simulations of probable deviations in the information perception of the operator. Results. In order to meet beneficial agreement between the effectiveness of the developed DSS with the proposed formal-analytical approaches an experiment was assumed to be appropriate to be conducted using the Navi Trainer 5000 navigation simulator (NTPRO 5000). Based on the foregoing, due to comprehensive results in experiment metadata for the 2.5 years of operation of navigation simulators and DSS software tools the identification of the deviation probabilities in the information perception of dangers was achieved and export the predicted data to new locations for the operator and cartographic areas was performed. Undoubtedly, the experimental investigation confirmed the hypothesis of the study and reflected completely the feasibility of using this DSS to make predictions of possible risks when control the vessel by analyzing the information model of the operator. Conclusions. Formal-analytical approaches presented in the study combined with the developed DSS software tools and the information itself made it possible to classify the decision-making strategies of the operator when control the vessel and to predict the probability of catastrophic consequences. The feasibility of the proposed models and methods was successfully revealed by carried out experiments. UK: Актуальність. У статті розглядається задача автоматизованого аналізу прийняття рішень оператором в ергатичних системах критичних інфраструктур на прикладі управління морським транспортом в складних навігаційних умовах. Основним критерієм адекватного сприйняття вхідної інформації оператором є прогнозування поведінкових стратегій прийняття рішень в умовах дискретного часу. Однак, складність моделювання дій оператора полягає у нелінійному формуванні рішень в умовах позаштатних ситуацій і відхилень від Кодексів і Правил. Мета. Метою дослідження є розробка математичного забезпечення модуля системи підтримки прийняття рішень (СППР) для ідентифікації класоутворюючих множин атомарних елементів що визначають факт спотворення сприйняття інформації про навігаційні ризики шляхом формального аналізу і прогнозу моделей поведінки оператора при управлінні судном. Метод. З метою автоматизації аналізу сприйняття небезпеки оператором, була побудована математична модель, яка ідентифікує факт спотворення сприйняття у вигляді простору ознак метаданих, що одержуються за допомогою обробки інформації навігаційних приладів. Фактором дезорієнтації оператора також може служити несення вахти на зміщеному містку, що істотно впливає на аналіз інформації для адекватного прийняття рішень. У зв’язку з порушенням синхронізації навігаційних приладів, таких як: РЛС, ARPA, АІС, ECDIS, особливо у випадках виходу з режиму автоматичного управління, виникає небезпечний прецедент що полягає у неготовності оператора сприйняти складність ситуації, внаслідок чого проведено формальний аналіз на предмет підвищення ризиків під час переходу у вказаних умовах. Також побудована імовірнісна модель сприйняття ситуації в умовах картежа похибок. Моделювання показало, що без чіткої ідентифікації факторів, що впливають на спотворення сприйняття оператора, неможливо визначити ступінь критичності навігаційної ситуації, тому узагальнених статистичних даних недостатньо і для результативної роботи СППР, тобто необхідна індивідуальна інформаційна модель кожного оператора. З метою аналізу сприйняття інформації оператором був розроблений тест, що визначає переваги при виборі стратегії керуючих впливів у вигляді виконання маневру при складних навігаційних умовах. Результати тестування, а також дані по проходженню локації дозволили виконати класифікаційний аналіз по 15 параметрам за допомогою штучних нейронних мереж і визначити межі відхилень у сприйнятті навігаційної небезпеки. У ядро СППР внесений ряд правил і алгоритмів, які включають: поле взаємодії, засоби синхронізації РЛС і НІС; фактична навігаційна небезпека в даній картографічній області; траєкторії руху суден і, як результат, моделювання імовірного відхилення у сприйнятті оператора. Результати. З метою підтвердження результативності розробленої СППР і запропонованих формально-аналітичних підходів був проведений експеримент із застосуванням навігаційного тренажера Navi Trainer 5000 (NTPRO 5000). Метадані експерименту за 2,5 року роботи навігаційних тренажерів і програмних засобів СППР дозволили ідентифікувати ймовірність відхилення в інформаційному сприйнятті небезпек і експортувати прогнозовані дані в нові для оператора локації і картографічні райони. Проведений експеримент підтвердив гіпотезу дослідження і показав доцільність трансформаційних змін даної СППР для виконання прогнозів можливих ризиків при управлінні судном шляхом аналізу інформаційної моделі оператора. Висновки. Представлені в дослідженні інформаційні та формально-аналітичні підходи, а також розроблені програмні засоби СППР дозволили виконати класифікацію стратегій прийняття рішень оператором при управлінні судном і спрогнозувати ймовірність катастрофічних наслідків. Проведені експерименти підтвердили доцільність запропонованих моделей і методів.Item Decision support technology for sprint planning(Національний університет "Запорізька політехніка", 2020) Melnyk, K. V.; Hlushko, V. N.; Borysova, N. V.; Мельник, К. В.; Глушко, В. Н.; Борисова, Н. В.EN: Context. The article describes the relevant planning process of software projects, planning problems and different solutions to these problems basis on use of the Scrum methodology. Objective. The purpose of the work is to develop the technology for solving the sprint planning task in the face of uncertainty and possible risks from software development standpoint. Method. The most used software life cycle models are described. The choice of the Scrum as a widely used representative of agile methodology for software development is justified. An analytical review of the methods for estimation of the complexity of user stories is carried out. The major problems of sprint planning are highlighted. The model of the business process to implement an IT-project by Scrum in the form of an BPMN-diagram has been developed. The algorithm to solve the problem of Sprint Backlog planning with uncertainty has been elaborated. The common process of user stories selection from Product Backlog to Sprint Backlog and ways of solving the possible problems are considered. The task of estimation of labor intensity of user stories and the task of risk evaluation in planning are formalized. The technology of user story selection for Sprint Backlog has been developed. Numerical studies of the decision support technology proposed in the article are carried out. It allows suggesting it as the practical tool during sprint planning. The method of adequacy evaluation of proposed technology is offered. The set of key performance indicators for assessing the team performance is selected. Results. The sprint planning technology was developed, which project managers, product owners and development teams for increasing the effectiveness of decision-making process can use. Conclusions. The conducted experiments have confirmed the importance of the proposed decision support technology and allow recommending it for use in practice for planning of software projects. Scientific novelty is to improve the sprint planning process with the assistance of the proposed technology, which alleviates uncertainty while defining labor intensity of user stories and decreases time spent on decision making. UK: Актуальність. У статті описується актуальний процес планування розробки програмного забезпечення, проблем планування і різні рішення цих проблем на основі використання методології Scrum. Мета. Метою даної роботи є розробка технології для вирішення задачі планування спринту в умовах невизначеності і можливих ризиків з точки зору розробки програмного забезпечення. Метод. Описано найбільш використовувані моделі життєвого циклу програмного забезпечення. Обґрунтовано вибір Scrum, як найбільш часто використовуваного представника гнучкою методології розробки програмного забезпечення. Проведено аналітичний огляд методів оцінки складності для історій користувача. Виділено основні проблеми планування спринту. Розроблено модель бізнес-процесу для реалізації IT-проекту по Scrum у вигляді BPMN-діаграми. Розроблено алгоритм вирішення проблеми планування Sprint Backlog в умовах невизначеності. Розглядається загальний процес вибору для користувача історій з Product Backlog для Sprint Backlog і шляхи вирішення можливих проблем. Формалізовані задача оцінки трудомісткості історій користувача і задача оцінки ризиків при плануванні. Була розроблена технологія вибору історій користувача для Sprint Backlog. Проведено чисельні дослідження технології підтримки прийняття рішень, яка була запропонована в статті. Це дозволяє пропонувати її в якості практичного інструменту при плануванні спринту. Запропоновано метод оцінки адекватності запропонованої технології. Обрано набір ключових показників ефективності для оцінки продуктивності команди. Результати. Була розроблена технологія планування спринту, яку можуть використовувати керівники проектів, власники продуктів і команди розробників для підвищення ефективності процесу прийняття рішень. Висновки. Проведені експерименти підтвердили значимість запропонованої технології підтримки прийняття рішень і позволя рекомендувати її для практичного використання при плануванні програмних проектів. Наукова новизна полягає в поліпшенні процесу планування спринту за допомогою запропонованої технології, яка усуває невизначеність при визначенні трудомісткості користувальницьких історій і скорочує час, що витрачається на прийняття рішень.Item Data compression in black-gray-white barcoding(Національний університет "Запорізька політехніка", 2020) Dychka, I.; Onai, M.; Sulema, Ol.; Дичка, І. А.; Онай, М. В.; Сулема, О. К.EN: Context. In this paper the authors propose a method for data compression to be used for presenting information in the form of 2D matrix barcode. The proposed method is based on both a structural-logical approach and using three colors in a barcode instead of two colors as it is in standard black-and-white barcodes. This approach allows to increase data density keeping the same area as bicolor barcodes take. In the paper authors present the data compression method and demonstrate the barcoding technology. Objective. The goal of the work is to develop a method of data barcoding that would allow to encode more information in the form of 2D matrix barcode. Method. The method of tricolor matrix barcoding with compression is proposed. The main idea of the method is to compress input textual information on the stage of alphanumeric sequence transformation into a set of barcode patterns, which will form a resulting barcode symbol. It is possible due to intermediate transformation of input characters from initial notation, which is determined by cardinality of an input alphabet, to a notation defined by cardinality of barcode patterns alphabet. Choice of the input alphabet influences overall compression, and it is an important step of the method to choose the initial alphabets for the textual information to be encoded. Use of three colors over standard two colors is also an important component for creating a barcode symbol with increased informational density. As ternary notation is used, the second transformation from the intermediate notation to the ternary one provides more compression. The proposed method allows to represent more textual data in a single barcode symbol than bicolor barcoding approaches do. Results. The method of tricolor matrix barcoding with compression has been developed and described. Authors provided an example of the method implementation on test data that had been barcoded using the method. Conclusions. The experiments conducted for this research have confirmed that the proposed method provides more informational density as compared with black-and-white matrix barcodes. The prospects for further research might include studying noise immunity issue in order to guarantee error-free scanning and increased reliability of the barcode, and extending the barcoding software to be used in any alphabet. UK: Актуальність. Розглянуто задачу отримання триколірних матричних штрихових кодів підвищеної інформаційної щільності для представлення текстової інформації. Запропонований метод базується на структурно-логічному підході та використанні трьох кольорів у штрихкодовій позначці замість двох, які широко використовуються у чорно-білих штрихових кодах. Такий підхід дозволяє збільшити інформаційну щільність, зберігаючи ту саму площу, що мав би чорно-білий штриховий код. Метод. Запропоновано метод триколірного матричного штрихового кодування з ущільненням. Основна ідея методу полягає у ущільненні вхідної текстової інформації на етапі перетворення алфавітно-цифрової послідовності у сукупність штрихкодових знаків, які сформують результуючу штрихкодову позначку. Це є можливим завдяки проміжному перетворенню вхідних символів з початкової системи числення, яка визначається потужністю вхідного алфавіту, у систему числення, визначену потужністю алфавіту штрихкодових знаків. Від вибору початкового алфавіту залежить остаточне ущільнення, тому обрання алфавітів для текстової інформації, яка кодується, є важливим кроком пропонованого методу. Використання трьох кольорів (чорного, сірого та білого) замість двох (чорного та білого) також відіграє значну роль у процесі створення штрихкодової позначки з підвищеною інформаційною щільністю. Оскільки використовується трійкова система числення, друге перетворення вхідної послідовності з проміжної системи числення у трійкову систему числення забезпечує ще більше ущільнення. Запропонований метод дозволяє представляти більше текстової інформації у вигляді однієї штрихкодової позначки, ніж можна представити, використовуючи підходи двоколірного штрихового кодування. Результати. Розроблено та описано метод триколірного матричного штрихового кодування з ущільненням. Наведено приклад практичного застосування методу на наборі тестових даних із демонстрацією відповідної триколірної матричної штрихкодової позначки. Висновки. Проведені в рамках цього дослідження експерименти підтвердили, що пропонований метод забезпечує більшу інформаційну щільність порівняно з чорно-білими матричними штриховими кодами. Перспективи подальших досліджень можуть полягати у вивченні питання завадостійкості, яка необхідна для забезпечення безпомилкового сканування та підвищеної надійності штрихового коду, а також у розширенні програмного забезпечення для штрихового кодування на інші мови та нетипові алфавіти.Item Метод авторифікації тексту науково-технічних публікацій на основі лінгвістичного аналізу коефіцієнтів мовної різноманітності(Національний університет "Запорізька політехніка", 2020) Висоцька, В. А.; Vysotska, V.UK: Актуальність. Авторифікація авторства тексту є технікою визначення автора тексту, коли неоднозначно, хто її написав. Це корисно, коли декілька людей претендують на авторство однієї публікації або у випадках, коли ніхто не претендує на авторство текстового контенту, наприклад, так звані тролі в соціальних мережах під час інформаційної війни. Складність проблеми авторського тексту, очевидно, експоненціально вища, більша кількість вірогідних авторів. Наявність авторських текстових зразків також є суттєвою при просуненні цієї проблеми. Атрибуція авторського тексту включає наступні три проблеми: – виявлення автора текстового автора з групи імовірних або очікуваних авторів, де автор завжди знаходиться у групі підозрюваних; – не ідентифікація автора текстового автора з групи вірогідних або очікуваних авторів, де автор може не бути в групі підозрюваних; – оцінка можливості даного тексту, написаного даним автором чи ні. Тому задача автоматичного визначення автора текстового контенту науково-технічного спрямування є актуальною й потребує нових (досконаліших) підходів до її розв’язування. Метою дослідження є розроблення методу визначення автора у україномовних текстах на основі технології лінгвометрії. Метод. Розробленно лінгвометричний метод алгоритмічного забезпечення процесів контент-моніторінгу для розв’язання задачі автоматичного визначення автора україномовного текстового контенту на основі технології статистичного аналізу коефіцієнтів мовної різноманітності. Проведено декомпозицію методу визначення автора на основі аналізу таких коефіцієнтів мовлення як лексична різноманітність, ступінь (міра) синтаксичної складності, зв’язність мовлення, індекси винятковості та концентрації тексту. Проаналізовані також параметри авторського стилю як кількість слів у певному тексті, загальна кількість слів цього тексту, кількість речень, кількість прийменників, кількість сполучників, кількість слів із частотою 1, та кількість слів із частотою 10 та більше. Особливостями розробленого є адаптація морфологічного та синтаксичного аналізу лексичних одиниць до особливостей конструкцій україномовних слів/текстів. Тобто при аналізі лінгвістичних одиниць типу слів, враховувалась належність до частини мови та відмінювання в межах цієї частини мови. Для цього провадився аналіз флексій цих слів для класифікації, виділення основи для формування відповідних алфавітно-частотних словників. Наповнення цих словників в подальшому враховувалися на наступних кроках визначення авторства тексту як розрахунок параметрів та коефіцієнтів авторського мовлення. Для індивідуального стилю письменника показовими є саме службові (стопові або опорні) слова, оскільки вони ніяк не пов’язані з темою і змістом публікації. Результати. Проведено порівняння результатів на множині 200 одноосібних робіт технічного спрямування біля 100 різних авторів за період 2001–2017 рр. для визначення чи змінюються і як коефіцієнти різноманітності тексту цих авторів в різні проміжки часу. Висновки. Виявлено, що для обраної експериментальної бази з понад 200 робіт найкращих результатів за критерієм щільності досягає метод аналізу статті без початкової обов’язкової інформації як анотації та ключові слова різними мовами, а також списку літератури. EN: Context. Authorization of the authorship of the text is a technique for determining the author of the text, when it is ambiguous who wrote it. It is useful when several people claim to be the authors of one publication or in cases where nobody claims to authorship of text content, for example, so-called trolls in social networks during an information warfare. The complexity of the problem of the author’s text, obviously, is exponentially higher, more likely authors. The presence of author’s text samples is also significant in advancing this problem. The attribution of the author’s text includes the following three problems: – author discovery of text from probable or expected authors group, where the author is always in a suspects group; – not identification of the author of a text author from a group of probable or expected authors, where the author may not be in a group of suspects; – assessment of the possibility of this text, written by the author or not. Therefore, the task of automatically determining the author of text content of scientific and technical direction is relevant and requires new (more perfect) approaches to its solution. Objective of the study is to develop a method for determining the author in Ukrainian texts based on the technology of lingometry. Method. Lingvometric method of algorithmic provision of content monitoring processes for solving the problem of automatic determination of the author of Ukrainian-language text content on the basis of technology of statistical analysis of linguistic diversity coefficients is developed. A decomposition of the method of determination of the author on the basis of analysis of such broadcasting factors as lexical diversity, degree (degree) of syntactic complexity, speech connectivity, singularity indexes and text concentrations is made. Also, author’s style parameters are analyzed as the number of words in a particular text, the total number of words in this text, the number of sentences, the number of prepositions, the number of conjunctions, the number of words with the frequency of 1, and the number of words with a frequency of 10 or more. The features of the developed is the adaptation of the morphological and syntactic analysis of lexical units to the features of the designs of Ukrainian-language words / texts. That is, in the analysis of linguistic units of the type of words, the affiliation with the part of speech and declarations within this part of the language was taken into account. To do this, an analysis of the flexion of these words was carried out for classification, the allocation of the basis for the formation of the corresponding alphabet-frequency dictionaries. The filling of these dictionaries was further taken into account in the subsequent steps of determining the authorship of the text as the calculation of parameters and coefficients of copyright broadcasting. For the individual style of a writer, it is precisely service (stop or reference) words that are indicative because they are not related to the topic and content of the publication. Results. A comparison of results on a plurality of 200 individual technical works of about 100 different authors over the period 2001–2017 has been made to determine whether the coefficients of the diversity of the text of these authors are different at different intervals. Conclusions. It has been found that for the chosen experimental base with over 200 works of the best results, the method of analysis of the article without initial obligatory information as annotations and keywords in various languages and the list of literature achieves the density criterion.Item The fractal analysis of sample and decision tree model(Національний університет "Запорізька політехніка", 2020) Subbotin, S. A.; Gofman, Ye. A.; Субботін, Сергій Олександрович; Гофман, Євген ОлександровичEN: Context. The problem of decision tree model synthesis using the fractal analysis is considered in the paper. The object of study is a decision trees. The subject of study is a methods of decision tree model synthesis and analysis. Objective. The objective of the paper is a creation of methods and fractal indicators allowing jointly solving the problem of decision tree model synthesis and the task of reducing the dimension of training data from a unified approach based on the principles of fractal analysis. Method. The fractal dimension for a decision tree based model is defined as for whole training sample as for specific classes. The method of the fractal dimension of a model based on a decision tree estimation taking into account model error is proposed. It allows to built model with an acceptable error value, but with optimized level of fractal dimensionality. This makes possibility to reduce decision tree model complexity and to make it mo interpretable. The set of indicators characterizing complexity of decision tree model is proposed. The set of indicators characterizing complexity of decision tree model is proposed. It contains complexity of node checking, complexity of node achieving, an average model complexity and worst tree model complexity of computations. On the basis of proposed set of indicators a complex criterion for model building is proposed. The indicators of the fractal dimension of the decision tree model error can be used to find and remove the non-informative features in the model. Results. The developed indicators and methods are implemented in software and studied at practical problem solving. As results of experimental study of proposed indicators the graphs of their dependences were obtained. They include graphs of dependencies of number of hyperblocks covering the sample in the features space from size of block side: for whole sample, for each class, for different set error values and obtained error values, for varied values of resulted number of features and instances, also as graphs of dependencies between average and worst tree complexities, decision tree fractal dimensionality and tree average complexity, joint criterion and indicator of feature set reduction, and between joint criterion and tree fractal dimensionality/ Conclusions. The conducted experiments confirmed the operability of the proposed mathematical support and allow recommending it for use in practice for solving the problems of model building by the precedents. UK: Актуальність. У статті розглядається проблема синтезу моделі на основі дерева рішень з використанням фрактального аналізу. Об’єктом дослідження є дерева рішень. Предметом дослідження є методи синтезу та аналізу моделей на основі дерев рішень. Мета роботи – створення методів і фрактальних індикаторів, що дозволяють спільно вирішити задачу синтезу моделі на основі дерева рішень і завдання скорочення розмірності навчальних даних за допомогою єдиного підходу, заснованого на принципах фрактального аналізу. Метод. Фрактальна розмірність для моделі на основі дерева рішень визначена як для всієї навчальної вибірки, так і для кожного класу. Запропоновано метод визначення фрактальної розмірності моделі, заснований на оцінюванні дерева рішень з урахуванням похибки моделі. Це дозволяє побудувати модель з прийнятним значенням помилки, але з оптимізованим рівнем фрактальної розмірності, що дозволяє зменшити складність моделі дерева рішень і зробити її більш зрозумілою. Запропоновано набір показників, що характеризують складність моделі на основі дерева рішень. Він містить складність перевірки вузлів, складність досягнення вузла, середню і найгіршу складність обчислень моделі дерева. На основі запропонованого набору показників запропоновано комплексний критерій побудови моделі. Індикатори фрактальної розмірності помилки моделі дерева рішень можуть бути використані для пошуку і видалення неінформативних ознак в моделі. Результати. Розроблені показники і методи реалізовані в програмному забезпеченні і вивчені при вирішенні практичних завдань. В результаті експериментального дослідження запропонованих показників отримані графіки залежностей між ними, включаючи графіки залежностей числа гіперблоков, що охоплюють вибірку в просторі ознак, від розміру боку блоку: для всієї вибірки, для кожного класу, для різних встановлених значень помилок і отриманих значень помилок, для різних значень результуючих чисел ознак і екземплярів, також графіків залежностей між середньою і найгіршою складнощами дерева, фрактальної розмірністю дерева рішень і ср днів складністю дерева, об’єднаним критерієм і індикатором скорочення набору ознак, а також між спільним критерієм і фрактальної розмірністю дерева. Висновки. Проведені експерименти підтвердили працездатність запропонованого математичного забезпечення та дозволяють рекомендувати його для практичного використання для вирішення завдань побудови моделей по прецедентах.Item Анализ системы H2/E2/1 и ее аналога со сдвинутыми входными распределениями(Національний університет "Запорізька політехніка", 2020) Тарасов, В. Н.; Тарасов, В. Н.; Tarasov, V. N.RU: Актуальность. В теории массового обслуживания исследования систем G/G/1 актуальны в связи с тем, что нельзя получить решения для времени ожидания в конечном виде в общем случае при произвольных законах распределений входного потока и времени обслуживания. Поэтому важны исследования таких систем для частных случаев входных распределений. Рассмотрена задача вывода решения для среднего времени ожидания в очереди в замкнутой форме для пары систем с обычными и со сдвинутыми гиперэкспоненциальными и эрланговскими входными распределениями. Цель работы. Получение решения для основной характеристики систем – среднего времени ожидания требований в очереди для двух систем массового обслуживания типа G/G/1 с обычными и со сдвинутыми гиперэкспоненциальными и эрланговскими входными распределениями. Метод. Для решения поставленной задачи использован классический метод спектрального разложения решения интегрального уравнения Линдли. Данный метод позволяет получить решение для среднего времени ожидания для рассматриваемых систем в замкнутой форме. Метод спектрального разложения решения интегрального уравнения Линдли играет важную роль в теории систем G/G/1. Для практического применения полученных результатов использован известный метод моментов теории вероятностей. Результаты. Впервые получены спектральные разложения решения интегрального уравнения Линдли для двойственной пары систем, с помощью которых выведены расчетные выражения для среднего времени ожидания в очереди в замкнутой форме. Выводы. Получены спектральные разложения решения интегрального уравнения Линдли для рассматриваемых систем и с их помощью выведены расчетные выражения для среднего времени ожидания в очереди для этих систем в замкнутой форме. Показано, что в системах с запаздыванием во времени среднее время ожидания меньше, чем в обычных системах. Полученные расчетные выражения для времени ожидания расширяют и дополняют известную формулу теории массового обслуживания для среднего времени ожидания для систем G/G/1 с произвольными законами распределений входного потока и времени обслуживания. Такой подход позволяет рассчитать среднее время ожидания для указанных систем в математических пакетах для широкого диапазона изменения параметров трафика. Все остальные характеристики систем являются производными от времени ожидания. Кроме среднего времени ожидания, такой подход дает возможность определить и моменты высших порядков времени ожидания. Учитывая тот факт, что вариация задержки пакетов (джиттер) в телекоммуникациях определяется как разброс времени ожидания от его среднего значения, то джиттер можно будет определить через дисперсию времени ожидания. Полученные результаты публикуется впервые. UK: Актуальність. В теорії масового обслуговування дослідження систем G/G/1 актуальні в зв'язку з тим, що не можна отримати рішення для часу очікування в кінцевому вигляді в загальному випадку при довільних законах розподілів вхідного потоку і часу обслуговування. Тому важливі дослідження таких систем для окремих випадків вхідних розподілів. Була розглянута задача виведення рішення для середнього часу очікування в черзі в замкнутій формі для пари систем зі звичайними і зі зсунутими гіперекспонентними та ерлангівськими вхідними розподілами. Мета роботи. Отримання рішення для основної характеристики системи – середнього часу очікування вимог в черзі для двох систем масового обслуговування типу G/G/1 зі звичайними та зі зсунутими гіперекспонентними та ерлангівськими вхідними розподілами. Метод. Для вирішення поставленого завдання був використаний класичний метод спектрального розкладання рішення інтегрального рівняння Ліндлі. Цей метод дозволяє отримати рішення для середнього часу очікування для розглянутих систем в замкнутій формі. Метод спектрального розкладання рішення інтегрального рівняння Ліндлі грає важливу роль в теорії систем G/G/1. Для практичного застосування отриманих результатів було використано відомий метод моментів теорії ймовірностей. Результати. Вперше отримано спектральні розкладання рішення інтегрального рівняння Ліндлі для двох систем, за допомогою яких виведені розрахункові формули для середнього часу очікування в черзі в замкнутій формі. Висновки. Отримано спектральні розкладання рішення інтегрального рівняння Ліндлі для розглянутих систем, та з їх допомогою виведені розрахункові формули для середнього часу очікування в черзі для цих систем в замкнутій формі. Показано, що в системах з запізненням у часі середній час очікування менше, ніж в звичайних системах. Ці формули розширюють і доповнюють відомі формули теорії масового обслуговування для середнього часу очікування для систем G/G/1 з довільними законами розподілів вхідного потоку і часу обслуговування. Такий підхід дозволяє розрахувати середній час очікування для зазначених систем в математичних пакетах для широкого діапазону зміни параметрів трафіку. Всі інші характеристики систем є похідними часу очікування. Крім середнього часу очікування, такий підхід дає можливість також визначити моменти вищих порядків часу очікування. З огляду на той факт, що варіація затримки пакетів (джиттер) в телекомунікації визначається як дисперсія часу очікування від його середнього значення, то джиттер можна буде визначити через дисперсію часу очікування. Отримані результати публікуються вперше. EN: Context. In the queuing theory of a research of the G/G/1 systems are relevant because it is impossible to receive decisions for the average waiting time in queue in a final form in case of arbitrary laws of distributions of an input flow and service time. Therefore, the study of such systems for particular cases of input distributions is important. The problem of finding a solution for the average waiting time in queue in a closed form for two systems with ordinary and shifted hyperexponential and erlangian input distributions is considered. Objective. Obtaining a solution for the main system characteristic – the average waiting time in queue for two queuing systems of type G/G/1 with ordinary and shifted hyperexponential and erlangian input distributions. Method. To solve this problem, we used the classical method of spectral decomposition of the solution of the Lindley integral equation. This method allows to obtaining a solution for the average waiting time for systems under consideration in a closed form. The method of spectral decomposition of the solution of the Lindley integral equation plays an important role in the theory of systems G/G/1. For the practical application of the results obtained, the well-known method of moments of probability theory is used. Results. The spectral decompositions of the solution of the Lindley integral equation for a pair of dual systems are for the first time received, with the help of which the formulas for the average waiting time in a closed form are derived. Conclusions. The spectral expansions of the solution of the Lindley integral equation for the systems under consideration are obtained and with their help the formulas for the average waiting time in the queue for these systems in a closed form are derived. It is shown that in systems with a time lag, the average waiting time is less than in conventional systems The obtained formula for the average waiting time expands and complements the well-known queuing theory incomplete formula for the average waiting time for G/G/1 systems with arbitrary laws of the input flow distribution and service time. This approach allows us to calculate the average latency for these systems in mathematical packages for a wide range of traffic parameters. All other characteristics of the systems are derived from the waiting time. In addition to the average waiting time, such an approach makes it possible to determine also moments of higher orders of waiting time. Given the fact that the packet delay variation (jitter) in telecommunications is defined as the spread of the waiting time from its average value, the jitter can be determined through the variance of the waiting time. The results are published for the first time.Item Synthesis method of ternary bent-functions of three variables(Національний університет "Запорізька політехніка", 2020) Sokolov, A. V.; Соколов, А.В.EN: Context. Such perfect algebraic constructions of many-valued logic as ternary bent-functions and their truth tables which are called as 3-bent-sequences, are used very often in modern cryptographic algorithms, in particular, in pseudorandom sequence generators. However, today there are no methods for synthesizing the ternary bent-functions class for a number of variables greater than two, which significantly limits the ability to scale the number of protection levels of the of pseudorandom sequence generators based on the ternary bent-functions. This circumstance generates the task of developing methods for the synthesis of ternary bent-functions, which is solved in this paper for the case of ternary bent-functions of three variables. The object of this research is the process of efficiency increasing of the cryptographic algorithms based on the functions of many-valued logic. Objective. The purpose of the paper is to construct a method for the synthesis of the set of ternary bent-functions of three variables. Method. The mathematical apparatus of the Reed-Muller transform (algebraic normal form) was used as the basis of the proposed constructive method for the synthesis of ternary bent-functions of three variables. So, on the basis of the established properties of the algebraic normal form of ternary bent-functions and limited enumeration, the search for ternary bent-functions up to affine terms is performed, after which we apply the procedure of reproduction. Results. As a result of using of the proposed method for the synthesis of ternary bent-functions of three variables, 155844 3-bent-sequences were found up to an affine term, while the cardinality of the full set of found 3-bent-sequences is 12623364. The research performed made it possible to determine that in this set there are 3-bent-sequences of six different weight structures, on the basis of which 12 different triple sets can be compiled for use in pseudorandom sequence generators. A scheme for a cryptographically stable pseudorandom sequence generator based on the found set of 3-bent-sequences of length is proposed. It is shown that the protection levels number of such a generator of pseudorandom sequences is which is comparable with the protection levels number of modern block symmetric cryptographic algorithms, for example, AES-128. Conclusions. The further development of modern cryptographic algorithms, in particular, cryptographically stable pseudorandom sequence generators, is largely based on the use of perfect algebraic constructions of many-valued logic. For the first time, a constructive method for the synthesis of ternary bent-functions of three variables is proposed. For the found set of ternary bent-functions, the distribution of weight structures is found, and the possible triple sets are established. Based on the constructed set of ternary bent-functions, a pseudorandom sequence generator scheme is proposed that has a protection levels number that is comparable with modern block symmetric cryptographic algorithms. We note that the constructed class of ternary bent-functions can also be used for the synthesis of cryptographically strong S-boxes, codes of constant amplitude, as well as error correction codes. As an actual area of further research, we can note the development of methods for the synthesis of ternary bent-functions of a larger number of variables. UK: Актуальність. Останнім часом все частіше в сучасних криптографічних алгоритмах, зокрема, в генераторах псевдовипадкових послідовностей використовуються такі досконалі алгебраїчні конструкції багатозначної логіки, як трійкові бент-функції і їх таблиці істинності – 3-бент-последолвательності. Проте, сьогодні не існує методів синтезу класу трійкових бент-функцій для числа змінних більше двох, що істотно обмежує можливості масштабування числа рівнів захисту зазначених генераторів псевдовипадкових послідовностей. Дана обставина робить актуальним завдання розробки методів синтезу трійкових бент-функцій, яка вирішена в даній роботі для випадку трійкових бент-функцій трьох змінних. Об’єктом даного дослідження є процеси підвищення ефективності криптоалгоритмів на основі функцій багатозначної логіки. Мета. Мета статті – побудувати метод синтезу множини трійкових бент-функцій трьох змінних. Метод. В якості основи запропонованого конструктивного методу синтезу трійкових бент-функцій трьох змінних використано математичний апарат перетворення Ріда-Маллера (алгебраїчної нормальної форми). Так, на основі встановлених властивостей алгебраїчної нормальної форми трійкових бент-функцій і обмеженого перебору спочатку виконується пошук трійкових бент-функцій з точністю до афінних термів, після чого відбувається їх розмноження. Результати. В результаті використання запропонованого методу синтезу трійкових бент-функцій трьох змінних знайдено 155844 бент-функції з точністю до афінного терма, в той час як потужність повної множини знайдених 3-бент-послідовностей складає 12623364. Проведені дослідження дозволили визначити, що в даній множині є 3-бент-послідовності шести різних вагових структур, на основі яких можуть бути складені 12 різних троїстих наборів для використання в генераторах псевдовипадкових послідовностей. Запропоновано схему криптографічно стійкого генератора псевдовипадкових послідовностей на основі знайденої множини 3-бент-послідовностей довжини . Показано, що число рівнів захисту такого генератора псевдовипадкових послідовностей складає , що можна порівняти з числом рівнів захисту сучасних блокових симетричних криптоалгоритмів, наприклад, AES-128. Висновки. Подальший розвиток сучасних криптографічних алгоритмів, зокрема, криптографічно стійких генераторів псевдовипадкових послідовностей, багато в чому ґрунтується на застосуванні досконалих алгебраїчних конструкцій багатозначної логіки. В роботі вперше запропоновано конструктивний метод синтезу трійкових бент-функцій трьох змінних. Для знайденої множини трійкових бент-функцій встановлено розподіл вагових структур, а також виявлено можливі троїсті набори. На основі побудованої множини трійкових бент-функцій запропонована схема генератора псевдовипадкових послідовностей, який володіє числом рівнів захисту, яке можна порівняти з сучасними блоковими симетричними криптоалгоритмами. Відзначимо, що побудований клас трійкових бент-функцій також може бути застосований для синтезу криптографічно стійких S-блоків, кодів постійної амплітуди, а також коректуючих кодів. В якості актуального напрямку продовження проведених досліджень можна виділити побудову методів синтезу трійкових бент-функцій більшого числа змінних.Item Незалежність аксіоматики багатозначних залежностей в реляційних (табличних) базах даних(Національний університет "Запорізька політехніка", 2020) Пузікова, А. В.; Puzikova, A. V.UK: Актуальність. Складність розуміння концепції багатозначних залежностей (при викладенні теоретичних основ якої використовується аксіоматичний підхід) в реляційних (табличних) базах даних призводить до проблем їх моделювання, що, в свою чергу, може стати причиною порушення цілісності даних. Частковому вирішенню цих питань сприяє пошук мінімальних за кількістю та потужністю компонент аксіоматик багатозначних залежностей; звідси випливає необхідність встановлення еквівалентності розглядуваних аксіоматик та доведення незалежності їх складових. Об’єктом дослідження є аксіоматики багатозначних залежностей. Метою роботи є встановлення еквівалентності двох аксіоматик багатозначних залежностей, одна з яких є зменшеною за кількістю та потужністю компонент, та доведення незалежності останньої. Метод. При побудові доведень використовуються теоретико-множинні та логіко-алгебраїчні методи. Еквівалентність двох аксіоматик багатозначних залежностей встановлено класично: наведено відношення синтаксичного слідування і побудовано послідовності багатозначних залежностей, які є доведеннями правил кожної аксіоматики із складових іншої. Для побудови доведення незалежності аксіоматики запропоновані моделі реляційних схем, такі, що для аксіоми або правила, незалежність яких доводиться, не можна побудувати доведення з множини інших аксіом або правил. Результати. Встановлено еквівалентність аксіоматики багатозначних залежностей, запропонованої групою вчених Бірі (Beeri), Фагіним (Fagin) і Говардом (Howard) і аксіоматики багатозначних залежностей Біскупа (Biskup). Доведено незалежність останньої аксіоматики у тому розумінні, що без втрати повноти не можна опустити ні єдину аксіому, ні жодне з правил виведення. Висновки. Доведена незалежність аксіоматичної системи багатозначних залежностей Біскупа, яка має не більше за кількістю та потужністю компонент ніж інші аксіоматики багатозначних залежностей; використання саме такої аксіоматики має переваги при розробці CASE-засобів (Computer-Aided Software Engineering tools), які містять реалізацію зведення схем реляційних баз даних до четвертої нормальної форми, а також при ручному проектуванні логічної моделі реляційної бази даних. EN: Context. The complexity of understanding the concept of multivalued dependencies (when setting out their theoretical foundations, an axiomatic approach is used) in relational (table) databases leads to problems of their modeling, which in turn can cause a violation of data integrity. A partial solution to these issues is facilitated by the search for equivalent axiomatic systems of multivalued dependencies that are minimal in terms of the number and power of their components. This, in turn, requires establishing the equivalence of these axiomatic systems and proving the independence of their elements. The object of the study is the axiomatisations of multivalued dependencies.The purpose of the work is to establish the equivalence of two axiomatic systems of multivalued dependencies, one of which is minimal in terms of the number and power of components, and to prove the independence of specified axiomatics. Method. Set-theoretic and logical-algebraic methods are used in the construction of proofs. The equivalence of two axiomatic systems of multivalued dependencies is established classically: the relation of syntactic inference is considered and sequences of multivalued dependencies are constructed that are proofs of the rules of each axiomatics from the components of the other. To build proof of independence of the axiomatic system, models of relational schemes are proposed, such that for an axiom or rule whose independence is being proved, it is impossible to construct proof from set of other axioms or rules. Results. Equivalence of the axiomatisation of multivalued dependencies proposed by a group of scientists Beeri, Fagin and Howard and the Biskup’s axiomatisation of multivalued dependencies has been established. The independence of the Biskup’s axiomatic system is proved in the sense that without loss of completeness it is impossible to remove neither the only axiom nor none of the inference rules. Conclusions. The independence of the Biskup’s axiomatisation of multivalued dependencies, which has no more in number and power of components than other axiomatic systems of multivalued dependencies, is proved. Using such axiomatic system has advantages in the development of CASE-tools (Computer-Aided Software Engineering Tools), which include the implementation of reducing the relational database schema to the fourth normal form, and also, when manually designing a logical model of a relational database.Item Lienkov, Ye. S. Simulation model of the adaptive maintenance procedure of complex radioelectronic facilities(Національний університет "Запорізька політехніка", 2020) Lienkov, S. V.; Zhirov, H. B.; Tolok, I. V.; Lienkov, Ye. S.; Лєнков, C. В.; Жиров, Г. Б.; Толок, І. В.; Лєнков, Є. С.EN: Context. The process of maintenance of modern radio-electronic facilities is aimed at supporting the serviceability or performance of the facilities during their technical operation. Specifications for achieving high reliability of operation are often contrary to other required characteristics, such as reducing the size of the product, obtaining high accuracy, reducing the cost of operation, etc. Therefore, the problem of the optimal choice of maintenance parameters to solve various tasks of operation using different criteria is relevant. Objective. The objective of this research is developing approaches to determine the optimal parameters of the process of adaptive maintenance. Method. Within the framework of the general simulation statistic model of the process of maintenance and repair of a complex facility (REF), we have developed a simulation model for parameter optimization of one of the maintenance strategies. The general simulation statistic model is intended to simulate the process of the TMR of the FEF in order to predict the reliability and value of the facility operation. Optimization of maintenance parameters improves both indicators of reliability of the facility and economic indicators of operation of the facility as a whole. The parameters are optimized on the basis of the criterion of a minimum specific cost of the REF operation or the criterion of the maximum ratio of technical use. In both cases, limitation means the required value of the mean time between failures of the facility, and as a method of optimization, we use the method of directed search within the scope of the maintenance parameters. An expert can participate in the process of finding an optimal solution, being involved in the analysis of intermediate data and making a decision on the completion of the search process. Results. The improved method of optimizing the maintenance parameters is a mathematical and algorithmic basis for the general software of the simulation statistic model of the maintenance and repair process. The method is programmed and tested in solving testing tasks. The results of the computational experiment are illustrated in the tabular form. Conclusions. In our work we have developed the simulation model of the process of adaptive maintenance of a complex radio-electronic facility. The model enables to substantially simplify and automate the process of research and optimization of the adaptive maintenance parameters of a complex radio-electronic facility. By adding the least reliable elements gradually to a plurality of items subject to servicing and modeling the random moments of the failure time, the simulation model calculates the optimal maintenance options with the adaptive time of condition monitoring. The simulation model is based on the algorithmic model and algorithmic optimization methods for adaptive maintenance, developed in our research, and works in the ISMPN software environment. As a method of optimization, we use the method of directed search within the scope of the maintenance parameters, with a DN distribution as a mathematical reliability model for electronic components and DM distribution for mechanical components. The practical value of the research lies in developing software which optimizes the maintenance parameters and predicts the reliability and value of operation for the given REF. The results obtained are to be used when determining the requirements for the parameters of operation of both new facilities and those of the available stock. UK: Актуальність. Процес технічного обслуговування (ТО) сучасних об’єктів РЕТ направлений на підтримання справності чи працездатності об’єктів під час їх технічної експлуатації. Вимоги, щодо досягнення високої надійності експлуатації часто знаходяться в суперечності з іншими необхідними характеристиками, такими як зменшення розмірів виробу, отримання високої точності, зниження вартості експлуатації і т. д. Тому питання, оптимального вибору параметрів ТО для вирішення різних задач експлуатації та із застосуванням різних критеріїв, є актуальною. Мета. Метою даної роботи є розробка підходів щодо визначення оптимальних параметрів процесу адаптивного технічного обслуговування. Метод. В рамках загальної імітаційної статистичної моделі процесу технічного обслуговування і ремонту складного об’єкту РЕТ розроблена імітаційна модель оптимізації параметрів однієї із стратегій ТО. Загальна імітаційна статистична модель призначена для моделювання процесу проведення ТО и ремонту об’єкта РЕТ з метою прогнозування показників надійності та вартості експлуатації об’єкта. Оптимізація параметрів ТО покращує, як показники надійності самого об’єкта так і економічні показники експлуатації об’єкта у цілому. Оптимізація параметрів здійснюється за критерієм мінімуму питомої вартості експлуатації об’єкта РЕТ або за критерієм максимуму коефіцієнта технічного використання. Обмеженням в обох випадках виступає необхідне значення середнього наробітку на відмову об’єкта, а в якості методу оптимізації використовується метод спрямованого перебору у просторі параметрів ТО. У процесі пошуку оптимального рішення може приймати участь людина-експерт, яка залучається для аналізу проміжних даних і для прийняття рішення про закінчення процесу пошуку. Результати. Удосконалена методика оптимізації параметрів ТО являє собою математичне та алгоритмічне підґрунтя для загального програмного забезпечення імітаційної статистичної моделі процесу технічного обслуговування і ремонту. Розроблений метод програмно реалізований і досліджений при вирішенні тестових завдань. Результати обчислювального експерименту проілюстровані у табличній формі. Висновки. У роботі розроблена імітаційна модель процесу адаптивного технічного обслуговування складного радіоелектронного об’єкта. Модель дозволяє суттєво спростити та автоматизувати процес дослідження та оптимізації параметрів адаптивного технічного обслуговування складного радіоелектронного об’єкта. Шляхом покрокового додавання найменш надійних елементів до множини елементів, які підлягають обслуговуванню, та моделюванню випадкових моментів часу відмов елементів об’єкта, імітаційна модель розраховує оптимальні параметри технічного обслуговування з адаптивним часом проведення контролю технічного стану. Імітаційна модель базується на розроблених в роботі алгоритмічній моделі та методиці оптимізації параметрів процесу адаптивного технічного обслуговування та працює у середовищі програмного засобу ISMPN. В якості методу оптимізації використовується метод спрямованого перебору у просторі параметрів ТО, а за математичну модель безвідмовності взятий DN розподіл, для електронних компонентів та DM розподіл, для механічніх компонентів. Практичне значення роботи полягає у розробці програмного забезпечення, яке оптимізує параметри ТО та прогнозує показники надійності та вартості експлуатації для заданого об’єкта РЕТ. Отримані результати пропонується використовувати при визначені вимог до параметрів експлуатації як нових об’єктів, так і об’єктів старого парку.Item Сравнительный анализ методов оптимизации по стоимостным (временным) затратам планов полного факторного эксперимента(Національний університет "Запорізька політехніка", 2020) Кошевой, Н. Д.; Костенко, Е. М.; Муратов, В. В.; Крюков, А. М.; Биленко, А. И.; Морозов, А. А.; Кошовий, М. Д.; Костенко, О. М.; Муратов, В. В.; Крюков, О. М.; Біленко, О. І.; Морозов, О. О.; Koshevoy, N. D.; Kostenko, E. M.; Muratov, V. V.; Kriukov, A. M.; Bilenko, A. I.; Morozov, A. A.RU: Актуальность. Предложено применение методов поиска косяком рыб, обезьяньего поиска, прыгающих лягушек для построения оптимальных по стоимости (времени) планов эксперимента при исследовании технологических процессов и систем, позволяющих осуществление на них активного эксперимента. Цель работы. Сравнительный анализ этих методов оптимизации по стоимостным (временным) затратам планов полного факторного эксперимента. Метод. Предложены методы построения оптимальной по стоимости (времени) реализации матрицы планирования эксперимента с использованием алгоритмов поиска косяком рыб, обезьяньего поиска, прыгающих лягушек. В начале вводится количество факторов и стоимости переходов для каждого уровня факторов. Затем с учетом введенных данных формируется исходная матрица планирования эксперимента. Метод поиска косяком рыб основан на перестановке столбцов матрицы планирования эксперимента, исходя из суммы стоимостей (времен) переходов между уровнями для каждого из факторов. Косяки рыб формируются по следующему принципу: меньше косяков рыб там, где больше сумма стоимостей (времен) переходов между уровнями факторов. Затем выполняются перестановки косяков рыб, расположенных рядом в матрице планирования эксперимента. При использовании метода обезьяньего поиска столбцы матрицы планирования эксперимента представляют собой деревья. Каждое дерево состоит из ветвей, по которым перемещается обезьяна. Ветвей дерева больше там, где меньше сумма стоимостей (времен) переходов между уровнями факторов. Обезьяна начинает свое движение снизу вверх по каждой ветви дерева. Во время этого выполняется поиск по ветвям, на которых находится обезьяна по минимальному значению суммы стоимостей (времен) переходов между уровнями для каждого из факторов. В методе прыгающих лягушек выполняется определение успешной лягушки по наименьшей стоимости переходов между уровнями для каждого из факторов. После этого выполняются перестановки лягушек. Лягушка стремится к наиболее успешной и при условии нахождения поблизости остается в текущем местоположении. Затем рассчитывается выигрыш по сравнению с исходной стоимостью (временем) проведения эксперимента. Результаты. Разработано программное обеспечение, реализующее предложенные методы, которое использовано для проведения вычислительных экспериментов по изучению свойств этих методов при исследовании технологических процессов и систем, позволяющих осуществление на них активного эксперимента. Получены оптимальные по стоимости (времени) реализации планы экспериментов, а также приведены выигрыши в результатах оптимизации по сравнению с исходной стоимостью проведения эксперимента. Проведен сравнительный анализ методов оптимизации по стоимостным (временным) затратам планов полного факторного эксперимента. Выводы. Проведенные эксперименты подтвердили работоспособность предложенных методов и реализующего их программного обеспечения, а также позволяют рекомендовать их для применения на практике при построении оптимальных матриц планирования эксперимента. UK: Актуальність. Запропоновано застосування методів пошуку косяком риб, мавпячого пошуку, стрибаючих жаб для побудови оптимальних за вартістю (часом) планів експерименту при дослідженні технологічних процесів і систем, що дозволяють здійснення на них активного експерименту. Мета роботи – порівняльний аналіз цих методів оптимізації за вартісними (часовими) витратами планів повного факторного експерименту. Метод. Запропоновано методи побудови оптимальної за вартістю (часом) реалізації матриці планування експерименту з використанням алгоритмів пошуку косяком риб, мавпячого пошуку, стрибаючих жаб. На початку вводиться кількість чинників і вартості переходів для кожного рівня факторів. Потім з урахуванням введених даних формується вхідна матриця планування експерименту. Метод пошуку косяком риб заснований на перестановці стовпців матриці планування експерименту, виходячи з сум вартостей (часів) переходів між рівнями для кожного з факторів. Косяки риб формуються за наступним принципом: менше косяків риб там, де більша сума вартостей (часів) переходів між рівнями факторів. Потім виконуються перестановки косяків риб, розташованих поруч в матриці планування експерименту. При використанні методу мавпячого пошуку стовпці матриці планування експерименту є деревами. Кожне дерево складається з гілок, по яким переміщається мавпа. Гілок дерева більше там, де менша сума вартостей (часів) переходів між рівнями факторів. Мавпа починає свій рух знизу вгору по кожній гілці дерева. Під час цього виконується пошук по гілках, на яких знаходиться мавпа, за мінімальним значенням сум вартостей (часів) переходів між рівнями для кожного з факторів. У методі стрибаючих жаб виконується визначення успішної жаби за найменшою вартістю переходів між рівнями для кожного з факторів. Після цього виконуються перестановки жаб. Жаба прагне до найбільш успішної та за умови перебування поблизу залишається в поточному розташуванні. Потім розраховується виграш в порівнянні з вихідною вартістю проведення експерименту. Результати. Розроблено програмне забезпечення, що реалізує запропоновані методи, яке використано для проведення обчислювальних експериментів з вивчення властивостей цих методів при дослідженні технологічних процесів і систем, що дозволяють здійснення на них активного експерименту. Отримано оптимальні за вартістю (часом) реалізації плани експериментів, а також наведені виграші в результатах оптимізації в порівнянні з вихідною вартістю проведення експерименту. Проведено порівняльний аналіз методів оптимізації за вартісними (часовими) витратами планів повного факторного експерименту. Висновки. Проведені експерименти підтвердили працездатність запропонованих методів і реалізуючого їх програмного забезпечення, а також дозволяють рекомендувати їх для застосування на практиці при побудові оптимальних матриць планування експериментів. EN: Relevance. It is proposed to use methods to search for fish schools, monkey searches, jumping frogs for constructing optimal cost (time) experiment plans in the study of technological processes and systems that allow the implementation of an active experiment on them. The purpose of the work is a comparative analysis of these optimization methods for the cost (time) costs of plans for a full factorial experiment. Method. Methods are proposed for constructing the cost-effective (time-consuming) implementation of the experiment planning matrix using fish search, monkey search, jumping frogs algorithms. At the beginning, a number of factors and transition costs are entered for each level of factors. Then, taking into account the entered data, the initial planning matrix of the experiment is formed. The fish search method is based on rearranging the columns of the experiment planning matrix, based on the sum of the values (times) of transitions between the levels for each of the factors. The schools of fish are formed according to the following principle: there are fewer schools of fish where the sum of the values (times) of transition between the levels of factors is greater. Then permutations of fish schools located side by side in the experiment planning matrix are performed. When using the monkey search method, the columns of the experiment planning matrix are trees. Each tree consists of branches along which a monkey moves. There are more tree branches where there is less sum of costs (times) of transitions between levels of factors. The monkey begins its movement upward along each branch of the tree. During this, a search is performed on the branches on which the monkey is located by the minimum value of the sum of the values (times) of transitions between the levels for each of the factors. In the jumping frog method, a successful frog is determined by the least cost of transitions between levels for each of the factors. After this, permutations of frogs are performed. The frog strives for the most successful and, provided it is nearby, it remains in its current location. Then the gain is calculated compared to the initial cost (time) of the experiment. Results. Developed software that implements the proposed methods, which was used to conduct computational experiments to study the properties of these methods in the study of technological processes and systems that allow the implementation of an active experiment on them. Optimum cost plans for the implementation of the experiments were obtained, and the gains in the optimization results compared with the initial cost of the experiment were given. A comparative analysis of optimization methods for the cost (time) costs of plans for a full factorial experiment has been carried out. Conclusions. The experiments have confirmed the performance of the proposed methods and the software implementing them, and also allow us to recommend them for practical use in constructing optimal experiment planning matrices.Item LUT based Fredkin gate(Національний університет "Запорізька політехніка", 2020) Tyurin, S. F.; Тюрін, С. Ф.EN: Context. The concept of existing computers when achieving nanoscale hardware has almost exhausted itself. This also applies to computing power and related energy costs. Reversible computing, for example billiard-ball computer, is the base model of the quantum computing which are considered to be the prospect of IT technology. Billiard-ball computing is energy-effective computing or green computing. Base of such paradigm are special logic gates. However, the mathematical apparatus for creating such computers has not yet been fully developed. The problem is that for new reversible elements that have a one-to-one correspondence between inputs and outputs, the application of well-known methods of analysis and synthesis encounters certain difficulties. So, for example, it is forbidden to use branching, which significantly complicates the synthesis. Reversible elements should provide signal transmission in the forward and reverse directions, which is in principle feasible in binary logic based on tri-states buffers, but significantly complicates the device, increases the crystal area and power consumption, which they are designed to reduce. Objective. The goal of the work is the analysis of the functionally complete reversible gates that named Toffoli gate, Fredkin gate, the analysis of the binary full adder, based on Fredkin gates and to design method for circuits based proposed gate. Methods. Analysis of the digital circuits with Boolean algebra. Synthesis digital circuits with proposed decomposition method. Design Fredkin gate in term of the FPGA’s Look up Table. Simulation of proposed element in the system NI Multisim by National Instruments Electronics Workbench Group. Results. Analysis of the full adder based on Fredkin gates. Synthesis method of the reversible circuits based on Fredkin gates. LUT based Fredkin gate and it simulation. Conclusions. The conducted studies allows us to build circuits based on Fredkin gates from proposed novel elements. UK: Актуальність. Концепція існуючих комп’ютерів при досягненні нанорозмірів апаратних засобів практично вичерпала себе. Це також відноситься до обчислювальної потужності і пов’язаними з нею витратами на енергію. Оборотні обчислення, наприклад, більярдний комп’ютер, є базовою моделлю квантових обчислень, які вважаються перспективою ІТ-технологій. Більярдні обчислення – це енергозберігаючі або екологічно чисті обчислення. Основою такої парадигми є спеціальні логічні елементи. Однак, математичний апарат для створення таких комп’ютерів ще не повністю розроблений. Проблема полягає в тому, що для нових оборотних елементів, які мають взаємно однозначну відповідність між входами і виходами, застосування відомих методів аналізу і синтезу стикається з певними труднощами. Так, наприклад, заборонено використовувати розгалуження, що істотно ускладнює синтез. Оборотні елементи повинні забезпечувати передачу сигналу в прямому і зворотному напрямках, що в принципі можливо в двійковій логіці, заснованої на буферах з трьома станами, але значно ускладнює пристрій, збільшує площу кристала і енергоспоживання, які вони покликані зменшити. Мета. Метою даної роботи є аналіз функціонально завершених оборотних вентилів, які названі вентилем Тоффолі, вентилем Фредкіна, аналіз довічного повного суматора, заснованого на вентилях Фредкіна, і запропонований логічний метод синтезу проектування на основі запропонованого логічного елемента. Методи. Аналіз цифрових схем з використанням булевої алгебри. Синтез цифрових схем запропонованим методом декомпозиції. Дизайн вентиля Фредкіна на базі LUT FPGA. Моделювання запропонованого елемента в системі NI Multisim від National Instruments Electronics Workbench Group. Результати. Аналіз повного суматора на основі вентилів Фредкіна. Метод синтезу оборотних схем на основі вентилів Фредкіна. Вентиль Фредкіна на основі LUT і його моделювання. Висновки. Проведені дослідження дозволяють будувати схеми на основі вентилів Фредкіна із запропонованих нових елементів.Item Method for selecting a classified training sample for radar’s elevation channels(Національний університет "Запорізька політехніка", 2020) Semenov, D. S.; Piza, D. M.; Семенов Д. С.; Піза, Дмитро МакаровичEN: Context. Under conditions of simultaneous exposure to active and passive interference, the passive component decorrelates the active component of the combined interference in the receiving channels of the surveillance radar, which significantly reduces the effectiveness of its suppression. Therefore, in order to adapt the weight coefficients of the spatial filter during spatio-temporal processing of radar signals, it is necessary, by one method or another, to form a classified training sample generated only by active noise interference. Objective. The goal is to optimize the choice of a method for generating a classified training sample for various elevation channels of the radar field of view, taking into account the predicted distribution of passive interference in range. Method. An analytical assessment of the distribution of the most powerful Cb type cumulonimbus cloud systems, followed by mathematical modeling of the effectiveness of the active noise suppression using various training samples generation methods. Results. Based on the performed analytical calculations, it was shown that in the upper part of the field of view of surveillance radar in the sector of elevation angles from 6º to 30º, the upper boundary of Cb type clouds does not exceed 75 km, which guarantees the absence of passive interference at the end of the radar range. This makes it possible to form a training sample at a time interval located before the radiation of the next probe pulse. In the lower part of the field of view in the sector of angles 0º to 6º, the upper boundary of the clouds is located at a distance of 75–270 km, which does not allow the formation of a training sample at the end of the radar range. It is proposed to use the correlation method, in which the time interval for the formation of the training sample is determined by the “on the fly” analysis of the magnitude of the inter-channel correlation coefficient. The choice of the interval with the highest value of inter-channel correlation during the repetition period allows us to form a training sample with the least influence of passive interference on the process of suppressing the active component of the combined interference. As a result of modeling, it was found that the use of a training sample significantly reduces the duration of the transient process when forming the weight coefficients of the spatial filter and, accordingly, improves the quality of the suppression of active interference. Conclusions. The scientific novelty of the work lies in the fact that for the first time the problem of individual selection of a classified training sample for the surveillance radar elevation channels has been solved. Practical significance consists in the development of a methodology for analyzing the location of the most powerful cloud systems in range in the radar field of view with varying degrees of influence of passive interference in elevation channels in a real signal-noise environment. To the practical novelty should also include the results of simulation modeling, which confirm the need to choose a method for generating a classified training sample in different elevation channels of the radar viewing area should also be attributed. UK: Актуальність. При одночасному впливі активної і пасивної завади остання декорелює активну складову комбінованої завади в прийомних каналах РЛС виявлення і супроводу, що істотно знижує ефективність її компенсації. Тому при просторово-часовій обробці радіолокаційних сигналів необхідно тим чи іншим методом сформувати класифіковану навчальну вибірку, породжену тільки активною шумовою завадою для адаптації вагових коефіцієнтів просторового фільтра. Метод. Аналітична оцінка розподілу найбільш потужних купчасто-дощових хмарних систем виду Cb з подальшим математичним моделюванням ефективності придушення активних завад з використанням різних методів формування навчальної вибірки. Результати. На підставі проведених аналітичних розрахунків показано, що у верхній частині зони огляду типової РЛС виявлення і супроводу в секторі кутів місця від 6º до 30º верхня межа хмар виду Cb не перевищує 75 км, що гарантує відсутність пасивних завад в кінці дальності дії РЛС. Це дозволяє сформувати навчальну вибірку на часовому інтервалі, розташованому перед випромінюванням чергового зондуючого імпульсу. У нижній частині зони огляду в секторі кутів 0º до 6º верхня межа хмар розташовується на дальності 75–270 км, що не дозволяє сформувати навчальну вибірку в кінці дальності дії РЛС. Запропоновано використовувати кореляційний метод, при якому часовий інтервал для формування навчальної вибірки визначається шляхом поточного аналізу величини модуля міжканального коефіцієнта кореляції. Вибір інтервалу з найбільшим значенням міжканальної кореляції протягом періоду повторення дозволяє сформувати навчальну вибірку з найменшим впливом пасивної завади на процес компенсації активної складової комбінованої завади. В результаті моделювання встановлено, що використання навчальної вибірки істотно зменшує тривалість перехідного процесу при формуванні вагових коефіцієнтів просторового фільтра і, відповідно, покращує якість придушення активної завади. Висновки. Наукова новизна роботи полягає в тому, що вперше вирішена задача індивідуального вибору класифікованої навчальної вибірки для кутомісцевих каналів РЛС виявлення і супроводу. Практичне значення полягає в розробці методики аналізу розташування найбільш потужних хмарних систем по дальності в зоні огляду РЛС з різним ступенем ураження кутомісцевих каналів пасивними завадами у реальній сигнально-завадовій обстановці. До практичної новизни також слід віднести результати імітаційного моделювання, які підтверджують необхідність вибору методу формування класифікованої навчальної вибірки в різних кутомісцевих каналах зони огляду РЛС.Item A circular shaped multiband semi-compound reconfigurable antenna with frequency and pattern diversity for wireless applications(Національний університет "Запорізька політехніка", 2020) Pandurangaiah, Y.; Satyanarayana, R. V. S.; Пандурангайя, Й.; Сатьянараяна, Р. В. С.EN: Context. The problem of achieving multi band functionality and two or more reconfiguration capabilities by using a single antenna for diversified Wireless communication applications. The objective of the work is to model a prototype that combines the above functionalities. Objective. The major goal of the work is to produce a very efficient and compact antenna satisfying all the requirements for wireless applications combining semi compound reconfigurability and multi-band functionality for Wireless communication applications. Method. This paper reports design and investigations on a planar multi-band frequency– and pattern-circular shaped reconfigurable antenna by the use of PIN diodes. It consists of symmetrically placed, seven PIN diodes on each half of the circle cutting the longitudinal axis. By changing the controlled activation of the slots placed on a circular disk which is fed by Coplanar Waveguide feed, the required reconfiguration mechanism is achieved. The antenna can be operated in 8 different modes by the use of 15 PIN diodes. A beam shape pattern reconfigurability is achieved by operating the antenna in all the modes. The basic antenna is a circular disk without slots and is designed to operate at 2.4GHz. Frequency reconfigurability is achieved by changing the overall electrical length of the slot by activating the switches in appropriate positions in different operating modes. Pattern reconfigurability is achieved by maintaining the same overall electrical length in each operating mode but changing the switch positions orient in a particular direction in each half of the circle. Results. The model has been developed and investigative simulations were carried out using Ansys HFSS. Conclusions. The proposed antenna resonates at three frequencies 2.2GHz, 4.98GHz and 5.72GHz when operated in pattern reconfigurability mode. A simultaneous frequency reconfigurability along with pattern is achieved with more (at 6.2GHz, 8.2GHz and 9GHz) or less number of new frequency bands (at 7.1GHz) than pattern reconfiguration mode. The area of the antenna occupied is 40 X 60 mm2. An acceptable gain is obtained in all of the operating modes. The prototype of the designed antenna has been developed and the simulation results have been verified experimentally. UK: Актуальність. Проблема досягнення багатосмужної функціональності і двох або більше можливостей реконфігурації з використанням єдиної антени для різноманітних застосувань бездротового зв’язку. Завданням роботи є моделювання прототипу, який поєднує в собі вищевказані функції. Мета. Основна мета роботи – створити дуже ефективну і компактну антену, що задовольняє всім вимогам для бездротових застосувань, що поєднує напівкомпонентну реконфігурованість і багатосмужну функціональність для застосувань бездротового зв’язку. Метод. Антена може працювати в 8 різних режимах за допомогою 15 PIN-діодів. Трансформація форми променя досягається за рахунок роботи антени у всіх режимах. Основна антена являє собою круглий диск без слотів і призначена для роботи на частоті 2,4 ГГц. Трансформація частоти досягається шляхом зміни загальної електричної довжини слота шляхом активації перемикачів у відповідних положеннях в різних режимах роботи. Трансформація схеми досягається шляхом збереження однакової загальної електричної довжини в кожному робочому режимі шляхом зміни положення перемикачів, орієнтованих в певному напрямку в кожній половині кола. Антена може працювати в 8 різних режимах за допомогою 15 PIN-діодів. Трансформація форми променя досягається за рахунок роботи антени у всіх режимах. Основна антена являє собою круглий диск без слотів і призначена для роботи на частоті 2,4 ГГц. Трансформація частоти досягається шляхом зміни загальної електричної довжини слота шляхом активації перемикачів у відповідних положеннях в різних режимах роботи. Трансформація схеми досягається шляхом збереження однакової загальної електричної довжини в кожному робочому режимі шляхом зміни положення перемикачів, орієнтованих в певному напрямку в кожній половині кола. Результати. Було розроблено модель і проведено експериментальне моделювання з використанням Ansys HFSS. Висновки. Пропонована антена налаштована на три частоти: 2,2 ГГц, 4,98 ГГц і 5,72 ГГц при роботі в режимі зміни форми діаграми спрямованості. Одночасна зміна частоти разом з формою досягається з великою (на 6,2 ГГц, 8,2 ГГц і 9 ГГц) або меншою кількістю нових смуг частот (на 7,1 ГГц), ніж в режимі перетворення форми. Площа, яку займає антена, становить 40 х 60 мм2. Прийнятне посилення досягається у всіх режимах роботи. Виготовлено прототип розробленої антени, результати моделювання підтверджуються експериментально.Item Модель и метод определения размеров печатных плат с учетом множества факторов(Національний університет "Запорізька політехніка", 2020) Ефименко, А. А.; Карлангач, А. П.; Єфіменко, А. А.; Карлангач, О. П.; Yefimenko, A. A.; Karlangach, A. P.RU: Актуальность. Определение размеров печатных плат является важным этапом в процессе проектирования электронной и радиоэлектронной аппаратуры, т. к. от правильного их определения зависят как показатели качества и надежности функционирования, так и экономические, и эксплуатационные показатели. Несмотря на достаточное количество работ, посвященных этим вопросам, не существует методов, которые бы объективно учитывали все множество факторов, влияющих на размеры, и при этом были бы удобными для использования. Поэтому, на практике используется опыт разработчиков, а также известные требования и ограничения к проектируемой аппаратуре. Однако такой подход не приводит к оптимальным результатам при определении размеров печатных плат. Целью работы является создание модели электронных модулей на основе печатных плат и метода для определения их размеров и, в частности, коэффициента заполнения с учетом множества действующих факторов и применения стандартных размеров печатных плат. Метод. Метод определения размеров печатных плат учитывает влияние установочной площади электронных компонентов и коэффициента заполнения, который отличается тем, что установлена зависимость КЗ от размеров электронных компонентов и плотности их расположения на печатной плате, а также зависимость вводимого коэффициента пропорциональности от площади печатных плат при использовании их стандартных размеров. Результаты. Создана модель электронных модулей на основе печатных плат и метод для определения их размеров, который позволяет с минимальными затратами определять размеры печатных плат на ранних стадиях проектирования в условиях ограниченных исходных данных, а также ограничений по типоразмерам печатных плат, устанавливаемых соответствующими стандартами и другими нормативными документами. Выводы. В результате теоретических исследований решена важная научно-практическая проблема повышения эффективности проектирования печатных плат: получили дальнейшее развитие модель и метод определения размеров печатных плат с учетом множества факторов, определяющих их площадь и размеры. В основе метода лежит установленная зависимость между коэффициентом заполнения и установочной площадью электронных компонентов для разных значений плотности их расположения на печатной плате. Это позволяет с минимальными затратами времени определять размеры печатных плат. Также установлена взаимосвязь между площадью, необходимой для проектируемого электронного модуля и потерями, связанными с требованиями использования стандартных типоразмеров печатных плат и выраженными коэффициентом пропорциональности. Практическая ценность полученных результатов состоит в их готовности к использованию разработчиками для определения размеров печатных плат, что продемонстрировано соответствующим примером. размеры печатных плат UK: Актуальність. Визначення розмірів друкованих плат є важливим етапом в процесі проектування електронної та радіоелектронної апаратури, так як від правильного їх визначення залежать як показники якості і надійності функціонування, так і економічні та експлуатаційні показники. Незважаючи на достатню кількість робіт, присвячених цим питанням, не існує методів, які б об’єктивно враховували всю безліч факторів, що впливають на розміри, і при цьому були б зручними для використання. Тому, на практиці використовується досвід розробників, а також відомі вимоги та обмеження до проектованої апаратури. Однак такий підхід не призводить до оптимальних результатів при визначенні розмірів друкованих плат. Метою роботи є створення моделі електронних модулів на основі друкованих плат і методу для визначення їх розмірів, і, зокрема коефіцієнта заповнення, з урахуванням безлічі діючих факторів і застосування стандартних розмірів друкованих плат. Метод. Метод визначення розмірів друкованих плат враховує вплив установлювальної площі електронних компонентів і коефіцієнта заповнення, який відрізняється тим, що встановлена залежність КЗ від розмірів електронних компонентів і площі їх розташування на друкованій платі, а також залежність вводимого коефіцієнта пропорційності від площі друкованих плат при використанні їх стандартних розмірів. Результати. Створена модель електронних модулів на основі друкованих плат і метод для визначення їх розмірів, який дозволяє з мінімальними витратами визначати розміри друкованих плат на ранніх стадіях проектування в умовах обмежених вихідних даних, а також обмежень по типорозмірах друкованих плат, що встановлюються відповідними стандартами та іншими нормативними документами. Висновки. В результаті теоретичних досліджень вирішена важлива науково-практична проблема підвищення ефективності проектування друкованих плат: отримали подальший розвиток модель і метод визначення розмірів друкованих плат з урахуванням безлічі факторів, що визначають їх площу і розміри. В основі методу лежить встановлена залежність між коефіцієнтом заповнення і установлювальною площею електронних компонентів для різних значень щільності їх розташування на друкованій платі. Це дозволяє з мінімальними витратами часу визначати розміри друкованих плат. Також встановлений взаємозв’язок між площею, необхідною для проектованого електронного модуля і втратами, пов’язаними з вимогами використання стандартних типорозмірів друкованих плат і вираженими коефіцієнтом пропорційності. Практична цінність отриманих результатів полягає в їх готовності до використання розробниками для визначення розмірів друкованих плат, що продемонстровано відповідним прикладом. EN: Context. The determination of the size of printed circuit boards is an important step in the design process of electronic and radio- electronic equipment, since its correct determination affects on both characteristics of quality and operational reliability, as well as economic and performance characteristics. In spite of multitude works devoted to these questions, there are no methods that objectively consider all multitude factors that affect the sizes, and at the same time are convenient to use. Therefore, in practice, the experience of developers is used, as well as the well-known requirements and limitations for the designed equipment. However, this approach does not lead to optimal results when determining the dimensions of printed circuit boards. Objective. The aim of the work is to create a model of electronic modules based on printed circuit boards and a method for determining their sizes, and in particular fill factor, taking into account multitude acting factors and the application of standard sizes of printed circuit boards. The method for determining the size of PCBs takes into account the influence of the installation area of electronic components and the duty cycle, which is distinguished by the fact that the dependence of the short circuit on the dimensions of electronic components and their density on the printed circuit board is established, as well as the dependence of the input proportionality coefficient on the area of printed circuit boards when using their standard sizes. Results. Created the model of electronic modules based on printed circuit boards and a method for determining their sizes, which allows with minimum costs to determine the size of printed circuit boards at an early stages of design with limited initial data, as well as restrictions on the standard sizes of printed circuit boards established by corresponding standards and other regulatory documents. Conclusions. As a result of theoretical studies was solved an important scientific and practical problem of increasing the efficiency of printed circuit boards design: the model and method for determining the dimensions of printed circuit boards were further developed taking into account many factors determining their area and sizes. The method are based on the established dependency between the fill factor and the installation area of electronic components for different values of the density of their placement on the printed circuit board. This allows to determine the size of printed circuit boards with minimal time. Interconnection has also been established between the area required for the designed electronic module and the losses associated with the requirements for using standard types of printed circuit boards and expressed by the coefficient of proportionality. The practical value of the got results is in their readiness for use by developers to determine the size of printed circuit boards that is demonstrated by the corresponding example. PCB size