Радіоелектроніка, інформатика, управління - 2024, №2 (69)
Permanent URI for this collectionhttps://eir.zp.edu.ua/handle/123456789/25161
Browse
Recent Submissions
Item Development of automated control system for continuous casting(Національний університет «Запорізька політехніка», 2024) Sotnik, S. V.; Сотник, С. В.EN: Context. Today, automated continuous casting control systems are developing rapidly, as process of manufacturing billets (products) of same size from metal in casting mold in mass production has long been outdated and “continuous casting stage” is coming. This process is suitable for non-ferrous metals and steel. However, each time during development, task of improving quality of resulting billet arises, which directly depends on optimizing efficiency and reliability of automated systems themselves. Optimization is key stage in development process, as it is aimed at ensuring accuracy and stability of casting process, which includes development of parametric model and accurate algorithms that ensure optimal temperature, metal pouring rate, oscillation frequency, oscillation amplitude, metal level in crystallizer, and position of position of industrial bucket stopper for each casting stage. In particular, this problem has not yet been fully solved in literature known to authors, so it is necessary to formulate problem and develop algorithm for system operation for specific safety casting unit. Objective. The aim of study is to develop automated control system to ensure accuracy and stability of casting process. Method. The developed control system for continuous casting plant is based on proposed parametric model, which is formalized on basis of set theory. The model takes into account key parameters for particular casting process: metal pouring rate, oscillation frequency, oscillation amplitude, metal level in crystallizer, and position of industrial bucket stopper. Results. The problem was formulated and key parameters were determined, which are taken into account in system’s algorithm, which made it possible to develop control system for continuous casting plant to solve problem of improving quality of resulting billet. Conclusions. A parametric model and generalized black box model representation were created, which are necessary for both new continuous casting projects and existing units to optimize metal casting process. To set up continuous casting system, controlled parameters such as pouring speed, oscillation frequency and amplitude, metal level in crystallizer, and position of industrial bucket stopper were determined. The algorithm of control system for continuous casting plant was developed, on basis of which system was developed that allows monitoring, regulation and control of obtaining steel process or non-ferrous billets. The developed user interface of control system is simple and easy to use. UK: Актуальність. На сьогодні автоматизовані системи управління безперервним литтям стрімким чином розвиваються, оскільки процес виготовлення заготовки (виробів) одного розміру з металу у виливниці при масовому виробництві давно застарів і настає «етап безперервного лиття». Такий процес виготовлення виробів підходить для кольорових металів та сталі. Однак, при розробці кожен раз виникає задача підвищення якості отриманої заготовки, яка безпосередньо залежить від оптимізації ефективності та надійності самих автоматизованих систем. Оптимізація є ключовим етапом в процесі розробки, оскільки вона спрямована на забезпечення точності та стабільності процесу лиття, що включає в себе розробку параметричної моделі та точних алгоритмів, які забезпечують оптимальну температуру, швидкість розливу металу, частота коливань, амплітуда коливань, рівень металу в кристалізаторі та положення стопора промковша для кожного етапу лиття. Зокрема, у відомій авторам літературі ця задача досі не вирішена у повному обсязі, тому, необхідно провести постановку задачі та розробити алгоритм роботи системи для конкретної установки безперервного лиття. Мета. Метою дослідження є розробка автоматизованої системи управління для забезпечення точності та стабільності процесу лиття. Метод. Розроблена система управління установкою безперервного лиття спирається на запропоновану параметричну модель, яка формалізована на базі теорії множин. Модель враховує ключові параметри для конкретного процесу лиття: швидкість розливу металу, частота коливань, амплітуда коливань, рівень металу в кристалізаторі та положення стопора промковша. Результати. Здійснена постановка задачі та визначені ключові параметри, які враховані в алгоритмі роботи системи, а це дало можливість розробити систему управління установкою безперервного лиття для вирішення задачі підвищення якості отриманої заготовки. Висновки. Створено параметричну модель та узагальнене представлення у вигляді моделі чорного ящика, які є необхідними як для нових проектів безперервного лиття, так і для вже існуючих агрегатів з метою оптимізації процесу лиття металу. Для налаштування системи безперервного лиття були визначені контрольовані параметри, такі як швидкість розливу, частота та амплітуда коливань, рівень металу у кристалізаторі та положення стопора промковша. Розроблено алгоритм системи управління для установки безперервного розливу на основі якого розроблено система, яка дозволяє реалізувати моніторинг, регулювання та управляння процесом отримання заготовок зі сталі або кольорових металів. Розроблено інтерфейс користувача системи управління є простим та зручним для користування.Item Формалізація задачі формування головного календарного плану в системі планування MRP II(Національний університет «Запорізька політехніка», 2024) Новінський, В. П.; Попенко, В. Д.; Novinskyi, V. P.; Popenko, V. D.UK: Актуальність. Розглянуто задачу формування Головного календарного плану в процесі управління виробництвом на базі стандарту MRP II. Об’єктом дослідження є алгоритм формування цього плану для подальшого планування постачання матеріалів у виробництво і організації самого виробництва. Мета роботи – вдосконалення алгоритму формування Головного календарного плану для уникнення зайвих стадій алгоритму. Метод. Запропоновано вдосконалення алгоритму формування Головного календарного плану. Воно полягає в одночасному врахуванні вимог щодо своєчасної реалізації замовникам продукції, обмежень щодо потужностей робочих центрів підприємства і обмежень щодо тривалості закупівельних циклів у процесі постачання матеріалів. У стандарті MRP II передбачені спочатку планування термінів і кількості випуску продуктів, а лише на наступному кроці перевірка сформованого плану на припустимість щодо потрібного часу роботи обладнання і доступності потрібних кількостей матеріалів. У разі порушення обмежень розрахованим планом треба або планувати і здійснювати заходи для подолання вказаних обмежень, тобто організовувати додаткові зміни для робочих центрів, задіяти додаткові потужності, пришвидшити доставку деяких матеріалів, або зменшувати план продажу. Всі ці заходи пов’язані з додатковими витратами. В запропонованому варіанті процесу планування це треба робити лише якщо алгоритм не знайде припустимого рішення. Задача формування Головного календарного плану, яка є центральною в стандарті MRP, сформульована авторами як задача лінійного програмування завдяки лінійному характеру вказаних обмежень по виробничих потужностях і матеріалах. Зокрема, в разі достатньо жорстких обмежень на потужності робочих центрів план поповнення залишків продуктів з виробництва зсувається на більш ранні інтервали планування і лише після цього упирається в обмеження. Запропоновано кілька стратегій планування поповнень з виробництва залишків продуктів. Результати. Розроблені алгоритми реалізовані в формі шаблонів Microsoft Excel і доступні для використання з метою поглиблення розуміння стандарту MRP II. Також вони використовуються в навчальному процесі. Висновки. Апробація рішення авторами підтвердила його працездатність, а також доцільність впровадження розробленої модифікації процесу планування MRP II у програмне забезпечення провідних постачальників систем класу ERP. Перспективи подальших досліджень можуть полягати в порівняльному аналізі запропонованих варіантів розміщення поповнень залишків продуктів з виробництва, шляхом економічного оцінювання цих варіантів, а також шляхом імітаційного моделювання. EN: Context. Considered the task of forming the Master Production Shedule in the process of production management based on the MRP II standard. The object of the study is the algorithm for forming this plan for further planning of materials supply for production and the organization of production itself. Objective. Improvement of the algorithm of Master Production Shedule formation to avoid unnecessary stages of the algorithm. Method. It is proposed to improve the algorithm of the Master Production Shedule formation. It consists in simultaneously taking into account the requirements for timely delivery of products to customers, limitations regarding the capacities of the company’s work centers, and limitations regarding the duration of procurement cycles in the process of supplying materials. The MRP II standard envisages first planning the terms and quantity of product releases, and only at the next step checking the formed plan for admissibility with regard to the required time of operation of the equipment and the availability of the required materials quantity. In case of the calculated plan limitations violation, it is necessary to either plan and implement measures to overcome the specified limitations, i.e. organize additional shifts for work centers, use additional capacities, speed up the delivery of some materials, or reduce the sales plan. All these measures are associated with additional costs. In the proposed version of the planning process, this should be done only if the algorithm does not find an acceptable solution. The task of forming the Master Production Shedule, which is central to the MRP standard, is formulated by the authors as a linear programming task due to the linear nature of the specified restrictions on production capacities and materials. In particular, in the case of sufficiently severe restrictions on the work centers capacity, the plan for replenishing the remaining products from production is shifted to earlier planning intervals and only then rests against the restrictions. Several strategies are proposed for planning replenishments from the production of products stock. Results. The developed algorithms are implemented in the form of Microsoft Excel templates and are available for use in order to deepen the understanding of the MRP II standard. They are also used in the educational process. Conclusions. Approbation of the solution by the authors confirmed its workability, as well as the expediency of implementing the developed modification of the MRP II planning process into the software of leading ERP class systems suppliers. Prospects for further research may consist in a comparative analysis of the proposed options for placement of products replenishment from production, through economic evaluation of these options, as well as through simulation modeling.Item Determining object-oriented design complexity due to the identification of classes of open-source web applications created using PHP frameworks(Національний університет «Запорізька політехніка», 2024) Prykhodko, A. S.; Malakhov, E. V.; Приходько, А. С.; Малахов, Є. В.EN: Context. The problem of determining the object-oriented design (OOD) complexity of the open-source software, including Web apps created using the PHP frameworks, is important because nowadays open-source software is growing in popularity and using the PHP frameworks making app development faster. The object of the study is the process of determining the OOD complexity of the open-source Web apps created using the PHP frameworks. The subject of the study is the mathematical models to determine the OOD complexity due to the identification of classes of the open-source Web apps created using the PHP frameworks. Objective. The goal of the work is the build a mathematical model for determining the OOD complexity due to the identification of classes of the open-source Web apps created using the PHP frameworks based on the three-variate Box-Cox normalizing transformation to increase confidence in determining the OOD complexity of these apps. Method. The mathematical model for determining the OOD complexity due to the identification of classes of the open-source Web apps created using the PHP frameworks is constructed in the form of the prediction ellipsoid equation for normalized metrics WMC, DIT, and NOC at the app level. We apply the three-variate Box-Cox transformation for normalizing the above metrics. The maximum likelihood method is used to compute the parameter estimates of the three-variate Box-Cox transformation. Results. A comparison of the constructed model based on the F distribution quantile with the prediction ellipsoid equation based on the Chi-Square distribution quantile has been performed. Conclusions. The mathematical model in the form of the prediction ellipsoid equation for the normalized WMC, DIT, and NOC metrics at the app level to determine the OOD complexity due to the identification of classes of the open-source Web apps created using the PHP frameworks is firstly built based on the three-variate Box-Cox transformation. This model takes into account the correlation between the WMC, DIT, and NOC metrics at the app level. The prospects for further research may include the use of other data sets to confirm or change the prediction ellipsoid equation for determining the OOD complexity due to the identification of classes of the open-source Web apps created using the PHP frameworks. UK: Актуальність. Проблема визначення складності об’єктно-орієнтованого проектування (ООП) програмного забезпечення з відкритим вихідним кодом, включаючи веб-програми, створені за допомогою фреймворків PHP, є важливою, оскільки сьогодні програмне забезпечення з відкритим кодом стає все популярнішим і використання фреймворків PHP робить розробку застосунків швидшою. Об’єктом дослідження є процес визначення складності ООП веб-застосунків з відкритим кодом, створених за допомогою фреймворків PHP. Предметом дослідження є математичні моделі для визначення складності ООП завдяки ідентифікації класів веб-застосунків з відкритим кодом, створених за допомогою фреймворків PHP. Мета. Метою роботи є побудова математичної моделі для визначення складності ООП завдяки ідентифікації класів веб- застосунків з відкритим кодом, створених з використанням фреймворків PHP, на основі тривимірного нормалізуючого перетворення Бокса-Кокса для підвищення достовірності визначення складність ООП цих застосунків. Метод. Математична модель для визначення складності ООП завдяки ідентифікації класів веб-застосунків з відкритим кодом, створених за допомогою фреймворків PHP, побудована у формі рівняння еліпсоїда прогнозування для нормалізованих метрик WMC, DIT і NOC на рівні застосунку. Ми застосовуємо тривимірне перетворення Бокса-Кокса для нормалізації наведених вище метрик. Метод максимальної правдоподібності використовується для обчислення оцінок параметрів тривимірного перетворення Бокса-Кокса. Результати. Проведено порівняння побудованої моделі на основі квантиля F-розподілу з рівнянням еліпсоїда прогнозування на основі квантиля розподілу хі-квадрат. Висновки. Математична модель у формі рівняння еліпсоїда прогнозування для нормалізованих метрик WMC, DIT та NOC на рівні програми для визначення складності ООП через ідентифікацію класів веб-застосунків з відкритим кодом, створених за допомогою фреймворків PHP, у перше побудована на основі тривимірного перетворення Бокса-Кокса. Ця модель враховує кореляцію між метриками WMC, DIT та NOC на рівні програми. Перспективи подальших досліджень можуть включати використання інших наборів даних для підтвердження або зміни рівняння еліпсоїда прогнозування для визначення складності ООП завдяки ідентифікації класів веб-застосунків з відкритим кодом, створених за допомогою фреймворків PHP.Item Розробка плагіна для візуалізації структурних схем обчислювачів на основі текстового опису алгоритмів гармонічних перетворень(Національний університет «Запорізька політехніка», 2024) Процько, І.; Теслюк, В.; Prots’ko, I.; Teslyuk, V.UK: Актуальність. У багатьох областях науки і техніки чисельне рішення задач недостатньо для подальшого розвитку реалізацій отриманих результатів. Серед існуючих підходів візуалізації інформації вибирають той, який дозволяє ефективно здійснити розкриття неструктурованих дієвих ідей, узагальнити або спростити аналіз отриманих даних. Результати візуалізації узагальнених структурних схем на основі текстового опису алгоритму наочно відображають взаємодію його частин, що важливо на системотехнічному етапі проєктування обчислювачів. Мета дослідження – наліз та програмна реалізація візуалізації структури на прикладі обчислювачів дискретних гармонічних перетворень, отриманих в результаті синтезу алгоритму на основі циклічних згорток з можливістю розширення візуалізації структур на інші обчислювальні алгоритми. Метод. Узагальнена схема синтезу алгоритмів швидких гармонічних перетворень у вигляді набору операцій циклічної згортки над комбінованими послідовностями вхідних даних і коефіцієнтами гармонічної функції перетворення з візуалізацією їх у вигляді узагальненої структурної схеми обчислювача. Результати. Результатом роботи є програмна реалізація візуалізації узагальнених структурних схем для синтезованих алгоритмів косинусного та Хартлі перетворень, що наочно відображають взаємодію основних блоків обчислювача. Програмна реалізація візуалізації структури обчислювача виконана на мові TypeScript з використанням фреймворку Phaser 3. Висновки. У роботі розглянуто та проаналізовано розроблену програмну реалізацію візуалізації загальної структури обчислювача для швидких алгоритмів дискретних гармонічних перетворень в області дійсних чисел, отриманих в результаті синтезу алгоритму на основі циклічних згорток. Результати візуалізації варіантів структурних схем обчислювачів наочно і зрозуміло відображають взаємодію його частини і дозволяють виконати оцінку того чи іншого варіанту обчислювального алгоритму в процесі проєктування. EN: Context. In many areas of science and technology, the numerical solution of problems is not enough for the further development of the implementation of the obtained results. Among the existing information visualization approaches, the one that allows you to effectively reveal unstructured actionable ideas, generalize or simplify the analysis of the received data is chosen. The results of visualization of generalized structural diagrams based on the textual description of the algorithm clearly reflect the interaction of its parts, which is important at the system engineering stage of computer design. Objective of the study is the analysis and software implementation of structure visualization using the example of discrete harmonic transformation calculators obtained as a result of the synthesis of an algorithm based on cyclic convolutions with the possibility of extending the structure visualization to other computational algorithms. Method. The generalized scheme of the synthesis of algorithms of fast harmonic transformations in the form of a set of cyclic convolution operations on the combined sequences of input data and the coefficients of the harmonic transformation function with their visualization in the form of a generalized structural diagram of the calculator. The results. The result of the work is a software implementation of the visualization of generalized structural diagrams for the synthesized algorithms of cosine and Hartley transformations, which visually reflect the interaction of the main blocks of the computer. The software implementation of computer structure visualization is made in TypeScript using the Phaser 3 framework. Conclusions. The work considers and analyzes the developed software implementation of visualization of the general structure of the calculator for fast algorithms of discrete harmonic transformations in the domain of real numbers, obtained as a result of the synthesis of the algorithm based on cyclic convolutions. The results of visualization of variants of structural schemes of computers clearly and clearly reflect the interaction of its parts and allow to evaluate one or another variant of the computing algorithm in the design process.Item Method automated class conversion for composition implementation(Національний університет «Запорізька політехніка», 2024) Kungurtsev, O. B.; Bondar, V. R.; Gratilova, K. O.; Novikova, N. O.; Кунгурцев, О. Б.; Бондар, В. Р.; Гратілова, К. О.; Новікова, Н. О.UK: Context. Using the composition relation is one of the most effective and commonly used ways to specialize classes in object-oriented programming. Objective. Problems arise when “redundant” attributes are detected in an inner class, which are not necessary for solving the tasks of a specialized class. To work with such attributes, the inner class has corresponding program methods, whose usage not only does not solve the tasks of the specialized class, but can lead to errors in its work. The purpose of this work is to remove “redundant” attributes from the inner class, as well as all methods of the class directly or indirectly (through other methods) using these attributes. Method. A mathematical model of the inner class was developed, which allowed us to identify “redundant” elements of the class. The method of internal class transformation is proposed, which, based on the analysis of the class code, provides the developer with information to make a decision about “redundant” attributes, and then in the automated mode gradually removes and transforms the class elements. Result. To approbate the proposed solutions, a software product Composition Converter was developed. Experiments were carried out to compare the conversion of classes in “manual” and automated modes. The results showed a multiple reduction of conversion time in the automated mode. Conclusions. The proposed method of automated transformation of the inner class according to the tasks of the outer class when implementing composition allows to significantly reduce the time or the number of errors when editing the code of the inner class. The method can be used for various object-oriented languages. UK: Актуальність. Використання відношення композиції – один із найефективніших і найчастіше використовуваних способів спеціалізації класів в об’єктно-орієнтованому програмуванні. Мета роботи. Проблеми виникають при виявленні у внутрішньому класі зайвих атрибутів, які не потрібні для вирішення завдань спеціалізованого класу. Для роботи з такими атрибутами внутрішній клас має відповідні програмні методи, використання яких не тільки не вирішує завдання спеціалізованого класу, але й може призводити до помилок у його роботі. Метою роботи є видалення із внутрішнього класу «зайвих» атрибутів, і навіть всіх методів класу, які безпосередньо чи опосередковано (через інші методи) використовують ці атрибути. Метод. Розроблено математичну модель внутрішнього класу, яка дозволила виділити «зайві» елементи класу. Запропоновано метод перетворення внутрішнього класу, який на основі аналізу коду класу надає розробнику інформацію для ухвалення рішення про «зайві» атрибути, а потім в автоматизованому режимі поетапно видаляє та перетворює елементи класу. Результати. Для апробації запропонованих рішень розроблено програмний продукт Composition Converter. Проведено експерименти для порівняння перетворення класів у «ручному» та автоматизованому режимах. Результати показали багаторазове скорочення часу перетворення у автоматизованому режимі. Висновки. Запропонований метод автоматизованого перетворення внутрішнього класу відповідно до завдань зовнішнього класу при реалізації композиції дозволяє суттєво скоротити час або кількість помилок при редагуванні коду внутрішнього класу. Метод може бути використаний для різних об’єктно-орієнтованих мов.Item Інформаційна технологія розпізнавання пропаганди, фейків та дезінформації у текстовому контенті на основі методів NLP та машинного навчання(Національний університет «Запорізька політехніка», 2024) Висоцька, В. А.; Vysotska, V.UK: Актуальність. Дослідження спрямоване на застосування штучного інтелекту для розроблення та вдосконалення засобів кіберборотьби, зокрема для боротьби з дезінформацією, фейками та пропагандою в Інтернет-просторі, виявлення джерел дезінформації та неавтентичної поведінки (боти) скоординованих груп. Реалізація проекту сприятиме вирішенню важливого та актуального у наш час питання інформаційної маніпуляції у медіа, адже для ефективної боротьби із викривленням та дезінформацією необхідно отримати ефективний інструмент розпізнання цих явищ у текстових даних для вироблення подальшої стратегії запобігання розповсюдження таких даних. Метою дослідження є розробка інформаційної технології для автоматичного розпізнавання політичної пропаганди у текстових даних, яка побудована на основі машинного навчання з учителем та реалізована за допомогою методів опрацювання природної мови. Метод. Розпізнання наявності пропаганди відбуватиметься на двох рівнях: на загальному рівні, тобто рівні документу, та на рівні окремих речень. Для реалізації проекту використано такі методи конструювання ознак, як статистичний показник TF-IDF, модель векторизації «Торба слів», розмічування частин мови, моделі word2vec для отримання векторних представлень слів, а також розпізнавання тригерних слів (підсилюючі слова, абсолютні займенники та «блискучі» слова). У якості основного алгоритму моделювання використана логістична регресія. Результати. Розроблено моделі машинного навчання для розпізнавання пропаганди, фейків та дезінформації на рівні документу (статті) та на рівні речень. Обидві оцінки моделі є задовільними, проте модель для розпізнання пропаганди на рівні документу впоралася в майже 1,2 разів краще (на 20%). Висновки. Створені моделі показує відмінні результати розпізнавання пропаганди, фейків та дезінформації у текстовому контенті на основі методів NLP та машинного навчання. Аналіз вихідних даних показав, що моделі розпізнання пропаганди на рівні документу (статті) вдалося коректно класифікувати 6097 не пропагандистських статей та 694 статті пропагандистського характеру. 123 пропагандистські статті та 285 не пропагандистських статей були класифіковані невірно. Отримана оцінка моделі: 0,9433254618697041. Модель розпізнання пропаганди на рівні речень успішно класифікувала 1917 не пропагандистських статей та 205 пропагандистських статей, проте 585 пропагандистських статей та 146 не пропагандистських статей були класифіковані невірно. Оцінка моделі становить: 0,7437784787942516. EN: Context. The research is aimed at the application of artificial intelligence for the development and improvement of means of cyber warfare, in particular for combating disinformation, fakes and propaganda in the Internet space, identifying sources of disinformation and inauthentic behavior (bots) of coordinated groups. The implementation of the project will contribute to solving the important and currently relevant issue of information manipulation in the media, because in order to effectively fight against distortion and disinformation, it is necessary to obtain an effective tool for recognizing these phenomena in textual data in order to develop a further strategy to prevent the spread of such data. Objective of the study is to develop or automatic recognition of political propaganda in textual data, which is built on the basis of machine learning with a teacher and implemented using natural language processing methods. Method. Recognition of the presence of propaganda will occur at two levels: at the general level, that is, at the level of the document, and at the level of individual sentences. To implement the project, such feature construction methods as the TF-IDF statistical indicator, the “Bag of Words” vectorization model, the marking of parts of speech, the word2vec model for obtaining vector representations of words, as well as the recognition of trigger words (reinforcing words, absolute pronouns and “shiny” words). Logistic regression was used as the main modeling algorithm. Results. Machine learning models have been developed to recognize propaganda, fakes and disinformation at the document (article) and sentence level. Both model scores are satisfactory, but the model for document-level propaganda recognition performed almost 1.2 times better (by 20%). Conclusions. The created model shows excellent results in recognizing propaganda, fakes and disinformation in textual content based on NLP and machine learning methods. The analysis of the raw data showed that the propaganda recognition model at the document (article) level was able to correctly classify 6097 non-propaganda articles and 694 propaganda articles. 123 propaganda articles and 285 non-propaganda articles were misclassified. The obtained estimate of the model: 0.9433254618697041. The sentence-level propaganda recognition model successfully classified 205 propaganda articles and 1917 non-propaganda articles. The model score is: 0.7437784787942516 (but 731 articles were incorrectly classified).Item Method of imperative variables for search automation of textual content in unstructured documents(Національний університет «Запорізька політехніка», 2024) Boiko, V. O.; Бойко, В. О.EN: Context. Currently, there are a lot of approaches that are used for textual search. Nowadays, methods such as pattern-matching and optical character recognition are highly used for retrieving preferred information from documents with proven effectiveness. However, they work with a common or predictive document structure, while unstructured documents are neglected. The problem – is automating the textual search in documents with unstructured content. The object of the study was to develop a method and implement it into an efficient model for searching the content in unstructured textual information. Objective. The goal of the work is the implementation of a rule-based textual search method and a model for seeking and retrieving information from documents with unstructured text content. Method. To achieve the purpose of the research, the method of rule-based textual search in heterogenous content was developed and applied in the appropriately designed model. It is based on natural language processing that has been improved in recent years along with a new generative artificial intelligence becoming more available. Results. The method has been implemented in a designed model that represents a pattern or a framework of unstructured textual search for software engineers. The application programming interface has been implemented. Conclusions. The conducted experiments have confirmed the proposed software’s operability and allow recommendations for use in practice for solving the problems of textual search in unstructured documents. The prospects for further research may include the improvement of the performance using multithreading or parallelization for large textual documents along with the optimization approaches to minimize the impact of OpenAI application programming interface content processing limitations. Furthermore, additional investigation might incorporate extending the area of imperative variables usage in programming and software development. UK: Актуальність. На сьогодні існує багато підходів для виконання ефективного текстового пошуку. Для отримання знаходження та вилучення фрагментів інформації з документів широко використовуються такі методи, як зіставлення з шаблоном і оптичне розпізнавання символів. Однак вони працюють із чітко визначеною структурою документа, тоді як неструктуровані документи не можуть бути оброблені такими методами. А тому проблема полягає в автоматизації текстового пошуку в документах з неструктурованим вмістом. Метою дослідження було розробити метод та реалізувати ефективну модель пошуку вмісту в неструктурованій текстовій інформації. Мета роботи – реалізація методу та моделі текстового пошуку на основі правил для отримання інформації з документів з неструктурованим текстовим вмістом. Метод. Для досягнення мети дослідження розроблено та застосовано у відповідній моделі метод критеріального текстового пошуку для знаходження інформації у різнорідному текстовому вмісті. Він заснований на обробці природної мови, яка була вдосконалена в останні роки разом із новим генеративним штучним інтелектом, який стає все більш доступним та продуктивним. Результати. Метод реалізовано в розробленій моделі, яка представляє шаблон або структуру неструктурованого текстового пошуку для розробників програмного забезпечення. Розроблено прикладний програмний інтерфейс для взаємодії з моделлю. Висновки. Проведені експерименти у вигляді реалізованого програмного забезпечення підтвердили працездатність запропонованого методу та доводять практичність його використання для вирішення задач текстового пошуку в неструктурованих документах. Перспективи подальших досліджень можуть включати покращення продуктивності за допомогою багатопотоковості або паралелізації для великих текстових документів, а також розробка підходів до оптимізації методу для мінімізації впливу обмежень обробки контенту прикладного програмного інтерфейсу OpenAI. Крім того, додаткові дослідження можуть включати розширення області використання імперативних змінних у програмуванні та розробці програмного забезпечення.Item Розробка методики оцінювання значень функції належності на основі групової експертизи у методі нечіткого дерева рішень(Національний університет «Запорізька політехніка», 2024) Швед, А. В.; Shved, A. V.UK: Актуальність. Останнім часом нечіткі дерева рішень набули широкого застосування при вирішенні задач класифікації та регресії. У випадку відсутності об’єктивної інформації для побудови функції належності елементів вузлам дерева, єдиним шляхом отримання інформації є залучення експертів. У випадку залучення групи фахівців виникає задача агрегування думок експертів з метою синтезу групового рішення. Об’єктом дослідження є групові експертні оцінки ступеню належності елемента заданому класу, атрибуту, що потребують структуризації та агрегування при побудові та аналізі нечіткого дерева рішень. Метою роботи є розробка методики визначення значень функції належності елемента заданому класу (атрибуту) за результатами опитування групи експертів при побудові та аналізі нечітких дерев рішень. Метод. Методика дослідження ґрунтується на комплексному застосуванні математичного апарату теорії правдоподібних та парадоксальних міркувань та методів нечіткої логіки для вирішення задачі агрегування нечітких експертних оцінок значень атрибутів (ознак) класифікації при побудові та аналізі нечіткого дерева рішень. Запропонований підхід використовує механізм комбінування експертних свідоцтв, сформованих в рамках гібридної моделі Дезера-Смарандаке, на основі правила перерозподілу конфліктів PCR5 для побудови групового рішення. Результати. Розглянуті питання структуризації нечіткої експертної інформації та запропонована методика синтезу групової експертної оцінки відносно значень атрибутів (ознак) класифікації при побудові та аналізі нечіткого дерева рішень. Висновки. Дістали подальшого розвитку моделі та методи структуризації та синтезу групових рішень в умовах нечіткої експертної інформації. На відміну від існуючих експертних методів визначення значень функції належності в умовах групового вибору, запропонований підхід дозволяє синтезувати групове рішення з різним значенням конфліктної маси при комбінуванні вихідних експертних свідоцтв. Такий підхід дозволяє коректно агрегувати як узгоджені, так і суперечливі (конфліктні) експертні свідоцтва. EN: Context. Recently, fuzzy decision trees have become widely used in solving the classification problem. In the absence of objective information to construct the membership function that shows the degrees of belongingness of elements to tree nodes, the only way to obtain information is to involve experts. In the case of group decision making, the task of aggregation of experts’ preferences in order to synthesize a group decision arises. The object of the study is group expert preferences of the degree of belonging (membership function) of an element to a given class, attribute, which require structuring and aggregation in the process of construction and analysis of a fuzzy decision tree. Objective. The purpose of the article is to develop a methodology for determining the membership degree of elements to a given class (attribute) based on the group expert assessment in the process of construction and analysis of fuzzy decision trees. Method. The research methodology is based on the complex application of the mathematical apparatus of the theory of plausible and paradoxical reasoning and methods of fuzzy logic to solve the problem of aggregating fuzzy judgments of the classification attribute values in the process of construction and analysis of a fuzzy decision tree. The proposed approach uses the mechanism of combination of expert evidences (judgments), formed within the framework of the Dezert-Smarandache hybrid model, based on the PCR5 proportional conflict redistribution rule to construct a group solution. Results. The issues of structuring fuzzy expert judgments are considered and the method of synthesis of group expert judgments regarding the values of membership degree of elements to classification attributes in the process of construction and analysis of fuzzy decision trees has been proposed. Conclusions. The models and methods of structuring and synthesis of group decisions based on fuzzy expert information were further developed. In contrast to the existing expert methods for the construction of membership function in context of group decision making, the proposed approach allows synthesizing a group decision taking into account the varying degree of conflict mass in the process of combination of original expert evidenced. This approach allows to correctly aggregate both agreed and contradictory (conflicting) expert judgments.Item Building a scalable dataset for friday sermons of audio and text (SAT)(Національний університет «Запорізька політехніка», 2024) Samah, A. A.; Dimah, H. A.; Hassanin, M. A.; Самах, А. А.; Дімах, Х. А.; Хасанін, М. А.EN: Context. Today, collecting and creating datasets in various sectors has become increasingly prevalent. Despite this widespread data production, a gap still exists in specialized domains, particularly in the Islamic Friday Sermons (IFS) domain. It is rich with theological, cultural, and linguistic studies that are relevant to Arab and Muslim countries, not just religious discourses. Objective. The goal of this research is to bridge this lack by introducing a comprehensive Sermon Audio and Text (SAT) dataset with its metadata. It seeks to provide an extensive resource for religion, linguistics, and sociology studies. Moreover, it aims to support advancements in Artificial Intelligence (AI), such as Natural Language Processing and Speech Recognition technologies. Method. The development of the SAT dataset was conducted through four distinct phases: planning, creation and processing, measurement, and deployment. The SAT dataset contains a collection of 21,253 audio and corresponding transcript files that were successfully created. Advanced audio processing techniques were used to enhance speech recognition and provide a dataset that is suitable for wide-range use. Results. The fine-tuned SAT dataset achieved a 5.13% Word Error Rate (WER), indicating a significant improvement in accuracy compared to the baseline model of Microsoft Azure Speech. This achievement indicates the dataset’s quality and the employed processing techniques’ effectiveness. In light of this, a novel Closest Matching Phrase (CMP) algorithm was developed to enhance the high confidence of equivalent speech-to-text by adjusting lower ratio phrases. Conclusions. This research contributes significant impact and insight into different studies, such as religion, linguistics, and sociology, providing invaluable insights and resources. In addition, it is demonstrating its potential in Artificial Intelligence (AI) and supporting its applications. In future research, we will focus on enriching this dataset expansion by adding a sign language video corpus, using advanced alignment techniques. It will support ongoing Machine Translation (MT) developments for a broader understanding of Islamic Friday Sermons across different linguistics and cultures. UK: Актуальність. Сьогодні збір і створення наборів даних у різних секторах стає все більш поширеним. Незважаючи на таке поширене створення даних, досі існує прогалина в спеціалізованих областях, зокрема в області Ісламських п’ятничних проповідей. Вона багата на теологічні, культурні та лінгвістичні дослідження, які стосуються арабських і мусульманських країн, а не лише релігійних дискурсів. Мета. Мета цього дослідження полягає в тому, щоб усунути цю нестачу, створивши повний набір даних аудіо та тексту проповідей із його метаданими. Це спрямоване надати великий ресурс для вивчення релігії, лінгвістики та соціології. Крім того, це дозволить підтримати досягнення у сфері штучного інтелекту, таких як технології обробки природної мови та розпізнавання мовлення. Метод. Розробка набору даних проходила у чотири окремі етапи: планування, створення та обробка, вимірювання та розгортання. Набір даних містить колекцію з 21 253 аудіо та відповідних файлів розшифровки, які були успішно створені. Удосконалені методи обробки звуку були використані для покращення розпізнавання мовлення та надання набору даних, який підходить для широкого використання. Результати. Тонко налаштований набір даних досяг 5,13% частоти помилок у словах (Word Error Rate – WER), що вказує на значне покращення точності, порівняно з базовою моделлю Microsoft Azure Speech. Це досягнення вказує на якість набору даних і ефективність використовуваних методів обробки. У світлі цього було розроблено новий алгоритм фрази з найбільшою відповідністю, щоб підвищити високу надійність еквівалентного мовлення до тексту шляхом коригування фраз із меншим співвідношенням. Висновки. Це дослідження створює ресурс для поєднання різних досліджень, таких як релігієзнавство, лінгвістика та соціологія. Крім того, воно демонструє потенціал у сфері штучного інтелекту і підтримує його програми. У майбутніх дослідженнях ми зосередимося на збагаченні цього розширення набору даних шляхом додавання відеокорпусу мовою жестів, використовуючи вдосконалені методи вирівнювання. Він підтримуватиме поточні розробки машинного перекладу для ширшого розуміння ісламських п’ятничних проповідей у різних мовах і культурах.Item Face recognition using the ten-variate prediction ellipsoid for normalized data based on the Box-Cox transformation(Національний університет «Запорізька політехніка», 2024) Prykhodko, S. B.; Trukhov, A. S.; Приходько, С. Б.; Трухов, А. С.UK: Context. Face recognition, which is one of the tasks of pattern recognition, plays an important role in the modern information world and is widely used in various fields, including security systems, access control, etc. This makes it an important tool for security and personalization. However, the low probability of identifying a person by face can have negative consequences, so there is a need for the development and improvement of face recognition methods. The object of research is the face recognition process. The subject of the research is a mathematical model for face recognition. One of the frequently used methods of pattern recognition is the construction of decision rules based on the prediction ellipsoid. An important limitation of its application is the need to fulfill the assumption of a multivariate normal distribution of data. However, in many cases, the multivariate distribution of real data may deviate from normal, which leads to a decrease in the probability of recognition. Therefore, there is a need to improve mathematical models that would take into account the specified deviation. The objective of the work is to increase the probability of face recognition by constructing a ten-variate prediction ellipsoid for data normalized by the Box-Cox transformation. Method. Application of the Mardia test to test the deviation of a multivariate distribution of data from normality. Building decision rules for face recognition using a ten-variate prediction ellipsoid for data normalized based on the Box-Cox transformation. Obtaining estimates of the parameters of the univariate and ten-variate Box-Cox transformations using the maximum likelihood method. Results. A comparison of the results of face recognition using decision rules, which were built using a ten-variate ellipsoid of prediction for data normalized by various transformations, was carried out. In comparison with the use of univariate normalizing transformations (decimal logarithm and Box-Cox) and the absence of normalization, the use of the ten-variate Box-Cox transformation leads to an increase in the probability of face recognition. Conclusions. For face recognition, a mathematical model in the form of a ten-variate prediction ellipsoid for data normalized using the multivariate Box-Cox transformation has been improved, which allows to increase in the probability of recognition in comparison with the use of corresponding models that are built either without normalization or with the use of univariate normalizing transformations. It was found that a mathematical model built for normalized data using a multivariate Box-Cox transformation has a higher probability of recognition since univariate transformations neglect the correlation between geometric features of the face. UK: Актуальність. Розпізнавання обличчя, яке є одним із завдань розпізнавання образів, відіграє важливу роль у сучасному інформаційному світі та знаходить широке застосування в різних галузях, включаючи системи безпеки, управління доступом та ін. Це робить його важливим інструментом для забезпечення безпеки та персоналізації. Однак низька ймовірність ідентифікації особи за обличчям може мати негативні наслідки, тому існує потреба в розробці та вдосконаленні методів розпізнавання обличчя. Об’єктом дослідження є процес розпізнавання обличчя. Предметом дослідження є математична модель для розпізнавання обличчя. Один з часто використовуваних методів розпізнавання образів полягає в побудові правил прийняття рішень на основі еліпсоїда прогнозування. Важливим обмеженням його застосування є необхідність виконання припущення про багатовимірний нормальний розподіл даних. Однак у багатьох випадках багатовимірний розподіл реальних даних може відхилятися від нормального, що призводить до зниження ймовірності розпізнавання. Тому виникає необхідність удосконалення математичних моделей, які враховували б зазначене відхилення. Мета роботи полягає у підвищенні ймовірності розпізнавання обличчя шляхом побудови десятивимірного еліпсоїду прогнозування для нормалізованих за допомогою перетворення Бокса-Кокса даних. Метод. Застосування тесту Мардіа для перевірки відхилення багатовимірного розподілу даних від нормального. Побудова правил прийняття рішень для розпізнавання обличчя за допомогою десятивимірного еліпсоїду прогнозування для нормалізованих на основі перетворення Бокса-Кокса даних. Отримання оцінок параметрів одновимірного та десятививимірного перетворень Бокса-Кокса за допомогою методу максимальної правдоподібності. Результати. Здійснено порівняння результатів розпізнавання облич за допомогою правил прийняття рішень, які побудовані за допомогою десятивимірного еліпсоїду прогнозування для нормалізованих за різними перетвореннями даних. У порівнянні із застосуванням одновимірних нормалізуючих перетворень (десяткового логарифму та Бокса-Кокса) та у випадку відсутності нормалізації використання десятивимірного перетворення Бокса-Кокса призводить до збільшення ймовірності розпізнавання облич. Висновки. Для розпізнавання обличчя удосконалено математичну модель у вигляді десятивимірного еліпсоїду прогнозування для нормалізованих за допомогою багатовимірного перетворення Бокса-Кокса даних, що дозволяє підвищити ймовірність розпізнавання у порівнянні із застосуванням відповідних моделей, які побудовані або без нормалізації, або із використанням одновимірних нормалізуючих перетворень. Досліджено, що математична модель, побудована для нормалізованих даних за допомогою багатовимірного перетворення Бокса-Кокса, має більшу ймовірність розпізнавання за рахунок того, що одновимірні перетворення нехтують кореляцією між геометричними ознаками обличчя.Item Using modular neural networks and machine learning with reinforcement learning to solve classification problems(Національний університет «Запорізька політехніка», 2024) Leoshchenko, S. D.; Oliinyk, A. O.; Subbotin, S. A.; Kolpakova, T. O.; Леощенко, Сергій Дмитрович; Олійник, Андрій Олександрович; Субботін, Сергій Олександрович; Колпакова, ТетянаОлексіївнаEN: Context. The solution of the classification problem (including graphical data) based on the use of modular neural networks and modified machine learning methods with reinforcement for the synthesis of neuromodels that are characterized by a high level of accuracy is considered. The object of research is the process of synthesizing modular neural networks based on machine learning methods with reinforcement. Objective is to develop a method for synthesizing modular neural networks based on machine learning methods with reinforcement, for constructing high-precision neuromodels for solving classification problems. Method. A method for synthesizing modular neural networks based on a reinforcement machine learning approach is proposed. At the beginning, after initializing a system of modular neural networks built on the bottom-up principle, input data is provided – a training set of data from the sample and a hyperparameter to select the size of each module. The result of this method is a trained system of modular neural networks. The process starts with a single supergroup that contains all the categories of the data set. Then the network size is selected. The output matrix is softmax, similar to the trained network. After that, the average probability of softmax is used as a similarity indicator for group categories. If new child supergroups are formed, the module learns to classify between new supergroups. The training cycle of modular neural network modules is repeated until the training modules of all supergroups are completed. This method allows you to improve the accuracy of the resulting model. Results. The developed method is implemented and investigated on the example of neuromodel synthesis based on a modular neural network for image classification, which can later be used as a model for technical diagnostics. Using the developed method significantly reduces the resource intensity of setting up hyperparameters. Conclusions. The conducted experiments confirmed the operability of the proposed method of neuromodel synthesis for image classification and allow us to recommend it for use in practice in the synthesis of modular neural networks as a basis for classification models for further automation of tasks of technical diagnostics and image recognition using big data. Prospects for further research may lie in using the parallel capacities of GPU-based computing systems to organize directly modular neural networks based on them. EN: Актуальність. Розглянуто вирішення задачі класифікації (в тому числі графічних даних) на основі використання модулярних нейронних мереж та модифікованих методів машинного навчання з підкріпленням для синтезу нейромоделей, які відрізняються високим рівнем точності роботи. Об’єктом дослідження є процес синтезу модулярних нейронних мереж на основі методів машинного навчання з підкріпленням. Мета роботи полягає у розробці методу синтезу модулярних нейронних мереж на основі методів машинного навчання з підкріпленням, для побудови нейромоделей високої точності для розв’язання задач класифікації. Метод. Запропоновано метод синтезу імпульсних нейронних мереж на основі еволюційного підходу. На початку, після ініціалізації системи модулярних нейронних мереж, що побудована за принципом знизу вгору, подаються вхідні дані – навчальний набір даних з вибірки і гіперпараметр, для вибору розміру кожного модуля. Результатом роботи методу є навчена система модулярних нейронних мереж. Процес починають з однієї супергрупи, яка містить усі категорії набору даних. Потім обирається розмір мережі. Вихідна матриця softmax, подібна для навченої мережі. Після чого середня ймовірність softmax використовується як показник подібності для групових категорій. Якщо формуються нові дочірні супергрупи, модуль навчається класифікації між новими супергрупами. Цикл навчання модулів модулярних нейронних мереж повторюється до тих пір, поки не будуть навчені модулі всіх супергруп. Метод дозволяє підвищити точність результуючої моделі. Результати. Розроблений метод реалізовано та досліджено на прикладі синтезу нейромоделі на основі модулярної нейронної мережі для класифікації зображень, яка в подальшому зможе використовуватися у якості моделі для технічного діагностування. Використання розробленого методу значно знижує ресурсоємність налаштування гіперпараметрів. Висновки. Проведені експерименти підтвердили працездатність запропонованого методу синтезу нейромоделі для класифікації зображень та дозволяють рекомендувати його для використання на практиці при синтезі модулярних нейронних мереж у якості основи класифікаційних моделей для подальшої автоматизації задач технічного діагностування та розпізнавання образів з використанням великих даних. Перспективи подальших досліджень можуть полягати у використанні паралельних потужностей обчислювальних систем на базі GPU для організації на їх базі безпосередньо модульних нейромереж.Item Fuzzy model for intellectualizing medical knowledge(Національний університет «Запорізька політехніка», 2024) Malyar, M. M.; Malyar-Gazda, N. M.; Sharkadi, M. M.; Маляр, М. М.; Маляр-Газда, Н. М.; Шаркаді, М. М.; Маляр, М. М.; Маляр-Газда, Н. М.; Шаркаді, М. М.EN: Context. The research is devoted to the development of a flexible mathematical apparatus for the intellectualisation of knowledge in the medical field. As a rule, human thinking is based on inaccurate, approximate data, the analysis of which allows us to formulate clear decisions. In cases where there is no exact mathematical model of an object, or the model is difficult to implement, it is advisable to use a fuzzy logic apparatus. The article is aimed at expanding the range of knowledge of researchers working in the field of medical diagnostics. Objective. The aim of the study is to improve the quality of reflection of the subject area of the medical sphere on the basis of building type-2 fuzzy knowledge bases with interval membership functions. Method. The article describes an approach to formalising the knowledge of a medical specialist using second-order fuzzy sets, which allows taking into account the uncertainty and vagueness inherent in medical data and solving the problem of interpreting the results obtained. Results. The developed approach is implemented on a specific problem faced by an anaesthetist when admitting a patient to elective (planned) surgery. Conclusions. Experimental studies have shown that the presented type-2 fuzzy model with interval membership functions allows to adequately reflect the input medical variables of a qualitative nature and take into account both the knowledge of a specialist in medical practice and research medical and biological data. The acquired results hold substantial practical importance for medical practitioners, especially anesthetists, as they lead to enhanced patient assessments, error reduction, and tailored recommendations. This research fosters the advancement of intelligent systems capable of positively influencing clinical practices and improving patient outcomes within the realm of medical diagnosticsItem Convolutional neural network scaling methods in semantic segmentation(Національний університет «Запорізька політехніка», 2024) Hmyria, I. O.; Kravets, N. S.; Гмиря, І. О.; Кравець, Н. С.EN: Context. Designing a new architecture is difficult and time-consuming process, that in some cases can be replaced by scaling existing model. In this paper we examine convolutional neural network scaling methods and aiming on the development of the method that allows to scale original network that solves segmentation task into more accurate network. Objective. The goal of the work is to develop a method of scaling a convolutional neural network, that achieve or outperform existing scaling methods, and to verify its effectiveness in solving semantic segmentation task. Method. The proposed asymmetric method combines advantages of other methods and provides same high accuracy network in the result as combined method and even outperform other methods. The method is developed to be appliable for convolutional neural networks which follows encoder-decoder architecture designed to solve semantic segmentation task. The method is enhancing feature extraction potential of the encoder part, meanwhile preserving decoder part of architecture. Because of its asymmetric nature, proposed method more efficient, since it results in smaller increase of parameters amount. Results. The proposed method was implemented on U-net architecture that was applied to solve semantic segmentation task. The evaluation of the method as well as other methods was performed on the semantic dataset. The asymmetric scaling method showed its efficiency outperformed or achieved other scaling methods results, meanwhile it has fewer parameters. Conclusions. Scaling techniques could be beneficial in cases where some extra computational resources are available. The proposed method was evaluated on the solving semantic segmentation task, on which method showed its efficiency. Even though scaling methods improves original network accuracy they highly increase network requirements, which proposed asymmetric method dedicated to decrease. The prospects for further research may include the optimization process and investigation of tradeoff between accuracy gain and resources requirements, as well as a conducting experiment that includes several different architectures. UK: Актуальність. Розробка нової архітектури нейронної мережі є складним і трудомістким процесом, який у деяких випадках може бути замінений масштабуванням існуючої моделі. У цій статті ми розглядаємо методи масштабування згорткової нейронної мережі та прагнемо розробити метод, який дозволяє масштабувати оригінальну мережу, яка вирішує завдання сегментації, у більш точну мережу. Мета роботи. Метою роботи є розробка методу масштабування згорткової нейронної мережі, який досягає або перевершує існуючі методи масштабування, і перевірити його ефективність у вирішенні задачі семантичної сегментації. Метод. Запропонований асиметричний метод поєднує в собі переваги інших методів і забезпечує таку ж високу точність мережі в результаті, як і комбінований метод, і навіть перевершує інші методи. Метод розроблено для застосування до згорткових нейронних мереж, які слідують архітектурі кодера-декодера, призначеної для вирішення завдання семантичної сегментації. Метод посилює потенціал виділення ознак що відбувається в частині кодера, водночас зберігає початкову архітектуру частини декодера. Через свою асиметричність запропонований метод більш ефективний, оскільки призводить до меншого приросту кількості параметрів. Результати. Запропонований метод реалізовано на архітектурі U-net, яка застосовувалася для вирішення задачі семантичної сегментації. Оцінка методу, а також інших методів була виконана на семантичному наборі даних. Метод асиметричного масштабування показав, що його ефективність перевершує або досягає результатів інших методів масштабування, при цьому він є більш ефективний за кількістю параметрів. Висновки. Методи масштабування можуть бути корисними у випадках, коли доступні додаткові обчислювальні ресурси. Запропонований метод був застосований до згорткової нейронної мережі та оцінювався при вирішенні завдання семантичної сегментації, на якому метод показав свою ефективність. Незважаючи на те, що методи масштабування покращують початкову точність мережі, вони значно підвищують вимоги до мережі, для зменшення яких пропонується асиметричний метод. Перспективи подальших досліджень можуть включати процес оптимізації та дослідження оптимального компромісу між підвищенням точності та вимогами до ресурсів, а також проведення експерименту, який включає кілька різних архітектур.Item Analysis of data uncertainties in modeling and forecasting of actuarial processes(Національний університет «Запорізька політехніка», 2024) Panibratov, R. S.; Панібратов, Р. С.EN: Context. Analysis of data uncertainties in modeling and forecasting of actuarial processes is very important issue because it allows actuaries to efficiently construct mathematical models and minimize insurance risks considering different situations. Objective. The goal of the following research is to develop an approach that allows for predicting future insurance payments with prior minimization of possible statistical data uncertainty. Method. The proposed method allows for the implementation of algorithms for estimating the parameters of generalized linear models with the preliminary application to data of the optimal Kalman filter. The results demonstrated better forecast results and more adequate model structures. This approach was applied successfully to the simulation procedure of insurance data. For generating insurance dataset the next features of clients were used: age; sex; body mass index (applying normal distribution); number of children (between 0 and 5); smoker status; region (north, east, south, west, center); charges. For creating the last feature normal distribution with known variance and a logarithmic function, exponential distribution with the identity link function and Pareto distribution with a known scale parameter and a negative linear function were used. Results. The proposed approach was implemented in the form of information processing system for solving the problem of predicting insurance payments based on insurance data and with taking into account the noise of the data. Conclusions. The conducted experiments confirmed that the proposed approach allows for more adequate model constructing and accurate forecasting of insurance payments, which is important point in the analysis of actuarial risks. The prospects for further research may include the use of this approach proposed in other fields of insurance related to availability of actuarial risk. A specialized intellectual decision support system should be designed and implemented to solve the problem by using actual insurance data from real world in online mode as well as modern information technologies and intellectual data analysis. UK: Актуальність. Розглянуто задачу аналізу невизначеностей даних у моделюванні та прогнозуванні актуарних процесів. Об’єктом дослідження є задача прогнозування страхових виплат на основі даних про страхових клієнтів з врахуванням можливих ситуацій невизначеності. Мета роботи – розробка підходу, що дозволяє спрогнозувати майбутні страхові виплати з попередньою мінімізацією можливої невизначеності статистичних даних. Метод. Запропоновано метод, що дозволяє реалізувати алгоритми оцінювання параметрів узагальнених лінійних моделей з попереднім використанням оптимального фільтру Калмана. Результати продемонстрували більш якісні результати прогнозу та більш адекватні структури моделі. Даний підхід був успішно застосований на процедурі штучно згенерованих страхових даних. Для генерування страхового набору даних клієнтів були використані наступні показники: вік; стать; індекс маси тіла (використвуючи нормальний закон розподілу); кількість дітей (від 0 до 5); статус курця; регіон (північ, схід, південь, захід, центр); виплати. Для створення останньої величини використовувався нормальний розподіл з відомою дисперсією і логарифмічною функцією зв’язку, експоненційний розподіл з одиничною функцією зв’язку та розподіл Парето з відомим параметром масштабування і від’ємною лінійною функцією зв’язку. Результати. Запропонований підхід реалізований програмно у вигляді системи обробки інформації для розв’язування задачі прогнозування страхових виплат за страховими даними та з урахуванням зашумленості даних. Висновки. Запропонований підхід реалізований програмно для побудування більш адекватних моделей та розв’язування задачі точного прогнозування страхових виплат за страховими даними та врахуванням зашумленості даних. Перспективи подальших досліджень можуть включати використання даного підходу в інших областях застосування, що пов’язані з акутарним ризиком. Необхідно розробити спеціалізовану інтелектуальну систему підтримки прийняття рішень для розв’язування задач з використанням страхових даних реального світу в режимі онлайн, а також сучасних інформаційних технологій та інтелектуального аналізу даних.Item Analysis of the results of simulation modeling of the information security system against unauthorized access in service networks(Національний університет «Запорізька політехніка», 2024) Ismailov, B. G.; Ісмайлов, Б. Г.EN: Context. An analysis of the service network shows that insufficient information security in service networks is the cause of huge losses incurred by corporations. Despite the appearance of a number of works and materials on standardization, there is currently no unified system for assessing information security in the field of information security. It should be noted that existing methods, as well as accumulated experience in this area, do not completely overcome these difficulties. This circumstance confirms that this problem has not yet been sufficiently studied and, therefore, remains relevant. The presented work is one of the steps towards creating a unified system for assessing information security in service networks. Objective. Development of an algorithm and simulation model, analysis of simulation results to determine the key characteristics of the Information Security System, providing the capability for complete closure, through the security system, of all potential threat channels by ensuring control over the passage of all unauthorized access requests through defense mechanisms. Method. To solve the problem, a simulation method was applied using the principles of queuing system modeling. This method makes it possible to obtain the main characteristics of the Information Security System from the unauthorized access with a limited amount of buffer memory. Results. Algorithms, models, and methodology have been developed for the development of Information Security System from unauthorized access, considered as a single-phase multi-channel queuing system with a limited volume of buffer memory. The process of obtaining model results was implemented in the General Purpose Simulation System World modelling system, and comparative assessments of the main characteristics of the Information Security System were carried out for various laws of distribution of output parameters, i.e., in this case, unauthorized access requests are the simplest flows, and the service time obeys exponential, constant, and Erlang distribution laws. Conclusions. The conducted experiments based on the algorithm and model confirmed the expected results when analyzing the characteristics of the Information Security System from the unauthorized access as a single-phase multi-channel queuing system with a limited waiting time for requests in the queue. These results can be used for practical construction of new or modification of existing Information Security System s in service networks of objects of various purposes. This work is one of the approaches to generalizing the problems under consideration for systems with a limited volume of buffer memory. Prospects for further research include research and development of the principles of hardware and software implementation of Information Security System in service networks. UK: Актуальність. Аналіз мережі обслуговування показує, що недостатня захищеність інформації в мережах обслуговування є причиною великих збитків, завданих корпораціями. Незважаючи на появу низки робіт, та матеріалів зі стандартизації, в даний час єдина система оцінки захищеності інформації в галузі інформаційної безпеки відсутня. Слід зазначити, що існуючі методи, і навіть накопичений досвід у цій галузі неможливо повністю подолати ці труднощі. Ця обставина підтверджує, що дана проблема ще недостатньо вивчена і, отже, зберігає свою актуальність. Представлена робота є одним із кроків на шляху створення єдиної системи оцінки безпеки інформації у мережах обслуговування. Мета роботи. Розробка алгоритму та моделі імітації, аналіз результатів моделі імітації для визначення основних характеристик системи безпеки інформації, що надають можливість повного закриття, за допомогою системи безпеки, всіх можливих каналів прояву загроз, шляхом забезпечення контролю переходу всіх запитів несанкціонованого доступу через механізм захисту. Метод. Для вирішення поставленого завдання було застосовано метод імітаційного моделювання з використанням принципів моделювання системи масового обслуговування. Даний метод дозволяють отримати основні характеристики системи безпеки інформації від несанкціонованого доступу з обмеженим обсягом буферної пам’яті. Результати. Розроблено новий алгоритм, моделі та методологію розробки системи безпеки інформації від несанкціонованого доступу, що розглядається як однофазна багатоканальна системи масового обслуговування з обмеженим обсягом буферної пам’яті. Процес одержання результатів моделі було реалізовано системі моделювання General Purpose Simulation System World і проведено порівняльні оцінки основних характеристик системи безпеки інформації щодо різних законів розподілу вихідних параметрів, тобто. при цьому запити несанкціонованого доступу є найпростішими потоками, а час обслуговування підпорядковується експоненційному, постійному та законам Ерлангового розподілу. Висновки. Проведені експерименти на основі алгоритму та моделі підтвердили очікувані результати при аналізі характеристик системи безпеки інформації від несанкціонованого доступу як однофазної багатоканальної системи масового обслуговування з обмеженим часом очікування запитів у черзі. Ці результати можуть бути використані для практичної побудови нових або модифікації існуючих системи безпеки інформації в мережах обслуговування об’єктів різного призначення. Дана робота є одним з підходів до узагальнення розглянутих проблем для систем з обмеженим обсягом буферної пам’яті. Перспективи подальших досліджень включають в себе дослідження та розробку принципів апаратно-програмної реалізації системи безпеки інформації в мережах обслуговування.Item Mathematical model of current time of signal from serial combination linear-frequency and quadratically modulated fragments(Національний університет «Запорізька політехніка», 2024) Kostyria, O. O.; Нryzo, A. A.; Khudov, H. V.; Dodukh, O. M.; Solomonenko, Y. S.; Костиря, О. О.; Гризо, А. А.; Худов, Г. В.; Додух, О. М.; Соломоненко, Ю. С.EN: Context. One of the methods of solving the actual scientific and technical problem of reducing the maximum level of side lobes of autocorrelation functions of radar signals is the use of nonlinear-frequency modulated signals. This rounds the signal spectrum, which is equivalent to the weight (window) processing of the signal in the time do-main and can be used in conjunction with it. A number of studies of signals with non-linear frequency modulation, which include linearly-frequency modulated fragments, indicate that distortions of their frequency-phase structure occur at the junction of the fragments. These distortions, depending on the type of mathematical model of the signal – the current or shifted time, cause in the generated signal, respectively, a jump in the instantaneous frequency and the instantaneous phase or only the phase. The paper shows that jumps occur at the moments when the value of the derivative of the instantaneous phase changes at the end of the linearly-frequency modulated fragment. The instantaneous signal frequency, which is the first derivative of the instantaneous phase, has an interpretation of the rotation speed of the signal vector on the complex plane. The second derivative of the instantaneous phase of the signal is understood as the frequency modulation rate. Distortion of these components leads to the appearance of an additional component in the linear term of the instantaneous phase, starting with the second fragment. Disregarding these frequency-phase (or only phase) distortions causes distortion of the spectrum of the resulting signal and, as a rule, leads to an increase in the maxi-mum level of the side lobes of its autocorrelation function. The features of using fragments with frequency modulation laws in complex signals, which have different numbers of derivatives of the instantaneous phase of the signal, were not considered in the known works, therefore this article is devoted to this issue. Objective. The aim of the work is to develop a mathematical model of the current time of two-fragment nonlinear-frequency modulated signals with a sequential combination of linear-frequency and quadratically modulated fragments, which provides rounding of the signal spectrum in the region of high frequencies and reducing the maximum level of side lobes of the autocorrelation function and increasing the speed of its descent. Method. Nonlinear-frequency modulated signals consisting of linearly-frequency and quadratically modulated fragments were studied in the work. Using differential analysis, the degree of influence of the highest derivative of the instantaneous phase on the frequency-phase structure of the signal was determined. Its changes were evaluated using time and spectral correlation analysis methods. The parameters of the resulting signal evaluated are phase and frequency jumps at the junction of fragments, the shape of the spectrum, the maximum level of the side lobes of the autocorrelation function and the speed of their descent. Results. The article has further developed the theory of synthesis of nonlinear-frequency modulated signals. The theoretical contribution is to determine a new mechanism for the manifestation of frequency-phase distortion at the junction of fragments and its mathematical description. It was found that when switching from a linearly-frequency modulated fragment to a quadratically modulated frequency-phase distortion of the resulting signal, the third derivative of the instantaneous phase becomes, which, by analogy with the theory of motion of physical bodies, is an acceleration of frequency modulation. The presence of this derivative leads to the appearance of new components in the expression of the instantaneous frequency and phase of the signal. The compensation of these distortions provides a decrease in the maximum level of the side lobes by 5 dB and an increase in its descent rate by 8 dB/deck for the considered version of the non-linear-frequency modulated signal. Conclusions. A new mathematical model of the current time has been developed for calculating the values of the instantaneous phase of a nonlinear-frequency modulated signal, the first fragment of which has linear, and the second – quadratic frequency modulation. The difference between this model and the known ones is the introduction of new components that provide compensation for frequency-phase distortions at the junction of fragments and in a fragment with quadratic frequency modulation. The obtained oscillogram, spectrum and autocorrelation function of one of the synthesized two-fragment signals correspond to the theoretical form, which indicates the adequacy and reliability of the proposed mathematical model. UK: Актуальність. Одним з методів вирішення актуальної науково-технічної задачі зниження максимального рівня бічних пелюсток автокореляційних функцій радіолокаційних сигналів є застосування нелінійно-частотно модульованих сигналів. Це забезпечує округлення спектру сигналу, що еквівалентно ваговій (віконній) обробці сигналу у часовій області та може використовуватися спільно з нею. Ряд досліджень сигналів з нелінійною частотною модуляцією, які мають у своєму складі лінійно-частотно модульовані фрагменти, свідчить, що на стику фрагментів виникають спотворення їх частотно-фазової структури. Ці спотворення, у залежності від типу математичної моделі сигналу – поточного або зсунутого часу, викликають у сформованому сигналі відповідно стрибок миттєвої частоти та миттєвої фази або тільки фази. У роботі показано, що стрибки виникають у моменти зміни значення похідної миттєвої фази по закінченні лінійно-частотно модульованого фрагменту. Миттєва частота сигналу, яка є першою похідною миттєвої фази, має тлумачення швидкості обертання вектору сигналу на комплексній площині. Друга похідна миттєвої фази сигналу розуміється як швидкість частотної модуляції. Спотворення цих компонент призводить до появи додаткової складової у лінійному члені миттєвої фази, починаючи з другого фрагменту. Неврахування вказаних частотно-фазових (або тільки фазових) спотворень викликає викривлення спектру результуючого сигналу і, як правило, призводить до зростання максимального рівня бічних пелюсток його автокореляційної функції. Особливості застосування у складних сигналах фрагментів з законами частотної модуляції, які мають різну кількість похідних миттєвої фази сигналу, у відомих роботах не розглядалися, тому дану статтю присвячено цьому питанню. Мета роботи – розробка математичної моделі поточного часу двофрагментних нелінійно-частотно модульованих сигналів з послідовним поєднанням лінійно-частотно та квадратично модульованих фрагментів, що забезпечує округлення спектру сигналу в області верхніх частот та зниження максимального рівня бічних пелюсток автокореляційної функції і збільшення швидкості його спадання. Метод. У роботі досліджувалися нелінійно-частотно модульовані сигнали, які складаються з лінійно-частотно та квадратично модульованого фрагментів. За допомогою диференційного аналізу визначався ступінь впливу старшої похідної миттєвої фази на частотно-фазову структуру сигналу. Її зміни оцінювалися за допомогою методів часового та спектрально-кореляційного аналізу. Показники результуючого сигналу, що оцінювалися, – стрибки фази та частоти на стику фрагментів, форма спектру, максимальний рівень бічних пелюсток автокореляційної функції та швидкість їх спадання. Результати. В статті отримала подальший розвиток теорія синтезу нелінійно-частотно модульованих сигналів. Теоретичний внесок полягає у визначенні нового механізму проявів частотно-фазових спотворень на стику фрагментів та його математичний опис. Встановлено, що при переході від лінійно-частотно модульованого фрагменту до квадратично модульованого першоджерелом частотно-фазових спотворень результуючого сигналу стає третя похідна миттєвої фази, яка за аналогією з теорією руху фізичних тіл є прискоренням частотної модуляції. Наявність цієї похідної призводить до появи нових складових у виразі миттєвої частоти та фази сигналу. Компенсація цих спотворень забезпечує зниження максимального рівня бічних пелюсток на 5 дБ та збільшення швидкості його спадання на 8 дБ/дек для розглянутого варіанту нелінійно-частотно модульованого сигналу. Висновки. Розроблено нову математичну модель поточного часу для розрахунку значень миттєвої фази нелінійно-частотно модульованого сигналу, перший фрагмент якого має лінійну, а другий – квадратичну частотну модуляцію. Відмінністю цієї моделі від відомих є введення нових складових, які забезпечують компенсацію частотно-фазових спотворень на стику фрагментів та у фрагменті з квадратичною частотною модуляцією. Отримані осцилограма, спектр та автокореляційна функція одного з синтезованих двофрагментних сигналів відповідають теоретичному вигляду, що свідчить про адекватність та достовірність запропонованої математичної моделі.Item Optimal synthesis of stub microwave filters(Національний університет «Запорізька політехніка», 2024) Karpukov, Leonid M.; Voskoboynyk, V. O.; Savchenko, Iu. V.; Карпуков, Леонід Матвійович; Воскобойник, Володимир Олександрович; Савченко, Ю. В.EN: Context. Microwave stub filters are widely used in radio engineering and telecommunication systems, as well as in technical information protection systems due to simplicity of design, possibility of realization in microstrip design and manufacturability in mass production. For synthesis of stub filters nowadays traditional methods based on transformation of low-frequency prototype filters on LC-elements into filtering structures on elements with distributed parameters are used. The transformations used are approximate and provide satisfactory results for narrowband stub filters. In this connection there is a necessity in development of direct synthesis methods for stub filters, excluding various approximations and providing obtaining of amplitude-frequency characteristics with optimal shape for any bandwidths. Objective. The purpose of the study is to develop a method for direct synthesis of stub band-pass filters and low-pass filters with Chebyshev amplitude-frequency response in the passband. Method. The procedure of direct synthesis includes the formulation of relations for filter functions of plume structures, selection of approximating functions of Chebyshev type for filter functions and formation of a system of nonlinear equations for calculation of parameters of filter elements. Results. A method for the direct synthesis of stub bandpass and lowpass filters with Chebyshev response is developed. Conclusions. Scientific novelty of the work consists in the development of a new method of direct synthesis of l stub filters. The method, in contrast to approximate traditional methods of synthesis of microwave filters, is exact, and the obtained solutions of synthesis problems are optimal. The experiments confirmed the performance of the proposed method and the optimality of the obtained solutions. Prospects for further research suggest adapting the method to the synthesis of filter structures with more complex resonators compared to stubs. UK: Актуальність. Мікрохвильові шлейфні фільтри знаходять широке застосування в радіотехнічних і телекомунікаційних системах, а також у системах технічного захисту інформації завдяки простоті конструкції, можливості реалізації в мікросмужковому виконанні та технологічності при масовому виготовленні. Для синтезу шлейфових фільтрів наразі використовують традиційні методи, засновані на перетворенні низькочастотних фільтрів-прототипів на LC-елементах на фільтрувальні структури на елементах із розподіленими параметрами. Використовувані перетворення є наближеними і забезпечують задовільні результати для вузькосмугових шлейфових фільтрів. У зв’язку з цим виникає необхідність у розробленні для шлейфних фільтрів методів прямого синтезу, що виключає різного роду наближення і забезпечує отримання амплітудно-частотних характеристик з оптимальною формою для будь-яких смуг пропускання. Мета. Метою дослідження є розробка методу прямого синтезу шлейфних смугово-пропускних фільтрів і фільтрів нижніх частот із чебишевською амплітудно-частотною характеристикою в смузі пропускання. Метод. Процедура прямого синтезу містить у собі складання співвідношень для функцій фільтрацій шлейфових структур, підбір апроксимувальних функцій чебишевського типу для функцій фільтрацій і формування системи нелінійних рівнянь для обчислення параметрів елементів фільтрів. Результат. Розроблено метод прямого синтезу шлейфних смугово-пропускних і фільтрів нижніх із чебишевською характеристикою. Висновки. Наукова новизна роботи полягає в розробленні нового методу прямого синтезу шлейфних фільтрів. Метод, на відміну від наближених традиційних методів синтезу мікрохвильових фільтрів, є точним, а одержувані розв’язки задач синтезу – оптимальними. Проведені експерименти підтвердили працездатність пропонованого методу й оптимальність одержуваних рішень. Перспективи подальших досліджень передбачають адаптацію методу на синтез фільтрувальних структур зі складнішими порівняно зі шлейфами резонаторами.Item Удосконалений метод оцінювання надійності об’єктів зі змінною структурою(Національний університет «Запорізька політехніка», 2024) Бабій, О. С.; Сакович, Л. М.; Слюсарчук, О. О.; Єлісов, Ю. М.; Курята, Я. Е.; Babii, O. S.; Sakovych, L. M.; Sliusarchuk, O. O.; Yelisov, Y. M.; Kuryata, Y. E.UK: Актуальність. Основна ідея – врахування можливості впливу прихованих дефектів на надійність багаторежимних радіоелектронних засобів зі змінною структурою, що не враховують відомі методи розрахунку показників надійності. Пропонується кількісна оцінка параметра потоку відмов виробів з врахуванням впливу на його значення накопичення прихованих дефектів. Мета. Удосконалення методу оцінки надійності об’єктів зі змінною структурою врахуванням можливості виникнення прихованих дефектів під час використанням за призначенням в окремих режимах роботи. Метод. Використовується методологія оцінки значень показників надійності складних технічних систем. Метод, що розробляється, є розвитком алгоритму оцінки показників надійності багаторежимних об’єктів в напрямку врахування можливості появи і накопичення прихованих дефектів в підмножинах елементів об’єкту, які при його роботі в окремих режимах не використовують. Результати. Отримані функціональні залежності часткових і комплексних показників надійності багаторежимних об’єктів від накопичення прихованих дефектів, які проявляються тільки під час технічного обслуговування або зміни режимів роботи. Рішення формалізовано у вигляді алгоритму, що використовує результати дослідної експлуатації виробів в якості вихідних даних. Висновки. Наукова новизна полягає у розробці наступних інноваційних рішень: 1) вперше запропоновано враховувати наявність прихованих дефектів при оцінці надійності багаторежимних об’єктів зі змінною структурою; 2) вперше отримано і досліджено функціональні залежності впливу наявності прихованих дефектів на значення часткових та комплексних показників надійності. Практичне значення результатів полягає в тому, що це дозволяє на етапі дослідної експлуатації радіоелектронних засобів зі змінною структурою об’єктивно оцінити відповідність розрахунків необхідним значенням показників надійності завдяки врахуванню можливості появи прихованих дефектів. EN: Context. The main idea is to take into account the possibility of the influence of hidden defects on the reliability of multi-mode radio-electronic equipment with a variable structure, which do not take into account the known methods for calculating reliability indicators. A quantitative assessment of the parameter of the failure flow of products is proposed, taking into account the impact of the accumulation of hidden defects on its value. Objective. Improvement of the method for assessing the reliability of objects with a variable structure, taking into account the possibility of hidden defects when used for their intended purpose in certain operating modes. Method. The methodology for assessing the values of reliability indicators of complex technical systems is used. The method being developed is the development of an algorithm for assessing the reliability indicators of multi-mode objects in the direction of taking into account the possibility of appearance and accumulation of hidden defects in subsets of elements of the object, which are not used when it operates in separate modes. Results. Functional dependencies of partial and complex indicators of reliability of multi-mode objects on the accumulation of hidden defects, which manifest themselves only during maintenance or change of operating modes, are obtained. The solution is formalized in the form of an algorithm that uses the results of trial operation of products as initial data. Conclusions. The scientific novelty lies in the development of the following innovative solutions: 1) for the first time it is proposed to take into account the presence of hidden defects when assessing the reliability of multi-mode objects with a variable structure; 2) for the first time, functional dependencies of the influence of the presence of hidden defects on the values of partial and complex reliability indicators were obtained and studied. The practical significance of the results lies in the fact that it allows, at the stage of trial operation of radio-electronic equipment with a variable structure, to objectively assess the compliance of calculations with the required values of reliability indicators by taking into account the possibility of hidden defects.