Радіоелектроніка, інформатика, управління - 2022, №4 (63)
Permanent URI for this collectionhttps://eir.zp.edu.ua/handle/123456789/26546
Browse
Recent Submissions
Item Risk assessment modeling of ERP-systems(Національний університет "Запорізька політехніка", 2022) Kozhukhivskyi, A. D.; Kozhukhivska, O. A.; Кожухівський, А. Д.; Кожухівська, О. А.EN: Context. Because assessing security risks is a complex and complete uncertainty process, and uncertainties are a major factor influencing valuation performance, it is advisable to use fuzzy methods and models that are adaptive to noncomputed data. The formation of vague assessments of risk factors is subjective, and risk assessment depends on the practical results obtained in the process of processing the risks of threats that have already arisen during the functioning of the organization and experience of security professionals. Therefore, it will be advisable to use models that can ade-quately assess fuzzy factors and have the ability to adjust their impact on risk assessment. The greatest performance indicators for solving such problems are neuro-fuzzy models that combine methods of fuzzy logic and artificial neural networks and systems, i.e. “human-like” style of considerations of fuzzy systems with training and simulation of mental phenomena of neural networks. To build a model for calculating the risk assessment of security, it is proposed to use a fuzzy product model. Fuzzy product models (Rule-Based Fuzzy Models/Systems) this is a common type of fuzzy models used to describe, analyze and simulate complex systems and processes that are poorly formalized. Objective. Development of a fuzzy model of quality of security risk assessment and protection of ERP systems through the use of fuzzy neural models. Method. To build a model for calculating the risk assessment of security, it is proposed to use a fuzzy product model. Fuzzy product models are a common kind of fuzzy models used to describe, analyze and model complex systems and processes that are poorly formalized. Results. Identified factors influencing risk assessment suggest the use of linguistic variables to describe them and use fuzzy variables to assess their qualities, as well as a system of qualitative assessments. The choice of parameters was substantiated and a fuzzy product model of risk assessment and a database of rules of fuzzy logical conclusion using the MATLAB application package and the Fuzzy Logic Toolbox extension package was implemented, as well as improved by introducing the adaptability of the model to experimental data by introducing neuro-fuzzy components into the model. The use of fuzzy models to solve the problems of security risk assessment, as well as the concept and construction of ERP systems and the analyzed problems of their security and vulnerabilities are considered. Conclusions. A fuzzy model has been developed risk assessment of the ERP system. Selected a list of factors affecting the risk of security. Methods of risk assessment of information resources and ERP-systems in general, assessment of financial losses from the implementation of threats, determination of the type of risk according to its assessment for the formation of recommendations on their processing in order to maintain the level of protection of the ERP-system are proposed. The list of linguistic variables of the model is defined. The structure of the database of fuzzy product rules – MISO-structure is chosen. The structure of the fuzzy model was built. Fuzzy variable models have been identified. UK: Актуальність. Оскільки оцінка ризиків безпеки є складним і повним процесом невизначеності, а невизначеність є основним фактором, що впливає на ефективність оцінки, доцільно використовувати нечіткі методи та моделі, які є адаптивними до необчислюваних даних. Формування розпливчастих оцінок факторів ризику є су-б’єктивним, а оцінка ризиків залежить від практичних результатів, отриманих у процесі обробки ризиків загроз, які вже виникли під час функціонування організації та досвіду фахівців з безпеки. Тому доцільним буде використання моделей, що здатні адекватно оцінювати нечіткі фактори та мають можливість корегування їх впливу на оцінку ризику. Найбільші показники ефективності для вирішення таких задач мають нейро-нечіткі моделі, що комбінують методи нечіткої логіки та штучних нейронних мереж і систем, тобто «людиноподібного» стилю міркувань нечітких систем з навчанням та моделюванням розумових явищ нейронних мереж. Для побудови мо-делі розрахунку оцінки ризику безпеки пропонується використовувати нечітку продукційну модель. Нечіткі продукційні моделі (нечіткі моделі/системи на основі правил) це поширений тип нечітких моделей, які використовуються для опису, аналізу та моделювання складних систем і процесів, що слабо формалізуються. Мета роботи – розробка нечіткої моделі оцінки ризиків безпеки та захисту систем ERP шляхом використання нечітких нейронних моделей. Метод. Для побудови моделі розрахунку оцінки ризику безпеки пропонується використовувати нечітку про-дукційну модель. Нечіткі продукційні моделі це загальний вид нечітких моделей, які використовуються для опису, аналізу та моделювання складних систем і процесів, що слабо формалізуються. Результати. Визначено фактори, що впливають на оцінку ризиків, запропоновано використання лінгвістичних змінних для їх опису та використання нечітких змінних для оцінки їх якостей, а також системи якісних оцінок. Обґрунтовано вибір параметрів та реалізовано нечітку продукційну модель оцінювання ризиків та бази правил нечіткого логічного висновку з використанням пакету прикладних програм MATLAB та пакету розширення Fuzzy Logic Toolbox, а також покращено за рахунок введення адаптивності моделі до експериментальних даних шляхом впровадження в модель нейро-нечітких компонентів. Розглянуто використання нечітких моделей для вирішення задач оцінки ризиків безпеки, а також концепцію та побудову ERP-систем та проаналізовано проблеми їх безпеки та вразливості. Висновки. Розроблено нечітку модель оцінки ризиків ERP-системи. Обрано перелік факторів, що впливають на ризик безпеки. Запропоновано методи оцінки ризику інформаційних ресурсів та ERP-систем взагалі, оцінки фінансових збитків від реалізації загроз, визначення типу ризику за його оцінкою для формування рекомендацій відносно їх обробки з метою підтримки рівня захищеності ERP-системи. Визначено перелік лінгвістичних змінних моделі. Обрано структуру бази нечітких продукційних правил – MISO-структуру. Побудовано структуру нечіткої моделі. Визначено нечіткі змінні моделі.Item Технологія ідентифікації рерайту в текстовому контенті на основі методів машинного навчання(Національний університет "Запорізька політехніка", 2022) Холодна, Н. M.; Висоцька, В. А.; Kholodna, N.; Vysotska, V.UK: Актуальність. Перефразований текстовий контенту або рерайт є однією із складних проблем виявлення академічного плагіату. Більшість систем ідентифікації плагіату призначені для виявлення спільних слів, послідовності лінгвістичних одиниць та незначних змін, але не здатні виявити суттєві семантичні та структурні зміни. Тому більшість випадків плагіату із застосуванням перефразування залишаються непоміченими. Мета – розроблення технології виявлення перефразувань у тексті на основі моделі класифікації та методів машинного навчання через використання сіамської нейронної мережі на основі рекурентних та типу Transformer – RoBERTa для аналізу рівня подібності речень текстового контенту. Метод. Для даного дослідження у якості ознак обрані такі метрики семантичної подібності або показники: коефіцієнт Жаккара для спільних N-грам, косинусна відстань між векторними поданнями речень, Word Mover’s Distance, відстані за словниками WordNet, передбачення двох ML-моделей: сіамської нейронної мережі на основі рекурентних та типу Transformer – RoBERTa. Результати. Розроблено інтелектуальну систему виявлення перефразувань у тексті на основі моделі класифікації та методів машинного навчання. Розроблена система використовує принцип стекінгу моделей і інжиніринг ознак (feature engineering). Додаткові ознаки вказують на семантичну приналежність речень або нормовану кількість спільних N-грам. Додатково налаштована (fine-tuned) нейронної мережі RoBERTa (із додатковими повнозв’язними шарами) має меншу чутливість до пар речень, що не є перефразуваннями один одного. Така специфічність моделі може сприяти неправильному звинуваченню у плагіаті або некоректному об’єднанню згенерованого користувачами контенту. Додаткові ознаки збільшують як загальну точність класифікації, так і чутливість моделі до пар тих речень, що не є перефразуваннями один одного. Висновки. Створена модель показує відмінні результати класифікації на тестових даних PAWS: зважена влучність (precision) – 93%, зважена повнота (recall) – 92%, F-міра (F1-score)–92%, точність (accuracy) – 92%. Результати дослідження показали, що NN типу Transformer можуть бути успішно застосовані для виявлення перефразувань у парі текстів із досить високою точністю без потреби додаткового генерування ознак. EN: Context. Paraphrased textual content or rewriting is one of the difficult problems of detecting academic plagiarism. Most plagiarism detection systems are designed to detect common words, sequences of linguistic units, and minor changes, but are unable to detect significant semantic and structural changes. Therefore, most cases of plagiarism using paraphrasing remain unnoticed. Objective of the study is to develop a technology for detecting paraphrasing in text based on a classification model and machine learning methods through the use of Siamese neural network based on recurrent and Transformer type – RoBERTa to analyze the level of similarity of sentences of text content. Method. For this study, the following semantic similarity metrics or indicators were chosen as features: Jacquard coefficient for shared N-grams, cosine distance between vector representations of sentences, Word Mover’s Distance, distances according to WordNet dictionaries, prediction of two ML models: Siamese neural network based on recurrent and Transformer type - RoBERTa. Results. An intelligent system for detecting paraphrasing in text based on a classification model and machine learning methods has been developed. The developed system uses the principle of model stacking and feature engineering. Additional features indicate the semantic affiliation of the sentences or the normalized number of common N-grams. An additional fine-tuned RoBERTa neural network (with additional fully connected layers) is less sensitive to pairs of sentences that are not paraphrases of each other. This specificity of the model may contribute to incorrect accusations of plagiarism or incorrect association of user-generated content. Additional features increase both the overall classification accuracy and the model’s sensitivity to pairs of sentences that are not paraphrases of each other. Conclusions. The created model shows excellent classification results on PAWS test data: precision – 93%, recall – 92%, F1-score – 92%, accuracy – 92%. The results of the study showed that Transformer-type NNs can be successfully applied to detect paraphrasing in a pair of texts with fairly high accuracy without the need for additional feature generation.Item Permanent decomposition algorithm for the combinatorial objects generation(Національний університет "Запорізька політехніка", 2022) Turbal, Y. V.; Babych, S. V.; Kunanets, N. E.; Турбал, Ю. В.; Бабич, С. В.; Кунанець, Н. Е.EN: Context. The problem of generating vectors consisting of different representatives of a given set of sets is considered. Such problems arise, in particular, in scheduling theory, when scheduling appointments. A special case of this problem is the problem of generating permutations. Objective. Problem is considered from the point of view of a permanent approach and a well-known one, based on the concept of lexicographic order. Method. In many tasks, it becomes necessary to generate various combinatorial objects: permutations, combinations with and without repetitions, various subsets. In this paper we consider a new approach to the combinatorial objects generation, which is based on the procedure of the permanent decomposition. Permanent is built for the special matrix of incidence. The main idea of this approach is including to the process of the algebraic permanent decomposition by row additional function for the column identifiers writing into corresponding data structures. In this case, the algebraic permanent in not calculated, but we get a specific recursive algorithm for generating a combinatorial object. The computational complexity of this algorithm is analyzed. Results. It is investigated a new approach to the generation of complex combinatorial objects, based on the procedure of decomposition of the modified permanent of the incidence matrix by line with memorization of index elements. Conclusions. The permanent algorithms of the combinatorial objects generation is investigated. The complexity of our approach in the case of permutation is compared with the lexicographic algorithm and the Johnson-Trotter algorithm. The obtained results showed that our algorithm belongs to the same complexity class as the lexicographic algorithm and the Johnson-Trotter method. Numerical results confirmed the effectiveness of our approach. UK: Актуальність. Розглядається задача генерування векторів, що складаються з різних представників заданої множини. Такі проблеми виникають, зокрема, в теорії складання розкладів, при плануванні зустрічей. Окремим випадком цієї задачі є задача генерування перестановок. Мета роботи – розглянути проблему з точки зору постійного та загальновідомого підходу, виходячи з концепції лексикографічного порядку. Метод. У багатьох завданнях виникає необхідність генерувати різноманітні комбінаторні об’єкти: перестановки, комбінації з повтореннями і без них, різноманітні підмножини. У цій роботі розглядається новий підхід до генерації комбінаторних об’єктів, який базується на процедурі постійної декомпозиції. Перманент будується для спеціальної матриці інцидентності. Основна ідея цього підходу полягає в включенні до процесу алгебраїчної перманентної декомпозиції за допомогою додаткової функції рядка для запису ідентифікаторів стовпців у відповідні структури даних. У цьому випадку алгебраїчний перманент не обчислюється, а отримуємо конкретний рекурсивний алгоритм генерації комбінаторного об’єкта. Проаналізовано обчислювальну складність цього алгоритму. Результати. В межах PD-підходу розглянуто задачі генерації комбінаторних об’єктів, зокрема, перестановок. Досліджено обчислювальну складність запропонованих алгоритмів у порівнянні з відомими підгодами. Розглянуто варіант програмної реалізації розроблених алгоритмів. Висновки. У роботі розглянуто новий підхід до генерації складних комбінаторних об’єктів, що грунтується на процедурі декомпозиції модифікованого перманенту матриці інцидентності за рядком із запам’ятовуванням елементів індексу. Специфіка цього підходу полягає в тому, що певні додаткові умови, що накладаються на відповідні системи різних представників, враховуються на етапі процедур декомпозиції. Досліджено складність розглянутих алгоритмів. У разі більш складних варіантів матриці інцидентності пропонується відповідна модифікація поняття перманенту і, відповідно, процедура його декомпозиції .Item Synthesis of the symbologies of multicolor interference-resistant bar codes on the base of multi-valued BCH codes(Національний університет "Запорізька політехніка", 2022) Sulema, Ye. S.; Drozdenko, L. V.; Dychka, A. I.; Сулема, Є. С.; Дрозденко, Л. В.; Дичка, А. І.EN: Context. The problem of constructing a set of barcode patterns for multicolor barcodes that are resistant to distortions of one or two elements within each pattern is considered. Objective. The goal of the work is ensuring the reliability of the reading of multi-color barcode images. Method. A multicolor barcode pattern has the property of interference immunity if its digital equivalent (vector) is a codeword of a multi-valued (non-binary) correcting code capable to correct errors (distortions of the pattern elements). It is shown that the construction of barcode patterns should be performed on the basis of a multi-valued correcting BCH code capable to correct two errors. A method is proposed for constructing a set of interference-resistant barcode patterns of a given capacity, which ensure reliable reproduction of data when they are read from a carrier. A procedure for encoding data with a multi-valued BCH code based on the generator matrix of the code using operations by the modulo of a prime number has been developed. A new method of constructing the check matrix of the multivalued BCH code based on the vector representation of the elements of the finite field is proposed. A generalized algorithm for generating symbologies of a multi-color barcode with the possibility of correcting double errors in barcode patterns has been developed. The method also makes it possible to build symbology of a given capacity based on shortened BCH codes. A method of reducing the generator and check matrices of a multi-valued full BCH code to obtain a shortened code of a given length is proposed. It is shown that, in addition to correction double errors, multi-valued BCH codes also make it possible to detect errors of higher multiplicity – this property is enhanced when using shortened BCH codes. The method provides for the construction of a family of multicolor noise-immune barcodes. Results. On the basis of the developed software tools, statistical data were obtained that characterize the ability of multi-valued BCH codes to detect and correct errors, and on their basis to design multi-color interference-resistant bar codes. Conclusions. The conducted experiments have confirmed the operability of the proposed algorithmic tools and allow to recommend it for use in practice for developing interference-resistant multi-color barcodes in automatic identification systems. UK: Актуальність. Розглянуто задачу побудови набору (символіки) штрихкодових знаків для багатоколірних штрихових кодів, стійких до ушкодження одного або двох елементів у межах кожного знака. Мета. Забезпечення надійності зчитування багатоколірних штрихкодових зображень. Метод. Багатоколірний штрихкодовий знак має властивість завадостійкості, якщо його цифровий еквівалент (вектор) є кодовим словом многозначного (недвійкового) коректувального коду, здатного виправляти помилки (спотворення елементів знака). Показано, що побудову штрихкодових знаків слід виконувати на основі многозначного коректувального коду БЧХ, здатного виправляти дві помилки. Запропоновано метод побудови множини завадостійких штрихкодових знаків заданої потужності, які забезпечують достовірне відтворення даних при їх зчитуванні з носія. Розроблено процедуру кодування даних многозначним кодом БЧХ на основі твірної матриці коду з використанням операцій за модулем простого числа. Запропоновано новий спосіб побудови перевірної матриці многозначного коду БЧХ на основі векторного подання елементів скінченного поля. Розроблено узагальнений алгоритм генерування символіки багатоколірного штрихового коду з можливістю корекції двократних помилок у штрихкодових знаках. Метод також дозволяє будувати символіки заданої потужності на основі скорочених кодів БЧХ. Запропоновано спосіб скорочення твірної та перевірної матриць многозначного повного коду БЧХ для отримання скороченого коду заданої довжини. Показано, що крім виправлення двократних помилок, многозначні коди БЧХ дозволяють також виявляти помилки більшої кратності; ця властивість посилюється при використанні скорочених кодів БЧХ. Метод забезпечує побудову сімейства багатоколірних завадостійких штрихових кодів. Результати. На основі розробленого програмного забезпечення отримані статистичні дані, що характеризують здатність многозначних кодів БХЧ виявляти та виправляти помилки, і на їх основі проєктувати багатоколірні завадостійкі штрихові коди. Висновки. Проведені експерименти підтвердили працездатність розробленого алгоритмічного забезпечення і дозволяють рекомендувати його для використання на практиці при проєктуванні завадостійких багатоколірних штрихових кодів у системах автоматичної ідентифікації.Item Determination of inheritance relations and restructuring of software class models in the process of developing information systems(Національний університет "Запорізька політехніка", 2022) Kungurtsev, O. B.; Vytnova, A. I.; Кунгурцев, О. Б.; Витнова, А. І.EN: Context. The implementation of different use-cases may be performed by different development teams at different times. This results in a poorly structured code. The problem is exacerbated when developing medium and large projects in a short time. Objective. Since inheritance is one of the effective ways to structure and improve the quality of code, the aim of the study is to determine possible inheritance relationships for a variety of class models. Method. It is proposed to select from the entire set of classes representing the class model at a certain design stage, subsets for which a common parent class (in a particular case, an abstract class) is possible. To solve the problem, signs of the generality of classes have been formulated. The mathematical model of the conceptual class has been improved by including information about the responsibilities of the class, its methods and attributes. The connection of each class with the script items for which it is used has been established. A system of data types for class model elements is proposed. Description of class method signatures has been extended. A method for restructuring the class model, which involves 3 stages, has been developed. At the first stage, the proximity coefficients of classes are determined. At the second, subsets of possible child classes are created. At the third stage, an automated transformation of the class structure is performed, considering the identified inheritance relationships. Results. A software product for conducting experiments to identify possible inheritance relationships depending on the number of classes and the degree of their similarity has been developed. The results of the conducted tests showed the effectiveness of the decisions made. Conclusions. The method uses an algorithm for forming subsets of classes that can have one parent and an algorithm for automatically creating and converting classes to build a two-level class hierarchy. An experiment showed a threefold reduction in errors in detecting inheritance and a multiple reduction in time in comparison with the existing technology. UK: Актуальність. Реалізація різних варіантів використання може виконуватись різними командами розробників у різний час. Це призводить до створення погано структурованого коду. Проблема ускладнюється при розробці середніх та великих проектів у стислий термін. Мета. Оскільки успадкування є одним із ефективних способів структурування та покращення якості коду, метою дослідження є визначення можливих зв’язків успадкування для різноманітних моделей класів. Метод. Запропоновано виділення з множини класів, що представляють модель класів на певному етапі проектування, підмножин, для яких можливий загальний батьківський клас (в окремому випадку абстрактний клас). Для вирішення завдання сформульовано ознаки спільності класів. Удосконалено математичну модель концептуального класу за рахунок включення інформації про обов’язки класу, його методи та атрибути. Встановлено зв’язок кожного класу з сценаріями, для яких він використовується. Запропоновано систему типів даних для елементів моделі класу. Розширено опис сигнатур методів класів. Розроблено метод реструктуризації моделі класів, що передбачає 3 етапи. У першому визначаються коефіцієнти близькості класів. На другому створюються підмножини можливих дочірніх класів. На третьому виконується автоматизоване перетворення структури класів з урахуванням виявлених відносин спадкування. Результати. Розроблено програмний продукт для проведення експериментів щодо виявлення можливих відносин успадкування залежно від кількості класів та ступеня їхньої подібності. Результати проведених випробувань показали ефективність ухвалених рішень. Висновки. Метод використовує алгоритм формування підмножин класів, які можуть мати одного предка та алгоритм автоматичного створення та перетворення класів для побудови дворівневої ієрархії класів. Результати дослідження реалізовані у програмному продукті. Експеримент показав триразове скорочення помилок при виявленні наслідування та багаторазове скорочення часу порівняно з існуючою технологією.Item Information technology of transport infrastructure monitoring based on remote sensing data(Національний університет "Запорізька політехніка", 2022) Danshyna, S. Yu.; Nechausov, A. S.; Andrieiev, S. M.; Даншина, С. Ю.; Нечаусов, А. С.; Андрєєв, С. М.EN: Context. In the light of current road network monitoring practices, this study aims to explore the capability of remote sensing technologies to solve the problems of increasing the objectivity of preliminary evaluations of the condition of the infrastructure as a whole. The object of the study was to process the monitoring of transport infrastructure (TI) to find ways to improve it in the implementation of development projects. Objective. The goal of the work is to increase objectivity of decision-making on the evaluation, reconstruction, development of the transport network structure due to the visual presentation and disclosure of open data for monitoring the transport value. Method. Existing approaches to TI monitoring and evaluating its condition are analyzed. The identified shortcomings, as well as the development of remote sensing technologies, open up prospects for the use of remote sensing data in the TI monitoring process. A set-theoretic model of the monitoring process information flows is proposed, the consistent refinement of the elements of which made it possible to develop information technology (IT). Formation of a set of input and output parameters of IT, the set of its operations, their representation with IDEFX-models set explains how a set of heterogeneous (graphic, text, digital, cartographic, etc.) data about TI elements coming from different sources are processed and presented to support decision-making on the survey of existing infrastructure and its improvement. The developed IT makes it possible to obtain complex indicators for analyzing the TI of a particular area, to solve the problems of inventorying objects, TI and its elements modeling, taking into account the physical and geographical location, which makes it possible to consider it as an auxiliary tool that complements existing methods of TI monitoring. Results. The developed IT was studied in solving the problem of monitoring the TI section of the Kharkiv region using satellite imagery of medium (Sentinel–2) and high (SuperView-1) resolution and the results of laser survey of the road bridge across the river Mzha (as an element of infrastructure). Conclusions. The conducted experiments confirmed the operability of the proposed information technology and showed expediency of its practical use in solving the problems of obtaining generalizing characteristics of the infrastructure, inventory of TI objects and their modeling. This opens up opportunities for substantiating project decisions for the reconstruction of the transport network and planning procedures for examining its condition. Prospects for further research may include: creating reference models of TI objects, expanding the table of decryption signs of road transport infrastructure objects, integrating remote data, survey results of TI sections and engineering surveys of objects to obtain evaluations of the condition of TI in general. UK: Актуальність. На тлі існуючої практики моніторингу автодорожньої мережі це дослідження спрямоване на вивчення можливостей технологій дистанційного зондування для вирішення завдань підвищення об’єктивності одержаних оцінок стану транспортної інфраструктури в цілому. Об’єктом дослідження являється процес моніторингу транспортної інфраструктури для пошуку шляхів її вдосконалення при реалізації проєктів розвитку. Мета роботи – шляхом наочного подання та візуалізації просторових даних моніторингу транспортної інфраструктури підвищити об’єктивність рішень, що приймаються, відносно планів обстеження, реконструкції та розвитку існуючої транспортної мережі. Метод. Проаналізовано існуючі підходи до моніторингу транспортної інфраструктури (TI) та оцінювання її стану. Виділені недоліки, а також тенденції розвитку технологій дистанційного зондування відкривають перспективи з використання дистанційних даних у процесі моніторингу TI. Запропоновано теоретико-множинну модель інформаційних потоків процесу моніторингу, послідовне уточнення елементів якої дало змогу запропонувати інформаційну технологію (IT). Формування множин вхідних і вихідних параметрів IT, множини її операцій, подання їх у нотації IDEFX-моделей пояснює як сукупність різнорідних (графічних, текстових, цифрових, картографічних тощо) даних про елементи TI, які надходять з різних джерел, обробляються та надаються для підтримки прийняття рішень щодо обстеження існуючої інфраструктури та її вдосконалення. Розроблена IT дає змогу отримати комплексні показники для аналізу TI окремого району, вирішувати завдання інвентаризації об’єктів інфраструктури, картографічного моделювання TI та її елементів з урахуванням фізико-географічного розташування, що дає змогу розглядати її як допоміжний засіб, що доповнює існуючі методи моніторингу TI. Результати. Розроблена IT досліджена при вирішенні завдань моніторингу TI ділянки Харківського району з використанням супутникових знімків середньої (Sentinel–2) і високої (SuperView-1) роздільної здатності та результатів лазерної зйомки дорожнього мосту через р. Мжу (як елементу інфраструктури). Висновки. Проведені експерименти підтверджують працездатність запропонованої IT і дають змогу рекомендувати її для використання на практиці при вирішенні завдань з отримання узагальнюючих характеристик інфраструктури, інвентаризації об’єктів TI та їх моделювання. Це відкриває можливості щодо обґрунтування проєктних рішень реконструкції транспортної мережі та планування процедур обстеження її стану. Перспективи подальших досліджень можуть полягати: у створенні еталонних моделей об’єктів TI, розширенні таблиці дешифрувальних ознак об’єктів дорожньо-транспортної інфраструктури, комплексуванні дистанційних даних, результатів обстеження ділянок TI й інженерних вишукувань об’єктів для отримання оцінок стану TI в цілому.Item Data clustering based on inductive learning of neuro-fuzzy network with distance hashing(Національний університет "Запорізька політехніка", 2022) Subbotin, S. A.; Субботін, Сергій ОлександровичEN: Context. Cluster analysis is widely used to analyze data of various nature and dimensions. However, the known methods of cluster analysis are characterized by low speed and are demanding on computer memory resources due to the need to calculate pairwise distances between instances in a multidimensional feature space. In addition, the results of known methods of cluster analysis are difficult for human perception and analysis with a large number of features. Objective. The purpose of the work is to increase the speed of cluster analysis, the interpretability of the resulting partition into clusters, as well as to reduce the requirements of cluster analysis to computer memory. Method. A method for cluster analysis of multidimensional data is proposed, which for each instance calculates its hash based on the distance to the conditional center of coordinates, uses a one-dimensional coordinate along the hash axis to determine the distances between instances, considers the resulting hash as a pseudo-output feature, breaking it into intervals, which matches the labels pseudo-classes – clusters, having received a rough crisp partition of the feature space and sample instances, automatically generates a partition of input features into fuzzy terms, determines the rules for referring instances to clusters and, as a result, forms a fuzzy inference system of the Mamdani-Zadeh classifier type, which is further trained in the form of a neuro-fuzzy network to ensure acceptable values of the clustering quality functional. This makes it possible to reduce the number of terms and features used, to evaluate their contribution to making decisions about assigning instances to clusters, to increase the speed of data cluster analysis, and to increase the interpretability of the resulting data splitting into clusters. Results. The mathematical support for solving the problem of cluster data analysis in conditions of large data dimensions has been developed. The experiments confirmed the operability of the developed mathematical support have been carried out. Conclusions. The developed method and its software implementation can be recommended for use in practice in the problems of analyzing data of various nature and dimensions. UK: Актуальність. Для аналізу даних різної природи та розмірності широко застосовують кластерний аналіз. Однак відомі методи кластер-аналізу характеризуються низькою швидкістю та є вимогливими до ресурсів пам’яті ЕОМ внаслідок необхідності розрахунку попарних відстаней між екземплярами у багатовимірному просторі ознак. Крім того, результати відомих методів кластер-аналізу складні для сприйняття та аналізу людиною при великій кількості ознак. Мета – підвищення швидкості кластер-аналізу, інтерпретабельності одержуваного розбиття на кластери, а також зниження вимог кластер-аналізу до пам’яті ЕОМ. Метод. Запропоновано метод кластер-аналізу багатовимірних даних, який для кожного екземпляра обчислює його хеш на основі відстані до умовного центру координат, використовує одновимірну координату по осі хешу для визначення відстаней між екземплярами, розглядає отриманий хеш як псевдовихідну ознаку, розбивши її на інтервали, яким співставляє мітки псевдокласів-кластерів, отримавши грубе чітке розбиття простору ознак і екземплярів вибірки, автоматично формує розбиття вхідних ознак на нечіткі терми, визначає правила віднесення екземплярів до кластерів і в результаті формує систему нечіткого виведення типу класифікатора Мамдані-Заде, який у вигляді нейро-нечіткої мережі донавчається для забезпечення прийнятного значення функціоналу якості кластеризації. Це дозволяє скоротити кількість використовуваних термів і ознак, оцінити їх внесок у прийняття рішень про віднесення екземплярів до кластерів, підвищити швидкість кластер-аналізу даних, а також підвищити інтерпретабельність отримуваного розбиття даних на кластери. Результати. Розроблено математичне забезпечення, що дозволяє вирішувати завдання кластерного аналізу даних в умовах великої розмірності даних, проведено експерименти, що підтвердили працездатність розробленого математичного забезпечення. Висновки. Розроблений метод та його програмна реалізація можуть бути рекомендовані для використання практиці у завданнях аналізу даних різної природи та розмірності.Item Кластеризація масивів даних на основі комбінованої оптимізації функцій щільності розподілу та еволюційного методу котячих зграй(Національний університет "Запорізька політехніка", 2022) Бодянський, Є. В.; Плісс, І. П.; Шафроненко, А. Ю.; Bodyanskiy, Ye. V.; Pliss, I. P.; Shafronenko, A. Yu.UK: Актуальність. Задача кластеризації масивів спостережень довільної природи є невід’ємною частиною Data Mining, а у більш загальному випадку Data Science, для її вирішення запропонована дуже велика кількість підходів, що відрізняються між собою як апріорними припущеннями що до фізичної природи даних та задачі, так і математичним апаратом. З обчислювальної точки зору задача кластеризації перетворюється у проблему пошуку локальних екстремумів багатоекстремальної функції векторного аргументу щільності за допомогою градієнтних процедур, які багатократно запускаються з різних точок вихідного масиву даних. Пришвидшити процес пошуку цих екстремумів можна, скориставшись ідеями еволюційної оптимізації, що включає в себе алгоритми, інспіровані природою, ройові алгоритми, популяційні алгоритми, тощо. Мета. Мета роботи полягає у запровадженні процедури кластеризації даних на основі піків щільності розподілу даних та еволюційного методу котячих зграй, що об’єднує в собі основні переваги методів роботи з даними за умов, якщо класи перетинаються, характеризується якісною кластеризацією, високою швидкодією та точністю отриманих результатів. Метод. Введено метод кластеризації масивів даних на основі комбінованої оптимізації функцій щільності розподілу та еволюційного методу котячих зграй. Перевагою запропонованого підходу є скорочення часу вирішення оптимізаційних задач в умовах коли кластери перетинаються. Результати. Результати експериментів підтверджують ефективність пропонованого підходу в задачах кластеризації за умов перетинних кластерів та дозволяють рекомендувати запропонований метод для використання на практиці для вирішення проблем автоматичної кластеризації великих даних. Висновки. Введено метод кластеризації масивів даних на основі комбінованої оптимізації функцій щільності розподілу та еволюційного методу котячих зграй. Перевагою запропонованого підходу є скорочення часу вирішення оптимізаційних задач в умовах коли кластери перетинаються. Метод є досить простим з точки зору чисельної реалізації і не є критичним до вибору оптимізаційної процедури. Результати експериментів підтверджують ефективність запропонованого підходу в задачах кластеризації за умов кластерів, що перетинаються. EN: Context. The task of clustering arrays of observations of an arbitrary nature is an integral part of Data Mining, and in the more general case of Data Science, a huge number of approaches have been proposed for its solution, which differ from each other both in a priori assumptions regarding the physical nature of the data and the problem, and in the mathematical apparatus. From a computational point of view, the clustering problem turns into a problem of finding local extrema of a multiextremal function of the vector density argument using gradient procedures that are repeatedly launched from different points of the initial data array. It is possible to speed up the process of searching for these extremes by using the ideas of evolutionary optimization, which includes algorithms inspired by nature, swarm algorithms, population algorithms, etc. Objective. The purpose of the work is to introduce a data clustering procedure based on the peaks of the data distribution density and the evolutionary method of cat swarms, that combines the main advantages of methods for working with data in conditions of overlapping classes, is characterized by high-quality clustering, high speed and accuracy of the obtained results. Method The method for clustering data arrays based on the combined optimization of distribution density functions and the evolutionary method of cat swarms was proposed. The advantage of the proposed approach is to reduce the time for solving optimization problems in conditions where clusters are overlap. Results. The results of the experiments confirm the effectiveness of the proposed approach in clustering problems under the condition of classes that overlap and allow us to recommend the proposed method for use in practice to solve problems of automatic clustering big data. Conclusions. The method for clustering data arrays based on the combined optimization of distribution density functions and the evolutionary method of cat swarm was proposed. The advantage of the proposed approach is to reduce the time for solving optimization problems in conditions where clusters are overlap. The method is quite simple from the numerical implementation and is not critical for choosing an optimization procedure. The experimental results confirm the effectiveness of the proposed approach in clustering problems under conditions of overlapping clusters.Item Квантові цифро-аналогові обчислення(Національний університет "Запорізька політехніка", 2022) Хаханова, Г. В.; Чумаченко, С. В.; Рахліс, Д. Ю.; Хаханов, І. В.; Хаханов, В. І.; Khakhanova, A.; Chumachenko, S.; Rakhlis, D.; Hahanov, І.; Hahanov, V.UK: Актуальність. Природа є відношення між процесами та явищами. Ніщо не існує у Всесвіті без відношень. Комп’ютер – транзакції відношень між даними за допомогою механізмів управління та виконання. Квантові відношення є суперпозиція частинок та їх станів. Суперпозиція та сплутаність – еквівалентні поняття. Сплутаність − нелокальна суперпозиція детермінованих станів. Квантовий комп’ютер − безумовні транзакції відношень між кубітними даними. Квантовий комп’ютер – аналоговий пристрій для паралельного вирішення комбінаторних задач. Практично орієнтовані визначення понять квантового комп’ютера є шлях до розробки масштабованих квантових паралельних алгоритмів для розв’язання комбінаторних задач. Будь-який алгоритм можна звести до послідовності операцій без умов, бо будь-яка таблиця істинності є сукупність повної системи умов-станів. Будь-яку послідовність дій завжди можна звести до однієї паралельної операції. Умови та послідовності виникають лише у випадку, коли розробник бажає скористатися раніше створеними примітивами-конструкціями для побудови завжди неоптимального обчислювача. Детермінована парадигма створення квантового комп’ютера шляхом використання фотонних транзакцій на електронах атома може виключати використання квантової логіки. Еволюційний шлях квантового комп’ютингу з класичного: «пам’ять-адреса-транзакція» (memory-address-transaction, MAT) → «електрон- адреса-транзакція» (electron-address-transaction) → «електрон-адреса-квантація» (electron-address-quantaction, EAQ) → стан-суперпозиція-логіка (state-superposition-logic). Точка зустрічі класичного та квантового комп’ютингу – фотонні транзакції на структурі електронів. Все, що обчислюється на квантовому комп’ютері, можна паралельно прораховувати на класичному за рахунок надмірності пам’яті. Наводиться приклад – алгоритм на основі пам’яті (memory-driven) для моделювання цифрових виробів на основі кубітно-векторних форм опису функціональностей для суттєвого підвищення продуктивності обчислювальних процесів шляхом паралельного виконання логічних операцій. Мета. Моделювання ісправної поведінки SoC компонентів на основі векторного подання логіки, формування тригерного розвитку комп’ютингу на основі суперпозиції класичного, квантового та аналогового обчислювального процесу, який у своєму розвитку має спиратися на технологічні кубітні, табличні та векторні структури даних для паралельного вирішення комбінаторних задач. Метод. MAT-комп’ютинг реалізує будь-які алгоритми за рахунок транзакцій (читання-запис) на пам’яті. Кубітно-векторні моделі опису функціональностей, які відрізняються від відомих таблиць істинності компактністю опису та технологічністю для реалізації паралельних алгоритмів синтезу та аналізу цифрових пристроїв та SoC-компонентів. Результати. 1) Вперше запропоновано метрику технологічних структур даних, орієнтована на паралельний пошук несправностей у цифрових системах на основі використання двох логічних векторних операцій. 2) Дістала подальшого розвитку метрика відношень між окремих компонентів QC (relations), що дозволяє організувати квантовий детермінований комп’ютинг. 3) Вперше запропоновано квантові архітектурні рішення, що дозволяють розв’язувати задачі покриття у квазіпараллельному режимі. 4) Отримали подальший розвиток архітектурні рішення на основі аналого-цифрового комп’ютингу, що можуть бути використані для паралельного розв’язання задач аналізу цифрових систем. 5) Запропоновано векторно-кубітні структури даних логіки, що дозволяють квазіпаралельно моделювати цифрові схеми. Висновки. Реалізовано кубітні моделі, квантові методи та комбінаторні алгоритми технічного діагностування цифрових пристроїв, які дають можливість суттєво (до 25 %) зменшити час синтезу тестів, дедуктивного моделювання несправностей та справної поведінки, пошуку дефектних станів за рахунок впровадження інноваційної ідеї використання кубітно-векторних структур даних для опису логічних компонентів. Порівняльні оцінки використання кубітних моделей та методів показують підвищення ефективності алгоритмів моделювання цифрових пристроїв порівняно з табличними. Інтегрально представлена суперпозиція класичного, квантового та аналогового комп’ютинга, що дає можливість знаходити найкращі розв’язки для розпізнавання та прийняття рішень. EN: Context. Nature is the relation among processes and phenomena. Nothing exists in the universe without relations. Computer is transactions of relations between data with the help of control and execution mechanisms. Quantum relations are a superposition of particles and their states. Superposition and entanglement are equivalent concepts. Entanglement is a non-local superposition of deterministic states. A quantum computer is unconditional transactions of relations between qubit data. Quantum computer is an analog device for parallel solution of combinatorial problems. Practically oriented definitions of the quantum computer concepts are the path to development of scalable quantum parallel algorithms for combinatorial problems solving. Any algorithm can be reduced to a sequence of operations without conditions, because any truth table is a collection of a complete system of conditions-states. Any sequence of actions can always be reduced to one parallel operation. Conditions and sequences arise only when the developer wants to use previously created primitive constructs to build an always non-optimal computing unit. The paradigm of quantum computer creation is determined through the use of photonic transactions on the electrons of an atom may exclude the use of quantum logic. The evolutionary path of a quantum computer from the classical one: “memory-address-transaction” (MAT) → “electron-address-transaction” → “electron-address-quantaction” (EAQ) → state-superposition-logic. The meeting point of classical and quantum computers is photon transactions on the structure of electrons. Everything that is calculated on a quantum computer can be calculated in parallel on a classical one on account of memory redundancy. The given example is a memory-driven algorithm for modeling digital products based on qubit-vector forms of functionality description for significant performance boost of computing processes by parallel execution of logical operations. Objective. Simulation of the correct SoC-component behavior based on vector representation of the logic. Formation of the triggering development of a computing based on the superposition of the classical, quantum and analog computing process, which in its development should be based on technological qubit, tabular and vector data structures for the parallel solution of combinatorial problems. Method. MAT-computing implements any algorithms on account of transactions (read-write) in memory. Qubit-vector models for describing functionalities, which differ from known truth tables in compactness of description and manufacturability for the implementation of parallel algorithms of the synthesis and analysis of digital devices and SoC-components. Results. 1) The metric of the technological data structures, focused on parallel troubleshooting in digital systems based on the usage of two logical vector operations, was proposed for the first time. 2) The metric of relations between the individual components of QC, allowing organizing a quantum deterministic computer, has been further developed. 3) Quantum architectural solutions, that allow solving coverage problems in a quasi-parallel mode, were proposed for the first time. 4) Architectural solutions based on an analog-to-digital computing, which can be used to solve the problems of the digital systems parallel analysis, have been further developed. 5) Vector-qubit structures of the logic data, that allow a quasi-parallel simulation of digital circuits, were proposed. Conclusions. Qubit models, quantum methods and combinatorial algorithms for technical diagnostics of digital devices have been implemented, which can significantly (up to 25%) reduce the time of test synthesis, deductive modeling of faulty and correct behavior, search for defective states by introducing an innovative idea of using qubit-vector data structures for describing logical components. Comparative assessments of qubit models and methods usage show an increase in the efficiency of algorithms for modeling digital devices compared to tabular ones. The superposition of a classical, quantum and analog computer is integrally represented, which allows to find the best solutions for recognition and decision making.Item Restoration of discontinuous functions by discontinuous interlination splines(Національний університет "Запорізька політехніка", 2022) Pershyna, I. I.; Першина, Ю. І.EN: Context. The problem of development and research of methods for approximation of discontinuous functions by discontinuous interlination splines and its further application to problems of computed tomography. The object of the study was the modeling of objects with a discontinuous internal structure. Objective. The aim of this study is to develop a general method for constructing discontinuous interlining polynomial splines, which, as a special case, include discontinuous and continuously differentiated splines. Method. Modern methods of restoring functions are characterized by new approaches to obtaining, processing and analyzing information. There is a need to build mathematical models in which information can be represented not only by function values at points, but also in the form of a set of function traces on planes or straight lines. At the same time, practice shows that among the multidimensional objects that need to be investigated, more problems are described by a discontinuous functions. The paper develops a general method for constructing discontinuous interlining polynomial splines, which, as a special case, include discontinuous and continuously differentiable splines. It is considered that the domain of the definition of the required two-dimensional function is divided into rectangular elements. Theorems on interlination and approximation properties of such discontinuous constructions are formulated and proved. The method is developed for approximating discontinuous functions of two variables based on the constructed discontinuous splines. The input data are the traces of an unknown function along a given system of mutually perpendicular straight lines. The proposed method has not only theoretical significance but also practical application in the IT domain, especially in computing tomography, allowing more accurately restore the internal structure of the body. Results. The discontinuous interlination operator from known traces of the function of two variables on a system of mutually perpendicular straight lines is researched. Conclusions. The functions of two variables that are discontinuous at some points or on some lines are better approximated by discontinuous spline interlinants. At the same time, equally high approximation estimates can be obtained. The results obtained have significant advantages over existing methods of interpolation and approximation of discontinuous functions. In further research, the authors plan to develop a theory of discontinuous splines on areas of complex shape bounded by arcs of known curves. UK: Актуальність. Проблема розробки та дослідження методів апроксимації розривних функцій розривними інтерлінаційними сплайнами та її подальше застосування до задач комп’ютерної томографії. Об’єктом дослідження є моделювання об’єктів з розривною внутрішньою структурою. Мета роботи – дослідження та розробка загального методу побудови розривних інтерлінаційних поліноміальних сплайнів, які, як окремий випадок, включають розривні та неперервно-диференційовані сплайни. Метод. Сучасні методи відновлення функцій характеризуються новими підходами до отримання, обробки та аналізу інформації. Виникає потреба в побудові математичних моделей, в яких інформація може бути представлена не тільки значеннями функції в точках, а й у вигляді набору слідів функцій на площинах або прямих. Водночас практика показує, що серед багатовимірних об’єктів, які потребують дослідження, більше проблем описуються розривними функціями. У статті розроблено загальний метод побудови розривних інтерлінаційних поліноміальних сплайнів, до складу яких, як окремий випадок, входять розривні та неперервно диференційовані сплайни. Вважається, що область визначення шуканої двовимірної функції розбита на прямокутні елементи. Сформульовано та доведено теореми про інтерлінаційні та апроксимаційні властивості таких розривних конструкцій. Розроблено метод апроксимації розривних функцій двох змінних на основі побудованих розривних сплайнів. Вхідними даними є сліди невідомої функції вздовж заданої системи взаємно перпендикулярних прямих. Запропонований метод має не тільки теоретичне значення, а й практичне застосування в сфері ІТ, особливо в комп’ютерній томографії, що дозволяє більш точно відновити внутрішню структуру організму. Результати. Досліджено оператор розривної інтерлінації за відомими слідами функції двох змінних на системі взаємно перпендикулярних прямих. Висновки. Функції двох змінних, які є розривними в деяких точках або на деяких лініях, краще апроксимуються розривними інтерлінаційними сплайнами. При цьому можна отримати однаково високі оцінки наближення. Отримані результати мають значні переваги перед існуючими методами інтерполяції та апроксимації розривних функцій. У подальших дослідженнях автори планують розвинути теорію розривних сплайнів на ділянках складної форми, обмежених дугами відомих кривих.Item Methods for tabular implementation of arithmetic operations of the residues of two numbers represented in the system of residual classes(Національний університет "Запорізька політехніка", 2022) Krasnobayev, V. A.; Yanko, A. S.; Kovalchuk, D. M.; Краснобаєв, В. А.; Янко, А. С.; Ковальчук, Д. М.EN: Context. Implementation of modular arithmetic operations of addition, subtraction and multiplication by a tabular method based on the use of the tabular multiplication code. The object of the study is the process of tabular implementation of basic arithmetic operations on the residues of numbers represented in the system of residual classes. Objective. The goal of the work is to develop methods for the tabular implementation of the arithmetic operations of multiplication, addition and subtraction of the residues of two numbers based on the use of the tabular multiplication code. Method. Tabular methods for implementing integer arithmetic modular operations of addition, subtraction and multiplication are proposed for consideration. In order to reduce the amount of equipment for a tabular operating unit of computer systems that implements modular operations of addition, subtraction and multiplication by reducing the coincidence circuits AND in the nodes of the tables for implementing arithmetic operations based on the code of table multiplication, two methods for performing arithmetic modular operations of addition and subtraction have been developed. These methods are based on the code of tabular multiplication, the use of which will reduce the amount of equipment of the tabular operating unit. Thus, despite the difference in the digital structure of the tables of modular operations of addition, subtraction and multiplication based on the use of the tabular multiplication code, two new tabular methods for implementing arithmetic modular operations of addition and subtraction have been created. Based on them, algorithms for tabular execution of modular arithmetic operations of addition and subtraction have been developed. Using these algorithms, it is possible to synthesize a structurally simple, highly reliable and fast table operating unit that operates in a system of residual classes, which is based on three separate permanent storage devices (read-only memory), each of which implements only one fourth of the corresponding complete table of values of the modular operation, what is earlier in the theory tabular arithmetic was supposed to be impossible. Results. The developed methods are justified theoretically and studied when performing arithmetic modular operations of addition, subtraction and multiplication using tabular procedures. Conclusions. The conducted examples of the implementation of integer arithmetic modular operations of addition and subtraction can be considered as presented experiments. The results obtained make it possible to recommend them for use in practice in the design of computer systems operating in a non-positional number system in residual classes. Prospects for further research may be to create a tabular method for implementing integer arithmetic modular division operations based on the use of the tabular multiplication code. UK: Актуальність. Розглянуто задачу реалізації модульних арифметичних операцій додавання, віднімання та множення табличним методом на основі використання коду табличного множення. Об’єктом дослідження є процес реалізації арифметичних модульних операцій додавання, віднімання та множення. Мета роботи – розробити методи табличної реалізації арифметичних операцій додавання, віднімання та множення залишків двох чисел на основі використання коду табличного множення. Метод. Запропоновано до розгляду табличні методи реалізації цілочисельних арифметичних модульних операцій додавання, віднімання та множення. З метою скорочення кількості обладнання табличного операційного пристрою комп’ютерних систем, що реалізує модульні операції додавання, віднімання та множення, за рахунок скорочення схем збігу І у вузлах таблиць реалізації арифметичних операцій, на основі коду табличного множення, розроблено два методи виконання арифметичних модульних операцій додавання та віднімання. В основу даних методів покладено код табличного множення, використання якого дозволить зменшити кількість обладнання табличного операційного пристрою. Таким чином, незважаючи на відмінність цифрової структури таблиць модульних операцій додавання, віднімання та множення, на основі використання коду табличного множення, створено два нові табличні методи реалізації арифметичних модульних операцій додавання та віднімання. На їх основі розроблено алгоритми табличного виконання модульних арифметичних операцій додавання та віднімання. За допомогою цих алгоритмів можна синтезувати конструктивно простий, високонадійний та швидкодіючий табличний операційний пристрій, що функціонує в системі залишкових класів, основу якого складають три окремих постійних запам’ятовуючих пристрої, кожен з яких реалізує лише одну четверту частину відповідної повної таблиці значень модульної операції, що раніше в теорії табличної арифметики передбачалося неможливим. Результати. Розроблені методи обґрунтовані теоретично та досліджені при виконанні арифметичних модульних операцій додавання, віднімання та множення за допомогою табличних процедур. Висновки. Проведені приклади реалізації цілочисельних арифметичних модульних операцій додавання та віднімання можна розглядати як представлені експерименти. Отримані результати дозволяють рекомендувати їх використання на практиці проектування комп’ютерних систем, що функціонують у непозиційній системі числення в залишкових класах. Перспективи подальших досліджень можуть полягати у створенні табличного методу реалізації цілочисельної арифметичної модульної операцій ділення на основі використання коду табличного множення.Item Удосконалення вихрострумового ідентифікатора металів на основі кореляційного підходу(Національний університет "Запорізька політехніка", 2022) Абрамович, А. О.; Abramovych, А. О.UK: Актуальність. В статті розглянуто задачу удосконалення вихрострумового пристрою ідентифікації металів на основі кореляційного підходу. Такий підхід є зручним для накопичення бази даних відомих провідних матеріалів, а також для порівняння сигналу від невідомого металевого предмета з наявними в базі еталонами. Запропонований підхід дозволяє визначити тип металу, з якого виконаний зразок, без пошкодження його поверхні. Метою роботи є ідентифікація металів за типом по сигналам-відгукам від вихрострумового перетворювача, завдяки виявленню нових інформативних ознак та створенню бази образів металів. Метод. В роботі наведено результати експериментального дослідження запропонованого підходу підвищення достовірності ідентифікації металевих предметів, які виявляються за допомогою вихрострумового пристрою. Дані дослідження проведені на основі радіотехнічної системи, яка працює на вихрострумовому принципі та має низькочастотні магнітні рамочні антени. Вихрострумовий метод дозволяє проводити ідентифікацію металів за типом дистанційно та без пошкодження їхньої поверхні, на відміну від рентгено-флуоресцентного, оптико-емісійного чи хімічного методів. Запропоновано кореляційний підхід для обробки спектру сигналу-відгуку від прихованого металевого предмету. Кореляційний підхід дозволяє підвищити достовірність ідентифікації металів за типом при обробці сигналу в спектральній області на основі перетворення Фур’є. Проведені дослідження на прикладі металів, які мають близькі спектральні характеристики (срібло, золото, свинець). Запронований підхід дозволив збільшити відсоткову різницю між інформаційними параметрами сигналів – відгуків з 1,87% до 5,02% для срібла і золота, з 2,24% до 4,34% для срібла і свинцю та з 0,36% до 0,7% для золота і свинцю. Результати. Розроблена радіотехнічна система є лабораторним макетом, який складається з аналогової частини та цифрової. Аналогова частина – це блок антен, підсилювач сигналу та смуговий фільтр, цифрова частина – мікроконтролер із АЦП для оцифровування та передачі даних на ноутбук, що програмно реалізує запропоновані підходи з обробки сигналу. В роботі експериментально підтверджена можливість використання радіотехнічної системи для вирішення задачі ідентифікації металу в рамках підмножини немагнітних і магнітних матеріалів. Висновки. Розвиток сучасних вихрострумових пристроїв відбувається у напрямку підвищення достовірності ідентифікації прихованих металевих об’єктів, що є актуальним при проведенні геофізичної розвідки, в археології, а також в силових структурах під час пошуків прихованих металів. Розроблення та вдосконалення таких систем включає в себе як розробку апаратної частини так і виявлення нових інформаційних параметрів в сигналах-відгуках від металів. Одним з таких напрямків може бути кореляційний підхід до обробки сигналів в спектральній області. EN: Context. The article considers the problem of improving the eddy current device for metal identification on the basis of the correlation approach. This approach is convenient for the accumulation of a database of known leading materials, as well as for the comparison of the signal from an unknown metal object with the available standards in the database. The proposed approach allows to determine the type of metal from which the sample is made, without damaging its surface. Objective. The aim of the work is the identification of metals by type on the feedback signals from the eddy current converter, due to the identification of new informative features and the creation of a database of images of metals. Method. The paper presents the results of an experimental study of the proposed approach to increase the reliability of identification of metal objects that are detected using an eddy current device. These studies are conducted on the basis of a radio system that operates on the eddy current principle and has low-frequency magnetic loop antennas. The eddy current method allows the identification of metals by type remotely and without damaging their surface, in contrast to X-ray fluorescence, optical emission or chemical methods. A correlation approach for processing the response signal spectrum from a hidden metal object is proposed. The correlation approach allows to increase the reliability of the identification of metals by type when processing the signal in the spectral region based on the Fourier transform. Studies have been conducted on the example of metals that have similar spectral characteristics (silver, gold, lead). The updated approach allowed to increase the percentage difference between the information parameters of signals – responses from 1.87% to 5.02% for silver and gold, from 2.24% to 4.34% for silver and lead and from 0.36% to 0.7% for gold and lead. Results. The developed radio system is a laboratory model, which consists of an analog part and a digital one. The analog part is an antenna unit, a signal amplifier and a bandpass filter, a digital part – a microcontroller with an ADC for digitizing and transmitting data to a laptop, which software implements the proposed approaches to signal processing. The paper experimentally confirmed the possibility of using a radio engineering system to solve the problem of metal identification within a subset of nonmagnetic and magnetic materials. Conclusions. The development of modern eddy current devices is aimed at increasing the reliability of the identification the hidden metal objects, which is relevant in geophysical exploration, archeology, and law enforcement agencies in the search for hidden non-ferrous metals. The development and improvement of such systems includes both the development the hardware and the discovery new information parameters in the feedback signals from metals. One such direction may be the correlation approach to signal processing in the spectral region.