Інтелектуальний комп’ютинг в пам’яті

Abstract

UK: Актуальність. Оброблені великі дані мають соціальне значення для розвитку суспільства та промисловості. Інтелектуальна обробка великих даних є умовою створення колективного розуму соціальної групи, компанії, держави та планети в цілому. При цьому економіка великих даних (Data Economy) виходить на перше місце в оцінці механізмів обробки, оскільки дуже важливими є два параметри: швидкодія обробки даних та енерговитрати. Тому механізми, орієнтовані на паралельну обробку великих даних усередині центру зберігання даних, будуть завжди затребувані на IT-ринку. Мета. Мета дослідження – підвищення економіки великих даних (Data Economy) завдяки аналізу даних як адрес таблиці істинності для ідентифікації патернів виробничих функціональностей на основі метрики подібності-відмінності. Метод. Пропонуються архітектури Intelligent computing для управління кіберсоціальними процесами на основі моніторингу та аналізу великих даних. Пропонується обробка великих даних, як адрес таблиці істинності, для вирішення завдань ідентифікації, кластеризації, класифікації патернів соціальних та виробничих процесів. Пропонується сімейство автоматів для аналізу великих даних, як адрес. Розглядається таблиця істинності як розумна форма явних структур даних, що мають корисну константу – стандартний порядок прямування адрес. Мета обробки великих даних – зробити їх структурованими за допомогою таблиці істинності для подальшої ідентифікації до ухвалення актюаторних рішень. Таблиця істинності розглядається як механізм паралельної структуризації та пакування великих даних у її стовпці для визначення їх подібності-відмінності та еквівалентування даних за однаковими адресами. Подання даних, як адрес, пов’язане з унітарним кодуванням патернів двійковими векторами на знайденому універсумі примітивних даних. Механізм орієнтований на безпроцесорну обробку даних на основі read-write транзакцій за технологією in-memory комп’ютингу з суттєвою економією часу та енергії. Метрика обробки великих даних на таблиці істинності – це паралелізм, технологічна простота та лінійна обчислювальна складність. Платою за такі переваги є експоненційні витрати пам’яті зберігання явних структурованих даних. Результати. Запропоновано паралельні алгоритми in-memory комп’ютингу для економічних механізмів перетворення великих неструктурованих даних, як адрес, корисні структуровані дані. Запропоновано архітектуру in-memory computing із глобальним зворотним зв’язком та алгоритм матричної паралельної обробки великих даних, як адрес. Вона включає структуру матричного аналізу великих даних для визначення подібності між векторами, які надходять на входи матричного секвенсора. Векторний аналіз даних перетворюється на матричний комп’ютинг для обробки великих даних. Швидкодія паралельного алгоритму аналізу великих даних на матриці MDV дедуктивних векторів ставиться в лінійну залежність від числа бітів вхідних векторів або потужності універсуму примітивів. Розроблено метод ідентифікації патернів ключовими словами. Він характеризується використанням унітарно-кодованих компонент даних для синтезу таблиці істинності бізнес-процесу. Це дозволяє застосовувати read-write транзакції для паралельної обробки великих даних, як адрес. Висновки. Наукова новизна полягає у розробці наступних інноваційних рішень: 1) запропоновано нову векторно-матричну технологію паралельної обробки великих даних, як адрес, що характеризується використанням read-write транзакцій на матричній пам’яті без використання процесорної логіки; 2) запропоновано архітектуру in-memory computing з глобальним зворотним зв’язком та алгоритм матричної паралельної обробки великих даних, як адрес; 3) запропоновано метод ідентифікації патернів ключовими словами, який характеризується використанням унітарно-кодованих компонентів даних для синтезу таблиці істинності бізнес-процесу, що дає можливість використовувати транзакцію read-write для паралельної обробки великих даних, як адрес. Практична значимість дослідження полягає в тому, що будь-яке завдання штучного інтелекту (подібність-відмінність, класифікація-кластеризація та розпізнавання, ідентифікація образів) можна технологічно просто та ефективно вирішувати за допомогою таблиці істинності (або її похідних) та унітарно кодованих великих даних. Перспективи дослідження пов’язані з імплементацією цієї технології моделювання цифрових пристроїв на ринку EDA. EN: Context. Processed big data has social significance for the development of society and industry. Intelligent processing of big data is a condition for creating a collective mind of a social group, company, state and the planet as a whole. At the same time, the economy of big data (Data Economy) takes first place in the evaluation of processing mechanisms, since two parameters are very important: speed of data processing and energy consumption. Therefore, mechanisms focused on parallel processing of large data within the data storage center will always be in demand on the IT market. Objective. The goal of the investigation is to increase the economy of big data (Data Economy) thanks to the analysis of data as truth table addresses for the identification of patterns of production functionalities based on the similarity-difference metric. Method. Intelligent computing architectures are proposed for managing cyber-social processes based on monitoring and analysis of big data. It is proposed to process big data as truth table addresses to solve the problems of identification, clustering, and classification of patterns of social and production processes. A family of automata is offered for the analysis of big data, such as addresses. The truth table is considered as a reasonable form of explicit data structures that have a useful constant – a standard address routing order. The goal of processing big data is to make it structured using a truth table for further identification before making actuator decisions. The truth table is considered as a mechanism for parallel structuring and packing of large data in its column to determine their similarity-difference and to equate data at the same addresses. Representation of data as addresses is associated with unitary encoding of patterns by binary vectors on the found universe of primitive data. The mechanism is focused on processorless data processing based on read-write transactions using in-memory computing technology with significant time and energy savings. The metric of truth table big data processing is parallelism, technological simplicity, and linear computational complexity. The price for such advantages is the exponential memory costs of storing explicit structured data. Results. Parallel algorithms of in-memory computing are proposed for economic mechanisms of transformation of large unstructured data, such as addresses, into useful structured data. An in-memory computing architecture with global feedback and an algorithm for matrix parallel processing of large data such as addresses are proposed. It includes a framework for matrix analysis of big data to determine the similarity between vectors that are input to the matrix sequencer. Vector data analysis is transformed into matrix computing for big data processing. The speed of the parallel algorithm for the analysis of big data on the MDV matrix of deductive vectors is linearly dependent on the number of bits of the input vectors or the power of the universe of primitives. A method of identifying patterns using key words has been developed. It is characterized by the use of unitary coded data components for the synthesis of the truth table of the business process. This allows you to use read-write transactions for parallel processing of large data such as addresses. Conclusions. The scientific novelty consists in the development of the following innovative solutions: 1) a new vector-matrix technology for parallel processing of large data, such as addresses, is proposed, characterized by the use of read-write transactions on matrix memory without the use of processor logic; 2) an in-memory computing architecture with global feedback and an algorithm for matrix parallel processing of large data such as addresses are proposed; 3) a method of identifying patterns using keywords is proposed, which is characterized by the use of unitary coded data components for the synthesis of the truth table of the business process, which makes it possible to use the read-write transaction for parallel processing of large data such as addresses. The practical significance of the study is that any task of artificial intelligence (similarity-difference, classification-clustering and recognition, pattern identification) can be solved technologically simply and efficiently with the help of a truth table (or its derivatives) and unitarily coded big data . Research prospects are related to the implementation of this digital modeling technology devices on the EDA market.

Description

Хаханов, В. І. Інтелектуальний комп’ютинг в пам’яті / В. І. Хаханов, В. Х. Абдуллаєв, С. В. Чумаченко, Є. І. Литвинова, І. В. Хаханова // Радіоелектроніка, інформатика, управління. – 2024. – № 1 (68). – C. 161-174.

Citation