Технологія інтелектуального аналізу відеопотоку для автоматичного розпізнавання цілей системи керування вогнем на основі машинного навчання
Loading...
Date
Journal Title
Journal ISSN
Volume Title
Publisher
Національний університет «Запорізька політехніка»
Abstract
UK: Актуальність. Розпізнавання цілей є пріоритетом у військовій справі. Це завдання ускладнюється тим, що необхідно розпізнавати рухомі об’єкти, різний рельєф і ландшафт створюють перешкоди для розпізнавання. Бойові дії можуть відбуватися в різний час доби, відповідно, необхідно враховувати ракурс освітлення та загальне освітлення. Необхідно виявити об’єкт на відео шляхом сегментації відеокадрів, розпізнати та класифікувати його.
Мета – розроблення технології аналізу розроблення технології розпізнавання цілей в реальному масштабі часу, як складової системи управління вогнем, за рахунок використання штучного інтелекту, YOLO та машинного навчання.
Метод. В статті розроблено технолгію аналізу відеопотоку для автоматичного розпізнавання цілей системи керування вогнем на основі машинного навчання. У роботі запропоновано розробку модуля розпізнавання цілей як складової системи управління вогнем в рамках запропонованої інформаційної технології з використанням штучного інтелекту. Сімейство моделей розпізнавання образів YOLOv8 використано для розробки модуля розпізнавання цілей. Методи, які використано під час дослідження сформованого датасету.
– Bounding Box: Noise – Up to 15% of pixels (обмежувальна рамка: додавання до зображення шуму «солі та перцю» – до 15% пікселів).
– Bounding Box: Blur – Up to 2.5px (обмежувальна рамка: додавання до зображення розмиття за Гаусом – до 2,5 пікселів).
– Cutout – 3 boxes with 10% size each (вирізати частину зображення – 3 коробки по 10% розміру кожна).
– Brightness – Between –25% and +25% (зміна яскравості зображення для збільшення стійкості моделі до зміни освітлення та налаштувань камери – від –25% до +25%).
– Rotation – Between –15 and +15 (обертання об’єкта зображення – за або проти годинникової стрілки на ступінь від –15 до +15).
– Flip – Horizontal (перевертання об’єкта зображення горизонтально).
Результати. Дані зібрані з відкритих джерел, зокрема, з відеозаписів, розміщених у відкритих джерелах на платформі YouTube. Основним завданням попередньої обробки даних є класифікація трьох класів об’єктів на відео або в режимі реального часу – БТР, БМП і ТАНК. Набір даних формується за допомогою платформи Roboflow на основі інструментів маркування та, згодом, інструментів доповнення. Набір даних складається з 1193 унікальних зображень – приблизно порівну для кожного класу. Тренінг проводився з використанням ресурсів Google Colab. На навчання моделі пішло 100 епох.
Висновки. Аналіз проводиться відповідно до показників mAP50 (середня точність 0,85), mAP50-95 (0,6), точності (0,89) і запам’ятовування (0,75). Великі втрати є через те, що під час дослідження не було враховано фон – навчання модуля на основі підтверджених даних (зображень) фону без техніки.
EN: Context. Target recognition is a priority in military affairs. This task is complicated by the fact that it is necessary to recognize moving objects, different terrain and landscape create obstacles for recognition. Combat actions can take place at different times of the day, accordingly, it is necessary to take into account the perspective of lighting and general lighting. It is necessary to detect the object in the video by segmenting the video frames, recognize and classify.
Objective of the study is to develop a technology for the analysis of the development of a technology for recognizing targets in real time as a component of the fire control system, due to the use of artificial intelligence, YOLO and machine learning.
Method. The article develops a video stream analysis technology for automatic target recognition of the fire control system based on machine learning. The paper proposes the development of a target recognition module as a component of the fire control system within the framework of the proposed information technology using artificial intelligence. The YOLOv8 pattern recognition model family was used to develop the target recognition module. The methods used during the study of the formed dataset.
– Bounding Box: Noise – Up to 15% of pixels (limiting frame: adding salt and pepper noise to the image – up to 15% of pixels).
– Bounding Box: Blur – Up to 2.5px (bounding box: adding Gaussian blur to the image – up to 2.5 pixels).
– Cutout – 3 boxes with 10% size each (cut out a part of the image – 3 boxes of 10% size each).
– Brightness Between –25% and +25% (changing the brightness of the image to increase the resistance of the model to changes in lighting and camera settings – from –25% to +25%).
– Rotation – Between –15 and +15 (rotation of the image object – clockwise or counterclockwise by degrees from –15 to +15).
– Flip – Horizontal (flip the image object horizontally).
Results. The data is collected from open sources, in particular, from videos posted in open sources on the YouTube platform. The main task of data preprocessing is the classification of three classes of objects on video or in real time – APC, BMP and TANK. The dataset is formed using the Roboflow platform based on the labeling tools and subsequently the augmentation tools. The dataset consists of 1193 unique images – approximately equally for each class. The training was conducted using Google Colab resources. It took 100 epochs to train the model.
Conclusions. Analysis is performed according to mAP50 (average precision as 0.85), mAP50-95 (0.6), precision (0.89) and recall (0.75). Big losses are due to the fact that the background was not taken into account during the research – training the module on the basis of confirmed data (images) of the background without technology
Description
Висоцька В. А. Технологія інтелектуального аналізу відеопотоку для автоматичного розпізнавання цілей системи керування вогнем на основі машинного навчання / В. А. Висоцька, Р. В. Романчук // Радіоелектроніка, інформатика, управління. – 2024. – № 3 (70). – C. 67-79.