Анализ классификационных признаков объектов военной техники набора MSTAR, выявляемых глубокой сверточной нейронной сетью в процессе обучения
https://doi.org/10.32603/1993-8985-2025-28-2-45-56
Аннотация
Введение. Одним из наиболее эффективных инструментов для решения задачи классификации отметок объектов на радиолокационных изображениях являются нейронные сети. Однако процесс принятия ими решения непрозрачен, в связи с чем определение классификационных признаков объектов, вносящих существенный вклад в результат работы сети, – актуальная задача, составляющая часть общей проблемы "объяснимого искусственного интеллекта".
Цель работы. Определение классификационных признаков объектов военной техники, выявляемых глубокой сверточной нейронной сетью в процессе обучения.
Материалы и методы. Обучение и тестирование нейронной сети осуществлено с использованием фреймворков Keras и Tensorflow 2.0. В качестве датасета использована открытая часть набора радиолокационных изображений MSTAR. Для определения классификационных признаков использован метод GradCAM.
Результаты. В случае изображений с неподавленным фоном собственно отметка объекта вносит определяющий вклад в результат классификации только для 58 % изображений, для 6 % результат в основном обусловлен радиолокационной тенью объекта, а для 25 % – фоном местности. Для 11 % изображений наиболее выраженный классификационный признак установить не удалось. Для изображений с подавленным фоном результат классификации обусловлен распределением яркости в пределах отметки примерно в 60 % случаев, а ее контуром – в 40 % случаев.
Заключение. Особенность набора MSTAR в том, что каждый класс представлен набором изображений одного и того же реального объекта при различных ракурсах съемки. Следствием этого являются локальные особенности фона, не заметные для человека, уникальные для каждого класса объектов и способные внести определяющий вклад в результат обучения нейронной сети. Показано, что подавление фона и снижение размерности изображений устраняет этот эффект. Из полученных результатов также следует целесообразность проведения дальнейших исследований возможностей методов XAI применительно к современным нейросетевым детекторам и датасетам радиолокационных изображений.
Об авторе
И. Ф. КупряшкинРоссия
Купряшкин Иван Федорович – доктор технических наук (2017), доцент (2011), начальник кафедры боевого применения средств РЭБ (с воздушно-космическими системами управления и наводящимся оружием
ул. Старых Большевиков, д. 54 А, Воронеж, 394064
Список литературы
1. Deep Learning Meets SAR / X. Zhu, S. Montazeri, M. Ali, Yu. Hua, Yu. Wang, L. Mou, Yi. Shi, F. Xu, R. Bamler. URL: https://arxiv.org/abs/2006.10027 (дата обращения 10.03.2025).
2. Deep Learning for SAR Image Classification / H. Anas, H. Majdoulayne, A. Chaimae, S. M. Nabil // Intelligent Systems and Applications. IntelliSys 2019. Advances in Intelligent Systems and Computing. Vol. 1037. Cham: Springer, 2020. P. 890–898. doi: 10.1007/978-3-030-29516-5_67
3. Deep Learning for SAR Ship Detection: Past, Present and Future / J. Li, C. Xu, H. Su, L. Gao, T. Wang // Remote Sensing. 2022. Vol. 14, iss. 11. Art. № 2712. doi: 10.3390/rs14112712
4. Target Detection and Recognition in Synthetic Aperture Radar Images Using YOLO Deep Learning Methods / Wu T.-D., Wang H.-F., Hsu P.-H., Tiong K.-K., Chang L.-C., Chang C.-H. // Intern. Conf. on Consumer Electronics, PingTung, Taiwan, 17–19 July 2023. IEEE, 2023. P. 593–594. doi: 10.1109/ICCE-Taiwan58799.2023.10226736
5. Yu C., Shin Y. SMEP-DETR: Transformer-Based Ship Detection for SAR Imagery with Multi-Edge Enhancement and Parallel Dilated Convolutions // Remote Sensing. 2025. Vol. 17, iss. 6. Art. № 953. doi: 10.3390/rs17060953
6. A Ship Detection Method via Redesigned FCOS in Large-Scale SAR Images / M. Zhu, G. Hu, H. Zhou, S. Wang, Z. Feng, S. Yue // Remote Sensing. 2022. Vol. 14, iss. 5. Art. № 1153. doi: 10.3390/rs14051153
7. SARATR-X: A Foundation Model for Synthetic Aperture Radar Images Target Recognition / W. Li, W. Yang, Y. Hou, L. Liu, X. Liu, X. Li. URL: https://arxiv.org/html/2405.09365v1 (дата обращения 10.03.2025).
8. Мишра П. Объяснимые модели искусственного интеллекта на Python. Модель искусственного интеллекта. Объяснения с использованием библиотек, расширений и фреймворков на основе языка Python. М.: ДМК Пресс, 2022. 298 с.
9. Self-Matching CAM: A Novel Accurate Visual Explanation of CNNs for SAR Image Interpretation / Z. Feng, M. Zhu, L. Stankovic, H. Ji // Remote Sensing. 2021. Vol. 13, iss. 9. Art. № 1772. doi: 10.3390/rs13091772
10. LIME-Based Data Selection Method for SAR Images Generation Using GAN / M. Zhu, B. Zang, L. Ding, T. Lei, Z. Feng, J. Fan // Remote Sensing. 2022. Vol. 14, iss. 1. Art. № 204. doi: 10.3390/rs14010204
11. Fein-Ashley J., Kannan R., Prasanna V. Studying the Effects of Self-Attention on SAR Automatic Target Recognition. URL: https://arxiv.org/abs/2409.00473 (дата обращения 10.03.2025).
12. Taufique A. M. N., Nagananda N., Savakis A. Visualization of Deep Transfer Learning in SAR Imagery. URL: https://arxiv.org/abs/2103.11061 (дата обращения 10.03.2025).
13. SARDet-100K: Towards Open-Source Benchmark and ToolKit for Large-Scale SAR Object Detection / Y. Li, X. Li, W. Li, Q. Hou, L. Liu, M.-M. Cheng, J. Yang. URL: https://arxiv.org/abs/2403.06534 (дата обращения 10.03.2025).
14. Kechagias-Stamatis O., Aouf N. Automatic Target Recognition on Synthetic Aperture Radar Imagery: A Survey. URL: https://arxiv.org/abs/2007.02106 (дата обращения 10.03.2025).
15. NUDT4MSTAR: A New Dataset and Benchmark Towards SAR Target Recognition in the Wild / Y. Liu, W. Li, L. Liu, J. Zhou, X. Xiong, B. Peng, Y. Song, W. Yang, T. Liu, Z. Liu, X. Li. URL: https://arxiv.org/abs/2501.13354 (дата обращения 10.03.2025).
16. Купряшкин И. Ф., Мазин А. С. Визуализация шаблонов максимальной активации фильтров сверточной нейронной сети в задаче классификации зашумленных радиолокационных изображений объектов // Цифровая обработка сигналов. 2021. № 4. С. 42–47.
17. Шолле Ф. Глубокое обучение на Python. СПб.: Питер, 2018. 400 с.
18. Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization / R. R. Selvaraju, M. Cogswell, A. Das, R. Vedantam, D. Parikh, D. Batra. URL: https://arxiv.org/abs/1610.02391 (дата обращения 10.03.2025).
19. Купряшкин И. Ф. Cравнительные результаты точности классификации радиолокационных изображений объектов набора MSTAR сверточными нейронными сетями с различными архитектурами // Журн. радиоэлектроники. 2021. № 11. С. 1–27. doi: 10.30898/1684-1719.2021.11.14
20. Simonyan K., Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition. URL: https://arxiv.org/abs/1409.1556 (дата обращения 10.03.2025).
Рецензия
Для цитирования:
Купряшкин И.Ф. Анализ классификационных признаков объектов военной техники набора MSTAR, выявляемых глубокой сверточной нейронной сетью в процессе обучения. Известия высших учебных заведений России. Радиоэлектроника. 2025;28(2):45-56. https://doi.org/10.32603/1993-8985-2025-28-2-45-56
For citation:
Kupryashkin I.F. Analysis of MSTAR Object Classification Features Extracted by a Deep Convolutional Neural Network. Journal of the Russian Universities. Radioelectronics. 2025;28(2):45-56. (In Russ.) https://doi.org/10.32603/1993-8985-2025-28-2-45-56