Preview

Известия высших учебных заведений России. Радиоэлектроника

Расширенный поиск

Влияние разрешающей способности радиолокационных изображений военной техники на точность их классификации глубокой сверточной нейронной сетью

https://doi.org/10.32603/1993-8985-2022-25-1-36-46

Полный текст:

Аннотация

Введение. Сегодня в качестве одного из наиболее перспективных инструментов для решения задачи классификации малоразмерных объектов на радиолокационных изображениях рассматриваются глубокие сверточные нейронные сети. Несмотря на это, в известных работах отсутствуют результаты системного исследования зависимости точности классификации, достигаемой сверточными нейросетями, от такой важной характеристики изображения, как его разрешающая способность.
Цель работы. Определение зависимости точности классификации объектов военной техники глубокой сверточной нейронной сетью от разрешающей способности их радиолокационных изображений.
Материалы и методы. Проектирование восьмислойной сверточной нейронной сети, ее обучение и тестирование осуществлено с использованием библиотеки глубокого обучения Keras и фреймворка Tensorflow 2.0. Для обучения и тестирования использована открытая часть стандартного набора радиолокационных изображений объектов военной техники десяти классов Moving and Stationary Target Acquisition and Recognition. Исходные значения весовых коэффициентов сетей MobileNetV1 и Xception, использованных для сравнительной оценки достигаемой точности классификации, получены по результатам обучения на наборе Imagenet.

Результаты. Точность классификации объектов военной техники быстро снижается с ухудшением разрешающей способности, и составляет 97.91, 90.22, 79.13, 52.2 и 23.68 % при разрешении 0.3, 0.6, 0.9, 1.5 и 3 м соответственно. Показано, что использование предобученных сетей с архитектурами MobileNetV1 и Xception не приводит к улучшению точности классификации по сравнению с простой сетью VGG-типа.
Заключение. Эффективное распознавание объектов военной техники при разрешении, хуже, чем 1 м, практически невозможно. Точность классификации, демонстрируемая глубокой нейронной сетью, существенно зависит от различия разрешающей способности изображений обучающего и тестового наборов. Значительному повышению устойчивости точности классификации к изменению разрешения способствует обучение на наборе изображений с различным разрешением.

Об авторе

И. Ф. Купряшкин
Военный учебно-научный центр Военно-воздушных сил "Военно-воздушная академия им. профессора Н. Е. Жуковского и Ю. А. Гагарина"
Россия

Купряшкин Иван Федорович – доктор технических наук (2017), доцент (2011), начальник кафедры боевого применения средств РЭБ (с воздушно-космическими системами управления и наводящимся оружием)

ул. Старых Большевиков, д. 54 А, Воронеж, 394064



Список литературы

1. Deep Learning Meets SAR / X. Zhu, S. Montazeri, M. Ali, Yu. Hua, Yu. Wang, L. Mou, Yi. Shi, F. Xu, R. Bamler. URL: https://arxiv.org/pdf/2006.10027.pdf (дата обра-щения 20.12.2021)

2. Application of Deep-Learning Algorithms to MSTAR Data / H H. Wang, S. Chen, F. Xu, Y.-Q. Jin // IEEE Intern. Geoscience and Remote Sensing Symp. (IGARSS), Milan, Italy, 26–31 July 2015. IEEE, 2015. P. 3743–3745. doi: 10.1109/IGARSS.2015.7326637

3. Target Classification Using the Deep Convolutional Networks for SAR Images / S. Chen, H. Wang, F. Xu, Y.-Q. Jin // IEEE Transaction Geoscience and Remote Sensing. 2016. Vol. 54, no. 8. P. 4806–4817. doi: 10.1109/TGRS.2016.2551720

4. Deep Learning for SAR Image Classification / H. Anas, H. Majdoulayne, A. Chaimae, S. M. Nabil // Intel-ligent Systems and Applications. Springer, Cham., 2020. P. 890–898. doi: 10.1007/978-3-030-29516-5_67

5. Chen S., Wang H. SAR Target Recognition Based on Deep Learning // Intern. Conf. on Data Science and Advanced Analytics (DSAA). Shanghai, China, 30 Oct. – 1 Nov. 2014. IEEE, 2014. P. 541–547. doi: 10.1109/DSAA.2014.7058124

6. Coman C., Thaens R. A Deep Learning SAR Target Classification Experiment on MSTAR Dataset // 19th In-tern. Radar Symp. (IRS), Bonn, Germany, 20–22 June 2018. IEEE, 2018. P. 1–6. doi: 10.23919/IRS.2018.8448048

7. Furukawa H. Deep Learning for End-to-End Auto-matic Target Recognition from Synthetic Aperture Radar Imagery. URL: https://arxiv.org/pdf/1801.08558.pdf (дата обращения 20.12.2021)

8. Profeta A., Rodriguez A., Clouse H. S. Convolution-al Neural Networks for Synthetic Aperture Radar Classifi-cation // Proc. SPIE 9843, Algorithms for Synthetic Aper-ture Radar Imagery XXIII. 2016. 98430M. doi: 10.1117/12.2225934

9. Wang Z., Xu X. Efficient deep convolutional neural networks using CReLU for ATR with limited SAR images // The J. of Engineering. 2019. Vol. 2019, no. 21. P. 7615–7618. doi: 10.1049/joe.2019.0567

10. Wilmanski M., Kreucher C., Lauer J. Modern Ap-proaches in Deep Learning for SAR ATR // Proc. SPIE 9843. Algorithms for Synthetic Aperture Radar Imagery XXIII. 2016. 98430N. doi: 10.1117/12.2220290

11. A Novel Convolutional Neural Network Architec-ture for SAR Target Recognition / Yi. Xie, W. Dai, Z. Hu, Yi. Liu, C. Li, X. Pu // J. of Sensors. 2019. Art. 1246548. doi: 10.1155/2019/1246548

12. Xinyan F., Weigang Z. Research on SAR Image Target Recognition Based on Convolutional Neural Net-work // J. of Physics: Conf. Series. 2019. Ser. 1213. 042019. doi: 10.1088/1742-6596/1213/4/042019

13. A Deep Learning Fusion Recognition Method Based On SAR Image Data / J. Zhai, G. Dong, F. Chen, X. Xie, C. Qi, L. Li // Procedia Computer Science. 2019. Vol. 147. P. 533–541. doi: 10.1016/j.procs.2019.01.229

14. A New Algorithm of SAR Image Target Recogni-tion based on Improved Deep Convolutional Neural Network / F. Gao, T. Huang, J. Sun, J. Wang, A. Hussain, E. Yang // Cognitive Computation. 2019. Vol. 11. P. 809–824. doi: 10.1007/s12559-018-9563-z

15. Malmgren-Hansen D., Engholm R., Østergaard Pedersen M. Training Convolutional Neural Net-works for Translational Invariance on SAR ATR // Proc. of EUSAR 2016: 11th European Conf. on Synthetic Aperture Radar, Hamburg, Germany, 6–9 Jun 2016. IEEE , 2016. P. 459–462.

16. Бородинов А. А., Мясников В. В. Сравнение алгоритмов классификации радарных изображений при различных методах предобработки на примере базы MSTAR // Сб. тр. IV Междунар. конф. и молодеж-ной школы "Информационные технологии и нано-технологии" (ИТНТ-2018). Самара, Новая техника, 2018. С. 586–594.

17. Kechagias-Stamatis O., Aouf N. Automatic Target Recognition on Synthetic Aperture Radar Imagery: A Survey. URL: https://arxiv.org/ftp/arxiv/papers/2007/2007.02106.pdf (дата обращения 20.12.2021)

18. Шолле Ф. Глубокое обучение на Python. СПб.: Питер, 2018. 400 с.

19. Николенко С., Кадурин А., Архангельская Е. Глубокое обучение. СПб.: Питер, 2018. 480 с.

20. Simonyan K., Zisserman A. Very Deep Convolu-tional Networks For Large-Scale Image Recognition. URL: https://arxiv.org/pdf/1409.1556.pdf (дата обращения 20.12.2021)

21. Huang Z., Pan Z., Lei B. What, Where and How to Transfer in SAR Target Recognition Based on Deep CNNs. URL: https://arxiv.org/pdf/1906.01379.pdf (дата обращения 20.12.2021)

22. Chollet F. Xception: Deep Learning with Depth-wise Separable Convolutions. URL: https://arxiv.org/pdf/1610.02357.pdf (дата обращения 20.12.2021)

23. MobileNets: Efficient Convolutional Neural Net-works for Mobile Vision Applications / A. G. Howard, M. Zhu, B. Chen, D. Kalenichenko. URL: https://arxiv.org/pdf/1704.04861.pdf (дата обращения 20.12.2021).


Рецензия

Для цитирования:


Купряшкин И.Ф. Влияние разрешающей способности радиолокационных изображений военной техники на точность их классификации глубокой сверточной нейронной сетью. Известия высших учебных заведений России. Радиоэлектроника. 2022;25(1):36-46. https://doi.org/10.32603/1993-8985-2022-25-1-36-46

For citation:


Kupryashkin I.F. Impact of the Radar Image Resolution of Military Objects on the Accuracy of their Classification by a Deep Convolutional Neural Network. Journal of the Russian Universities. Radioelectronics. 2022;25(1):36-46. (In Russ.) https://doi.org/10.32603/1993-8985-2022-25-1-36-46

Просмотров: 228


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 1993-8985 (Print)
ISSN 2658-4794 (Online)