|

Классификация гиперспектральных данных дистанционного зондирования Земли с использованием комбинированных 3D--2D сверточных нейронных сетей

Авторы: Ньян Л.Т., Гаврилов А.И., До М.Ч. Опубликовано: 30.03.2022
Опубликовано в выпуске: #1(138)/2022  
DOI: 10.18698/0236-3933-2022-1-100-118

 
Раздел: Информатика, вычислительная техника и управление | Рубрика: Системный анализ, управление и обработка информации  
Ключевые слова: cверточные нейронные сети, гиперспектральное изображение, обучение, дистанционное зондирование Земли

Аннотация

Классификацию гиперспектральных изображений используют для анализа данных дистанционного зондирования Земли. Сверточная нейронная сеть --- один из наиболее часто используемых методов обработки визуальных данных на основе глубокого обучения. Предложена комбинированная спектральная сверточная нейронная сеть для классификации гиперспектральных изображений. На начальном этапе предложена простая комбинированная обученная модель глубокого обучения, которая строится путем объединения 2D и 3D сверточных нейронных сетей для извлечения более глубоких пространственно-спектральных объектов с меньшим числом 3D--2D-сверток. 3D-сеть облегчает совместное пространственно-спектральное представление объектов из стека спектральных полос. Для классификации гиперспектральных изображений использованы функции 3D--2D сверточных нейронных сетей. Для уменьшения размерности применен алгоритм метода главных компонент. Эксперименты по классификации изображений гиперспектральных изображений проведены над наборами данных дистанционного зондирования индийских сосен (Indian Pines), университета Павии (University of Pavia) и сцены Салинаса (Salinas Scene). Первый слой карты объектов использован в качестве входных данных для последующих слоев при прогнозировании конечных меток для каждого гиперспектрального пикселя. Предлагаемый метод не только включает в себя преимущества расширенного извлечения признаков из сверточных нейронных сетей, но и полностью использует спектральную и пространственную информацию. Эффективность предложенного метода проверена на трех эталонных наборах данных. Результаты показывают, что основанная на таких сетях многофункциональная система обучения значительно повышает точность классификации (более 99 %)

Просьба ссылаться на эту статью следующим образом:

Ньян Л.Т., Гаврилов А.И., До М.Ч. Классификация гиперспектральных данных дистанционного зондирования Земли с использованием комбинированных 3D--2D сверточных нейронных сетей. Вестник МГТУ им. Н.Э. Баумана. Сер. Приборостроение, 2022, № 1 (138), с. 100--118. DOI: https://doi.org/10.18698/0236-3933-2022-1-100-118

Литература

[1] Camps-Valls G., Tuia D., Bruzzone L., et al. Advances in hyperspectral image classification: Earth monitoring with statistical learning methods. IEEE Signal Process. Mag., 2014, vol. 31, iss. 1, pp. 45--54. DOI: https://doi.org/10.1109/MSP.2013.2279179

[2] Tun N.L., Gavrilov A., Tun N.M., et al. Hyperspectral remote sensing images classification using fully convolutional neural network. IEEE ElConRus, 2021. DOI: https://doi.org/10.1109/ElConRus51938.2021.9396673

[3] Liang H., Li Q. Hyperspectral imagery classification using sparse representations of convolutional neural network features. Remote Sens., 2016, vol. 8, no. 2, art. 99. DOI: https://doi.org/10.3390/rs8020099

[4] Tun N.L., Gavrilov A., Tun N.M., et al. Remote sensing data classification using a hybrid pre-trained VGG16 CNN-SVM classifier. IEEE ElConRus, 2021. DOI: https://doi.org/10.1109/ElConRus51938.2021.9396706

[5] Tun N.L., Gavrilov A., Tun N.M. Multi-classification of satellite imagery using fully convolutional neural network. IEEE ICIEAM, 2020. DOI: https://doi.org/10.1109/ICIEAM48468.2020.9111928

[6] Liu S., Luo H., Tu Y., et al. Wide contextual residual network with active learning for remote sensing image classification. IGARSS, 2018. DOI: https://doi.org/10.1109/IGARSS.2018.8517855

[7] Tun N.L., Gavrilov A., Tun N.M. Facial image denoising using convolutional autoencoder network. IEEE ICIEAM, 2020. DOI: https://doi.org/10.1109/ICIEAM48468.2020.9112080

[8] Zhang H., Meng L., Wei X., et al. 1D-convolutional capsule network for hyperspectral image classification. Computer Vision and Pattern Recognition. URL: https://arxiv.org/abs/1903.09834

[9] Gao Q., Lim S., Jia X. Hyperspectral image classification using convolutional neural networks and multiple feature learning. Remote Sens., 2018, vol. 8, no. 2, art. 299. DOI: https://doi.org/10.3390/rs10020299

[10] Ahmad M. A fast 3D CNN for hyperspectral image classification. Image and Video Processing. URL: https://arxiv.org/abs/2004.14152

[11] Roy S.K., Krishna G., Dubey S.R., et al. HybridSN: exploring 3-D--2-D CNN feature hierarchy for hyperspectral image classification. IEEE Geosci. Remote Sens. Lett., 2020, vol. 17, iss. 2, pp. 277--281. DOI: https://doi.org/10.1109/LGRS.2019.2918719

[12] He M., Li B., Chen H. Multi-scale 3D deep convolutional neural network for hyperspectral image classification. IEEE ICIP, 2017, pp. 3904--3908. DOI: https://doi.org/10.1109/ICIP.2017.8297014

[13] Mou L., Ghamisi P., Zhu X.X. Unsupervised spectral-spatial feature learning via deep residual conv--deconv network for hyperspectral image classification. IEEE Trans. Geosci. Remote Sens., 2018, vol. 56, iss. 1, pp. 391--406. DOI: https://doi.org/10.1109/TGRS.2017.2748160

[14] Paoletti M.E., Haut J.M., Fernandez-Beltran R., et al. Capsule networks for hyperspectral image classification. IEEE Trans. Geosci. Remote Sens., 2019, vol. 57, iss. 4, pp. 2145--2160. DOI: https://doi.org/10.1109/TGRS.2018.2871782

[15] Ji S., Xu W., Yang M., et al. 3D convolutional neural networks for human action recognition. IEEE Trans. Pattern Anal. Mach. Intell., 2013, vol. 35, iss. 1, pp. 221--231. DOI: https://doi.org/10.1109/TPAMI.2012.59

[16] Lv W., Wang X. Overview of hyperspectral image classification. J. Sens., 2020, vol. 2020, art. ID 4817234. DOI: https://doi.org/10.1155/2020/4817234

[17] Song W., Li S., Fang L., et al. Hyperspectral image classification with deep feature fusion network. IEEE Trans. Pattern Anal. Mach. Intell., 2018, vol. 56, iss. 6, pp. 3173--3184. DOI: https://doi.org/10.1109/TGRS.2018.2794326

[18] Congalton R.G., Mead R.A. A quantitative method to test for consistency and correctness in photointerpretation. Photogramm. Eng. Remote Sensing, 1983, vol. 49, no. 1, pp. 69--74.