|

Автоматический синтез непрерывной динамической системы стабилизации на основе искусственных нейронных сетей

Авторы: Доценко А.В. Опубликовано: 10.09.2020
Опубликовано в выпуске: #3(132)/2020  
DOI: 10.18698/0236-3933-2020-3-66-83

 
Раздел: Информатика, вычислительная техника и управление | Рубрика: Математическое моделирование, численные методы и комплексы программ  
Ключевые слова: персептрон, синтез управления, генетический алгоритм, обучение с учителем, динамическая система

Рассмотрен автоматический процесс синтеза непрерывной динамической системы стабилизации на основе использования многослойных нейронных сетей. Предложено двухэтапное решение задачи синтеза. На первом этапе осуществлена генерация обучающей выборки. Для этого многократно решена задача оптимального управления рассматриваемой динамической системой при ее разных начальных условиях. Для каждого начального условия найдено оптимальное управление как функция состояний объекта. На втором этапе выполнена аппроксимация сгенерированной обучающей выборки с помощью нейронной сети типа многослойный персептрон. Полученный персептрон реализует блок управления, покрывающий всю область начальных условий объекта управления. Новизна работы состоит в том, что задача синтеза сводится к задаче аппроксимации: поиск замкнутой стабилизирующей системы осуществлен с помощью аппроксимации оптимальных управлений, найденных в ходе минимизации функционала интегрального типа. Представлен вычислительный эксперимент по синтезу системы стабилизации гусеничного робота. Для тестовой проверки синтезированной стабилизирующей системы рассмотрены начальные условия вне обучающей выборки, а также продемонстрирована работа системы в условиях внешних возмущений

Литература

[1] Колесников А.А., Колесников А.А., Кузьменко А.А. Методы АКАР и АКОР в задачах синтеза нелинейных систем управления. Мехатроника, автоматизация, управление, 2016, т. 17, № 10, с. 657--669. DOI: https://doi.org/10.17587/mau.17.657669

[2] Колесников А.А. Синергетическая теория управления: концепции, методы, тенденции развития. Известия ТРТУ, 2001, т. 23, № 5, с. 7--27.

[3] Халил Х.К. Нелинейные системы. М., Ижевск, ИКИ РАН, 2009.

[4] Гэн К., Чулин Н.А. Алгоритмы стабилизации и управления полетом квадрокоптера. Молодежный научно-технический вестник, 2014, № 11. URL: http://masters.donntu.org/2017/etf/shichanin/library/pdf_5.pdf

[5] Гэн К., Чулин Н.А. Алгоритмы стабилизации для автоматического управления траекторным движением квадрокоптера. Наука и образование: научное издание МГТУ им. Н.Э. Баумана, 2015, № 5. DOI: http://dx.doi.org/10.7463/0515.0771076

[6] Diveev A., Shmalko E., Sofronova E. Multipoint numerical criterion for manifolds to guarantee attractor properties in the problem of synergetic control design. ITM Web Conf., 2018, vol. 18, art. 01001. DOI: https://doi.org/10.1051/itmconf/20181801001

[7] Diveev A., Kazaryan D., Sofronova E. Symbolic regression methods for control system synthesis. 22nd Mediterranean Conf. Control and Automation, 2014, pp. 587--592. DOI: https://doi.org/10.1109/MED.2014.6961436

[8] Kazaryan D.E., Savinkov A.V. Grammatical evolution for neural network optimization in the control system synthesis problem. Procedia Comput. Sci., 2017, vol. 103, no. C, pp. 14--19. DOI: https://doi.org/10.1016/j.procs.2017.01.002

[9] Гладков Л.А., Курейчик В.В., Курейчик В.М. Генетические алгоритмы. М., ФИЗМАТЛИТ, 2010.

[10] Hornik K., Stinchcombe M., White H. Multilayer feedforward networks are universal approximators. Neural Netw., 1989, vol. 2, iss. 5, pp. 359--366. DOI: https://doi.org/10.1016/08936080(89)900208

[11] Goodfellow I., Bengio Y., Courville A. Deep learning. MIT press, 2016.

[12] Dubins L.E. On curves of minimal length with a constraint on average curvature and with prescribed initial and terminal positions and tangents. Amer. J. Math., 1957, vol. 79, pp. 497--516. DOI: https://doi.org/10.2307/2372560

[13] Li M., Zhang T., Chen Y., et al. Efficient minibatch training for stochastic optimization. Proc. 20th ACM SIGKDD Int. Conf. Knowledge Discovery and Data Mining, 2014, pp. 661--670. DOI: https://doi.org/10.1145/2623330.2623612

[14] Keras: веб-сайт. URL: https://keras.io (дата обращения: 15.03.2020).

[15] Kingma D.P., Ba J. Adam: a method for stochastic optimization. arxiv.org: веб-сайт. URL: https://arxiv.org/abs/1412.6980 (дата обращения: 15.03.2020).

[16] Glorot X., Bordes A., Bengio Y. Deep sparse rectifier neural networks. Proc. 14th Int. Conf. Artificial Intelligence and Statistics, 2011, pp. 315--323. URL: http://proceedings.mlr.press/v15/glorot11a/glorot11a.pdf (дата обращения: 15.03.2020).

[17] Nair V., Hinton G.E. Rectified linear units improve restricted Boltzmann machines. Proc. 27th ICML10, 2010, pp. 807--814. URL: http://www.cs.toronto.edu/~hinton/absps/reluICML.pdf (дата обращения: 15.03.2020).

[18] Glorot X., Bengio Y. Understanding the difficulty of training deep feedforward neural networks. Proc. 13th Int. Conf. Artificial Intelligence and Statistics, 2010, pp. 249--256. URL: http://proceedings.mlr.press/v9/glorot10a/glorot10a.pdf (дата обращения: 15.03.2020).

[19] Ioffe S., Szegedy C. Batch normalization: accelerating deep network training by reducing internal covariate shift. arxiv.org: веб-сайт. URL: https://arxiv.org/abs/1502.03167v3 (дата обращения: 15.03.2020).