ОПТИМІЗАЦІЯ ЗГОРТКОВИХ НЕЙРОННИХ МЕРЕЖ ТА ЇХ АНСАМБЛІВ

  • О. В. Чопорова Запорізький національний університет
  • А. Г. Кривохата Запорізький національний університет
Ключові слова: класифікація, згорткові нейронні мережі, ансамбль, генетичні алгоритми

Анотація

Штучні нейронні мережі застосовуються до розв’язання великої кількості практичних задач, серед яких можна виділити проблеми класифікації, регресії та кластерного аналізу. Зокрема, для розпізнавання образів ефективно використовуються згорткові нейронні мережі. Така популярність пояснюється структурою згорткових мереж, яка складається зазвичай з двох типів шарів: власне згорткових та повнозв’язних. У шарах згортки відбувається автоматичне визначення суттєвих ознак об’єктів. Цей етап можна інтерпретувати як застосування до даних різноманітних фільтрів. У повнозв’язних шарах відбувається безпосередньо класифікація на базі ознак, вилучених згортковими шарами. Кількість шарів обох типів, тип функцій активації, тип оптимізатора, кількість епох навчання та інші показники відносяться до гіперпараметрів нейромереж. У практичних задачах саме структурна та параметрична оптимізація вимагає суттєвих часових затрат та експертних знань предметної області. Одним з методів, що дозволяє уникнути такого ручного налаштування роботи системи є генетичні алгоритми. Загальна схема застосування генетичних алгоритмів до нейронних мереж полягає у наступному. На першому етапі варто обрати спосіб кодування суттєвих параметрів нейронної мережі у вигляді бінарного або числового вектора. Такі вектори формують деяку базову множину розв’язків, у якій здійснюється пошук оптимального розв’язку. Після цього обирається цільова функція, яка визначатиме найбільш вдалу архітектуру окремих нейронних мереж та їх структуру. Така функція повинна бути близькою за значенням до функції втрат, що використовуються при навчанні нейромереж. Суттєвим етапом генетичних алгоритмів є визначення наступних операторів: селекції, кросовера, мутації та відбору. Вибір цих операторів впливає на збіжність та ефективність методу в цілому. Генетичний алгоритм є прикладом метаевристичних методів. Збіжність таких методів у загальному випадку досить важко довести формально. Однак застосування генетичного алгоритму під час налаштування нейронних мереж дозволяє знизити втручання користувача до мінімуму. Іншим відомим підходом до поліпшення ефективності систем розпізнавання є використання ансамблів – поєднань декількох моделей з генерацією спільного результату. Існує декілька способів побудови такого поєднання. Загальною вимогою є те, що елементи ансамблю повинні розрізнятися або структурно, або параметрично. Також можуть використовуватися подібні моделі, але оптимізовані для різних наборів даних. Використання ансамблевого навчання нейронних мереж пов’язано з проблемою різкого збільшення вимог до обчислювальних ресурсів. Одним з підходів тут може бути застосування так званого Snapshot ансамблю, який дозволяє будувати колекцію нейронних мереж, подібних за структурою, але з різними наборами вагових коефіцієнтів. Час навчання такого ансамблю дорівнює часу навчання однієї мережі. Роботу присвячено застосуванню генетичних алгоритмів для спільного налаштування структури нейронних мереж та параметрів ансамблю.

Посилання

1. Geron A. Hands-On Machine Learning with Scikit-Learn and TensorFlow. Sebastopol: O`Reilly. 2017. 861 p.
2. Николенко С., Кадурин А., Архангельская Е. Глубокое обучение. Санкт-Петербург: Пи-тер, 2018. 480 с.
3. Олійник А. О., Субботін С. О., Олійник О. О. Еволюційні обчислення та програмування. Запоріжжя: ЗНТУ. 2010. 324 с.
4. Li K., Liu W., Zhao K., Shao M., Liu L. A Novel Dynamic Weight Neural Network Ensemble Model. International Journal of Distributed Sensor Networks. Vol. 2015. 2015. Article ID 862056, 13 pages. DOI: 10.1155/2015/862056.
5. Tao S. Deep Neural Network Ensembles. URL: https://arxiv.org/abs/1904.05488.
6. Webb A.M., Reynolds C., Iliescu D.-A., Reeve H., Lujan M., Brown G. Joint Training of Neu-ral Network Ensembles. URL: https://arxiv.org/abs/1902.04422.
7. Sallam H., Regazzoni C.S., Talkhan I., Atiya A. Evolving neural networks ensembles nnes. IAPR Workshop on Cognitive Information Processing. P. 142–147.
8. Symone G. Soares, Carlos H. Antunes, Rui Arajo. A Genetic Algorithm for Designing Neural Network Ensembles. Proceedings of the 14th annual conference on Genetic and evolutionary computation.
P. 681–688.
9. Huang G. et al. Snapshot Ensembles: Train 1, Get M for Free. arXiv, 2017. URL: http:// arxiv.org/abs/1704.00109.
10. Козин И.В. Эволюционные модели в дискретной оптимизации. Запорожье: ЗНУ, 2019. 204 с.
11. Lone M.A., Islam M. A Brief Overview of Developing Convolutional Neural Network Using Genetic Algorithm. International Journal of Computer Sciences and Engineering. Vol. 7, Issue 2, 2019.
P. 812-818. DOI: 10.26438/ijcse/v7i2.812818.
12. Lingxi Xie, Alan Yuille. Genetic CNN. https://arxiv.org/abs/1703.01513.
13. Alejandro Baldominos Yago Saez, Pedro Isasi. Evolutionary convolutional neural networks: An application to handwriting recognition. Neurocomputing. Vol. 283. 2018. P. 38-52. DOI: 10.1016/j.neucom.2017.12.049.
14. Suganuma M., Shirakawa S., Nagao T. A Genetic Programming Approach to Designing Convo-lutional Neural Network Architectures. Proceedings of the Twenty-Seventh International Joint Conference on Artificial Intelligence (IJCAI-18). P. 5369–5373.
15. Mattioli F., Caetano D., Cardoso A., Naves E., Lamounier E. An Experiment on the Use of Genetic Algorithms for Topology Selection in Deep Learning. Journal of Electrical and Computer Engineering. Vol. 2019. 2019. Article ID 3217542, P. 1-12, DOI: 10.1155/2019/3217542.
16. Sun Y., Xue B., Zhang M., Yen G.G. Automatically Designing CNN Architectures Using Ge-netic Algorithm for Image Classification. URL: https://arxiv.org/abs/1808.03818.
17. Loussaief S., Abdelkrim A. Convolutional Neural Network Hyper-Parameters Optimization based on Genetic Algorithms. International Journal of Advanced Computer Science and Applications. Vol. 9, No. 10, 2018. P. 252–266.
18. Meng F., Wang X., Shao F., Wang D., Hua X. Energy-Efficient Gabor Kernels in Neural Net-works with Genetic Algorithm Training Method. Electronics. Vol. 8, №105. 2019. Doi:10.3390/electronics8010105.
19. Hinz T., Navarro-Guerrero N., Magg S., Wermter S. Speeding up the Hyperparameter Optimization of Deep Convolutional Neural Networks. International Journal of Computational Intelligence and Applications. Vol. 17, №. 2. 2018. Article ID 1850008. P. 1–15.
20. Molina-Cabello M.A., Accino C., López-Rubio E., Thurnhofer-Hemsi K. Optimization of Con-volutional Neural Network Ensemble Classifiers by Genetic Algorithms. In: Rojas I., Joya G., Catala A. (eds) Advances in Computational Intelligence. IWANN 2019. Lecture Notes in Com-puter Science. Vol. 11507. 2019. P. 163–173.
21. Gonzalez J.A., Hurtado L.-F., Pla F. ELiRF-UPV at SemEval-2019 Task 3: Snapshot Ensemble of Hierarchical Convolutional Neural Networks for Contextual Emotion Detection. Proceed-ings of the 13th International Workshop on Semantic Evaluation (SemEval-2019). 2019. P. 195–199.
Опубліковано
2020-02-28
Як цитувати
Чопорова, О. В., & Кривохата, А. Г. (2020). ОПТИМІЗАЦІЯ ЗГОРТКОВИХ НЕЙРОННИХ МЕРЕЖ ТА ЇХ АНСАМБЛІВ. Computer Science and Applied Mathematics, (1), 107-115. вилучено із http://journalsofznu.zp.ua/index.php/comp-science/article/view/198