ВИКОРИСТАННЯ ГЕНЕТИЧНИХ АЛГОРИТМІВ ПРИ РОЗРОБЦІ IOT СИСТЕМ КЛАСИФІКАЦІЇ ЗВУКУ
Анотація
У роботі розглядаються моделі та методи машинного навчання, що застосовуються в системах IoT (Internet of Things), зокрема для вирішення проблеми класифікації акустичних даних різного походження, таких як мова, музика, звуки природи тощо. Підсистеми класифікації звуку можуть бути впроваджені у різних системах інтернету речей, наприклад, Smart City, Smart Farming тощо. Розробка програмного забезпечення IoT включає такі виклики: обмеженість обчислювальних ресурсів, відносно невеликий об’єм оперативної пам’яті тощо. Отже, існує потреба у розробці оптимального класифікатора з найвищою здатністю до узагальнення. Здебільшого автоматизована система класифікації звуку може бути розбита на чотири частини: звукове подання, функції вилучення ознак, алгоритм машинного навчання та оцінка точності. Основна увага в цій роботі приділяється алгоритмам машинного навчання. Використовуються згорткові нейронні мережі для класифікації звуку та порівнюються декілька підходів до ансамблевого навчання. Генетичні алгоритми є типовою стратегією як для структурної оптимізації нейронних мереж, так і для їх ансамблів. Для побудови оптимальної конфігурації генетичних операторів розглянуто різні методи представлення розв’язку та кросовер-функції. Метою роботи є розробка оптимального класифікатора звуку для вбудованих систем. Представлення розв’язку – генотип – це сукупність гіперпараметрів нейронної мережі, що включає кількість та тип шарів нейронної мережі, тип функцій активації, початкові значення ваг, швидкість навчання тощо. Метод ансамблю Snapshot і комбінація різних нейронних мереж використовуються для ансамблевого навчання. Ключова ідея даної роботи – оптимізація засобами генетичних алгоритмів як нейронних мереж, так і методу побудови ансамблю. У роботі порівнюються різні генетичні оператори кросовера з метою отримання оптимальної конфігурації IoT системи.
Посилання
2. More, S. & Singla, J. (2019). Machine Learning Techniques with IoT in Agriculture. Interna-tional Journal of Advanced Trends in Computer Science and Engineering, Vol. 8, Issue 3, pp. 742–747. doi: https://doi.org/10.30534/ijatcse/2019/63832019
3. Piccialli, F., Cuomo, S., di Cola, V.S. & Casolla, G. (2019). A machine learning approach for IoT cultural data. Journal of Ambient Intelligence and Humanized Computing. doi: https://doi.org/10.1007/s12652-019-01452-6
4. Kryvokhata, A. G., Kudin, O. V. & Lisnyak, A. O. (2018). A Survey of Machine Learning Methods for Acoustic Data Classification. Visnyk of Kherson National Technical University, Vol 3, Issue 66, pp. 327–331 (in Ukrainian).
5. Camastra, F. & Vinciarelli, A. (2015). Machime learning for Audio. Image and Video analysis. London: Springer-Verlag.
6. Cecchi, S., Terenzi, A., Orcioni, S., Riolo, P., Ruschioni, S. & Isidoro N. (2018). A Preliminary Study of Sounds Emitted by Honey Bees in a Beehive. 144th AES convention. Retrieved from http://www.aes.org/e-lib/browse.cfm?elib=19498
7. Nolasco, I. Terenzi, A., Cecchi, S., Orcioni, S., Bear, H. L. & Benetos E. (2018). Audio-based identification of beehive states. Retrieved from https://arxiv.org/abs/1811.06330.
8. Nolasco, I. & Benetos E. (2018). To bee or not to bee: investigating machine learning ap-proaches for beehive sound recognition. Retrieved from https://arxiv.org/abs/1811.06016.
9. Cejrowski, T., Szymaski, J., Mora, H. & Gil D. (2018) Detection of the Bee Queen Presence using Sound Analysis. In Intelligent Information and Database Systems. ACIIDS. Lecture Notes in Computer Science, Vol. 10752. Springer.
10. Cecchi, S., Terenzi, A., Orcioni, S., Spinsante, S., Primiani, V. M., Moglie, F., Ruschioni, S., Mattei, C., Riolo, P. & Isidoro, N. (2019). Multi-sensor platform for real time measurements of honey bee hive parameters. IOP Conf. Series: Earth and Environmental Science, Vol. 275. doi: https://doi.org/10.1088/1755-1315/275/1/012016.
11. Bishop, J. C., Falzon, G., Trotter, M., Kwan, P. & Meek, P. D. (2017). Sound analysis and de-tection, and the potential for precision livestock farming - a sheep vocalization case study, 1st Asian-Australasian Conference on Precision Pastures and Livestock Farming. doi: https://doi.org/10.5281/zenodo.897209.
12. Wolfert, S. Ge, L., Verdouw C. & Bogaardt, M.-J. (2017). Big Data in Smart Farming – A re-view. Agricultural Systems, Vol. 153, pp. 69–80. doi: https://doi.org/10.1016/j.agsy.2017.01.023.
13. Hallett, S. H. (2017). Smart cities need smart farms. Environmental Scientist, Vol. 26, Issue 1, pp. 10–17. Retrieved from https://www.the-ies.org/resources/feeding-nine-billion
14. Alías, F., Socoró, J.C. & Sevillano, X. (2016). A review of physical and perceptual feature extraction techniques for speech, music and environmental sounds. Applied Sciences, Vol. 6(5):143. doi: https://doi.org/10.3390/app6050143
15. Bertin-Mahieux, T., Eck, D. & Mandel, M. (2011). Automatic tagging of audio: the state-of-the-art. Machine audition: principles, algorithms and systems. IGI Global, pp. 334–352. doi: https://doi.org/10.4018/978-1-61520-919-4.ch014.
16. Salamon, J., Jacoby, C. & Bello, J. P. (2017). A dataset and taxonomy for urban sound re-search. Proceedings of the 22nd ACM international conference on Multimedia, pp. 1041–1044. doi: https://doi.org/10.1145/2647868.2655045
17. Huang, G., Li, Y., Pleiss, G., Liu, Z., Hopcroft, J. E. & Weinberger, K. Q. (2017). Snapshot Ensembles: Train 1, Get M for Free. Retrieved from http:// arxiv.org/abs/1704.00109
18. Stastný, J., Skorpil, V. & Fejfar, J. (2013). Audio Data Classification by Means of New Algo-rithms. 36th International conference on Telecommunications and Signal Processing 2013, Rome, Italy, pp. 507–511. doi: https://doi.org/10.1109/TSP.2013.6613984.
19. Xu, Y., Kong, Q., Huang, Q., Wang, W. & Plumbley, M. D. (2017). Convolutional gated recur-rent neural network incorporating spatial features for audio tagging. The 2017 International Joint Conference on Neural Networks (IJCNN 2017), Anchorage, Alaska. doi: https://doi.org/10.1109/IJCNN.2017.7966291.
20. Rizzi, A., Buccino, M., Panella, M. & Uncini, A. (2006). Optimal short-time features for mu-sic/speech classification of compressed audio data. International Conference on Intelligent Agents. Sydney, NSW, Australia. doi: https://doi.org/10.1109/CIMCA.2006.160
21. Sturm, B. L. (2014). A Survey of Evaluation in Music Genre Recognition. Adaptive Multime-dia Retrieval: Semantics, Context, and Adaptation. AMR 2012. Lecture Notes in Computer Sci-ence, Vol. 8382, pp. 29–66. doi: https://doi.org/10.1007/978-3-319-12093-5_2.
22. Xu, Y., Huang, Q., Wang, W., Foster, P., Sigtia, S., Jackson, P. J. B. & Plumbley, M. D. (2017). Unsupervised Feature Learning Based on Deep Models for Environmental Audio Tagging. IEEE/ACM transactions on audio, speech and language processing, Vol. 25, Issue 6, pp. 1230–1241. doi: https://doi.org/10.1109/TASLP.2017.2690563
23. Zaccone, G. & Karim, Md. R. (2018). Deep learning with TensorFlow.Packt Publishing.
24. Geron, A. (2017). Hands-On Machine Learning with Scikit-Learn and TensorFlow. Sebastopol: O`Reilly.
25. Gonzalez, J. A., Hurtado, L.-F. & Pla, F. (2019). ELiRF-UPV at SemEval-2019 Task 3: Snap-shot Ensemble of Hierarchical Convolutional Neural Networks for Contextual Emotion Detec-tion. Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval-2019). pp. 195–199. doi: https://doi.org/10.18653/v1/S19-2031.