МЕТОДОЛОГІЯ СТВОРЕННЯ ФОРМАТИЗОВАНИХ НАБОРІВ ДАНИХ ЗА ДОПОМОГОЮ СИМУЛЯТОРА AIRSIM ТА ІНСТРУМЕНТІВ ЇХ АНОТАЦІЇ ТА АУГМЕНТАЦІЇ
Анотація
Запропоновано методологію створення форматизованих наборів даних для завдань комп’ютерного зору з використанням симулятора Microsoft AirSim і сучасних інструментів їх анотації і аугментації. З огляду на те, що підготовка навчальних даних для моделей глибокого навчання є одним із найбільш витратних і трудомістких етапів, розроблена методика спрямована на зниження вартості та часу формування якісних наборів даних за збереження їхньої різноманітності й узгодженості. Симулятор AirSim забезпечує фотореалістичне відтворення сцен і різноманітних сценаріїв, що дозволяє формувати початкові набори зображень з високим рівнем варіативності та контрольованими параметрами середовища. Це створює передумови для побудови стійких моделей виявлення та розпізнавання об’єктів, які можуть ефективно функціонувати у складних умовах реального світу. Особливу увагу приділено процесу анотації даних. Проведено огляд поширених інструментів анотації з визначенням їхніх переваг і обмежень в контексті формування наборів даних у форматі YOLO, що є одним із найбільш популярних фреймворків для завдань детекції. Визначено, що узгодженість у роботі аноторів і наявність чітких правил розмітки є критично важливими для забезпечення якості та логічної послідовності наборів даних, особливо у випадках складних сцен із кількома об’єктами, що перекриваються. Окремим аспектом дослідження є застосування методів аугментації, які дозволяють штучно збільшувати обсяг і різноманітність навчальних вибірок. Виконано аналіз базових засобів аугментації, інтегрованих у YOLO, спеціалізованих підходів і автоматизованих методів, що по-різному впливають на узагальнювальну здатність моделей. Використання цих інструментів сприяє зниженню ризику перенавчання, підвищенню точності та стійкості моделей до варіацій освітлення, ракурсів і фонових умов. Практична значущість результатів полягає у створенні універсальної методики, яка дозволяє ефективно поєднувати симульовані та реальні дані, забезпечує швидке формування якісних навчальних вибірок для завдань виявлення об’єктів у різних предметних галузях – від моніторингу довкілля до промислової інспекції.
Посилання
2. Microsoft AirSim. URL: https://github.com/Microsoft/AirSim/releases
3. Karumanchi Y., Prasanna G. L., Mukherjee S., Kolagani N. Plantation monitoring using drone images: a dataset and performance review. arXiv:2502.08233. 2025. P. 1–7. https://doi.org/10.48550/arXiv.2502.08233
4. Moussaoui H., Akkad N. E., Benslimane M., El-Shafai W., Baihan A., Hewage C., Rathore R. S. Enhancing automated vehicle identification by integrating YOLO v8 and OCR techniques for high-precision license plate detection and recognition. Scientific Reports. Vol. 14. 2024. P. 1–17. https://doi.org/10.1038/s41598-024-65272-1
5. Szczepański M. Improving UAV-based detection of low-emission smoke with an advanced dataset generation pipeline. Remote Sensing. Vol. 17. 2025. P. 1–33. https://doi.org/10.3390/rs17061004
6. Data collection and annotation strategies for computer vision. URL: https://docs.ultralytics.com/guides/data-collection-and-annotation
7. Ultralytics YOLO Docs. URL: https://docs.ultralytics.com/reference/data/annotator
8. Roboflow. URL: https://roboflow.com/annotate
9. Best Open-Source Image Annotation Tools in 2024. Computer Vision Annotation Tool (CVAT). URL: https://www.cvat.ai/resources/blog/best-open-source-image-annotation-tools#computer-visionannotation-tool-cvat
10. CVAT. Leading Data Annotation Platform. URL: https://docs.cvat.ai/docs/manual
11. LabelImg for Image Annotation. URL: https://viso.ai/computer-vision/labelimg-for-image-annotation/
12. Data augmentation using Ultralytics YOLO. URL: https://docs.ultralytics.com/guides/yolo-dataaugmentation
13. Zhong Z., Zheng L., Kang G., Li S., Yang Y. Random erasing data augmentation. arXiv:1708.04896. 2017. P. 1–10. https://doi.org/ 10.48550/arXiv.1708.04896
14. Singh K. K., Yu H., Sarmasi A., Pradeep G., Lee Y. J. Hide-and-Seek: a data augmentation technique for weakly-supervised localization and beyond. arXiv:1811.02545. 2018. P. 1–14. https://doi.org/ 10.48550/arXiv.1811.02545
15. Chen P., Liu S., Zhao H., Wang X., Jia J. GridMask data augmentation. arXiv:2001.04086. 2024. P. 1–9. https://doi.org/10.48550/arXiv.2001.04086
16. Ghiasi G., Cui Y., Srinivas A., Qian R., Lin T.-Y., Cubuk E. D., Le Q. V., Zoph B. Simple copy-paste is a strong data augmentation method for instance segmentation. arXiv:2012.07177. 2021. P. 1–13. https://doi.org/10.48550/arXiv.2012.07177
17. Cubuk E. D., Zoph B., Mane D., Vasudevan V., Le Q. V. AutoAugment: learning augmentation policies from data. arXiv:1805.09501. 2018. P. 1–14. https://doi.org/10.48550/arXiv.1805.09501
18. Cubuk E. D., Zoph B., Shlens J., Le Q. V. RandAugment: practical automated data augmentation with a reduced search space. arXiv:1909.13719. 2019. P. 1–14. https://doi.org/10.48550/arXiv.1909.13719
19. Hendrycks D., Mu N., Cubuk E. D., Zoph B., Gilmer J., Lakshminarayanan B. AugMix: a simple data processing method to improve robustness and uncertainty. arXiv:1912.02781. 2019. P. 1–15. https://doi.org/10.48550/arXiv.1912.02781
20. Müller S. G., Hutter F. TrivialAugment: tuning-free yet state-of-the-art data augmentation. arXiv:2103.10158. 2021. P. 1–13. https://doi.org/10.48550/arXiv.2103.10158
21. Fang H., Han B., Zhang S., Zhou S., xHu S., Ye W.-M. Data augmentation for object detection via controllable diffusion models. 2024 IEEE/CVF Winter Conference on Applications of Computer Vision (WACV). 2024. P. 1246–1255. https://doi.org/10.1109/WACV57701.2024.00129

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
ISSN 



