АЛГОРИТМИ ПЕРЕТВОРЕННЯ ВОКСЕЛЬНИХ 3D МОДЕЛЕЙ В ПОЛІГОНАЛЬНІ

Ключові слова: 3d модель, воксель, алгоритм, конвертація, полігональна сітка.

Анотація

У даній статті досліджується використання вокселів на сьогодення в таких галузях, як медицина, 3D-сканування, ігрова індустрія і чому нам потрібно перетворювати їх в полігональну сітку. Також описуються і аналізуються наявні алгоритми для перетворення воксельних 3D-моделей в полігональні. Метою алгоритмів конвертування є видобування інформації про поверхню з воксельної сітки та генерація полігональної сітки, складеної з трикутників, які наближають оригінальну форму. У дослідженні ідентифіковано близько 10 існуючих алгоритмів: Marching Cubes, Dual Contouring, Surface Nets, Voxel Carving, Sparse Voxel Octree, Surface Extraction from Volume Data (SEV), Cubical Marching Squares, Adaptive Grid Subdivision, Occupancy Networks, Deep Implicit Fields. Були описані їх характеристики, переваги і недоліки. Серед алгоритмів конвертування було обрано один алгоритм, враховуючи простоту, ефективність та доступність реалізації, який може стати основою програми для перетворення воксельних 3D-моделей в полігональну сітку. Вибір алгоритму залежить від різних факторів, включаючи бажану якість поверхні, обчислювальну ефективність, обробку гострих деталей та складність імплементації, але було вибрано кілька основних критеріїв. Обраним алгоритмом є Marching Cubes, оскільки він широко використовується, має доступні реалізації та високу продуктивність. Майбутні дослідження будуть спрямовані на створення програми-конвертора, оскільки на сьогоднішній день не існує вільно доступних конверторів, які б створювали високоякісну редаговану полігональну сітку. Усі існуючі редактори воксельних моделей та онлайн- конвертори експортують воксельну 3D-модель в полігональну сітку без будь-якої апроксимації, тому результат експорту – це набір кубів, погано об'єднаних в одну поверхню, що має розриви. Моделі полігональної сітки також мають проблему з великою кількістю трикутників, що ускладнює редагування моделі. Для створення конвертора, який вирішує ці проблеми, спочатку ми повинні вибрати алгоритм, який стане основою майбутнього конвертора. Цільовий алгоритм буде дороблено в майбутньому для покращення якості вихідної полігональної сітки порівняно з існуючими конверторами.

Посилання

1. Frieder G., Gordon D., Reynolds R. Back-to-Front Display of Voxel Based Objects. IEEE Computer Graphics and Applications. 1985. Vol. 5, № 1. P. 52–60. URL: https://doi.org/10.1109/mcg.1985.276273.
2. Copula, a new approach for optimum design of Voxel-based GNSS tropospheric tomography based on the atmospheric dynamics / R. Mousavian et al. GPS Solutions. 2022. Vol. 26, № 4. URL: https://doi.org/10.1007/s10291-022-01340-1.
3. Dotremont K. From medical images to 3D model: processing and segmentation. Handbook of Surgical Planning and 3D Printing. 2023. P. 65–91. URL: https://doi.org/10.1016/b978-0-323-90850-4.00009-0.
4. 3D Reconstruction of Human Body Biometry / G. Trujillo-Hernández et al. Optoelectronic Devices in Robotic Systems. Cham, 2022. P. 195–225. URL: https://doi.org/10.1007/978-3-031-09791-1_8.
5. Whole-Body Voxel-Based Personalized Dosimetry: The Multiple Voxel S-Value Approach for Heterogeneous Media with Nonuniform Activity Distributions / M. S. Lee et al. Journal of Nuclear Medicine. 2017. Vol. 59, № 7. P. 1133–1139. URL: https://doi.org/10.2967/jnumed.117.201095.
6. SimCVD: Simple Contrastive Voxel-Wise Representation Distillation for Semi-Supervised Medical Image Segmentation / C. You et al. IEEE Transactions on Medical Imaging. 2022. P. 1. URL: https://doi.org/10.1109/tmi.2022.3161829.
7. Li Huanmei. 3D Indoor Scene Reconstruction and Layout Based on Virtual Reality Technology and Few-Shot Learning. Computational Intelligence and Neuroscience. 2022. Vol. 2022. P. 1–9. URL: https://doi.org/10.1155/2022/4134086.
8. The Polygonal 3D Layout Reconstruction of an Indoor Environment via Voxel-Based Room Segmentation and Space Partition / F. Yang et al. ISPRS International Journal of Geo-Information. 2022. Vol. 11, № 10. P. 530. URL: https://doi.org/10.3390/ijgi11100530.
9. History of the Marching Cubes Algorithm / W. E. Lorensen et al. IEEE Computer Graphics and Applications. 2020. Vol. 40, № 2. P. 8–15. URL: https://doi.org/10.1109/mcg.2020.2971284.
10. Dual contouring of hermite data / T. Ju et al. ACM Transactions on Graphics. 2002. Vol. 21, № 3. P. 339–346. URL: https://doi.org/10.1145/566654.566586.
11. Gibson S. F. F. Constrained elastic surface nets: Generating smooth surfaces from binary segmented data. Medical Image Computing and Computer-Assisted Intervention – MICCAI’98. Berlin, Heidelberg, 1998. P. 888–898. URL: https://doi.org/10.1007/bfb0056277.
12. Voxel carving‐based 3D reconstruction of sorghum identifies genetic determinants of light interception efficiency / M. Gaillard et al. Plant Direct. 2020. Vol. 4, № 10. URL: https://doi.org/10.1002/pld3.255.
13. Persistent Homology for 3D Reconstruction Evaluation / A. Gutierrez et al. Computational Topology in Image Context. Berlin, Heidelberg, 2012. P. 139–147. URL: https://doi.org/10.1007/978-3-642-30238-1_15.
14. Laine S., Karras T. Efficient sparse voxel octrees. The 2010 ACM SIGGRAPH symposium, Washington, D.C., 19–21 February 2010. New York, New York, USA, 2010. URL: https://doi.org/10.1145/1730804.1730814.
15. McGraw T. High-quality real-time raycasting and raytracing of streamtubes with sparse voxel octrees. 2020 IEEE Visualization Conference (VIS), Salt Lake City, UT, USA, 25–30 October 2020. URL: https://doi.org/10.1109/vis47514.2020.00011.
16. Feature sensitive surface extraction from volume data / L. P. Kobbelt et al. The 28th annual conference, Not Known. New York, New York, USA, 2001. URL: https://doi.org/10.1145/383259.383265.
17. Uribe Lobello R., Denis F., Dupont F. Adaptive surface extraction from anisotropic volumetric data: contouring on generalized octrees. Annals of telecommunications. 2013. Vol. 69, № 5–6. P. 331–343. URL: https://doi.org/10.1007/s12243-013-0369-4.
18. Cubical Marching Squares: Adaptive Feature Preserving Surface Extraction from Volume Data / C. C. Ho et al. Computer Graphics Forum. 2005. Vol. 24, № 3. P. 537–545. URL: https://doi.org/10.1111/ j.1467-8659.2005.00879.x.
19. Real-time 3D reconstruction at scale using voxel hashing / M. Nießner et al. ACM Transactions on Graphics. 2013. Vol. 32, no. 6. P. 1–11. URL: https://doi.org/10.1145/2508363.2508374.
20. Occupancy Networks: Learning 3D Reconstruction in Function Space / L. Mescheder et al. 2019 IEEE/ CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, CA, USA, 15–20 June 2019. URL: https://doi.org/10.1109/cvpr.2019.00459.
21. DeepSDF: Learning Continuous Signed Distance Functions for Shape Representation / J. J. Park et al. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, CA, USA, 15–20 June 2019. URL: https://doi.org/10.1109/cvpr.2019.00025.
22. XU, Qiangeng, et al. DISN: Deep implicit surface network for high-quality single-view 3d reconstruction. Advances in neural information processing systems, 2019, 32.
Опубліковано
2023-12-19
Як цитувати
Дуванов, С. С., & Баранова, І. В. (2023). АЛГОРИТМИ ПЕРЕТВОРЕННЯ ВОКСЕЛЬНИХ 3D МОДЕЛЕЙ В ПОЛІГОНАЛЬНІ. Computer Science and Applied Mathematics, (2), 14-21. https://doi.org/10.26661/2786-6254-2023-2-02
Розділ
РОЗДІЛ I. КОМП’ЮТЕРНІ НАУКИ