MVCNN++: CAD Model Shape Classification using Multi-View Convolutional Neural Networks
MVCNN++: CAD Model Shape Classification using Multi-View Convolutional Neural Networks
(基于多视图卷积神经网络的CAD模型形状分类)
摘要
深度神经网络在图像和文本数据的分类和检索任务中显示出有希望的成功。虽然在计算机图形学领域已经有了几种深度网络的实现,但这些算法不容易在不同的数据集之间转换,特别是对于产品设计和制造领域中使用的形状。与计算机图形学领域中用于三维形状分类和检索的数据集不同,三维模型的工程级描述并不产生整齐的不同类别。目前的研究着眼于3D形状深度学习算法的分类和检索的改进形式,通过使用诸如放松分类,使用定角相机角度捕捉特征细节和迁移学习来减少训练形状识别算法所需的数据量和处理时间。本文提出的算法(MVCNN++)建立在多视图卷积神经网络(MVCNN)算法的基础上,通过使用零件元数据提高了其对制造零件分类的效率,比原始版本提高了近6%。随着公共存储库中可用的3D产品模型的爆炸式增长,搜索和发现相关模型对于民主化访问设计模型至关重要。
MVCNN++。主要内容和贡献包括:
- 提出了一种新的多视角卷积神经网络(MVCNN++)架构,用于制造部件的形状分类。该架构通过在3D空间中以多个角度拍摄CAD模型的图像,并利用预训练的深度神经网络,实现了比直接应用于传统计算机图形数据集(如ModelNet-10或ModelNet-40)的算法更高的分类精度。
- 将形状数据与元数据(本文中为部件尺寸)相结合,以提高分类精度和收敛速度。这使得我们可以训练出一个接近最优的神经网络,以较小的数据量实现更高的精度。
- 在训练数据集中使用了10个类别的CAD模型,这些类别是基于形状和制造特征选择的。通过自动工作流程从学术来源收集训练数据,并使用自定义网络爬虫从包含大量3D模型数据的网站(如Autodesk Gallery和GrabCad)收集数据。
- 进行了形状分类和检索实验,比较了MVCNN和MVCNN++的性能。结果表明,MVCNN++在分类精度上优于原始的MVCNN,但在检索方面,MVCNN的性能更好。
- 利用MVCNN++的部件描述符对未标记的CAD部件进行了分类,并与人工分类进行了比较。结果表明,MVCNN++在一些类别上的分类效果很好,而在其他类别上则较差。这为未来对整个存储库进行基于其他因素(如特定部件特征或制造过程)的标签化提供了指导。
总结
mvcn++体系结构扩展了MVCNN体系结构,用于制造相关数据。这是通过使用相机位置在3D空间中对CAD模型进行成像,利用预训练的深度神经网络进行制造数据分类和检索来实现的。这比直接实现针对传统计算机图形数据集(如ModelNet10或ModelNet-40)训练和设计的算法的分类精度更高。在形状数据中加入元数据(部分尺寸),以提高分类精度,并提高不同时期的收敛速度。这使我们能够训练一个接近最优的神经网络,允许使用少量数据实现更高的精度。
在制造过程中有大量的三维形状数据和相关的元数据。使用迁移学习和创新的分类方案和嵌入方法等新技术可以帮助提高产品零件和装配3D模型的分类和检索的速度和准确性。这在工艺参数估计、自定义工艺计划和路径生成等领域具有若干含义。
使用深度学习的计算方法有望优于传统的手工构建描述符,并且在广泛的文献研究中显示出前景。这些基于非线性优化技术的采用正在增长,并将允许解锁大量嵌入制造图纸、手册和加工数据中的隐性知识。开源深度学习架构的激增只会在整个产品生命周期中增加智能制造技术的实现。