038 IGR. Implicit Geometric Regularization for Learning Shapes

Zhangwenniu 于 2023-03-18 发布

Implicit Geometric Regularization for Learning Shapes

IGR,提出Eikonal Loss的论文。Lior Yariv当时还是第二作者,后面逐渐将隐式SDF表示几何表面的工作扩展,形成自己的IDR和VolSDF两篇论文。

代码链接:amosgropp/IGR: Implicit Geometric Regularization for Learning Shapes (github.com)

citation:

@incollection{icml2020_2086, author = {Gropp, Amos and Yariv, Lior and Haim, Niv and Atzmon, Matan and Lipman, Yaron}, booktitle = {Proceedings of Machine Learning and Systems 2020}, pages = {3569–3579}, title = {Implicit Geometric Regularization for Learning Shapes}, year = {2020} }

作者

方法

这里提到了Eikonal约束的来源:

Crandall, M. G. and Lions, P.-L. Viscosity solutions of hamilton-jacobi equations. Transactions of the American mathematical society, 277(1):1–42, 1983.

The motivation for the Eikonal term stems from the Eikonal partial differential equation: A solution f (in the sense of (Crandall & Lions, 1983)) to the Eikonal equation, i.e.,

$‖∇xf (x)‖ = 1, (3)$


隐式几何正则化


作者提了两个问题:为什么一个函数能够通过梯度下降的方式优化到符号距离函数呢?即使能够收敛到一个符号距离函数,又怎么能认为这个符号距离函数就是我们想要的呢?

这确实是一个值得思考的问题。同时,在透明物体表面重建中,如果希望用SDF来表示物体的内外表面,也应该思考这样的问题。

到底希望SDF能表现出什么样的效果来呢?

0表面是符号距离函数的表面提取依据。

这次的思考算是一次巨大的飞跃。有更加精细的建模思路,透明物体、不透明物体,闭包、非闭包的建模流程应该是不一样的。

下次仍然需要考虑如何分别利用UDF和SDF处理不同特性表面的函数表达。


基于上述的思考,我发现:

相关工作及讨论

RGVF, 正则化网格体函数


这里看到一篇论文,名叫深度marching cubes。比较好奇,这篇文章是讲什么的呢?

Liao, Y., Donne, S., and Geiger, A. Deep marching cubes: Learning explicit surface representations. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 2916–2925, 2018.


这篇文章的相关文献总结相当全面,包含许多重要的表面重建工作、体素网格的研究工作。由于这篇文章IGR是后续IDR、NeuS、VolSDF以及各种变种工作的前置文章,所以是一篇领域内较为开创性的工作,阅读的论文都比较经典,后续Geo-NeuS、Mono-SDF的增删改查类的文章虽然有贡献,但是不如这些原创性的、在领域内开新枝的工作。


IGR竟然不是第一个使用Eikonal项的论文。拜错山头了吗?我受到之前读过的几篇文章的影响,一直认为Eikonal项是首次于本文提出的。

作者说还有这两篇文章中都有用到:

Michalkiewicz, M., Pontes, J. K., Jack, D., Baktashmotlagh, M., and Eriksson, A. Deep level sets: Implicit surface representations for 3d shape inference. arXiv preprint arXiv:1901.06802, 2019.

Jiang, Y., Ji, D., Han, Z., and Zwicker, M. Sdfdiff: Differentiable rendering of signed distance fields for 3d shape optimization. arXiv preprint arXiv:1912.07109, 2019.

我去翻了这两篇文章,他们都没有在文章中提到Eikonal这个名字,论文中都只是出现了单位模长的梯度向量作为损失函数。

作者说:

The key point in our work is that the Eikonal term alone can be used for (implicitly) regularizing the zero level set.

本文(IGR)的关键点是,Eikonal项可以单独用于0-level集的隐式正则化。

作者说的比较清楚,之前几篇工作如果需要重建,法向量的单位模长性质不能单独出现,是搭配其他的重建损失函数一起出现的。本文的主要工作是将这一项摘出来,看到这一项在重建隐式函数上的潜力。

线性模型的讨论以及平面的重新生成


For $\lambda > \frac{c\epsilon}{2}$, where c is a constant depending on $\bold{y}_i$, the loss in equation 5 has two global minima that correspond to the (approximated) signed distance functions to H (note there are two signed distance functions to H differing by a sign)

对于一个平面而言,有两个合适的符号距离函数,这两个距离函数的数值仅仅是相差一个负号而已。由于物体的内外表面是相对而言的,在一个平面上并不能直接体现出内部和外部。


critical应该翻译为临界。Critical points,临界点。


看不懂啊,这是在讨论什么呢?