简介
很多工作在扩散先验中注入跨视图一致性,但仍然缺乏细粒度的视图一致性。论文提出的文本到3d的方法有效地减轻了漂浮物(由于密度过大)和完全空白空间(由于密度不足)的产生。
实现过程
简单而言,论文工作是 Dreamfusion+Zero123。
使用两种不同的分数蒸馏进行监督:文本条件下的多视图扩散模型(维护文本的多视图一致性)和图像条件下的新视图扩散模型(维护视图之间的一致性)。
对于3D表示,实现了threeststudio的隐式体积方法,该方法由多分辨率哈希网格和用于预测体素密度和RGB值的MLP网络组成
文本条件下的多视图扩散模型
对一组相机姿势 c 进行采样,并渲染这些视图 x = g(φ, c),称之为参考视图,视图 x 的选择使它们彼此正交。对于每个视图,采样一个时间步长 t,并计算扩散过程 z t i z^i_t zti 的正演过程,给定文本 y 和NeRF渲染的带噪视图集 z t z_t zt,文本条件扩散模型 x ^ θ 1 ( z t ; y , c , t ) \hat{x}_{θ_1} (z_t;y, c, t) x^θ1(zt;y,c,t) 计算分数函数 w.rt 到 z t z_t zt,得到一个向高密度区域的更新方向。
使用MVDream 的预训练模型作为多视图扩散模型
图像条件下的新视图扩散模型
将其作为额外的监督来指导不同的视图,并确保细粒度的多视图一致性。在相机位姿
c
j
c_j
cj渲染额外的视图
x
j
x_j
xj ,计算表示从相机位置 i 到 j 的相对相机外部
c
(
j
→
i
)
c^{(j→i)}
c(j→i)。公式中,图像条件扩散模型以渲染图像
x
j
x_j
xj 和相对相机外部
c
(
j
→
i
)
c^{(j→i)}
c(j→i)作为条件。从均匀分布中抽样 t 。训练模型计算新视图
z
t
i
z^i_t
zti 的分数函数,记为
x
^
θ
2
(
z
t
i
;
x
j
,
c
(
j
→
i
)
,
t
)
\hat{x}_{\theta_2}(z^i_t;x^j,c^{(j\rightarrow i)},t)
x^θ2(zti;xj,c(j→i),t)
使用Zero-1-to-3 提供的Zero123-xl作为图像条件扩散模型
score distillation
总的分数函数如下:
式中
λ
t
λ_t
λt 和
λ
i
λ_i
λi 分别为文本扩散模型和图像扩散模型的比例因子
实验
在视图选择方面,首先随机选择视场(fov)在[15,60]和高度在[0,30]之间的摄像机,用于多视图扩散模型,相机距离设置为物体大小(0.5)乘以NDC焦距和一个随机缩放因子,范围为[0.8,1.0],从上述集合中随机选择视图作为新视图扩散模型的参考视图。对于每个参考视图,在应用新的视图图像条件扩散模型之前,选择一个具有相同视场和海拔在[- 30,80]之间的额外随机摄像机。对于多视图模型和新视图模型,批处理大小分别从8和12开始,然后在5000次迭代后减少到4和4
3D模型使用AdamW 优化器优化10000步。哈希网格和MLP组件的学习率分别设置为0.01和0.001。应用分数蒸馏采样,在前8000步中,最大和最小时间步分别从0.98减少到0.5和0.02。损失尺度因子λt和λi均设为1.0。渲染分辨率从64×64开始,在5000步之后增加到256×256。多视角模型和新视角模型的指导尺度分别为50.0和3.0。文章来源:https://www.toymoban.com/news/detail-796181.html
文章来源地址https://www.toymoban.com/news/detail-796181.html
到了这里,关于106、Text-Image Conditioned Diffusion for Consistent Text-to-3D Generation的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!