[pdf | proj | code]

本文首次提出大型重建模型(Large Reconstruction Model, LRM),实现5s内对单图物体的3D重建。在128张A100(40G)上训练30 epochs。

LRM包含三个部分,具体框架如下:

  • 图片编码(Image Encoder):通过DINO提取图片特征,例如:对512 x 512 x 3的图像,可以得到32 x 32 x 768的特征。
  • 图片-Triplane解码(Image-to-TriPlane Decoder):基础框架为Transformer,每个模块包含三个组件:Cross-Atten、Self-Atten和MLP。
    • 在每个组件中,都包含相机特征调控(Modulation with camera features),将相机外参和相机内参映射为高维向量,通过adaptive layer norm (adaLN)调节输入特征:,其中c是图像特征,预测的beta和gamma用于调节LN标准化后的输入特征。
    • 在Cross-Atten中,可学习位置编码(Learning positional embeddings)作为query,和图像特征融合。
    • 解码部分可表达为下式:
  • TriPlane-NeRF:首先将低分辨的Triplane tokens(3 x 32 x 32)提升分辨率为(3 x 64 x 64)。其次,以类似EG3D的方式渲染图像并训练。

在训练时,LRM使用了Objaverse和MVImgNet作为训练集,训练图像都去除背景。训练目标为重建损失,包含MSE和LPIPS:

在推理时,LRM仅需要图片,输入相机参数为默认标准相机参数【参考代码】:

更多实验结果:

与One-2-3-45的比较:

一些bad cases:

消融实验:

数据:

训练中使用的视角数量:

scale-up:

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部