ECCV 2020 | 云端参会攻略之Oral篇,前排占位、强势围观!

将门创投
关注

下图显示了问题的流程,下采样过程使用了小波变换,并通过网络得到了包含丢失信息的分布和对应的低分辨图像。

针对视角合成问题,来自伯克利、谷歌和UCSD的研究人员提出了将场景表示为神经辐射场的过来进行合成。利用全连接深度网络来表示场景,其输入为5D的空间位姿坐标、输出为体密度和空间位置视角相关的辐射。通过在相机方向上查询5D坐标并利用经典的渲染技术将输出颜色和密度映射到图像上。

还有来自CMU和Argo AI关于自动驾驶中延时造成场景流理解的研究,并提出了流精度的概念来将处理延时和精度进行了整合。

以及谷歌研究人员对于非监督光流进行系统的研究,并构建包括代价空间归一化、遮挡梯度截止、光流场上采样平滑以及尺度变化过程中的自监督来改进光流估计的结果。

除了这些论文,还有非常多有趣的精彩的研究成果在Oral中呈现,更多的论文和代码也在逐渐放出,我们将持续追踪后续放出的研究成果,及时为小伙伴们呈现更多高水平的研究成果。

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存