下图显示了问题的流程,下采样过程使用了小波变换,并通过网络得到了包含丢失信息的分布和对应的低分辨图像。
针对视角合成问题,来自伯克利、谷歌和UCSD的研究人员提出了将场景表示为神经辐射场的过来进行合成。利用全连接深度网络来表示场景,其输入为5D的空间位姿坐标、输出为体密度和空间位置视角相关的辐射。通过在相机方向上查询5D坐标并利用经典的渲染技术将输出颜色和密度映射到图像上。
还有来自CMU和Argo AI关于自动驾驶中延时造成场景流理解的研究,并提出了流精度的概念来将处理延时和精度进行了整合。
以及谷歌研究人员对于非监督光流进行系统的研究,并构建包括代价空间归一化、遮挡梯度截止、光流场上采样平滑以及尺度变化过程中的自监督来改进光流估计的结果。
除了这些论文,还有非常多有趣的精彩的研究成果在Oral中呈现,更多的论文和代码也在逐渐放出,我们将持续追踪后续放出的研究成果,及时为小伙伴们呈现更多高水平的研究成果。