摘要

本发明公开了一种基于深度学习的场景深度和摄像机位置姿势求解方法,该方法利用卷积神经网络,使用图像序列作为输入,采用循环神经网络估计场景深度及相邻两幅图像的摄像机位置姿势参数。本发明采用多任务学习框架,利用序列中相邻两幅图像重建的三维场景几何信息的一致性定义网络的损失函数,以确保场景深度和摄像机位置姿势估计的准确性。