在无人驾驶技术中,道路场景语义分割是一个非常重要的环境感知任务。传统的基于深度学习方法需要大量像素级标注样本,限制了应用范围。本文提出一种基于循环生成对抗网络的道路场景语义分割方法,无需成对数据也可实现图像语义分割,降低对数据集的要求;使用L2范数和最小二乘损失方法解决训练过程中出现的模式崩溃现象,增加了训练过程的稳定性,并提高了图像分割的质量。为了验证本文方法的有效性,在常用的道路场景数据集进行实验,结果显示该方法的分割精确度有明显提高。