摘要
加强对人工智能司法发展及风险的研究是时代课题,其中人工智能司法的可解释性困境尤为关键。人工智能司法可解释性指的是司法决策或行为的可理解与透明性,涉及基础数据、目标任务、算法模型以及人的认知这四类关键要素。不可解释困境主要是由数据失效、算法黑箱、智能技术局限、决策程序和价值缺失等因素所致。但是,人工智能司法的不可解释困境其实是一个伪命题,可解释性具备认知层面和制度层面两方面基础。纾解困境的具体策略包括:构建司法信息公开共享制度,提高有用数据的甄别与利用效率;从软硬法结合视角建构司法系统的运行标准与制度规则;从全过程视角强化主体之间的协同治理;通过指导性案例和司法解释赋权法官的司法解释空间,提高法律解释技术;强化交叉学科人才建设,提高对人工智能司法决策模型的引领;发挥法官的自律与能动性,实现司法智能决策的人机协同。未来,不仅需要把握司法价值与技术理性的平衡,还需考虑人工智能对司法的差异化介入,推动人工智能司法战略目标实现。
-
单位西南政法大学; 上海交通大学