摘要
深度学习方法作为一种决策机制正在快速占领我们生活的方方面面,但此类智能系统做出的决策一直缺乏一种有效的解释体系。当代有关大数据最先进、最完整的一部立法《欧洲通用数据保护条例》,从道德和法律责任角度对智能系统提出可解释性要求,其思想根源是传统逻辑对必然得出的强调,技术层面是对生成序列的无损记录和追踪。本文以该条例为起点,指出数字计算机的演绎就其工作原理而言本来就不是严格无损的。因此对于智能算法的解释性问题,不同应用场景对应不同解决方案;可以根据机器决策的社会责任大小,在算法模型设计阶段加入可解释可控制界面、在运行过程中设置断点采样监控或者根据结果进行评价等不同方式加以控制。
- 单位