摘要

[目的/意义]针对人工智能应用中表现出的偏见和歧视,本文从数据、算法和系统运维出发,分析了AI治理中公平性的影响因素和评价方法,为AI的公平性治理提供解决思路。[方法/过程]基于人工智能治理流程和AI的公平性治理机制两个维度,本文首先遵循“顶层设计—技术攻关—产业实践”思路,提出AI的公平性治理框架;其次,在AI治理公平性技术攻关层面提出了GovAI-FDevOps框架并从偏见角度出发探讨了公平性影响因素和量化评价指标;最后以信贷数据集German为例,对信用评分卡模型在性别、国籍、年龄等敏感属性上的表现进行了公平性检测和评价。[结果/结论]从本文研究来看,AI治理中的公平性是一个具有相对性的复杂概念,不存在满足各群体、各统计意义上的绝对公平。AI治理公平性的实现需要政策、法律和技术的多方协同努力。