深度学习模型中的公平性研究

作者:王昱颖; 张敏*; 杨晶然; 徐晟恺; 陈仪香
来源:软件学报, 2023, 34(09): 4037-4055.
DOI:10.13328/j.cnki.jos.006872

摘要

近几年深度神经网络正被广泛应用于现实决策系统,决策系统中的不公平现象会加剧社会不平等,造成社会危害.因此研究者们开始对深度学习系统的公平性展开大量研究,但大部分研究都从群体公平的角度切入,且这些缓解群体偏见的方法无法保证群体内部的公平.针对以上问题,定义两种个体公平率计算方法,分别为基于输出标签的个体公平率(IFRb),即相似样本对在模型预测中标签相同的概率和基于输出分布的个体公平率(IFRp),即相似样本对的预测分布差异在阈值范围内的概率,后者是更严格的个体公平.更进一步,提出一种提高模型个体公平性的算法IIFR,该算法通过余弦相似度计算样本之间的差异程度,利用相似临界值筛选出满足条件的相似训练样本对,最后在训练过程中将相似训练样本对的输出差异作为个体公平损失项添加到目标函数中,惩罚模型输出差异过大的相似训练样本对,以达到提高模型个体公平性的目的.实验结果表明, IIFR算法在个体公平的提升上优于最先进的个体公平提升方法.此外IIFR算法能够在提高模型个体公平性的同时,较好地维持模型的群体公平性.

全文