我们使用计算机来帮助我们做出(希望如此)公正的决定。问题在于,如果用于训练机器学习算法的数据中嵌入了人类偏见,那么机器学习算法并不总是能够做出公平的分类(这在实践中经常出现)。
为了缓解这种“垃圾进,垃圾出”的情况,一个研究团队提出了一个灵活的框架来减轻机器分类中的偏差。他们的研究发表在《智能计算》上。
该团队表示,现有的减轻分类偏差的尝试常常因依赖特定的公平性指标和预先确定的偏差项而受到阻碍。团队的框架避免了这两种类型的依赖;它们的偏差缓解可以在不同的公平性指标下进行评估,并且它们从数据中推断出特定的偏差项。
该团队在21个机器分类器的7个数据集上评估了该框架。在整个实验中,分类结果的偏差大大减少,分类准确性基本保持不变——在公平性与效用权衡下效果理想。
该框架共享对抗性去偏方法的设置,考虑Alice(例如企业)和Bob(例如监管者)之间的提议-审查场景。Alice向Bob发送了一份提案,要求使用他的数据开发目标分类器,例如大学匹配系统。
鲍勃审查了该提案,旨在确保爱丽丝的分类不会在他旨在保护的敏感维度(例如学生的中学转学经历)上表现出重大偏见。目标是构建一个分类器,该分类器在受保护的维度上具有最小的区分度,并且在目标分类中仅牺牲很小的性能。
通过识别容易引入偏差的数据属性,然后对这些属性下的记录应用有效的数据转换,可以实现偏差缓解。
这涉及评估属性对数据分离的贡献,计算属性之间的距离,并利用这些距离在构建的偏差超空间中建立偏差属性映射。通过这种映射,可以推断偏差项,识别容易产生偏差的属性,并测量它们的偏差浓度。
然而,由于可扩展性等因素的限制,该工作流在应用于大型数据集时可能会遇到困难。
在未来的研究中,考虑到公共部门和私营部门之间的潜在冲突,该团队有兴趣扩展该框架,以直接在分类公平性和准确性之间取得平衡。从更广泛的角度来看,将行为特征纳入分类偏差缓解并分析此类框架应用中的实际设置是一个重要方向。