浅谈机器学习公平性

来源:岁月联盟 编辑:猪蛋儿 时间:2022-09-03

精彩推荐


文丨中国工商银行软件开发中心 王娜 冯歆然


当前,机器学习在多个领域中发挥着越来越重要的作用,在金融、司法、医疗等公共领域,应用机器学习的结论进行辅助乃至自动化决策已非个例。科技的迅猛发展在给人类带来极大便利的同时,也带来了新的风险,甚至会引发前所未有的伦理挑战,如美国的犯罪预测系统COMPAS存在歧视黑人的现象(预测结果对黑人的误报率高于白人)、亚马逊AI简历筛选系统存在歧视女性的现象、meta广告推荐算法涉嫌违反美国《公平住宅法案》(Fair Housing Act,FHA)。


在我国,算法伦理问题已经引起国家层面的关注。2022年3月,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,将人工智能作为科技伦理治理的重点领域之一。这是我国首个国家层面的科技伦理治理指导性文件,算法公平性也随之成为业界重点关注的问题。


本文将从多个角度阐述机器学习公平性的研究进展:介绍公平性的度量指标,分析可能引起模型不公平的根源,梳理提升机器学习公平性建模中的关键措施,以期为读者在加深对机器学习公平性伦理问题的认知,避免应用机器学习算法时引起不公平的道德伦理问题等方面提供参考。


一、机器学习公平性的概述及

公平性度量指标


机器学习公平性是机器学习领域的一个新兴分支,主要研究如何通过解决或缓解“不公平”来增加模型的公平性,以及如何确保模型的输出结果能够让不同的群体、个人都有平等的机会获得利益。然而,受文化和环境的影响,人们对公平性的理解存在一定的主观性。到目前为止,公平性尚未有统一的定义及度量指标。


总的来说,公平性主要分为群体公平性和个体公平性两类:群体公平性指标侧重于衡量决策(模型结果)对不同群体的偏见程度;个体公平性指标主要侧重于衡量决策对不同个体的偏见程度。本文将以二分类为例对公平性常用的定义及度量指标(如图1所示)进行介绍。


图1 常见的模型公平性指标及特点


假设S为敏感信息的特征(如种族、性别、年龄、民族等),“S=1”表示该群体在社会中为“强势群体”,较少受到歧视,“S≠1”表示该群体在某些方面为“弱势群体”,存在潜在的受到歧视的风险,如少数族裔、老年人、女性等。Y为模型的真实标签,