本篇文章1344字,读完约3分钟

简介:机器学习也会对数据有“偏见”,这会导致错误的预测。我们应该如何解决这个问题?谷歌的新论文可能揭示了答案。

谷歌实验室告诉你 拿什么去拯救机器学习产生的“偏见”?

随着机器学习计算的稳步发展,越来越多的人开始关注它对社会的影响。机器学习的一个成功分支是监督学习。有了足够的历史数据和计算资源,学习算法在预测未来事件方面的效果往往令人震惊。以假设为例,该算法可以高精度地预测谁将偿还贷款。贷款人可以利用这些预测来帮助决定谁应该首先获得贷款。基于机器学习的决策在实用性上往往难以置信,并且对我们的生活有着深远的影响。

谷歌实验室告诉你 拿什么去拯救机器学习产生的“偏见”?

然而,最好的预测可能是错误的。尽管机器学习努力将出错的可能性降至最低,但我们如何防止一些群体不均衡地分享这些错误呢?考虑到在某些情况下,我们拥有的数据相对较少,并且其特征不同于与预测任务相关的流行方法。由于预测精度通常与训练数据量密切相关,因此错误预测在某些组中更为常见。例如,即使他们偿还了贷款,预测最终可能会将太多的个人归为“高违约风险”群体。当一个群体的成员遇到敏感的属性,如种族、性别、残疾或宗教,就会导致不公平或有偏见的结果。

谷歌实验室告诉你 拿什么去拯救机器学习产生的“偏见”?

尽管有此需要,机器学习一直缺乏基于敏感属性的审计方法来防止这种歧视。一个简单而诚实的方法是在做任何事情之前从数据中删除一组敏感属性。这个想法是“无意识的不公平”,然而,由于“冗余编码”的存在,它失败了。即使数据中不存在特定属性,其他属性的组合也可以充当代理。

谷歌实验室告诉你 拿什么去拯救机器学习产生的“偏见”?

另一种常用的方法叫做“统计奇偶性”,它要求预测必须独立于敏感属性。这在直觉上听起来可能是可取的,但结果本身往往与敏感属性有关。例如,男性心力衰竭的发病率通常高于女性。当预测这样的医疗状况时,阻止预测结果和组成员之间的所有相关性既不现实也不可取。

谷歌实验室告诉你 拿什么去拯救机器学习产生的“偏见”?

考虑到这些概念上的困难,我们提出了一种基于一系列敏感属性来衡量和防止歧视的方法。我们还展示了如何调整给定的预测,必要时可以更好地平衡分类精度和非歧视性。

谷歌实验室告诉你 拿什么去拯救机器学习产生的“偏见”?

我们思想的核心是,达到理想结果的个人应该有平等的机会进行正确的分类。在我们虚构的贷款例子中,这意味着那些预测“低风险”将实际偿还贷款的人不应该依赖敏感的属性,如种族或性别。我们称之为监督学习中的平等机会。

谷歌实验室告诉你 拿什么去拯救机器学习产生的“偏见”?

在实施时,我们的框架还改进了激励机制,将预测不佳的成本从个人转移到决策者身上,这可以通过投资反应来提高预测的准确性。完美预测总是满足我们的概念,这表明建立更准确预测的中心目标与避免歧视的目标是一致的。

谷歌实验室告诉你 拿什么去拯救机器学习产生的“偏见”?

为了便于您在博客文章中探索自己的想法,我们的大图团队已经创建了一个奇妙的交互来可视化不同的概念和权衡。因此,你可以访问他们的主页获取更多相关信息。一旦你浏览了演示文稿,请查看论文的完整版本,这是由奥斯汀得克萨斯大学的埃里克·普莱斯和芝加哥tti大学的nati srebro共同完成的。今年,我们将在巴塞罗那的nips会议上提交这篇论文。所以,如果你在附近,你必须停下来和我们中的一个聊天。

谷歌实验室告诉你 拿什么去拯救机器学习产生的“偏见”?

我们的论文绝不是这个重要而复杂的话题的结尾。它加入了一项正在进行的关于会话的多学科研究。我们希望启发未来的研究,进一步讨论可实现的方法,平衡环境辨别和机器学习,并开发工具来帮助实践者应对这些挑战。

谷歌实验室告诉你 拿什么去拯救机器学习产生的“偏见”?

via:谷歌研究博客

推荐阅读:

机器学习正在安全领域掀起一阵旋风,但其中也有漏洞

人工智能热潮注定要失败?机器学习智能是王道?

来源:罗盘报中文网

标题:谷歌实验室告诉你 拿什么去拯救机器学习产生的“偏见”?

地址:http://www.lzn4.com/lpbxw/8045.html