机器学习还能产生“偏见”?谷歌实验室为你解密

  次阅读 作者:智能小宝 来源:互联网 2016-10-10 15:47 我要评论(0)

机器学习也会对数据产生“偏见”,从而导致错误的预测。我们该如何解决这一问题? Google的新论文或许会揭晓答案。

机器学习中的机会均等

随着机器学习计算稳步发展,越来越多人开始关注其对于社会的影响。机器学习的成功分支之一是监督学习。有着足够的历史遗留数据和计算资源,学习算法预测未来事件的效果往往令人震惊。以一个假设为例,算法可以被用来高精度预测谁将会偿还他们的贷款。贷款人可能会使用这样的预测,以帮忙决定谁应该首先得到贷款。基于机器学习做出的决定,其实用性往往令人难以置信,并对我们的生活产生了深远的影响。

然而,最好的预测也可能出错。尽管机器学习致力于最小化出错的可能性,但我们该如何防止某些组非均匀的共享这些错误?考虑到一些情况下,我们拥有的数据相对较少,且其特征不同于那些与预测任务相关的大众方法。由于预测精度一般与训练的数据量息息相关,一些组中的错误预测将会更加常见。例如,尽管他们偿还了贷款,预测最后也可能将过多的个体标记到“高违约风险”组中。当组中的成员恰逢一个敏感属性,如种族、性别、残疾、或宗教时,便会导致不公正的或有偏见的结果。

尽管需要,但机器学习中一直缺乏防止这类歧视,且基于敏感属性的审核方法。有一种憨厚的方法是在做任何其他事之前,从数据中删除一组敏感属性。其想法是一种“无意识的不公平”,然而,由于存在“冗余编码”也未能成功。即使在数据中不存在某个特定的属性,其他属性的组合也可以作为代理。

另一个普用方法被称之为“统计平价”,其要求预测必须与敏感属性无关。这直观上听起来是可取的,但结果本身往往与敏感属性相关。例如,男性心脏衰竭的发病率通常比女性更高。当预测这样的医疗情况时,要阻断预测结果和组成员之间的一切相关性,既不现实,也不可龋

机会平等

考虑到这些概念上的困难,我们已经提出了一种方法,用于测量和防止基于一系列敏感属性所产生的歧视。我们还展示了如何调整一个给定的预测,需要的话,它可以更好的权衡分类精度和非歧视。

相关搜索(Beta)

本站文章信息来源于网络以及网友投稿,本站只负责对文章进行整理、排版、编辑,是出于传递更多信息之目的,并不意味着赞同其观点或证实其内容的真实性。如果您有什么意见或建议,请联系QQ28-1688-302!

人工智能实验室
相关文章相关文章
  • 为与Oculus抗衡 HTC成立Vive工作室欲以内容取胜

    为与Oculus抗衡 HTC成立Vive工作室欲以内容取胜

  • MIT的链式模块化机器人可以变成任意的形状

    MIT的链式模块化机器人可以变成任意的形状

  • IEEE发布指导文件:AI也要讲道德 否则世界会乱套

    IEEE发布指导文件:AI也要讲道德 否则世界会乱套

  • 智能家居或成逆袭互联网公司的重要机遇

    智能家居或成逆袭互联网公司的重要机遇

网友点评网友点评
阅读推荐阅读推荐

科技讯11月28日消息,据英国《独立报》网站报道,如今世界对科技和创新如此关注,是因为人们渴望找到能够解决当前经济、社会和政治问题的解...

上周,科大讯飞、搜狗、百度先后召开发布会,对外公布语音识别准确率均达到「97%」。 而一如阑夕所言「一旦语音识别的准确率达到99%,那将...

想象AI的未来是很有趣的:家庭服务机器人、亚马逊的智能家庭中枢(Echo)等设备将走进每家每户,还有无人机快递和更加精准的医学诊断。这些...

中国AI产业大会12月16日举行:这里有你要的未来,人工智能 中国人工智能学会 机器人 院士 智能机器人 深度学习 AI 报名 ...