机器学习还能产生“偏见”?谷歌实验室为你解密

  次阅读 来源:互联网(转载协议) 2016-10-10 15:47 我要评论(0)

机器学习也会对数据产生“偏见”,从而导致错误的预测。我们该如何解决这一问题? Google的新论文或许会揭晓答案。

机器学习中的机会均等

随着机器学习计算稳步发展,越来越多人开始关注其对于社会的影响。机器学习的成功分支之一是监督学习。有着足够的历史遗留数据和计算资源,学习算法预测未来事件的效果往往令人震惊。以一个假设为例,算法可以被用来高精度预测谁将会偿还他们的贷款。贷款人可能会使用这样的预测,以帮忙决定谁应该首先得到贷款。基于机器学习做出的决定,其实用性往往令人难以置信,并对我们的生活产生了深远的影响。

然而,最好的预测也可能出错。尽管机器学习致力于最小化出错的可能性,但我们该如何防止某些组非均匀的共享这些错误?考虑到一些情况下,我们拥有的数据相对较少,且其特征不同于那些与预测任务相关的大众方法。由于预测精度一般与训练的数据量息息相关,一些组中的错误预测将会更加常见。例如,尽管他们偿还了贷款,预测最后也可能将过多的个体标记到“高违约风险”组中。当组中的成员恰逢一个敏感属性,如种族、性别、残疾、或宗教时,便会导致不公正的或有偏见的结果。

尽管需要,但机器学习中一直缺乏防止这类歧视,且基于敏感属性的审核方法。有一种憨厚的方法是在做任何其他事之前,从数据中删除一组敏感属性。其想法是一种“无意识的不公平”,然而,由于存在“冗余编码”也未能成功。即使在数据中不存在某个特定的属性,其他属性的组合也可以作为代理。

另一个普用方法被称之为“统计平价”,其要求预测必须与敏感属性无关。这直观上听起来是可取的,但结果本身往往与敏感属性相关。例如,男性心脏衰竭的发病率通常比女性更高。当预测这样的医疗情况时,要阻断预测结果和组成员之间的一切相关性,既不现实,也不可龋

机会平等

考虑到这些概念上的困难,我们已经提出了一种方法,用于测量和防止基于一系列敏感属性所产生的歧视。我们还展示了如何调整一个给定的预测,需要的话,它可以更好的权衡分类精度和非歧视。

相关搜索(Beta)

本站部分文章来源于网络以及网友投稿,本站只负责对文章进行整理、排版、编辑,是出于传递更多信息之目的,并不意味着赞同其观点或证实其内容的真实性。如果您有什么意见或建议,请联系QQ28-1688-302!

人工智能实验室
相关文章相关文章
  • 20W+全球智能科技买家与您相约ISHE深圳智能家居展

    20W+全球智能科技买家与您相约ISHE深圳智能家居展

  • 品友互动斩获IAI国际广告奖 智能商业决策大脑的多维度升级

    品友互动斩获IAI国际广告奖 智能商业决策大脑的多维度升级

  • 一加6发布在即 将首批适配Android P Beta版

    一加6发布在即 将首批适配Android P Beta版

  • 医疗大数据的基础是人工智能!依图医疗产品总监王炤独家阐述

    医疗大数据的基础是人工智能!依图医疗产品总监王炤独家阐述

网友点评网友点评
阅读推荐阅读推荐

据外媒报道,STEER打造了首款完全自动驾驶停车技术,旨在使常规车辆转变为无人驾驶车辆。STEER的首款技术应用是4级自动驾驶及网络安全停车...

近日,美国软性机器抓手制造商 Soft Robotics 宣布,获得 2000 万美元的融资,本轮投资者包括 Scale Venture Partners,Calibrate Ventures...

据外媒报道,加州车管局发布了《2017自动驾驶脱离报告(California Autonomous Vehicle Disengagement Reports)》,其中谈及了脱离的具体...

用人机语音交互,来解决智能家居适老的问题;通过家庭门禁与安防套件、空气净化套件、可燃气体与有害气体监控套件等相互联动,在不同生活情...