展会信息港展会大全

别再把人类那套偏见歧视带到AI!
来源:互联网   发布日期:2020-05-28 08:25:24   浏览:9176次  

导读:本文看点 在创新方面大胆思考意味着直面重大社会问题。如果我们的创新受到女性主义科幻小说作家和理论家的启发,将技术领域转移到使社会朝着和平与平等的方向发展的发明和改进,则包容性驱动的人工智能(AI)将是技术创新的基石。 包容性AI首先要解决的问题...

本文看点

▪在创新方面大胆思考意味着直面重大社会问题。如果我们的创新受到女性主义科幻小说作家和理论家的启发,将技术领域转移到使社会朝着和平与平等的方向发展的发明和改进,则包容性驱动的人工智能(AI)将是技术创新的基石。

包容性AI首先要解决的问题是偏见。受过人工训练的机器,复制和加剧了社会歧视。剑桥大学研究表明,人工智能系统的设计增强了性别刻板印象,不关注性别平等问题的法律和政策,广泛使用偏见数据集,而且AI工作者缺乏多样性。

目前,AI系统的另一个问题是设计和部署系统的人与受这些系统影响的人员之间的隔阂越来越深。女权主义理论与人工智能的交汇带来了具有深远影响的新可能性。性别理论家与技术专家之间的对话将有助于实现社会平等的目标,但性别理论和AI实践使用的是完全不同的语言。

原文来自Forbes,作者Annie Brown

当我们想到人工智能(AI)的未来时,许多人都想到了有感知力的机器人或自动驾驶汽车。这些当前的构想以及为实现它们而采取的后续行动,在很大程度上受到科幻小说的影响,如黑色反乌托邦科幻电影《银翼杀手》或美国爱情科幻电影《她》。

但是,如果我们的创新受到女性主义科幻小说作家和理论家厄休拉·勒古恩、奥克塔维娅·巴特勒和唐娜·哈拉维的启发,会怎样呢?

当你将技术领域对“进步”的定义从新机器或更快的系统,转移到使社会朝着和平与平等的方向发展的发明和改进——包容性驱动的AI突然变得不仅仅是一件美好的事情,而是技术创新的基石。

当我们谈论包容性AI时,首先要解决的问题是偏见——尤其是受过人工训练的机器复制和加剧社会歧视的方式。《连线》杂志报道了一个有趣但悲惨的例子,它说明了训练AI过程中的个人偏见指数效应:

在其他练习中,员工有时会根据自身固有的偏见对广告进行错误描述。举一个明显的例子,某员工错误地将保守派组织的支持LGBT的广告归为反LGBT广告。当我指出她对保守派团体在LGBT问题上观点的假设导致归类错误时,回应我的只有沉默。

这些错误的特征会被整合到培训人工审阅者和机器的手册中。这些是在尝试做正确的事情时犯的错误。但是,它们证明了为什么在更广泛的层面上,对未经培训的工程师和数据科学家进行纠正偏见是天真的,在领导层面来看则是不真诚的。

众所周知,算法中的不平等的根源在于技术领域的长期缺乏多样性,该问题亟待解决。我们需要听取不同的声音去建设、训练以及监督平台。

多样性意味着人们具有不同经历、种族、性别、宗教、社会经济背景等。算法不是仅仅为了一种类型的人构建的,而是为所有类型的人。

我们当前的算法是由具有系统性偏见的人创建的,这些人未经训练就可以识别甚至被灌输这些偏见。例如,社交媒体审核算法更可能标记女性、同志和跨性别者分享的内容。

难以置信?《赫芬顿邮报》最近发表了一篇文章,引用了Instagram上的一种常见做法,该做法有助于提高曝光率和参与度——帐户将性别从女性更改为男性。

问题是,许多技术公司和创新者没有试图解决这些问题,而是继续推动有缺陷的AI的发展。关于包容性AI的讨论被边缘化,结果是目前的AI效率低下、不准确,并且远远没有为社会带来任何有意义的进步。

这并不是说没有人提及包容性AI或正在推动一些激动人心的举措。例如,IBM的AI Fairness 360是一个开源工具包,可帮助开发人员测试其数据集中的偏差。

5月,Facebook AI 宣布了一项标记数据集内图像的新技术,以便研究人员可以了解是否使用这些图像训练了机器学习模型。这种验证方法称为“放射性”数据,可以提高训练模型的数据透明度。

但是,这些既不是AI创新的规范也不是重点

2019年剑桥大学的一项研究表明,“按照目前的速度,人工智能的发展将继续基于性别的歧视……人工智能系统的设计增强了限制性性别刻板印象,不关注性别平等问题的法律和政策,广泛使用偏见数据集,而且AI工作者缺乏多样性。”

尽管这项强大的技术存在一个未解决、心照不宣的重大缺陷,但我们仍在不断前进、越来越多地使用该技术。

女权主义理论与人工智能的交汇带来了具有深远影响的新可能性。在上述研究中标题为“性别理论与人工智能实践融合”的部分中,作者指出:“性别理论家与技术专家之间的对话将有助于实现社会平等的目标。但目前,性别理论和AI实践‘说的是完全不同的语言’。”

简而言之,精通性别和种族理论的研究人员没有在写IBM或Facebook团队可读的、有关消除偏见的论文。

这篇文章还强调了设计和部署这些系统的人与受这些系统影响的人员之间的隔阂越来越深。

“普通人将如何应对挑战、适应和提供反馈,这对于这些系统的积极发展至关重要吗?”研究人员问。他们继续说:“我们必须考虑‘人工智能对社会塑形’的重要性,这将包括与用户一起参与设计研讨会,并让他们参与如何使系统对他们有益的讨论中。

真正的创新是一种有潜力改变世界的创新,比如未来的人工智能——它不仅可以复制人类的偏见,而且可以纠正它。

技术企业家、开发人员和投资者以大胆而出名,但也许他们的格局还不够大。当天交付的程序包、了解我们的日历的虚拟助手或知道我们想听什么歌的App无法解决我们面临的最紧迫的问题。

在创新方面大胆思考意味着对重大社会问题直言不讳,例如有色人种的监禁过多,或者为什么仅仅在社交媒体上浏览1小时就会导致妇女和女孩的自尊心降低。

也许我们应该构建一个以另一种科幻小说为蓝本的科技未来——在那里我们可以使用AI解决系统性歧视并减少由于根深蒂固的偏见而造成的不良决定。

对于勒古恩、巴特勒、哈拉维而言,技术和社会的包容性(或缺乏包容性)是主要关注焦点,也是反乌托邦与乌托邦之间区别的症结所在。

为了追求更好的技术和更美好的世界,让我们也应将包容性作为AI叙事的重点。

赞助本站

人工智能实验室
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港