被“黑化”后的机器学习 真的会令人害怕吗?

  次阅读 作者:智能小宝 来源:互联网 2016-11-01 10:06 我要评论(0)

据外媒报道,虽然机器学习技术是时下最火热的创新话题,但它依然带来了许多麻烦和隐忧。其中最为明显的就是这项技术正在侵犯我们每个人的隐私。

要想模仿人类,机器学习必须将人类最私密的一切“连根拔起”。因此,我们除了要保护自己的独特性,还要找出控制机器学习的机制,否则恐怕有一天它就会利用我们的身份去做一些不法勾当,到时我们会有口难辩。

下面的几个例子就向我们展示了“黑化”后的机器学习有多恐怖。当然,其本性是善良的,但落入坏人手中之后可能就会造成巨大的危害。同时,本文也是对大家的警示,在享受科技带来的便利的同时,我们也应该长个心眼,否则最终其副作用可能会吞没人类社会。

如果人脸识别技术“跑偏”了

神经网络和深度学习算法在图片识别和处理上效果显著,它们让我们的社交平台、搜索引擎、游戏机和认证机制都变得更加聪明了。

不过,它们会走上邪恶之路吗?显然会。面部识别应用FindFace就是最好的例证。该应用今年年初诞生于俄罗斯,用户可以利用面部识别系统看出某人是否也注册了VK.com(俄罗斯的Facebook)。在不到一年的时间里,这款应用在东欧就获得了超过2亿用户。

由于连上了VK.com的图片数据库,这款应用识别能力超强。不过,很多人用它并不是为了社交,其用途最终跑偏了。举例来说,莫斯科警察部门就用上了FindFace的技术并将其植入首都的15万个监控探头中。此外,还有许多人拿这一技术来捉奸。

卡巴斯基实验室的专家曾分享过一个欺骗面部识别技术的方法,但如果一直保持那样的姿势也实在是太累了。

所以,在社交网络上晒自拍还是谨慎点吧,毕竟一旦有照片上传,机器学习引擎总会从某个“仓库”将这些照片吸纳进来的,至于随后某张照片将会引发什么样的风波我们就不得而知了。

在马赛克后偷窥的机器学习

马赛克是图片和视频中保护隐私最常用的技术,用马赛克覆盖后,人眼根本无法再识别那些关键的敏感信息。

不过,机器学习可是会“透视”,它能做到彻底的心中无码。

相关搜索(Beta)

本站文章信息来源于网络以及网友投稿,本站只负责对文章进行整理、排版、编辑,是出于传递更多信息之目的,并不意味着赞同其观点或证实其内容的真实性。如果您有什么意见或建议,请联系QQ28-1688-302!

人工智能实验室
相关文章相关文章
  • 为与Oculus抗衡 HTC成立Vive工作室欲以内容取胜

    为与Oculus抗衡 HTC成立Vive工作室欲以内容取胜

  • IEEE发布指导文件:AI也要讲道德 否则世界会乱套

    IEEE发布指导文件:AI也要讲道德 否则世界会乱套

  • MIT的链式模块化机器人可以变成任意的形状

    MIT的链式模块化机器人可以变成任意的形状

  • 智能家居或成逆袭互联网公司的重要机遇

    智能家居或成逆袭互联网公司的重要机遇

网友点评网友点评
阅读推荐阅读推荐

科技讯11月28日消息,据英国《独立报》网站报道,如今世界对科技和创新如此关注,是因为人们渴望找到能够解决当前经济、社会和政治问题的解...

上周,科大讯飞、搜狗、百度先后召开发布会,对外公布语音识别准确率均达到「97%」。 而一如阑夕所言「一旦语音识别的准确率达到99%,那将...

想象AI的未来是很有趣的:家庭服务机器人、亚马逊的智能家庭中枢(Echo)等设备将走进每家每户,还有无人机快递和更加精准的医学诊断。这些...

中国AI产业大会12月16日举行:这里有你要的未来,人工智能 中国人工智能学会 机器人 院士 智能机器人 深度学习 AI 报名 ...