被“黑化”后的机器学习 真的会令人害怕吗?

  次阅读 来源:互联网(转载协议) 2016-11-01 10:06 我要评论(0)

据外媒报道,虽然机器学习技术是时下最火热的创新话题,但它依然带来了许多麻烦和隐忧。其中最为明显的就是这项技术正在侵犯我们每个人的隐私。

要想模仿人类,机器学习必须将人类最私密的一切“连根拔起”。因此,我们除了要保护自己的独特性,还要找出控制机器学习的机制,否则恐怕有一天它就会利用我们的身份去做一些不法勾当,到时我们会有口难辩。

下面的几个例子就向我们展示了“黑化”后的机器学习有多恐怖。当然,其本性是善良的,但落入坏人手中之后可能就会造成巨大的危害。同时,本文也是对大家的警示,在享受科技带来的便利的同时,我们也应该长个心眼,否则最终其副作用可能会吞没人类社会。

如果人脸识别技术“跑偏”了

神经网络和深度学习算法在图片识别和处理上效果显著,它们让我们的社交平台、搜索引擎、游戏机和认证机制都变得更加聪明了。

不过,它们会走上邪恶之路吗?显然会。面部识别应用FindFace就是最好的例证。该应用今年年初诞生于俄罗斯,用户可以利用面部识别系统看出某人是否也注册了VK.com(俄罗斯的Facebook)。在不到一年的时间里,这款应用在东欧就获得了超过2亿用户。

由于连上了VK.com的图片数据库,这款应用识别能力超强。不过,很多人用它并不是为了社交,其用途最终跑偏了。举例来说,莫斯科警察部门就用上了FindFace的技术并将其植入首都的15万个监控探头中。此外,还有许多人拿这一技术来捉奸。

卡巴斯基实验室的专家曾分享过一个欺骗面部识别技术的方法,但如果一直保持那样的姿势也实在是太累了。

所以,在社交网络上晒自拍还是谨慎点吧,毕竟一旦有照片上传,机器学习引擎总会从某个“仓库”将这些照片吸纳进来的,至于随后某张照片将会引发什么样的风波我们就不得而知了。

在马赛克后偷窥的机器学习

马赛克是图片和视频中保护隐私最常用的技术,用马赛克覆盖后,人眼根本无法再识别那些关键的敏感信息。

不过,机器学习可是会“透视”,它能做到彻底的心中无码。

相关搜索(Beta)

本站部分文章来源于网络以及网友投稿,本站只负责对文章进行整理、排版、编辑,是出于传递更多信息之目的,并不意味着赞同其观点或证实其内容的真实性。如果您有什么意见或建议,请联系QQ28-1688-302!

人工智能实验室
相关文章相关文章
  • 20W+全球智能科技买家与您相约ISHE深圳智能家居展

    20W+全球智能科技买家与您相约ISHE深圳智能家居展

  • 品友互动斩获IAI国际广告奖 智能商业决策大脑的多维度升级

    品友互动斩获IAI国际广告奖 智能商业决策大脑的多维度升级

  • 医疗大数据的基础是人工智能!依图医疗产品总监王炤独家阐述

    医疗大数据的基础是人工智能!依图医疗产品总监王炤独家阐述

  • 一加6发布在即 将首批适配Android P Beta版

    一加6发布在即 将首批适配Android P Beta版

网友点评网友点评
阅读推荐阅读推荐

据外媒报道,STEER打造了首款完全自动驾驶停车技术,旨在使常规车辆转变为无人驾驶车辆。STEER的首款技术应用是4级自动驾驶及网络安全停车...

近日,美国软性机器抓手制造商 Soft Robotics 宣布,获得 2000 万美元的融资,本轮投资者包括 Scale Venture Partners,Calibrate Ventures...

据外媒报道,加州车管局发布了《2017自动驾驶脱离报告(California Autonomous Vehicle Disengagement Reports)》,其中谈及了脱离的具体...

用人机语音交互,来解决智能家居适老的问题;通过家庭门禁与安防套件、空气净化套件、可燃气体与有害气体监控套件等相互联动,在不同生活情...