谷歌计算机学会加密信息 距脱离人类掌控还远吗?

  次阅读 来源:互联网(转载协议) 2016-10-28 09:01 我要评论(0)

科技讯10月28日消息,据每日邮报报道,英国大科学家史蒂芬·霍金(Stephen Hawking)与美国连续创业家伊隆·马斯克(Elon Musk)都曾警告称,AI(人工智能)变得太聪明非常危险,甚至导致人类灭绝。现在,谷歌团队又向这个噩梦般的假设迈近了一步,正教授其神经网络系统如何保密。计算机系统已经学会如何保护自己的信息,以躲避人类窥探。

来自谷歌Brain团队的研究人员马丁·阿巴迪(Martin Abadi)与戴维·安德森(David Andersen)发表论文,阐述计算机网络如何通过使用简单的加密技术,确保信息安全。谷歌的研究团队专注于深度学习领域,利用大量数据进行研究。

谷歌的计算机系统是基于人类大脑神经网络的工作原理设计的,这种计算机又被称为“神经网络”。研究人员在论文中写道:“我们想知道神经网络是否能学习使用密匙,以便对其他神经网络保密信息。具体来说,我们主要想确保在多智能体系中确保保密性能。”

研究人员表示,他们创建了由爱丽丝(Alice)与鲍勃(Bob)组成的神经网络系统,同时限制名为艾娃(Eve)的第三方神经网络窃听爱丽丝与鲍勃之间的通信。爱丽丝、鲍勃以及艾娃都是参与实验的计算机科学家和物理学家的名字。

为了确保信息保密,爱丽丝必须将它的纯文本信息转变成毫无意义的代码。这意味着任何拦截到信息的人,包括艾娃,都无法理解信息内容。当然,鲍勃可以理解爱丽丝的“密文”,但其他人不行。

最初,爱丽丝与鲍勃并不善于隐藏信息,但是在经过多次实践后,它们的表现越来越好,甚至让艾娃难以获得有效信息。研究人员称,这是巨大突破,因为神经网络被设计得并不善于加密信息。

美国加密公司PKWARE的乔·斯特隆纳斯(Joe Sturonas)表示:“这种规模的神经网络在最近几年才成为可能,而我们找到了它的起点。”

可是就在不久前,霍金还曾警告AI可能产生自我意识,而这种意识很可能与人类意识相冲突。这预示着,强大的自动化武器可能非常危险。但是如果进行充分研究可以避免危险,AI就可以帮助人类根除疾病和贫困。(小小)

本站部分文章来源于网络以及网友投稿,本站只负责对文章进行整理、排版、编辑,是出于传递更多信息之目的,并不意味着赞同其观点或证实其内容的真实性。如果您有什么意见或建议,请联系QQ28-1688-302!

人工智能实验室
相关文章相关文章
  • 买前必看!外媒眼中的全速旗舰一加6

    买前必看!外媒眼中的全速旗舰一加6

  • teamLab创始人猪子寿之: 抛去衣食住行,我还剩下什么?

    teamLab创始人猪子寿之: 抛去衣食住行,我还剩下什么?

  • Michael I. Jordan带你解读百万奖金ATEC蚂蚁人工智能大赛

    Michael I. Jordan带你解读百万奖金ATEC蚂蚁人工智能大赛

  • 五横两纵,平稳可靠——安擎中小企业创新服务云平台

    五横两纵,平稳可靠——安擎中小企业创新服务云平台

网友点评网友点评
阅读推荐阅读推荐

据外媒报道,STEER打造了首款完全自动驾驶停车技术,旨在使常规车辆转变为无人驾驶车辆。STEER的首款技术应用是4级自动驾驶及网络安全停车...

近日,美国软性机器抓手制造商 Soft Robotics 宣布,获得 2000 万美元的融资,本轮投资者包括 Scale Venture Partners,Calibrate Ventures...

据外媒报道,加州车管局发布了《2017自动驾驶脱离报告(California Autonomous Vehicle Disengagement Reports)》,其中谈及了脱离的具体...

用人机语音交互,来解决智能家居适老的问题;通过家庭门禁与安防套件、空气净化套件、可燃气体与有害气体监控套件等相互联动,在不同生活情...