聊天机器人大战:AI黑客正接管网络安全

  次阅读 作者:智能小宝 来源:互联网 2016-11-11 09:15 我要评论(0)

科技讯11月11日报道,据Singularityhub报道,谷歌已经开发出能够自创加密算法机器学习系统,这是人工智能(AI)在网络安全领域取得的最新成功。但是当我们的数字安全日益依赖智能机器时,将会产生什么样的影响?

谷歌位于加州的AI子公司Google Brain通过神经网络之间的互相攻击,实现了最新壮举。他们设计出两套分别被称为鲍勃(Bob)和爱丽丝(Alice)的神经网络系统,它们的任务就是确保通讯信息不被第三套神经系统伊芙(Eve)破解。没人告诉它们如何加密信息,但鲍勃和爱丽丝被给与共享的安全密匙,而伊芙没有。

在大多数测试中,鲍勃与爱丽丝能够迅速找到安全的通讯方式,使得伊芙无法破译密码。有意思的是,这些机器都使用了不同寻常的方法,这些方法通常在人类开发的加密系统中十分罕见。从可能性方面看,这些方法远比人类设计的最好的方法还要复杂得多。但是由于神经网络以不透明的方式解决问题,因此很难找出它们是如何操作的。

对于人类来说,破译计算机生成的加密非常容易。但是这也很难保证系统的安全性,并可能限制其实际应用范畴。此外,伊芙的表现似乎也可证明人的类怀疑,即神经系统在破译加密信息方面不太擅长。

但是研究人员表示,在理解通信元数据方面和计算机网络流量分析方面,神经网络是相当有效的技术。这就是许多人认为机器学习可被应用于网络安全领域的原因,因为现代AI在发现模式方面非常擅长,它们可以处理远比人类多得多的数据。

随着网络安全专家缺口不断增大,这将是个巨大市常在今年夏季举行的黑帽黑客大会上,安全公司SparkCognition公布了其杀毒软件DeepArmor,它可以利用AI技术不断了解新的恶意软件行为,并识别出发生变异以尝试绕过安全系统的病毒。

当前的机器学习依然倾向于发现误报,并且无法应对许多由人类黑客发起的更微妙攻击。为此,许多方法专注于AI与人类并肩工作。荷兰安全厂商F-Secure与麻省理工学院下属计算机科学与人工智能实验室都开发出机器学习网络分流系统,它们可以过滤掉通过网络的大部分可疑信息,大幅削减需要人类专家处理的潜在威胁数量。

IBM希望更进一步,探索其超级计算机沃特森的自然语言处理能力。沃特森可以从人类网络安全专家发布的大量威胁报告、研究论文以及博客文章中学习。他们希望这能帮助他们于今年晚些时候提供云服务,可以有效地充当人类的专家级助理。

本站文章信息来源于网络以及网友投稿,本站只负责对文章进行整理、排版、编辑,是出于传递更多信息之目的,并不意味着赞同其观点或证实其内容的真实性。如果您有什么意见或建议,请联系QQ28-1688-302!

人工智能实验室
相关文章相关文章
  • Android Wear又难产!然后,开发者不干了

    Android Wear又难产!然后,开发者不干了

  • 担忧机器人威胁论?DeepMind教机器人

    担忧机器人威胁论?DeepMind教机器人

  • 疑京东用户12G数据泄露 京东:源于3年前安全漏洞

    疑京东用户12G数据泄露 京东:源于3年前安全漏洞

  • 华为iLab发布社交VR网络承载研究成果

    华为iLab发布社交VR网络承载研究成果

网友点评网友点评
阅读推荐阅读推荐

科技讯11月28日消息,据英国《独立报》网站报道,如今世界对科技和创新如此关注,是因为人们渴望找到能够解决当前经济、社会和政治问题的解...

上周,科大讯飞、搜狗、百度先后召开发布会,对外公布语音识别准确率均达到「97%」。 而一如阑夕所言「一旦语音识别的准确率达到99%,那将...

想象AI的未来是很有趣的:家庭服务机器人、亚马逊的智能家庭中枢(Echo)等设备将走进每家每户,还有无人机快递和更加精准的医学诊断。这些...

中国AI产业大会12月16日举行:这里有你要的未来,人工智能 中国人工智能学会 机器人 院士 智能机器人 深度学习 AI 报名 ...