《机械姬》剧本顾问谈人工智能

  次阅读 作者:智能小宝 来源:互联网 2016-01-15 12:56 我要评论(0)

《机械姬》剧本顾问谈人工智能

编者按:本文作者为Nancy Mendoza,近日她对AI(人工智能)专家Murray Shanahan教授进行了一次采访,就全新的Leverhulme AI研究中心和AI的未来做了一番讨论。Shanahan曾担任电影《机械姬》的剧本写作顾问。

怎么定义来AI呢?简单来说,电脑要能在一定程度上拥有自己的思维。眼下,自动驾驶汽车就算是一种AI,而科幻小说中的像人类一样的AI则暂时还只是个梦。

设立Leverhulme研究中心的初衷是为了探索AI发展中的机遇和挑战,搞清这一划时代的技术到底会对人类造成什么影响。该研究中心由剑桥大学,帝国理工学院,牛津大学马丁学院和加州大学伯克利分校共同出资建成,而Shanahan教授则是帝国理工学院在该研究中心的负责人。

研究中心的职责是什么?

AI对人类的影响分为短期和长期,该研究中心的职责就是要从不同的角度分析这些影响。计算机科学家,哲学家,社会科学家和其他专家会齐聚研究中心,共同探讨AI引发的一系列技术,哲学和实际问题。

既然该研究中心事关AI的未来,对该技术有什么期许呢?

有了孩子后,AI到底会走向何方就成了一个非常现实的问题。毕竟该技术未来会在孩子们这一代扮演非常重要的角色,作为家长,我当然希望该技术能起到积极的作用。

说起AI的前景我就会兴奋得像个小孩子,甚至会找回我小时候看阿西莫夫科幻小说和2001太空漫游时的那份心情。不过,在为这一技术激动的同时,我也会有些许担心,因为它会在社会和哲学层面对我们的世界产生深远影响。

您在研究中心扮演什么样的角色?

在过去的十年中,我一直在对大脑的工作方式进行研究。此外,我还编写了许多代码来模拟人脑神经网络的运作方式。最近,我还对AI的社会和哲学影响进行了深度思考。而Leverhulme中心让我能更好的分配这两项工作的时间,提高工作效率。

因为我参与了AI开发核心的建设,所以自然而然的我就成了项目中技术和社会哲学之间沟通的桥梁。

说到长期影响,您认为该研究中心能及时阻止科幻小说中出现的机器人造反等情况吗?

有可能,不过直接将科幻小说中出现的可怕场景当成AI的长远影响有些不合适。科幻小说中的AI有些过于人格化了,所以看起来非常邪恶。这非常有利于编剧发挥,但却会对我们正确认识科技产生负面影响。

即使AI未来变得相当智能,它也不必长出一副人类的样子。相反,人类可以对它们下指令,不过由于它们相当智能化,所以在执行任务过程中很可能会加入自己的想法,从而引起一些副作用。

来自牛津大学的Nick Bostrom也是研究中心的一员。他创造了一种名为“如何更好的制作回形针”的思维实验,实验中AI机器人需要找到制作回形针的最佳方案。其实进行这种实验比看科幻小说有意义的多。

所以,您不再迷恋科幻小说了吗?

其实我还是很喜欢看科幻小说,最近我就做了科幻电影《机械姬》的剧本写作顾问。该电影的编剧发邮件告诉我想让我帮他把把关,我觉得他剧本写得很不错,于是就有了进一步的交流。他想知道剧本中关于AI的部分是否符合科学事实,想知道AI到底应该是什么样的。最后电影中我的书居然成了隐藏的线索,它变成了主角编写的Python代码,如果你运行这一代码,就会出现那本书的ISBN编号。

《机械姬》剧本顾问谈人工智能

我认为科幻小说在社会批判和哲学领域都有其重要的作用,人们会通过它对科技发展有一个更为深刻的思考。

《机械姬》的故事中有着古希腊神话普罗米修斯的影子,这也是20和21世界科幻小说中最常用的隐喻——科技发展后便会反噬人类,就像科学怪人那样。艺术作品对该主题的探索也提醒我们思考AI的未来,不过我们在方式的过程中一定要分清艺术作品的哲学和娱乐价值。

AI在短期内会有什么影响呢?

说到短期影响,我们可以拿近几年的例子作为参考。最好的例子就是自动驾驶汽车,该技术已经相当成熟,据正式量产也不远了。即使在短期内完美的自动驾驶还不现实,但未来几年还是会出现越来越多的自动驾驶车辆。

除了工程方面的挑战,自动驾驶汽车还会在就业市场掀起巨大的波澜,许多司机很可能会因此下岗。此外,自动驾驶还会造成许多法律纠纷:当事故一方是自动驾驶车辆时,到底谁该负责呢?汽车总不能为自己的行为负责吧?

另一方面,自动驾驶汽车也会推动社会进步,恶性事故的大大减少就是其主要表现。人类的注意力很难长期集中,极易引起交通事故,而自动驾驶汽车中的电脑可不会感觉疲倦。

自动驾驶汽车还会为保护环境做出巨大贡献。它完全由电脑控制,所以不会有人类的不良驾驶习惯,因而也会更省油,污染更校研究中心的任务就是对生活中活生生的例子进行研究和反思。

帝国理工学院会解决那些短期问题呢?

理工学院在研究中心的主要任务是将智能机器的决策过程透明化。在对AI的研究中,理解机器的决策过程是非常重要的一环,毕竟真正的主宰还是人类,我们可不想对机器人的判断深信不疑,因为即使是智能机器也会出错。

举例来说,理论上来说图像识别软件可以精确识别出图片库中的猫科动物,它们甚至可以分辨出美洲豹,雪豹和猎豹之间的不同,但如果面对一个装了美洲豹沙发罩的沙发,这个软件很有可能就会出错。

为了保证整个决策过程中人类的参与和监督权,科学家们应该对其底层技术进行修改,以便人们能知道智能机器到底想干什么。或者我们可以对其进行逆向研发,这样就可以更好的了解智能机器的决策过程并及时加以干预。

本站文章信息来源于网络以及网友投稿,本站只负责对文章进行整理、排版、编辑,是出于传递更多信息之目的,并不意味着赞同其观点或证实其内容的真实性。如果您有什么意见或建议,请联系QQ28-1688-302!

人工智能实验室
相关文章相关文章
  • 担忧机器人威胁论?DeepMind教机器人

    担忧机器人威胁论?DeepMind教机器人

  • 疑京东用户12G数据泄露 京东:源于3年前安全漏洞

    疑京东用户12G数据泄露 京东:源于3年前安全漏洞

  • 华为iLab发布社交VR网络承载研究成果

    华为iLab发布社交VR网络承载研究成果

  • Android Wear又难产!然后,开发者不干了

    Android Wear又难产!然后,开发者不干了

网友点评网友点评
阅读推荐阅读推荐

科技讯11月28日消息,据英国《独立报》网站报道,如今世界对科技和创新如此关注,是因为人们渴望找到能够解决当前经济、社会和政治问题的解...

上周,科大讯飞、搜狗、百度先后召开发布会,对外公布语音识别准确率均达到「97%」。 而一如阑夕所言「一旦语音识别的准确率达到99%,那将...

想象AI的未来是很有趣的:家庭服务机器人、亚马逊的智能家庭中枢(Echo)等设备将走进每家每户,还有无人机快递和更加精准的医学诊断。这些...

中国AI产业大会12月16日举行:这里有你要的未来,人工智能 中国人工智能学会 机器人 院士 智能机器人 深度学习 AI 报名 ...