展会信息港展会大全

机器人独立执行任务 危险性高于核武器?
来源:互联网   发布日期:2015-10-22 16:24:25   浏览:11287次  

导读:这个名为 Unicum AI 的人工智能在开火前,目前还是需要人的许可。不过谁知道有一天它的控制者会不会觉得这样太慢了呢?...

电影《终结者》中的场景究竟会不会发生还很难说,但一家俄罗斯的武器制造商似乎向这个未来迈出了一步。

根据俄罗斯新闻网站 RT.com 报道,俄罗斯武器制造商联合仪器制造公司(OPK)称,他们已经成功开发出了一套名为 Unicum(“唯一”的拉丁文) AI 的软件,让武器变成拥有“大脑”的指挥官——无人为干预的情况下,自行判断,并可以组织和管理其他机器人。

“有了这个软件,这些机器人能够独立执行任务,观察和评估情况,规划新的路线,以及跟其他机器沟通。”这家公司的副主任 Sergey Skokov 告诉新闻网站 RT.com。装备了这个软件的坦克可以定位目标,向运营官申请目标消除验证,或者是在获得人为验证后,帮破损的机器更换部件。

在放出的视频中,一台坦克在前进过程中停了下来,过了几秒钟后开始攻击前方的空车,看上去,这两台坦克似乎真的有了思考和判断的能力一样。

机器人独立执行任务 危险性高于核武器?

两台坦克似乎自己进行了决策并执行了

另外,由于这套软件可以安装在任何机器人系统上,而且能够一次性控制多达 10 台的机器人,基本上可以用它来组建一支机器人组成的军队,虽然听起来足够像是《终结者》中描绘的场景,但在这里,人类在这里还是拥有下达命令执行的权限。

这种将机器人和人工智能放在致命武器、监控等方面的应用,也是科技界对于人工智能的一大忧虑所在。盖茨、马斯克和霍金近来都曾表示出对于人工智能的未来的谨慎态度,在他们看来,虽然人工智能会带来不少好处,但是“危险性高于核武器”。

题图来自:wikipedia

赞助本站

人工智能实验室
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港