展会信息港展会大全

赵汀阳:我们夸大了对人工智能的恐惧,但危险的可能性存在
来源:互联网   发布日期:2019-07-10 16:54   浏览:9414

根据一些科学家们的观察,技术的疯狂发展,特别是人工智能的发展,将会让世界迎来奇点,它将使得所有事物在本世纪中叶发生彻底的改变。人类的世界将很可能被无所不能的人工智能所统治。根据人工智能的构造逻辑,它将是一个具有一神论式思维模式的超级力量,
 

根据一些科学家们的观察,技术的疯狂发展,特别是人工智能的发展,将会让世界迎来“奇点”,它将使得所有事物在本世纪中叶发生彻底的改变。人类的世界将很可能被无所不能的人工智能所统治。根据人工智能的构造逻辑,它将是一个具有一神论式思维模式的超级力量,很可能把人类视为没有价值的低等生物,并毫不留情地对人类进行“最终审判”。

赵汀阳《一神论的影子》

最近,中国哲学家赵汀阳与法国人类学家阿兰乐比雄的通信集结为《一神论的影子》,由中信出版社出版。在这本通信集中,两位作者以跨文化论辩的形式,深入细致地探讨了一神论形塑的西方思想模式及其对现代性的影响,并延伸探讨了中西文化从分化到融合的可能性。

赵汀阳

在赵汀阳致阿兰的第三封信《天何言哉》中,赵汀阳也颇为忧心地提及到具有一神论式思维模式的人工智能可能具有超级力量,并将毫不留情地对人类进行“最终审判”。7月5日,在中国艺术研究院主办的“艺术与人文高端讲座”中,赵汀阳以“人工智能的界限”为题进行了分享,详细地从哲学家的角度探讨了人工智能的奇点、后果、用处、风险等问题。

人工智能的社会有可能是一个新型的“专制社会”

赵汀阳认为,人工智能的社会有可能是一个新型的“专制社会”,因为人们为了获得技术提供的服务,会屈服于技术系统的控制;而这种新的“专制”是人们自愿选择的,不是被强加的。因为对人工智能无法自拔的依赖,人们会以市场选择或者民主选择的方式,自愿选择这种技术的“新专制”。

赵汀阳说,人工智能涉及的问题包括两类,一类是比较近的问题,一类是远在天边的问题。近在眼前的问题很典型,不管我们愿意不愿意,我们马上就进入一个人工智能的社会,并且会遇到很多的社会问题,比如政治问题,生活问题等等,这些问题并不恐怖。远的问题真正有挑战性,一旦人工智能突破它的临界点(奇点),就有可能成为高于人类一种存在,进而统治人类。目前还不知道人工智能能不能达到这样的程度,但从理论上说应该有可能。

赵汀阳表示,有一些人反对人工智能,从伦理上或者是情感上进行批判,但这是无效的问题。因为人们对它的兴趣远远大于阻力,只要有大资本和国家力量的存在,人工智能就一定会胜利。比如说我们指望以后会有智能的生产,智能的城市,智能的建筑,智能的服务系统,智能的医疗,智能的交通等等。这些发展,明显可以减少生产成本,交易成本,减少能源的消耗,增加生产力、管理能力、财富。另外,人工智能能够增加战争的能力,仅凭这一个诱惑就已经挡不住了,且不说前面还有那么多人人都想要的好处。

正如赵汀阳在《一神论的影子》中写到的:“人类贪婪地追逐着控制一切的权力,甚至企图通过技术手段获得永生,这些行为早就背离了自然的本意,这样下去人类很可能会在自己设计的、或者自己招致的最终审判中遭受重罚。”利益最大化的个人理性驱使着人类追逐着一切能带来目之可及的利益的手段,人工智能便是其一。

《一神论的影子》

有所得就有所失,人工智能的系统服务更是如此。“人工智能将会导致我们过着很类似的生活,所得到的也是非常类似的信息,大家能拥有的东西都差不多。所以,将来人的面目和思维都很类似,也就不可能有什么个性,而所谓与众不同的东西,或者说高品质的好东西,存在的基础是等级制和差距。如果我们反对等级制,反对差距,就不会有什么高质量和与众不同,从这个意义上说,我们所追求的东西恰恰导致了我们人类命运的这种悖论性。”赵汀阳说,这也使得人类逐渐会沦为“机械复制时代的新生物”。

赵汀阳认为:如果追求一切事情的平等,那么这种技术化和平等化,事实上为专制创造了更好的条件。因为平等意味着卓越的精神要屈服于基本善,人们都可以分得平均线的好东西。这样,一切资源都会向平均好东西倾斜,卓越的精神就失去了生存的基础,而只有这种卓越的精神才是控制不了的自由。大家为了获得技术提供的服务,就只好屈服于技术系统的控制。这种新的专制,是人们自愿选择的,不是被强加的。因为人们会以市场化方式和民主的方式,自愿选择这种技术的新专制。

拟人化的人工智能最危险

赵汀阳在讲座中也谈到了人工智能的伦理问题:“拟人化的人工智能在我看来是很危险的。如果在感情和价值观上真的很像人的话,我认为会出事。为什么?因为人的欲望和价值观就是一切冲突的根据。如果说我们把机器人变成跟人一样,那就是把机器人变成坏人。”

赵汀阳说,比较严重但是遥远的问题,就是人工智能的临界点(奇点)在哪里?真正的危险是反思。也就是说,如果有一天,人工智能的思想对象是它自身,思想自身变成思想对象,比如提出这样的问题:我能够解释我自己吗?我是自由的吗?如果能够提出这些问题的话,那么人工智能也就达到了霍布斯、马克思这样的思维水平,马上就会引出“一切事情由谁说了算”这样的问题,那么,人工智能就会像人类一样要求修改规则。那就非常的危险。因此,必须为人工智能设置一个合理的限度,唯一的办法就是让人工智能的研究或者制造,停在一个高能力的水平上,但是又没有害,没有自我意识,然后就停步,不再往前走了。

“你想想几十年一百年之后人工智能它在能力上也许几乎等于神,但是能力强不怕,就是刚才我论证的危险之处不在于能力,而在于自我意识。如果他没有自我意识,那么这种高能力根本不是一个危险。”最后,赵汀阳提出一个结论:目前我们对人工智能的恐惧是夸大的,但是未来的危险是一定的,可能性是存在的。

专家共谈“人工智能

演讲现场,中国科学院自动化研究所研究员、类脑智能研究中心副主任曾毅,中国社会科学院哲学研究所研究员段伟文也对人工智能的话题提出了自己的看法。

演讲现场,左起:赵汀阳、曾毅、段伟文、梁治平

曾毅说:“人工智能的现状还远没有想象的那么乐观,甚至连一个月大的小孩的智商都达不到。虽然很多公司号称自己做的人工智能的大脑已经有两三岁的智识水平,还有已经号称有60岁的智慧。我经常这样回答,你可以想想你家里的小孩1岁可以做到的事情,有多少是现在人工智能可以做到的?实际上这是人工智能的现状。”

曾毅说自己给学生经常举这样的例子:马路边一个10岁的小孩手里攥着一个海龟,如果计算机系统告诉你10岁的小孩站在马路边,手里拿着一个来复枪。如果它是一个完全自主的系统,未来真的有机器警察,这件事的社会后果是什么?所以,人工智能目前最恐怖的不是通用智能和超级智能,而是当它犯错误的时候,它自己根本不知道。

段伟文说:“如果能够实现电信号和人的神经信号之间真正意义上的脑机结合,就有可能出现机器和人联合专制。一个公司的老板告诉我,他们在做通过人脸识别监测健康状况的研究,如果企业利用人脸识别看出来你不健康的话,就不录取你,这样就打破了我们以往所说的‘无知之幕’”。

“哲学家在未来的时代可以做一些什么?我觉得实际上就是做这一个事情,不是上帝之眼,站在比较高的位置看人和机器的智能是什么关系。”段伟文说,哲学家要用一种智慧,来思考人和机器的智能怎么样整合在一起,也包括会出现什么样的风险和危险,哪些智能的组合会有些问题。

登陆 | 注册 欢迎登陆本站,认识更多朋友,获得更多精彩内容推荐!

赞助本站

人工智能实验室
AiLab云推荐
推荐内容
展开
Copyright © 2010-2019 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港