3月14日,英国物理学家史蒂芬·霍金去世,享年76岁。生前的最后几年,霍金留下了几个预言,重点关注了地球的未来、人工智能对人类的影响和人类的宇宙探索。他也多次在演讲中呼吁,人类应该把主要精力放在探索宇宙和科学,而非战争或是破坏地球的生态环境。
[核武器]核武器是人类捍卫领土的终极武器,但核武器顷刻间会令一切化为乌有,研究我们无法控制的武器,最终的结局就是人类自取灭亡。
[探索宇宙]人类应该迈出地球,去宇宙中寻找人类的第二家园,如果安于现状,就会遭遇6500万年前恐龙灭绝的情况,人类文明顷刻间倒塌。
[全球变暖]全球变暖正在发生,人类开始改变环境但行动太慢,而且科技已经无法阻止环境变化。人类将在不到百年间被新文明取代。
(*当然,霍金的预言也招致了很多争论)
2017年4月,霍金教授专门为GMIC 北京 2017大会做了主题为“让人工智能造福人类及其赖以生存的家园”的视频演讲。以下为当时的演讲全文:
在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。是好是坏,我不得不说,我们依然不能确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。
人工智能的研究与开发正在迅速推进。也许科学研究应该暂停片刻,从而使研究重点从提升人工智能能力转移到最大化人工智能的社会效益上面。基于这样的考虑,美国人工智能协会(AAAI)于2008至2009年,成立了人工智能长期未来总筹论坛[原文:PresidentialPanel on Long-Term AI Futures],他们近期在目的导向的中性技术上投入了大量的关注。但我们的人工智能系统的原则依然须要按照我们的意志工作。跨学科研究可能是一条可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。
文明所提产生的一切都是人类智能的产物,我相信生物大脑总有一天会达到计算机可以达到的程度,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。但我们并不确定,所以我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。
在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧这样这个结果,即创造一个可以等同或超越人类的智能的人工智能:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。很多人认为人类可以在相当长的时间里控制技术的发展,这样我们就能看到人工智能可以解决世界上大部分问题的潜力。但我并不确定。尽管我对人类一贯持有乐观的态度。
2015年1月份,我和科技企业家埃隆·马斯克,以及许多其他的人工智能专家签署了一份关于人工智能的公开信,目的是提倡就人工智能对社会所造成的影响做认真的调研。在这之前,埃隆·马斯克就警告过人们:超人类人工智能可能带来不可估量的利益,但是如果部署不当,则可能给人类带来相反的效果。我和他同在“生命未来研究所”担任科学顾问委员会的职务,这是一个旨在缓解人类所面临的存在风险的组织,而且之前提到的公开信也是由这个组织起草的。这个公开信号召展开可以阻止潜在问题的直接研究,同时也收获人工智能带给我们的潜在利益,同时致力于让人工智能的研发人员更关注人工智能安全。此外,对于决策者和普通大众来说,这封公开信内容翔实,并非危言耸听。人人都知道人工智能研究人员们在认真思索这些担心和伦理问题,我们认为这一点非常重要。比如,人工智能具有根除疾患和贫困的潜力的,但是研究人员必须能够创造出可控的人工智能。那封只有四段文字,题目为《应优先研究强大而有益的人工智能》的公开信,在其附带的十二页文件中对研究的优先次序作了详细的安排。