关于人工智能,长期存在两种不同的目标或者理念。一种是希望借鉴人类的智能行为,研制出更好的工具以减轻人类智力劳动,一般称为“弱人工智能”,类似于“高级仿生学”。另一种是希望研制出达到甚至超越人类智慧水平的人造物,具有心智和意识、能根据自己的意图开展行动,一般称为“强人工智能”,实则可谓“人造智能”。
人工智能技术现在所取得的进展和成功,是缘于“弱人工智能”而不是“强人工智能”的研究。正如国际人工智能联合会前主席、牛津大学计算机系主任迈克尔·伍德里奇(MichaelWooldrige)教授在2016年CCF-GAIR大会1报告中所说:强人工智能“几乎没有进展”,甚至“几乎没有严肃的活动”(“littleprogress,littleseriousactivity”)。事实上,人工智能国际主流学界所持的目标是弱人工智能,也少有人致力于强人工智能。
牛津大学迈克尔·伍德里奇教授
首先,从技术上来说控制工程网版权所有,主流人工智能学界的努力从来就不是朝向强人工智能CONTROL ENGINEERING China版权所有,现有技术的发展也不会自动地使强人工智能成为可能。
不妨看看现在人工智能技术所取得的成功。在图像识别、语音识别方面,机器已经达到甚至超过了普通人类的水平;在机器翻译方面,便携的实时翻译器已成为现实;在自动推理方面,机器很早就能进行定理自动证明;在棋类游戏方面,机器已经打败了最顶尖的人类棋手……可以看出,上述成功有一个共同的特点:它们都是在考虑某种特定类型的智能行为控制工程网版权所有,而不是“完全智能”行为2。一方面,聚焦在特定类型的智能行为上,才使得任务成为可能而非空谈3;另一方面,如果目标是制造“工具”,那么考虑特定类型的智能行为就已足够,自主心智、独立意识、甚至情感?之类的东西,根本无须考虑。打个未必恰当的比方,如果人们的目标是造个工具砸东西,那么造出锤子来就好了,无须考虑让锤子有心智、意识,也不必考虑是否要让锤子自己感觉到“疼”。事实上,人工智能研究活跃的子领域,都是与制造智能“工具”直接相关的;而对“强人工智能”必不可少、却与“工具”不太相关的内容,如自主心智、独立意识、机器情感之类,罕有严肃的研究。所以,现有技术即便发展再快、发展再好,也不会直接使得强人工智能成为可能。
第二,即便想研究强人工智能,也不知道路在何方。
有一种说法,认为如果能够模拟出“人脑”,把其中的神经元、神经突触等全部同规模地仿制出来,那么强人工智能就会自然产生。然而,这种说法从来没有得到过一点点证明,严格说来甚至不能称其为“猜想”,因为猜想也应该有一些即便不够完备但尚能显示可能性的证据,例如通过仿制简单细胞,做出了单细胞智能生物。实际上,我们完全有更强烈的理由认为,即便能精确地观察和仿制出神经细胞的行为控制工程网版权所有,也无法还原产生出智能行为。正如国际人工智能终身成就奖得主、多伦多大学赫克托·莱韦斯克(HectorJ.Levesque)教授在他2017年的新著?中所说,即便在最理想的情况下,神经科学家也仅是能获得“目标代码”而已,没有理由认为获得了目标代码就能还原出源代码,因为这样的“反向工程”即便对软件程序来说也几乎是不可能的,更何况神经细胞内部还存在“分布式表示”?。
第三,即便强人工智能是可能的,也不应该去研究它。
任何一个科学研究领域或许都存在一些不该去触碰的东西。例如克隆人是被主流生命科学界所禁止的。强人工智能的造物将具有自主心智、独立意识,那么,它凭什么能“甘心”为人类服务、被人类“奴役”?有人把阿西莫夫的“机器人三定律”?奉为圭臬,但事实上这是行不通的。且不论三定律自身的矛盾和漏洞?,凭什么以为有自主心智和独立意识,且智能全面达到甚至超越人类水平的机器,就不会把这些约束改掉呢?即便它是善意的控制工程网版权所有,人类又凭什么认为它会同意比它“愚蠢”的人类的判断?例如它会不会以为把人类全部关进监狱就可以避免人类互相残杀,这才是对人类整体最好的?至于说,到时候人类如果觉得危险了,可以把机器的电源断开……这只是开个玩笑吧,真到那个时候,机器恐怕早就能采用其他的方式摄入能源了。总之,强人工智能出现的那一天,恐怕真的就是人类面临最大生存危机的时候。所以,对严肃的人工智能研究者来说,如果真的相信自己的努力会产生结果,那就不该去触碰强人工智能。