牛津大学迈克尔·伍德里奇教授:强人工智能实则“人造智能”
2024-01-12 05:00:23 欢乐点

关于人工智能,常年存在两种不同的目标或则理念。一种是希望借鉴人类的智能行为,研发出更好的工具以减少人类智力劳动,通常称为“弱人工智能”,类似于“高级仿生学”。另一种是希望研发出达到甚至赶超人类智慧水平的人造物,具有心智和意识、能按照自己的意图举办行动,一般称为“强人工智能”,实则堪称“人造智能”。

人工智能技术现今所取得的进展和成功控制工程网版权所有,是源于“弱人工智能”而不是“强人工智能”的研究。正如国际人工智能联合会前主席、牛津学院计算机系院长迈克尔·伍德里奇()院士在2016年CCF-GAIR会议1报告中所说:强人工智能“几乎没有进展”,甚至“几乎没有严肃的活动”(“,y”)。事实上,人工智能国际主流学界所持的目标是弱人工智能,也少有人旨在于强人工智能

人工智能_人工智能写作_人工智能在线问答

牛津学院迈克尔·伍德里奇院长

首先,从技术上来说,主流人工智能学界的努力从来就不是朝向强人工智能,现有技术的发展也不会手动地使强人工智能成为可能。

不妨瞧瞧现今人工智能技术所取得的成功。在图象辨识、语音辨识方面,机器已然达到甚至超过了普通人类的水平;在机器翻译方面,便携的实时翻译器已成为现实;在手动推理方面,机器很早才能进行定律手动证明;在象棋游戏方面,机器早已击败了最顶级的人类棋手……可以看出,上述成功有一个共同的特征:它们都是在考虑某种特定类型的智能行为,而不是“完全智能”行为2。一方面,聚焦在特定类型的智能行为上,才促使任务成为可能而非空谈3;另一方面,假如目标是制造“工具”,这么考虑特定类型的智能行为就已足够,自主心智、独立意识、甚至情感?之类的东西,根本无须考虑。打个未必恰当的比方,假如人们的目标是造个工具砸东西,这么造出锤子来就好了,无须考虑让锤子有心智、意识,也毋须考虑是否要让锤子自己觉得到“疼”。事实上,人工智能研究活跃的子领域,都是与制造智能“工具”直接相关的;而对“强人工智能”必不可少、却与“工具”不太相关的内容,如自主心智、独立意识、机器情感之类,罕有严肃的研究。所以,现有技术虽然发展再快、发展再好,也不会直接促使强人工智能成为可能。

人工智能在线问答_人工智能_人工智能写作

第二,虽然想研究强人工智能,也不晓得路在何方。

有一种说法,觉得假如就能模拟出“人脑”,把其中的神经元、神经突触等全部同规模地仿造下来,这么强人工智能都会自然形成。但是,这些说法从来没有得到过一点点证明,严格说来甚至不能称其为“猜想”,由于推测也应当有一些虽然不够完备但尚能显示可能性的证据,比如通过仿制简单细胞,作出了单细胞智能生物。实际上,我们完全有更强烈的理由觉得,虽然能精确地观察和仿造出神经细胞的行为,也难以还原形成出智能行为。正如国际人工智能终生成就奖得主、多伦多学院赫克托·莱韦斯克(.)院士在他2017年的新著?中所说,虽然在最理想的情况下,神经科学家也仅是能获得“目标代码”而已,没有理由觉得获得了目标代码能够还原出源代码,由于这样的“反向工程”即便对软件程序来说也几乎是不可能的,更即便神经细胞内部还存在“分布式表示”?。

第三,即使强人工智能是可能的,也不应当去研究它。

任何一个科学研究领域似乎都存在一些不该去碰触的东西。诸如克隆人是被主流生命科学界所严禁的。强人工智能的造物将具有自主心智、独立意识,这么,它凭哪些能“甘心”为人类服务、被人类“奴役”?有人把阿西莫夫的“机器人三定理”?奉为显学,但事实上这是行不通的。且不论三定理自身的矛盾和漏洞?,凭哪些以为有自主心智和独立意识,且智能全面达到甚至赶超人类水平的机器人工智能,就不会把这种约束改掉呢?虽然它是善意的人工智能,人类又凭哪些觉得它会同意比它“愚蠢”的人类的判定?比如它会不会以为把人类全部关进看守所就可以防止人类相互残害,这才是对人类整体最好的?至于说,到时侯人类假如认为危险了,可以把机器的电源断掉……这只是开个玩笑吧,真到哪个时侯,机器似乎早能够采用其他的方法摄取能源了。反正,强人工智能出现的那三天,即便真的就是人类面临最大生存危机的时侯。所以,对严肃的人工智能研究者来说,假如真的相信自己的努力会形成结果,那就不该去触及强人工智能

免责声明:部分文章信息来源于网络以及网友投稿,本站只负责对文章进行整理、排版、编辑,出于传递更多信息之目的,并不意味着赞同其观点或证实其内容的真实性,如本站文章和转稿涉及版权等问题,请作者在及时联系本站,我们会尽快为您处理。

欢乐点

留言咨询

×