Elon Musk不久前曾公开表示人工智能就如同“召唤恶魔”,用科幻电影来说明人工智能的危害。但在本文作者看来却是非常不负责任的误导大众,而且还在传递一种没来由的恐惧,这将对目前人工智能领域的具体工作产生严重伤害。作者对Musk的言论进行了强有力反驳,并对人工智能的风险评估和发展提供了非常完善的论证。
Elon Musk缩短了未来和当下的距离。他的SpaceX成功的完成了太空探索任务,特斯拉也在电动车行业发挥了关键作用。因此,当Musk谈论未来时,人们总会侧耳倾听。这就是他最近对人工智能的言论引起如此多关注的原因。
在巧舌如簧的对人工智能研究的走向大泼脏水方面,Musk的行为不断升级加码。就在最近,他将当下的人工智能研究描述成“召唤恶魔”,并且恶搞的将影片《2001太空漫游》中的超级电脑HAL9000戏称为小狗,拿它和未来的机器人做比较。前段时间,他解释之所以参与人工智能公司DeepMind,是因为他渴望时刻关注可能出现的“终结者”情形的进展。这样的谈论总体来说弊大于利,特别是对于那些Musk的铁杆粉丝来说。
从根本上讲,Musk的言论被大肆炒作和宣传,当这样的负面宣传涉及到具体的研究工作时,会产生非常消极和有害的后果。就像去年Gary Marcus在《New Yorker》杂志的一篇专题报道中所说,在过去的几十年中,公众关注热点的反复无常、投机行为蔓延、以及研究先驱们的接连放弃一直困扰着人工智能的研究。这一现象被称作“人工智能寒冬”——研究者在烧掉投资之后却无法兑现他们之前在媒体上公开发表的承诺,这一过程在人工智能的历史上重复出现。
正如1993年Daniel Crevier(加拿大企业家、人工智能和图像处理专家)在一本对人工智能历史研究的书里所描述的那样,或许人工智能研究中最声名狼籍的宣传(也就是宣扬人工智能将战胜人类)发生在20世纪70年代,当时,DARPA(美国国防部先进研究项目局)资助了很多类似项目,但最终效果却都未达到预期。
Facebook 人工智能实验室的负责人Yann LeCun去年在Google+上总结道:“一些不实宣传对于人工智能是非常危险的。在过去的50年里,人工智能就先后因为不实宣传而沉沦了四次。关于人工智能的炒作必须停止。”如果不能如Musk所愿,我们五年内造不出一台功能齐全的自动驾驶汽车,会对这个领域产生何种影响?因此,还是忘记所谓的终结者吧,我们应该重新考量如何谈论人工智能。
Musk对于人工智能的尖刻评论只会误导那些比他更不熟悉人工智能的人。事实上,我们现在最聪明的人工智能产品也仅仅是与一个刚会走路的孩子智力相当,而这还仅限于处理一些需要外部帮助的任务(如信息召回)。大多数机器学家仍然在努力使机器人们能够捡起一个球,跑步时不会摔倒,这看起来离“天网”的最终结局还有十万八千里。
的确,欧盟的Human Brain Project和美国的BRAIN Initiative花费巨资,希望能够找到人类大脑的“数字地图”,但他们任重道远,大多数支撑研究结果的技术还处在研发阶段,比如,能够更好扫描大脑的纳米生物传感器。当然,这不是说这些研究完全没有意义,这项工作当然有意义,而且这些研究并没有向公众宣扬所谓的恐惧。
“当我们听到这些关于人工智能的令人惊悚的事情时,就感觉像是那种源于外星人和科幻小说的恐惧。外星人出现了,带着比我们高三倍的智商。”纽约伦斯勒理工学院人工智能实验室主任Selmer Bringsjord告诉我,“那些政府支持下的人工智能研究员也开始产生这种电影情节里的恐惧情绪。这与自己现在所做的研究无关,而是一种更深层次的、非理性的恐惧。”
以Musk和霍金为代表的这些人最害怕的是人工智能所带来的“存在风险(existential risk)。”存在风险是指那些威胁到整个人类发展、或者是将我们彻底毁灭的风险,该名词于2001年由牛津大学人类未来学院(FHI,Oxford)院长Nick Bostrom首次提出并从此流行开来。Musk是Bostrom最近所著一本书《Superintelligence》的粉丝。
来自牛津大学人类未来学院的科学家Daniel Dewey表示,“存在风险”可能是战争、财富不均蔓延、自然灾害、以及恶意的人工智能。有一个明显的事实Musk没有搞清楚,至少是没表达出来——与其他风险不同,在评估人工智能所带来的风险时需要单独对待,因为目前对该风险的讨论在很大程度上是一种带有推测性的、哲学上的见仁见智,没有统一的路径可循,而这些推断正确与否只有在遥远的未来才能得到验证。即便如此,只有当机器突然具备了出乎我们意料的智能之后,人类未来学院研究者眼中的“智能爆炸”才会出现。
“我认为,我们要足够重视我们目前对人工智能风险状况的未知程度。” Dewey说到,“我们现在对人工智能的评估大多是一种可能性讨论,而不是严谨的计算——例如,我们虽然可以谈论智能爆炸有可能出现,但无法百分之百确认这种可能性,也无法预测这会在何时发生。
像霍金一样(译者注:霍金曾表示工智能或将威胁到人类生存),Musk认为相关的监督管理委员会应该开始监督人工智能的发展,以免我们做出一些“非常愚蠢的事情”,比如说造出一个能干掉我们的机器人。但我们对此表示严重怀疑,一个负责颁布公共政策的人工智能委员会此时能做出些什么?诚然,就像华盛顿大学法学院教授Ryan Calo提议的那样,针对已经具备一定智能的机器人制定一套规则是有好处的,例如我们已经拥有的自动驾驶汽车、无人机杀手和战争机器人等等。但对于那些依然遥不可及的强人工智能,就完全另当别论了。
“危险会很严重,在某些具体的情景下,人工智能可能会做出错误决定。举例来说,一台自动驾驶汽车只会考虑更加现实和直接的风险,就像最近广为人知的伦理困境(译者注:例如桑德尔在《公正》中提到的案例),所以当撞车成为最符合现实主义和最可靠的选择时,机器会毫不犹豫的这样去做。”
“我认为人工智能是一个数学和工程学问题,而非公共政策问题。”Bringsjord坦言,”如果我们建立一个委员会,我们应重点关注人工智能的工程层面。”
根据Bringsjord的观点,在出台公共政策之前,应该先从优秀的工程设计入手来对人工智能潜在的社会弊病进行规范。这不仅仅是因为人工智能刚刚上路,更是因为严谨的设计过程能够缓解计算机程序中出现的弊端。
解决这个问题的方法之一就是恢复对正式软件认证的研究,他说,正式认证可以精确的检测出程序的缺陷和潜在错误,将功能失常的风险降到几乎为零。过去随着资助减少,这方面的研究活动曾一度消失,但DARPA已经开始通过开源和众包的形式来重新开启这项研究(译者注:即DARPA的CSFV,开源正式认证)。
“相比这类监管委员会,我们更愿意为那些有能力进行必要的工程设计的人买单,”Bringsjord对我说,“就像新奥尔良洪水,众所周知,工程师曾事无巨细的向我们解释了如何保护新奥尔良免于洪水侵害——但别人却认为这项计划耗资太过巨大。因此,从本质上来说,轻率的吝啬行为才是真正威胁,而非人工智能。
喜欢本文的亲们,请在页尾点赞哦~
物联传感官方微信公众号:wulian_cg
查看更多信息精彩信息请回复:001
1个中国,1000家物联,10000名员工
在法律允许范围内,不限题材,不限主题
欢迎有意向者投稿
欢迎实名互粉。想加盟或各种合作,直接回复联系方式联系我们,关注微博@物联传感全球营销中心
原文链接:https://smartroomcn.com/18118.html