在《未来战士》《二十二世纪杀人网络》等电影里,有机器人满世界追打人类的镜头。相信当时看过这些电影情节的人,内心的感受是复杂的。不过,缘于那些情节与现实生活还存在着相当大的差距,因而人们所持的基本上都是不置可否的态度。然而,随着人工智能技术的不断突破,机器人已由当初极其有限的“领悟力”转变为能够识别人类面部表情并与人进行情感交流的一个“活体”。本来,机器人面世后,就因为它们通常都是某一方面的行为专家,具有人类个体所不能企及的特长而让人类刮目相看。现在,机器人具有了“情感”,具备了思索能力,那么,在将来的某一天,它们就会像人类一样,自我设计,自我制造,以致驱逐和杀戮人类,最终终结人类。
那么,会不会出现人工智能反噬人类的情形呢?这是现代人杞人忧天呢,还是有些人的故意危言耸听呢?可以说,一切都未定论。在当今科技领域,包括一些顶尖人工智能专家都认为,人工智能会反噬人类,人类发展人工智能,将会让人类踏上不归路。享誉世界的英国天体物理学家、英国剑桥大学著名教授史蒂芬·威廉·霍金就是持这种观点的人员之一。他发出警告道:“完美人工智能的开发,便意味着人类的终结!”
2015年10月初,在Reddit网站举行的“问我任何问题”(Ask Me Anything)活动环节中,霍金教授在回复提问时,再次重申了他一直坚持的关于人工智能的观点:“人工智能技术,未来必将对人类构成威胁。”不过,他同时强调,这其中最大的危险不是机器人会有计划地摧毁人类,而是它们完全抛弃了人类,具有了自主决策的能力。他认为,机器人不可能会产生与人类敌对的意识,但它们在追求自身设定的目标时,会对人类的利益造成伤害。他说:“真正的风险不在于敌意,而在于能力。超级人工智能机器人将极善于达成自己所设定的目标,而如果它所设定的目标与我们的目标并不相互吻合,那么我们就有麻烦了。举个例子,你有时候踩死一些蚂蚁,但这并非出于你对蚂蚁的主观恶意,但如果你恰好准备在某个地区修建一个水电站,而那片地区正好有一个蚁穴,那么对于蚂蚁来说,这可真是个坏消息。”也就是说,机器人带给人类的伤害,很大程度上属于无意伤害。这也就意味着人类由地球上万物之灵长的位置上跌落下来,沦落为由自己一手制造出来的机器人占主导地位之下的二等公民。因而,霍金揭示道:“不要把我们人类自己放到那些蚂蚁的位置上去。”
霍金认为,人工智能机器人因具有了情感,最终会进化出对生存的渴望。他为此说道:“未来一台高度先进的人工智能设备将逐渐发展出求生的本能,并将努力获取实现其自身所设定目标所需要的资源。因为生存下来并获取更多资源将能够增加其实现其他目标的机会。对于人类而言这将导致生存问题的发生,因为我们的资源将会被掠夺。”他指出,随着人工智能技术的发展,智能机器人具备了人类一样的生存能力,它们就会不再依赖人类,而是会自主进行自我完善和自我升级。这时,机器人世界就会出现“技术大爆炸”。最终,机器人的技术能力就会远远超越人类,终至把人类越甩越远,就如同现阶段人类的技术能力远远超越蜗牛一样。
不过,霍金同时也表示,就目前人工智能技术发展现状来说,与研制出和人脑功能相当或远超人脑功能的机器的要求还存在着相当遥远的差距。他说:“当这件事最终发生时,那或许将成为人类历史上发生过的最好或是最坏的事,因此把这个问题弄清楚将具有极大的价值。我们或许将花上几十年的时间才能找出问题的答案,那么就让我们从今天开始启动这项研究,而不是拖到超级机器人即将被启动的前一天晚上。”(www.daowen.com)
霍金参与Reddit网站举行的“问我任何问题”活动,一共获得超过9000条的提问和评论,成为该网站举行的这类活动中关注度较高的一次。缘于工作和身体的原因,他在四个月之后才有时间回复网民的提问。在回复的问题中,大部分问题都涉及人工智能领域,而在回复中他频繁地表示了自己的担忧。在此次活动前,他曾与几位顶尖科学家和美国企业家埃隆·马斯克签署了一份公开信,同样表达了对未来人工智能对人类构成威胁的担忧。他称,在下个世纪,人类的能力将会被机器人超越。因而,科学家务必要确保人工智能的未来目标是与人类的发展目标相一致的。
可以想象,机器人掌握了人类的心理和应对模式之后,就可以轻易控制和塑造人类情感。届时,在机器人高人一等的优越感面前,具有强烈自尊的人类会不会感到无地自容而整体消亡呢?好在一切都还为时过早,也就有了与霍金相反的观点。这些观点认为,人工智能只是人的身体、智力的一种工具性延伸,它所不断增强的也只是这种工具性的能力,而不是像人类那样具有无中生有的发明创造能力。现今出现的机器人战胜人类的各种能力,棋艺也好,自动驾驶技能也好,都是在人类现有能力基础上,对人类知识、信息处理方式所总结出的一种优化处理方式。即使是所谓的情感机器人,也只是对人类的表情和语言特征进行程序化应对,并不表明机器人拥有了同人类一样的情感。因而,人工智能就好比战士手中的武器,它具有人类肉身所不能取得的功效,但武器本身并不具备夺取生命的主动权,而是完全听命于掌控它的使用者。
从技术和现实两个层面来看,人工智能所放大的只是人类现有的能力。受到特质条件的限制,它不可能具备大规模自我批量升级和进化的能力。因此,我们也就不用担心它们会自己建厂,自我加工,自我提升脑力,自我升级。从人类开发的动机的目的性上来说,人工智能也不具备不可控性。
综合各方观点,无论是霍金的反噬论,还是相反的人工智能可控论,人工智能最终是天使还是魔鬼,完全取决于开发和应用技术的人。只要人类自身能约束好自己,未来的人工智能就一定会沿着服务于人类的方向前行。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。