知和行动的本能,而不是高级的逻辑推理,不解决基本问题就无法实现复杂的思维模拟。因而他们让计算机模仿人的行为,建立人工智能系统。
时至今日,研究者们对"智能"的理解仍未形成共识。但是,正是对"何为智能"这个核心问题的不断思考和解答,推动了人工智能技术在不同层面的发展。
(取材于谭营等人的文章)
材料二:
2018年5月,谷歌Duplex人工智能语音技术(部分)通过了"图灵测试"。这个消息进一步引发了人们对于人工智能的思考:当机器人越来越像人,我们应该怎样做?
在人工智能的开发过程中,设计者会遇到伦理问题的挑战。比如著名的"隧道问题":一辆自动驾驶的汽车在通过黑暗的隧道时前方突然出现一个小孩,面对撞向隧道还是撞向行人这种进退维谷的突发情况,自动驾驶汽车会怎么做?
自动驾驶汽车依靠的是人工智能"大脑",它会从以往案例数据库中选取一个与当前情景较相似的案例,然后根据所选案例来实施本次决策。当遇到完全陌生的情景时,汽车仍然会进行搜索,即在"大脑"中迅速搜索与当前场景相似度大于某个固定值的过往场景,形成与之对应的决断。如果计算机搜索出来的场景相似度小于那个值,自动驾驶汽车将随机选择一种方式处理。
那么,如果自动驾驶汽车伤害了人类,谁来负责呢?有的学者认为不能将人工智能体作为行为主体对待。因为"主体"概念有一系列限定,譬如具有反思能力、主观判断能力以及情感和价值目标设定等。人工智能不是严格意义上的"智能",它所表现出来智能以及对人类社会道德行为规范的掌握和遵循,是基于大数据学习的结果,和人类主观意识有本质的不同。因此,人工智能体不可以作为社会责任的承担者。以上述自动驾驶汽车为例,究竟由人工智能开发者负责,还是由汽车公司负责甚至任何的第三方负责,或者各方在何种情形下如何分担责任,应当在相关人工智能的法律法规框架下通过制订商业合同进行约定。
人工智能在未来还可能产生的一个问题就是"奇点(singularity)"。所谓"奇点"就是指机器智能有朝一日超越人类智能,那时机器将能够进行自我编程而变得更加智能,它们也将持续设计更加先进的机器,直到将人类远远甩开。尽管研究者对"奇点"到来的时间和可能性还有争议,但是不管"奇点"时刻能否真的到来,在技术不断完善的过程中,我们都要小心被人工智能"异化"。在我们训练人工智能的同时,有可能也被人工智能"训练"了。我们的一举一动、生活爱好都将被人工智能塑造,人工智能在无形中暗暗决定了我们的思维方式,当我们还在为自己的自由意志而骄傲的时候,也许已不知不觉地沦为了数据的囚徒。