了解人类与机器人如何互惠而不是冲突
Kurzweil与伯克利大学哲学教授,Searle支持一种“强大的人工智能”的观点,他们认为一台合乎逻辑的编程好的电脑具有意识。1980年,Searle发表了他的观点,而这个观点日后引起了非难“强大的人工智能”的广泛辩论。为此,他认为由计算机按照编程所执行的操纵并未充分实现对智能的理解。他举了著名的“中文房间’,的实验思想。这个实验的目的是想证明没有天生的感悟力和智力,电脑仍有可能通过图灵测试。
?
Searle谈到如果能够设计出一套程序语言来回应中文问题,那么即使对中文语言不理解,他也能通过图灵测试。他设想他拿着一本指令书(程序)在一个屋子里,这本书告诉他用接收到的一张纸该做什么,而这张纸上只是一些毫无意义的符号(对于他而言)。他看着这本指令书中的符号,并且遵循着这些规则。经过若干步骤后,这些符号会引领他复制纸上其它的符号,并且通过它们走出屋子。
他对于这些毫不知情,因为符号是中文的,并且在室外,它们被阐释为几行用中文作指导的对话。因为他在这个实验中是“正在执行一个项目”,所以他并非真正理解他正在参与的“对话”,Searle谈到正在执行一个项目与真正的理解力并不矛盾。这个争论引起了长时间的辩论和论证,基本都是关于电脑系统是否能够真正具有理解任何事物的能力。Searle相信由他的“中文房间”实验所引起的争论具有普遍意义,但同时他对于很多计算机科学家没有认识到这一问题而感到惊讶。
?
“中文房间”的实验思想使一些哲学家表现出这样一种态度,那就是对于电脑的程序编辑于智能系统的发展是没有帮助的。甚至一些怀疑论者也宣称Searle的成果只能证明我们通过自己的努力来实现智能体道德也是不可能的。
?
那么哲学上的这些异议是否能够阻止在伦理决策上提出的一些计算方案呢?显然是不能的。然而,我们必须面对哲学上提出的两个难题:机器人能否成为真正的道德主体,以及它如何才能认识到这一点?
我们暂时可能得不到一个明确的答案,但是对于它们的讨论是很有价值的。因为怀疑和争论往往能够促进事物的发展,或者人类思想的进步。在这场讨论中,我们进一步思考作为一个真正的道德主体它应该满足什么样的要求?对于这个问题有很多回答,有些人关注于自觉思考,有些人关注自由意愿,有些人则关注于道德责任问题。
?
对于智能体是否可以成为道德主体的讨论有助于人工智能体道德理论体系的建构。如果对于意识的研究可以开启人工智能体设计上的新思路,那么我们就应该给予关注。我们进一步思考,当前的人工智能在没有意识的状况下,又是什么限制了它的发展呢?
?
Searle关于人工智能的观点以及“中文房间”的实验思想,引起了人们对于人工智能的一些争论。但在这场争论中,人们并没有排除人工智能体自主道德设计的可能性,而实际上人工智能体的设计与智能体作为道德主体的建立还是有区别的。Searle关于意识、理解力等概念的认识与如何才能使机器人的行为符合道德规范的实际议题基本上是不相干的。
?
智能机器对于三百多年前的笛卡尔而言可能就是荒谬的。在笛卡尔看来,意识与客观物存在很多不同,他进一步总结出意识和身体是有区别的。机器是物质客体,在空间和时间中延展,并且可以分为更小的物质组成部分。意识,在笛卡尔的观念中,是不可分割的。尽管笛卡尔把人类设想为是机械的身体和非物质意识的完美结合,但是物质化的机械从未有过智力上的特性。与Searle不同,笛卡尔认为机器天生就不具有理性和灵活使用语言的能力。如果笛卡尔是对的,那么人们对于人工智能体具有自主道德的畅想就是没有意义的。
?
笛卡尔声称人类理性和语言表达能力不能复制,意识只是身体某器官的运动而已,他认为这是无懈可击的。;然而这些论断可能都基于十七世纪科学发展的水平。科学发展到今天,这些过去不能动摇的思想可能已没有多大分量。尤其是随着硅晶管技术的发展,人类对于大脑的研究和开发也在不断更新,人类意识能否融入人工智能可能只是时间的问题。
?
人生而自由。这种自由的感觉即使在身体极端受限的情况下也可感知到。比如,一个戴着手铐的人仍然可以自由地眨眼。那么这种感觉的根源是什么?它是否应该有伦理方面的限制呢?对此,可能还没有一个明确的回答。
?
人类自由意愿的观点经常被赋予某科,神秘的色彩,不管它是否仅仅基于人类而言,或者即使它不能够以科学的方式去定义。不过,哲学家DanielDemett却否认这一观点。也认为能够考虑多种选择并从中做出抉择的能力只有人类刁-能拥有,而且只有这类人才值得拥有。然而,因为自由意愿并不能得到很清晰的表述,所以这种神秘的想法只能为反对尝试设计人工智能体自主道德的举动提供一个模糊的争论。反对者认为人类的自由意愿是一个神秘的因素,是不能抗拒的一种直觉,这种直觉不能应用到人工智能体自一仁道德的设计中去。
?
但这是否影响了人工智能体自主道德项目的设计呢?显然不会。“深蓝”并没有因为缺乏某种神秘因素而输掉与国际象棋大师的比赛。当然,这可能会涉及到另一个争论,那就是深蓝成功的关键是依靠它本身设计中所涉及的人类的创造力。即使这其中人类的创造力不是确定的,结果也证明它是一个具有驾驭最高水平国际象棋比赛能力的确定性系统。
?
依据其确定性系统,以及仅仅从其优越的能力方面来看,深蓝有资格成为道德主体,但是这并不能掩盖它的短板,因此,从总体上而言,它还不能成为道德主体。为此,在人工智能体可否成为道德主体的问题上,LueianoFloridi和J.W.sanders提出了三个关键性的特征:相互作用:对事物变化引起的刺激能够回应。自主权:在没有外界刺激的情况下也可适时而动。适应性:能够根据环境的改变而随时调整适应规则。
?
在一定程度上,深蓝是具有相互性和自主性的,但是它缺乏适应性。它需要依靠编程人员来改变规则,这样它才能发挥自身的功能。确实,象棋大师卡斯帕罗夫就认为,编程人员对于深蓝的设计完全是针对他下棋的方式而设立的,并最终击败他,这是很不公平的。因此,人工智能的下一步是要提升系统的学习能力,增强它的适应性,然而,至今这一学习运算方面的能力尚未呈现。
?
当然,深蓝所具有的国际象棋规则并非伦理。作为道德主体的智能体,它所应该具有的人类核心特征是在自私与无私的行为之间可以保持平衡。在两者平衡的张力下,进而建立自由的可能性,也就是在做善事与做恶事上的平等自由。
?
对于一个确定性的系统,如何才能产生伦理?控制论家HeinzvonFoerster认为,机器人并不是伦理规范的被动中转人。在军事领域,士兵对机器人的关心反应了一种新的伦理可能性,例如,为了保全机器人,士兵不得不使用狗来完成任务。这种情况下,人类在设计人工智能体的时候就多了一层想法。例如,当人类与机器人互动的时候,机器人是否能估量出对方的意愿。
?
结语
?
这种想法无论好坏或对错,都有利于机器人与人类之间发生关系。通过这种方式,人类和机器人之间有可能实现互惠。在这种互惠结构中,智能体的任何操作都可能与目标体之间出现冲突,不论任何时候,一旦冲突发生,就有可能危害到人类,那么伦理问题就产生了。系统中有效选择的应用越多,那么潜在的冲突也就越多,相应的伦理问题也随之增加。