认识工业或制造业机器人及健康护理机器人的应用与伦理
? 机器人广泛应用在各类型的实验室中。除此之外,伴随着机器人的出现,它已开始在制造业中发挥作用,从此,机器人在该领域普遍出现。
?
在早期,机器人应用于制造业的时候,首先引起人们对伦理问题的关注是通过一个死亡事件。这个事件发生在年的月日,地点在密歇根的弗林特(福特制造厂。有位工人在一次罢工中,试图从仓库取回一些零件而被机器人杀死。另外,在年也发生了一起死亡事件,一个日本维修工人在对机器进行维修的时候而被机器人杀死。继这两个事件之后,制造业部门开始在一些重大和存在潜在危险的环节安装防护措施。即使如此,在年,还是发生了机器致工人死亡的案例。很明显,工厂的雇佣工人和机器人是以合作者的关系出现,这种合作本身就包含了伦理责任,那么就需要确保工人的安全和幸福。然而,当时却没有一个安全的防护能够保证人们远离危险。
设置防护确实在很大程度上缓解了机器人在制造过程中对人类的伤害。然而,人们对机器的大量使用却也引发了很多其它方面的伦理问题,尤其是在人类情感上的一些问题。
?
(1)人类在被机器替代的过程中产生恐惧情感
?
机器人进入工厂,雇佣工人就会减少,从而导致失业,这必然要引起工人的担忧和恐惧。这就需要管理人员去阻止或至少是减少这些恐惧。例如,机器人可以被引入一些新的工厂而不是替代存在于一线工作的工人。对于新的工厂来说工人的数量应该有一定的保证或者在已经存在的工厂适当引入机器人,这样两者都可以参与到工作过程中。尽管利用机器人可以降低工业成本以保持企业的竞争力,但是,这种降低成本的方式应该考虑到劳资双方的共同利益。管理者可以考虑对当前的雇佣工人进行新岗位的培训,这样可以极大地降低他们对失业的恐惧。另外,既然机器人在重复性的动作上具有很大的优势,那么在其缺乏判断和决策的位置上就应该由工人来代替。
?
(2)人类对于作为合作者的机器人从情感上的抵触
?
原则上,在制造业领域,科学家应该尽可能地设计能够完成枯燥和危险任务的机器人,同时,对于一些需要判断和解决问题的任务由人类工作者完成。然而,在自动化工厂发展的过程中,人类工作者与机器人在一起工作可能会产生自卑情绪。更进一步来说,他们可能担心工厂的管理者会进一步用机器人代替他们,因为他们认为机器人(原则上来说)可以完全代替人类的工作。在这样一种信念的引导下,他们可能会不高兴甚至对机器人进行一些破坏性活动。与此相关的一个案例是19世纪英国工人破坏机器的一个事件。‘‘所以管理者应该具有伦理方面的义务以允许工人在一定的任务范围内去工作,并充分发挥机器人所不具有的人类独特的认知能力。
?
(3)人机合作已成为当前的发展趋势
?
在最近几年,人机合作在很多场合的增加己经引起了人们的注意。新感应器的出现更加增进了人机关系,从而将潜在危险降低。这样,当机器人和人类在工作过程中接近的时候,传感器就会发出预警。同时,为了降低任何可能的危险,未来的制造业机器人将具有识别人类手势和行动而运作的能力。这一合作也意味着机器人能够从人类那里学习一些限制性的动作。最终,这一效果的目标是通过吸取机器人和人类各自的优势,为最大可能地实现机器人和人类之间的分享和合作而创造更多的机会。
?
显然,人类和机器人之间的分享和合作可能会优化工作环境,但是也可能会降低人机互动与交流。因此,在工厂开始提高机械化的过程中,这些伦理问题就需要先行处理。
?
健康护理方面的机器人应用是另一个人机交互快速发展的领域。它主要包括护理,手术,理疗和康复等。可以说,这个领域的机器人应用极大地拉近了人与机器之间的距离。对此,我们能够推测,机器人在这一领域的应用可以减弱其对人类的潜在危险。在此我们就机器人在这个领域的快速发展指出一些典型的应用。
?
健康护理方面的工作通常是病人和护理者之间一对一的关系,这种人机交互的工作模式是非常重要的。因此,这也就是很多实验室正在发展“护理助理”机器人的原因。这方面最早的机器人是由公司制造的轮式助理机器人。旨在帮助护士或医院工作人员运送药物、实验样本、设备、食物以及医疗记录等工作。还能够为医院的各个地点导航,从而避免人员间的碰撞。除此之外,它还能够使用电梯以及锁定某个特定的病房。大学和大学己经制成了命名为的“机器人护士”。
?
它能够从一个助理的角度来检查医院的老年病人,从而为医护人员提供信息,或提醒病人用药以及引导相关人员就医等。这种机器人的形状大体是在运动的轮子上安装直立的身躯,并使它具有类似于人类头部一样的物体,上面装有便于交流的摄像头和声音识别与记录装置。在头部或腰部的位置,它们通常也会有数字显示的功能,从而提示某些信息。在欧洲,这一领域己发展的非常普遍,诸如在德国的斯图加特弗劳恩霍夫研究所的机器人。它拥有一个可以在手术中帮助拾取器械的手臂。类似的机器人也出现在日本,韩国等国家。
?
在助理机器人有这样一个设备,它可以提供口头引导,鼓励,使中风和脊髓损伤的人在与机器的交互中走向恢复。同时它还可以帮助患有自闭症的孩子进行治疗。这一类型的机器人不会与对象进行身体上的接触,而是通过声音和示范予以交流。
?
在诸如这些护理型或助理型机器人中,经常存在这样一些伦理方面的问题:
?
病人可能会对机器人产生感情,这样如果撤回机器人就可能会触发病情甚至加重。
?
除了遵守人类的指令之外,机器人自身不能就病人的情绪,诸如生气或失望等做出回应。例如,一个病人可能拒绝机器人喂药,并把药片扔到地板上,甚至试图打击机器人。
?
机器人会而对很多病人而不是唯一,而且它不能优先考虑一些特殊情况,这有可能触发病人的生气和失望情绪。
?
我们再来考虑这样一个状况。机器人完成了一个手术操作,然后病人出现很多并发症并且较之之前病情加重。那么谁来负这个责任?机器人的设计者?制造者?编程人员?或者其它主体?如果对于这一外科手术存在一个众所周知的可能出现的问题,对于外科医生或医院,或者两者都包括在其中,那么这个伦理问题谁来负责?是否建议或者批准使用机器人手术的人?伤害在什么样的情况下可以定义为不道德?或者换句话说,伤害的程度在什么范围内可以被道德所允许?即,可接受的风险是什么?
?
机器人手术中真正的自主权需要有很多安全方面的措施,以确保病人免受其害。更为重要的是,机器人手术较之人类手术应该在精确度标准上要求更高。
?
结语
?
它们必须从一个联合的程序(可能要用到智能化的工具)中掌握手术操作的技能,并且模仿人类手术操作。在此过程中,我们可以把握这样一个伦理问题的脉络:用机器人做手术存在一定的风险,或者独立完成,或者与外科医生合作完成,手术所面临的风险肯定要比独立的人工操作低。另外,从手术费用上来看,机器人手术要比纯粹的人类医生所做的手术费用低。然而,如果这一情况变为现实,那么必然会在手术中增加机器人的应用,我们可能就会在医院看到更多的分子。这样就会涉及到机器人在保险领域所面临的问题了。