无人车的未来发展与人类的关系
摘要:本文针对无人车的发展趋势,类比于机器人的伦理问题,提出了无人车辆使用中的伦理问题。分别针对军用无人车及民用无人车进行了讨论。同时从使用层面,政策层面,社会层面对无人车使用的伦理问题进行了讨论,综合考虑了无人车在使用过程中会遭遇的各种问题,为以后的无人车发展提出了一些新的方向。 关键词:无人车辆;机器人三定律;伦理问题
一、无人车辆概述
地面无人车辆是指能够在各种路面或野外环境行驶及执行某种任务但车内没有操纵者的轮式、履带式车辆[1]。其能够在有人远程操纵或无人操纵的条件下,实现对路况的识别,完成指定路径的行驶以及特定任务的实现,如:拆除炸弹,侦查敌情等。特别是能够完成人类难以到达,或者将面临高度危险的地区。因此,人类对于无人车辆的需求是一种刚性的,必须的需求。
同时,近些年来,无人车的研发已经成为汽车产业最为前沿的一个项目。因为无人车的研发涉及了众多的学科,除了传统汽车所涉及的动力学,材料科学,摩擦学,拓扑学等,还涉及到了控制科学,信息科学,人工智能问题;并牵扯到了大量的机电复合技术,例如传动系统的机电复合技术,悬架系统的主动控制技术,视觉识别与整车控制策略的耦合,等等。除此以外,现如今,由于恐怖主义日渐盛行,战争逐渐向局部化,非对称化发展。因此,军方对于无人车辆的需求也日渐增强。因此,军方与民用方面对于无人车的研制都充满了热情,国内外的企业,研究机构以及大学都在大力发展无人车辆的研制。
二、无人车辆的基本伦理问题
因此,在可以预见的未来,无人车辆的发展将会很快能够实现相当程度的自主行为,例如自主驾驶,自主控制等。但是,这无疑在一定程度上可以说是打开了潘多拉的魔盒。
阿西莫夫于1950年提出了机器人三定律:
第一法则:机器人不得伤害人类,或坐视人类受到伤害; 第二法则:除非违背第一法则,机器人必须服从人类的命令; 第三法则:在不违背第一及第二法则下,机器人必须保护自己。
无人车辆,顾名思义,就是无人实时参与到直接控制的车辆,实际上也属于机器人的一种。自然应当遵循以上定律。例如,应用于军事目的的无人车,由于不可能仅仅包括车辆本体,也一定包括了作战部件,例如附属的供给枪械或车载导弹系统,则必须完全保证车辆不采取伤害己方或无辜平民的行动。再比如应用于民用目的的无人车,在进行自主驾驶时,必须完全保证自主驾驶的安全性。但是,事实上,我们都知道,任何系统都有其瑕疵,甚至用一种很不负责任的态度来说,类似于无人车辆这样庞杂的系统,其进步都是由一次次事故所带来的。
例如,对于工业机器人,人们之所以对其伦理问题开始关注是缘于一场死亡事故:1979年的1月25日,地点在密歇根(Michigan)的弗林特(Flint)福特制造
厂。有位工人在一次罢工中,试图从仓库取回一些零件而被机器人杀死。[2]这一事件无疑是一场巨大的悲剧,然而,这种悲剧恐怕不可能完全避免其发生,很明显,在无人车应用于社会之上时,固然人们会经过深思熟虑,但是面对无人车巨大的优势,难免会对一些细节问题抱有侥幸心理,那么对于学界,政界,媒体界,该如何面对这些问题就成了一个巨大的考验。
三、军用无人车辆伦理问题
我们都知道,军用无人车是最先开始使用无人车的领域。同时,军用无人车将要面临所有无人车中最恶劣的使用条件:越野路况,野外环境下强烈的日照与扬尘,武器的伤害。这都极大的提高了军用无人车失控的可能性。在失控状态下,军用无人车若搭载了车载武器,此时极有可能伤害己方人员或无故平民。此时的应对策略应当是什么?就地销毁?则失控的原因恐怕永远无法得知。撤离人员,等待车载武器弹药用尽?那么将会造成更大的伤亡。此时的前线最高指挥官面临一个两难的选择,无论选择哪一个,在面对上级的时候实际上都是一种渎职的行为。现在,几乎没有搭载武器的无人车辆实际投入到战场当中去,但如果有一天,为了降低前线士兵伤亡率,我们该如何劝说前线官兵使用这一新型武器?一旦在第一次实战中出现无谓的伤亡,研制该型无人武器的科学家是否应当承担相应责任?同意使用的高级将领又是否会为此背书?倘或出现死亡,参与研制的科学家是应当引咎辞职,还是继续研究将其圆满?
当然,以上问题在实际使用中恐怕都会是伪问题,倘或真的发生战争,在战争中就算出现了误杀平民的事件,也会被降低了己方伤亡的巨大功绩所淹没。只有当战争过去,一切都烟消云散之后,很多年后又被记者挖出来当做夺人眼球的标题罢了,而此时,无人车的技术恐怕早已进步到不会出现这样的问题了。
甚至,退一万步讲,我们可以永远不使用无人车作为武器载具,仅用于运兵和执行拆除炸弹这样的任务,但是民用车领域的无人化则是一个不可避免的问题。
四、民用无人车伦理问题
人类对于世界的认知是永远受限于自己的基因的,而机器对于世界的认识将随着科技的进步不断的进步而没有尽头,可以预见的是,在未来,无人车辆不仅在自主驾驶方面会解放人类的双手,同时在交通安全领域,也会有极大的建树。
面临巨大的需求,我们是不可能阻挡民用车无人化这一浪潮的。但是,没有什么是完美的,民用车辆的无人化虽然能够解决一部分车辆安全的问题,但实际上是给车辆安全领域提出了一个更大的课题:在传统意义上的主动安全基础上,如何对主动驾驶进行规范以降低交通事故的发生?
这不只是一个技术的问题,同时我们还应当认识到这个问题在行政层面,法律层面应当如何去解决。在技术上能够解决无人车辆对于路况以及交通信号的识别后,交警的设立是否还有必要?当无人车辆在自主驾驶过程中出现了违规现象,应当由谁来进行拦截与处罚?是否应当建立一个全面的信息网络用于控制所有在路上行驶的自主驾驶车辆?一旦出现问题,应当处罚谁?车辆的拥有者还是管理系统的人员亦或是汽车生产商?赔偿问题又应当由哪一方承担?这些问题都
2
必须有详细而明确的行政条例以及法律进行规定,但这些问题恐怕又要面临漫长的拉锯战。同时,在拥有了理论上安全性能更好的无人车辆之后,是否应当规定禁止有人车辆上路?这是否侵犯了个人选择交通工具的权利?在大众的安全与个人的权利之间。又应当如何平衡?
以上的这些问题都必须在无人车投入使用之前提出一个明确的答案,否则无人车的使用就是无稽之谈,或者遗祸万年。
同时人类对于无人车是否会出现抵触情绪,正如之前工人对于工厂机械的抵触情绪?无疑,无人车是一种能够极大提高生产力与生产效率的工具,但是,当无人车具有了自主移动的功能时,虽然不同于完全自主行为的机器人,其还是具有了类人性。人们是否会在情感上接受无人车?特别是对于驾驶有特别爱好的人群。除了上文提到的,在更高安全性的无人车出现后政策是否会允许有人车上路的问题,这类人群是否会因为汽车从被动的工具上升到“合作”关系级别后而抵制无人车?是否会因为这一问题产生类似今日全球化问题下的政治分野进而对一个或某几个国家的政治分野造成严重影响?在面对这些问题时,政治家们准备好了么?
另一个不可忽视的人群就是士兵和公共交通车辆的驾驶员,包括公共汽车与出租车司机。很明显,随着无人车辆的发展,这两类人群都会面临大量的失业。为了减少战斗伤亡与交通事故率与降低人工成本,无人车必然会在这些工作上取代人类。如果不能很好的安置这两类人的话,无人车带来的失业必然会造成犯罪率上升以及相应的社会动荡。
综上,将无人车投入使用不仅需要研究者对于相应的伦理问题进行深入的考虑,也需要政治家们对于其社会影响进行综合的考量。
五、无人车辆问题中的哲学家与工程师
无人车在应用上越来越广泛,它所带来的影响也越来越普遍。从根本上而言人工智能技术存在和发展的目的在于服务人类的生产生活。这就需要人工智能体在活动过程中充分考虑人类的意愿,因此,人工智能体技术的开发就不仅仅局限于工程师的思维模式,它更需要哲学家的智慧。而工程师和哲学家相结合的模式对于智能体未来的开发更为有利,而无人车亦属于这样一种人工智能体。 (一)哲学家与工程师在智能体道德建构方面的不同作用
机器人在道德建构方面基于不同的认识往往也会在设计方向上存在差别。工程师通常强调人工智能体在行动上的自主性,例如,乔治亚理工学院的计算机科学家Rcmald Arkin,他认为基于工程和软件设计的机器人应该在自主化系统中发挥作用,并进一步强调机器人的自动攻击或防御功能。而哲学家对此却有不同的认识,加州理工学院就此成立了一个工作组,他们认为自动系统的建立首先应该解决的是其中隐含的伦理问题。尽管具备道德决策能力的机器人在战场上杀人也涉及到伦理方面的问题,但不管怎样,无论它是作为杀人机器还是用于运送病人,在哲学家和工程师那里都存在不同。哲学家,倾向于从抽象的角度去思考问题,而工程师则偏重于实际任务的完成。然而,哲学家还有另一层任务,也就是运用抽象的原则指导工程设计。
3
那么,哲学家如何能够在机器人道德建构过程中发挥作用?除了让工程师意识到智能体在道德上的重要性之外,道德原则、理论与框架对于计算机系统自主性的发展是否有利?哲学家的思维和认识是否仅仅是提升了技术上的难度,而对于工程进步却没有帮助呢?
(二)哲学家和工程师在智能体道德建构上的合作
过去的半个世纪,哲学家和人工智能工程师的关系是混合的。无论是对人工智能体道德建构的积极倡导,还是对人工智能体乐观前景的荀刻批评,哲学家都不是以一个局外人的角度进行评论的,他们在人工智能体基础理论的建构中都扮演了重要的角色。尤其是智能体在行为选择和自主能力实现过程中所设置的限制条件,都体现了伦理理论在控制系统中的重要作用。然而,把行为置于道德的框架确实提升了技术上的复杂性,尤其是行为上的不确定性更加剧了工程师在设计上的难度。即使对于伦理学家而言,也不可能对所有行为以及各种伦理理论都保持敏感性,因此,人工智能体在道德建构过程中很难实现一个统一的设计思路和理论背景。但工程师可以做到的是遵循一个较为普遍或简单的设计思想,比如忠诚。因此,为了避免哲学上或伦理上不同观点之间的冲突,工程师在智能体道德设计过程中可以采用区别设计的思路,也就是从不同的方法中建构不同的个体。
当然这并非解决所有伦理冲突的方法,但至少对于工程师或哲学家而言,这种区别对“个体视角”设计思路有助于解决现实中遇到的问题。首先,“个体视角”的理解思路有助于工程师充分发挥自我潜能;其次,“个体视角”有助于把机器人或计算系统视为一个思维简弟的个体,从而用特定的伦理原则在特定的背景下予以限制;最后,这种“个体视角”有助于把关注点放在实际问题的解决上。
对于工程师而言,伦理简単化有助于实现实用性功能的发挥。然而,实际上,我们认为所有伦理理论和应用伦理都充满复杂性,并且如果能够认识到这种复杂性,那么对于工程师而言也是有帮助的,因为它有助于揭幵计算机系统更为复杂的未来。伦理复杂性通常来源于两个方面:一方面,伦理理论与纪律在基本概念的讨论过程中出现的差别;另一方面,在真实环境下,不同文化或价值观念对于某一问题在认识上的差别。我们知道,人类道德的发挥是个复杂的活动,并且涉及许多要么无法完全学习要么只能有限掌握并表现的技巧。虽然有些共同的价值超越了文化的差异,但个体在实践中往往由于情感、情绪等的存在而有不同的表现。因此,我们不可能期待人工智能体在道德建构中可以立即解决所有这些问题,我们只能期待机器人的道德性在方向上是正确的。 (三)人工智能体道德建构的标准
我们上面提到,由于文化、价值观或个体思维的不同,人工智能体在道德建构过程中存在复杂性。那么人工智能体,尤其是机器人应该是以什么样的标准设计?它的服务对象又如何确定?对于工程设计而言,工程师可能更擅长于建造特定任务的系统,但是对于系统所表现的道德行为来说却很难有明确的规范。这进一步加剧了人工智能体道德建构的标准问题。
我们还是从“个体视角”去思考这一问题。把道德当作特定价值、行为或生活方式,这样关于道德标准问题的讨论就不会限制在特定或唯一的答案中。人类由于不同的文化、价位观、意识形态或者地域等的差别,而表现出不同的道德判
4
断或道德标准,那么对于机器人而言,也需要不同标准的设置。文化多样性也应该存在于机器人群体中。
综上,随着科学技术的不断发展,机器人性能不断提高并进一;完善,机器人产品的应用浸透于各个行业。机器人在工业、制造业、服务业以及军事行业等的应用趋于正常化和普遍化。但随之而起的是机器人在应用所带来的一些问题,尤其是在道德和伦理方面引起的一些矛盾,例如军事机器人的滥杀行为以及护理型机器人带来的情感过度依赖行为等,都成为人类在智能体开发过程中需要认真对待的难题。针对于此,如何规避或化解矛盾成了哲学家、工程师以及社会其它行业人员的不可避免的问题。
机器人在应用中表现的诸多问题是哲学家和工程设计师首先要面对的。由于文化、意识形态以及地域上的差别,人类很难找到一个伦理上统一的标准来引导智能体技术的发展,反而由于这些差别的存在带来了机器人在应用上的不同表现。
因此,在机器人道德建构的问题上我们釆取的是多文化、多视角的融入方式,在人工智能体道德标准上化解单一,崇尚多元。随着社会的不断进步以及不同地域和文化之间的交流,多元的模式有可能催生价值观念上的大体类似或趋同。最终,对于智能体道德的建构,人类有可能找到更为合适的标准。
然而,在当前社会和技术发展的状况下,如何充分认识机器人伦理面临的问题和困惑,尤其是机器人能否具有意识以及可否做出道德决定?并且我们人类是否允许机器人做出道德决定?机器人道德决定的做出与人类有无差异?它在道德决定做出的过程中所面临的困惑如何解释?还有随着技术层面的不断延伸和人类认识的不断扩展,机器人的意识能力和道德表现是否具有必然性?这些问题对于机器人技术的进一步发展有着重要的启示意义,同时对于机器人伦理问题的解决也具有探索价值。在下一章,我们将就这一系列的问题做进一步解答,在不同标准、不同领域以及不同的研究进路中试图探求机器人伦理相关问题的答案。
六、结语
现今世界上,发展无人车是大势所趋,人们不应当阻挡历史潮流的前进,但是,在技术进步的同时,人们是否在哲学意义上做好准备了呢?这都是未来的学者们应当慎重考虑的课题,是因噎废食还是大刀阔斧?人类对于机器的发展不应当仅停留于技术,而应当在伦理方面共同进步。
参考文献:
[1] 吴绍斌, 陈慧岩.军用地面无人车辆的发展,[J] ,2002,4:49-55
[2] 王东浩.机器人伦理问题研究,[D]天津:南开大学,2014:18-19
5