快捷搜索:

您的位置:环球彩票登陆 > 科技知识 > 当无人驾车遇到道德困境 该由哪个人承担啊?环

当无人驾车遇到道德困境 该由哪个人承担啊?环

发布时间:2019-09-18 20:48编辑:科技知识浏览(149)

    德国奥斯纳布吕克大学认知科学研究所的研究人员,利用沉浸式虚拟现实技术,对人类驾车时作出的道德决策和行为做了一场实验,并将研究结果发布在了《行为神经科学前沿》杂志上。

    环球彩票登录网址 1环球彩票登录网址 2

    时速1000公里?“超级高铁”研发要遵循市场机制

    “首先,我们需要决定是否将道德价值观植入机器的行为准则中来。其次,如果植入的话,机器是否应该像人类一样行事?”研究人员彼得:柯尼希解释说。

    试想这样一个场景:当你驾驶一辆汽车在被浓雾笼罩的郊区道路上行驶时,突然发现前方道路上有一群人在横穿马路,此时旁边车道上也有一个人在穿越马路。假设当时已经来不及刹车,只能选择撞向一群人还是一个人,此时你会如何抉择?关于这个问题,记者询问了身边的朋友,几乎100%选择了撞向横穿马路的一个人,仅有一人选择撞向未知的无人区域。人类驾驶者如此选择,在无人驾驶时代,汽车又将作出怎样的抉择呢?根据当前无人驾驶汽车的发展水平,这个问题或许有些荒谬,但确实有机构已经开始展开研究。

    人工智能如何进行道德决策——以自动驾驶汽车为例

    无人驾驶汽车或可像人类作出道德决策

    ■两难抉择

    两种研究进路都面临种种困难,这主要源于人类所使用的道德哲学的内在结构,而不来自技术本身。当我们考虑把某种道德规范或价值标准植入智能机器时,共同体的道德一致性和智能机器使用者的个人偏好,究竟应该优先考虑哪一个?2016年,《科学》杂志刊发的一项研究揭示,大多数人都支持智能机器保护更多的人。但是,当涉及自身或家人的生命安危时,人们可能转向相反的道德标准。

    研究人员将实验情景设定在有雾的一天,实验参与者模拟驾驶一辆汽车行驶在典型的郊区道路上,此时他们会遇到突然间出现的无生命物体、动物或者人类,他们必须要在这几种对象之中选择撞上哪个、躲避哪个。参与者的行为数据被统计模型获取,并推导出一系列规则。这项研究表明,在不可避免的交通碰撞事故发生时,对于人类、动物或无生命物体的生命价值,人类是有伦理判断的,而这些判断能够通过算法建立模型。

    记者查阅资料发现,这并不是舆论首次针对无人驾驶汽车道德判断问题提出疑问。早在2015年就有人指出,无人驾驶车辆存在道德困境,只不过当时的两难选择是牺牲车上的乘客还是牺牲路人。根据当时法国图卢兹经济学院的吉恩-弗朗索斯·博纳丰(Jean-Francois Bonnefon)教授与同事展开的相关研究结果显示,通常情况下人们认为,从设计上自动驾驶汽车应该使死亡人数最小化。

    推荐阅读

    该论文的第一作者莱昂:苏特菲尔德说,到目前为止,人们普遍认为,人类的道德决策往往是根据事发时情境来确定的,因此它不能用算法进行模拟或描述。“但我们的发现恰恰相反,在进退两难的情境下,实验参与者会依据对人类、动物或无生命物体生命价值的判断来进行反应,根据人类这种生命价值观,我们可以建立人类行为的模型,然后通过算法植入机器中。

    “究竟无人驾驶汽车是否该采用道德判断?如果采用,它是否要模仿人类的判断方式来进行道德判断?如果它们由始至终都遵照道德伦理行事,但事情的结局还是不如预期,该由谁负责呢?”前述道德模块的研究人员戈登·皮帕(Gordon Pipa)教授指出,社会应尽快对无人驾驶的道德判断问题进行讨论。

    《光明日报》( 2017年09月11日 08版)

    研究人员高登:皮帕说,既然现在已经知道机器能作出类似人类的道德决策,那么赶紧对这些伦理问题进行讨论是非常必要的。“我们需要讨论,自动驾驶系统是否应该接受这种价值判断,如果应该,它是否应该模仿人类的决策,又是否应该遵循人类的道德理论呢?如果答案是肯定的,那么万一它的判断出现错误,谁又应该负责任呢?”

    有外媒报道称,日前,德国奥斯纳布吕克大学(Osnabruck)认知科学院的研究人员发明了一组应用于无人驾驶汽车的数学模型。通过电脑控制,利用VR技术,再现各种声音、图像,将生物按照其价值进行排序,在事故发生之际,无人驾驶汽车自动做出取舍,最大限度地保证人员的生命安全。

    2017-09-11 08:16:21光明日报孙保学

    研究人员表示,现在,无人驾驶汽车只是个开始,医疗机器人和其他人工智能设备正变得越来越普遍。他们警告说,人类现在处于一个新时代的开始,在这个时候,我们要制定明确的规则,否则机器将摆脱人类的束缚,自己作出决定。

    同济大学汽车安全技术研究所所长朱西产告诉记者:“无人驾驶汽车的道德抉择问题是人工智能的一个分支,是无人驾驶汽车达到L5级时必须要考虑的问题。”朱西产认为,就目前无人驾驶汽车技术而言,无人驾驶汽车是根据车辆传感器、地图等软硬件提供的确定信息作出决策,这个决策是确定性的。如果发生事故,就是决策出问题,也可以据此判断出,到底是哪方面出现问题,然后由相应的问题方来承担相应责任。

    目前,对于人工智能道德决策的研究有“自上而下”和“自下而上”两种研究进路。自上而下的研究是将伦理原则或某种道德理论进行编码,植入智能机器的制导系统当中,自动驾驶汽车基于被嵌入的道德哲学程序做出道德选择。不过,正如批评者们所指出的:一方面,适用于某些人的道德标准可能并不适用于其他人;另一方面,如何在互相竞争的道德系统之间进行选择存在困难,这些争论在传统的伦理学讨论中尚且没有定论。

    《中国科学报》 (2017-08-04 第3版 科普)

    ■“电车难题”

    当智能机器可以像人类一样自主决策,我们就需要考虑以下问题:它们能够作出哪些类型的决策?它们是基于什么作出这些决策的?谁来设定它们的决策参数?如何实现人工智能作出符合社会伦理道德的决策?

    目前,人们对于无人驾驶汽车和其他人工智能机器的行为仍有争论,这项研究结果则会对这些争论产生重要影响,尤其在发生不可避免的意外情况下。比如,德国联邦交通运输和数字基础设施最近发布了20条与无人驾驶汽车相关的伦理原则。其中一条是,如果一个孩子突然冲到马路上,为了躲避孩子,汽车就必须撞到人行道,但此时人行道上恰好有一个成年人。那么,无人驾驶汽车会选择撞上孩子,因为他导致了这次重大风险,所以失去了得救的资格。但是否所有人都会做出这样的选择?

    根据同理心论点,这套道德学模型的开发者正是控制拉杆的人,根据该模型的结论,在无人驾驶汽车面临此类交通事故时,车辆必然是驶向一个人所在的道路。但即便如此,这套模型是否符合道德伦理依然有待商榷,出现这种情况时,开发者是否应承担法律责任也是一个值得探讨的问题。

    至此,我们应该认识到对人工智能的道德决策实施监管是必要的。这种监管要通过两种途径同时着手:一是外部制约。随着机器学习的不断增强,人工智能的道德决策可能会偏离初始设置,因此监管机构要定期审查其道德算法是否还能通过道德水平测试;二是内部监控。从算法上设置一种二阶程序实时地监控人工智能系统的运行,即用人工智能监管人工智能。

    根据报道,奥斯纳布吕克大学认知科学院的研究团队通过沉浸式虚拟现实,在模拟的交通场景中研究人类的行为与道德判断。其模拟的场景就是让参与者在郊外驾驶车辆,当碰到没有预期且无可避免的两难处境时,他们必须决定在无生命的物体、动物和人类之间,哪个可以幸免。测试结束后,该研究团队发现,人类在困境中的行为可以透过一个相当简单、仅以生命为基础的模型来建模。这个模型可以套用在每一个人、动物或无生命的物体之上,这意味着人类的道德行为可以被机器的演算法描述。

    安全问题应当被最优先考虑,但它不是问题的全部。要拓宽道德算法的范围,涵盖其他一些次要的因素。我们可以将自动驾驶过程将会面临的各种决策情形划分为不同的等级,用一个金字塔来表示:“电车难题”情形下的决策处于最顶端,数量相对少见;道路使用者是否遵守交通规则的抉择处于中部,占据主体部分;各种并不违反交通规则但可能影响其他道路使用者的决策情况占据金字塔的最低端。对于这些道德决策情形的研究,可以接受思想实验方法的启发性指导,但更多地应该通过实证研究进行。

    面对道德困境时,无人驾驶汽车该如何抉择?记者调查过程中,一位被调查者提出了这样的疑问:“为何刹不住车?”这个疑问将无人驾驶汽车的道德困境打回到技术研发的原点:既然技术无法达到,理论上也存在很多争议,为何还要提升无人驾驶的等级?

    自下而上的进路主张,是指智能机器不需要被嵌入任何道德规则或道德哲学,它只需要“观察”并分析大量的实际情境中人类的行为数据,就能学会如何做道德决策。这种依托大数据和机器学习的进路已经在自动驾驶汽车的非伦理方面被广泛采用。例如,自动驾驶汽车能够通过对几十个小时的手动驾驶数据进行分析实现自动驾驶。不过,批评者也指出,智能机器在学会道德行为的同时也会学会一些不道德行为。在面临突发情况时,司机因紧张做出的条件反射式动作可能成为机器学习的对抗样本,而不是审慎的和值得提倡的道德决策。这样,智能汽车学会的只是常见的处理方式,而不是什么是道德的。

    针对这个问题,戴一凡认为,虽然无人驾驶终将面临道德程序的问题,但目前看还不急迫,当下首要需解决的还是无人驾驶的技术问题。另外,荣辉指出,关于无人驾驶的相关法律法规应该尽快完善,只有法律法规跟上技术发展的步伐,才有可能最大程度地规避这类道德伦理之争。

    作者:孙保学(湖南师范大学人工智能道德决策研究所)

    如果可以避开一群人,我们就可以选择伤害一个人吗?斯坦福大学教授克里斯·格德斯(Chris Gerdes)呼吁,研究人员、汽车工程师和汽车制造商要为他们研发的技术面临的伦理道德抉择做好准备。他指出,不应该简单地做一个道德模块,然后把它插入无人驾驶汽车中。其他专家也认为,在无人驾驶技术研发中会面临严峻的伦理道德考验。清华大学苏州汽车研究院智能汽车技术研究所所长戴一凡认为,无人驾驶汽车道德争议的最终原因,在于人类对道德伦理缺乏共识。

    关于自动驾驶汽车道德决策的讨论集中在与“电车困境”类似的极端场景。这一困境背后隐藏着亟待解答的问题是,究竟该由谁(制造者、使用者、集体和其他智能机器)来决定智能机器的道德决策的参数设定?通过类似的案例研究人工智能道德决策具有启发性,也具有一定的误导性。根据美国交通部门2013年的一项统计,每1亿英里只有77次受伤和1.09次意外死亡事故,而且每一起事故的发生情境都具有明显的差异性。上述案例中,杀死或伤害谁的道德困境的确可能发生,但出现的概率很小。这类研究之所以备受关注,很大程度上是因为它关乎人们的生死抉择。但是,自动驾驶汽车不可能做到百分之百正确的决策,当前工作的重点是确保它们被设计成在车祸情形中风险最小。

    按照生命价值进行取舍,这就如同1967年哲学家菲利帕·福特(Philippa Foot)在其论文《堕胎问题和教条双重影响》中提出的“电车难题”:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。然而问题在于,那个疯子在另一个电车轨道上也绑了一个人。考虑以上状况,你是否还会拉动拉杆?

    责编:郑芳芳

    北汽集团新技术研究院副院长荣辉指出,发展无人驾驶汽车技术,首先要改变的观念就是“自动驾驶或无人驾驶不会发生伤亡事故”,自动驾驶和无人驾驶技术的到来会显著减少事故的发生率,但无法完全避免事故的发生。同时荣辉认为,无人驾驶汽车道德伦理争议问题本身就属于“诡辩论”,作为无人驾驶汽车技术研发人员,更应该探讨的问题首先是怎么快速发现人,然后紧急把车刹住。

    人工智能机器与自动化机器设备相比,有两个显著不同:第一,它们被赋予了更多的决策权,不再是有限决策或完全被预先设定路线或程式的功能机器;第二,它们被要求在更加复杂、充满不确定性的环境中运行,不仅要和其他各种类型的机器互动,更要和人类或动物产生互动。这是一种从量变到质变的飞跃。在医疗、交通、新闻、军事等领域,人工智能已经被广泛应用,由此所产生的伦理问题也会逐渐增多。当下,涉及道德决策问题的讨论,最典型的当属自动驾驶汽车。它们被要求具备作出“正确”道德决策的能力,而且是在没有人为干预和指导的情况下。

    ■道德困境

    本文由环球彩票登陆发布于科技知识,转载请注明出处:当无人驾车遇到道德困境 该由哪个人承担啊?环

    关键词: 由谁 人类 道德 或可