86377811 2017-04-06
更多深度文章,请关注:https://yq.aliyun.com/cloud
自动驾驶汽车中的法律与伦理
与机器人共享道路
作者介绍:karla Lant
一位有经验的自由撰稿人和编辑,兼职教授。具有先进的教育和写作经验。作为一名作家,其研究领域包括:技术、科学、技术写作、教育、商业、法律等。
个人主页:https://karlalant.contently.com/
领英:http://www.linkedin.com/in/karlalant/
自动驾驶汽车很可能会比人操作汽车更加安全,但也不是完美的。在很长的一段时间里,自动驾驶汽车仍然需要与人自己驾驶汽车共享道路,这意味着大量关于自动驾驶汽车的法律和伦理应该被发展。
目前的法律状态
在汽车的驾驶员和安全领域中,以人类的伦理标准编撰自动驾驶汽车的法律,这意味着以灵活的方式诠释许多法律法规,以至于我们能够在每种情形下实现一个公正的结果。
正常人的标准
在类似的情况下,如果没有像一个合理谨慎的人那样做,那么我们是疏忽大意的。在决定一些人的行为是否像正常人,法律考虑了很多的因素,包括个人经历、学识以及其感知能力等。
法律假设我们所有人都能看见、听见并知道正常人会在相同情形下的行为,并假设都知道一些常识。
合理的机器人
合理的机器人应该需要满足或者超过对正常人的期望,这即是简单又是复杂的,因为它包含了技术和伦理成分。
合理的技术
自动驾驶汽车将有尽可能多的感知信息,以帮助其作出每个决定。在加利福利亚,自动驾驶汽车牌照必须提供它们30s的传感器数据,这意味着工程师有数据去精确地重建任何碰撞、分析其逻辑处理以及感知的预备方案。最后,自动驾驶汽车的碰撞将会很少发生,但一旦发生碰撞,律师和监管部门将能够对这些汽车执行难以置信的高安全标准,以至于人类永远不会与其发生碰撞。
合理的伦理
当考虑到伦理问题时,合理的机器人就陷入问题中,我们认为正常人都知道基本的常识,但这对于机器人来说是困难的。另外驾驶与风险同在,决定如何在自动驾驶汽车、骑自行车的人、行人之间分配风险,如何遵从法律、分散风险并最小化伤害,这些都是需要面临的难题。
自动驾驶系统使用判断违反法律
存在许多的情形会让驾驶员的常识不顾法律的规定,比如一个小孩突然跑进你车前的视野中,你将会在双黄线上转弯以避免撞到小孩。对于自动驾驶系统而言,这主要归功于在安全的前提下,决定破坏双黄线法律。自动驾驶系统不依赖于人的常识,但存在置信度。
伦理和最小化法律责任
谷歌在2014年知识产权中取得了针对自动驾驶系统的风险最小化策略的专利权。谷歌想象自动驾驶汽车行驶在三线宽的公路上,左侧有一辆小车,右侧有辆大卡车。自动驾驶系统将会使其更靠近小车以最优化汽车的安全。但这个涉及到伦理问题,自动驾驶系统不公平地将更多的危险分配到小车上。
生命独一无二的价值
现存的法律系统估计生命是与自动驾驶系统有区别的,比如在非正常死亡负责起诉陪审团能基于逝者的教育水平、工作性质以及其它因素来决定一个人的生命在未来有的价值。而在风险分配和自动驾驶系统中,这种区别潜在会带来不好的结果。
双输的情景
双输情景会在碰撞是无法避免的时候发生,在这种情景中,自动驾驶系统应该基于一些目标最小化产生的结果,决定什么目标就会选择不同的方式。最小化人的伤害是一个重要目标,但是选择如何分配或者直接伤害人并按照人的优先顺序排列保护是困难的。
经济上的损失
假设自动驾驶系统能够精确地区分动物与非动物目标,非动物目标应该如何排序?如果自动驾驶系统必须选择伤害其中一个,应该首先伤害最小价值的汽车?应该对自动驾驶系统的伦理进行编程以避免受到一些人为因素去碰撞其它汽车?
关于针对自动驾驶系统的机器人伦理
没有单一的伦理指导原则指导自动驾驶系统编程。而不是寻找正确的基本指令,我们应该学会通过将编程伦理看做成一个工程问题来区分各种问题的解决办法。
伦理作为工程上的挑战
将伦理作为一个工程问题意味着服从一些严格的限制,当需要优化几个方面。选项在道德上不可接受或根据约束几乎不可能排除。识别利益相关者和共同利益可以阐明剩余的选项。
理想情况下,基于控制的结果决定是高风险或低风险决定是否硬编码或将选择留给消费者。高风险的硬编码决定最大化安全并维护制造商之间的竞争,并通过允许消费者选择低风险的决定来尊重消费者并提供更多的选择。
在设计中嵌入伦理
专业伦理学家应该参与到设计和工程过程中,这种方式在设计决策时有具体作用,可以在做出道德决策之前识别选择。伦理作为设计过程的一部分,所有可能的权衡可以被视为伦理的积极方法中的一部分。
https://futurism.com/images/laws-and-ethics-for-autonomous-cars/
本文由北邮@爱可可-爱生活老师推荐,阿里云云栖社区组织翻译。
文章为简译,更为详细的内容,请查看原文