您现在的位置是: 首页 > 专栏 >

无人驾驶汽车的道德模型

  • 2021-05-04 18:33:49

最近无人驾驶汽车的道德模型这个话题,相信很多小伙伴都是非常有兴趣了解的吧,一段好的故事可以给读者带来很多值得深思的新东西,甚至还可以在一定程度上让读者的视野在瞬间扩大,那么既然现在大家都想要知道此类的信息,今日小编将给带来关于无人驾驶汽车的道德模型的资讯!

程序员当前解决与人工智能(AI)和自动驾驶汽车(AV)有关的道德问题的方式中存在一个很大的缺陷。也就是说,现有方法无法说明人们可能会尝试使用AV来做一些不好的事情。

例如,假设有一辆无人驾驶的自动驾驶汽车,它马上撞上一辆载有五个人的汽车。它可以通过转出道路来幸免碰撞,但随后会撞到行人。 无人驾驶汽车的道德模型

在这种情况下,关于道德的大多数讨论都集中在自动驾驶汽车的AI是自私的(保护车辆及其货物)还是功利的(选择损害最少的人的行动)。但是,这种或/或道德方法会引发自身的问题。

北卡罗莱纳州立大学科学,技术与社会(STS)计划的助理教授VeljkoDubljević说:“目前的道德和自动驾驶方法过于惊险,过于简单,道德推断比这更为复杂。”概述了这个问题以及可能的前进方向。“例如,如果车上的五个人是恐惧分子呢?又如果他们有意利用AI的程序杀死附近的行人或损害他人呢?那么您可能希翼自动驾驶汽车撞上五个人?乘客。

“换句话说,当前用于解决AI和自动驾驶汽车道德问题的简单方法不能说明恶意意图。它应该这样做。” 无人驾驶汽车的道德模型

作为替代方案,Dubljević建议使用所谓的Agent-Deed-Consequence(ADC)模型作为AI可以用来做出道德推断的框架。ADC模型基于三个变量来推断决策的道德性。

首先,代理人的意图是好是坏?第二,行为或行动本身是好是坏?最后,结果或后果是好是坏?这种方法同意 细微差别。

例如,大多数人会同意开红灯是不好的。但是,如果您闯红灯以避开急速的救护车怎么办?如果开红灯意味着您幸免与那辆救护车相撞怎么办?

Dubljević说:“ ADC模型将使我们更接近人类道德推断中看到的灵便性和稳定性,但AI中尚不存在这种灵便性和稳定性。”“这就是我所说的稳定和灵便。人类的道德推断是稳定的,因为大多数人会同意撒谎在道德上是有害的。但是,这是灵便的,因为大多数人也会同意为保护犹太人而撒谎来纳粹的人在做道德上的事情。好。 无人驾驶汽车的道德模型

“但是,尽管ADC模型为我们提供了一条前进的道路,但仍需要进行更多的研究,”Dubljević说。“我领导了有关哲学家和外行人如何进行道德推断的实验性工作,其结果是有价值的。但是,该工作以书面形式给了人们信息。需要更多的人类道德推断研究,而这需要更直接的交流手段,例如虚拟现实,如果我们想确认我们先前的发现并在自动驾驶汽车中应用它们,那么,在任何公认的“道德”自动驾驶汽车开始与人定期分享道路之前,应进行驾驶模拟研究的严格测试。不幸的是,攻击已变得越来越普遍,我们需要确保不会将AV技术滥用于邪恶目的。”

论文“致力于在自动驾驶汽车中实现道德推断的ADC模型”已发表在《科学与工程伦理学》杂志上。

版权声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢您的支持与理解。
Top