不妨想象一下:今年是2023年,自动驾驶汽车终于在我们的城市街道上行驶了。然而,这也是自动驾驶汽车第一次撞击一名行人并致其死亡,媒体对此进行了广泛报道。一个备受瞩目的诉讼案很有可能发生,但是这个事件应该适用什么样的法律呢?
今天,基于英国布莱顿大学John Kingston的相关研究,我们得到了一些答案——他在这个刚刚开始的法律领域做出了一些探索。他分析指出了汽车、计算机和法律领域人士应该认真对待的重要议题。如果他们还没有开始思考这些问题,现在也是时候准备了。
这场争论的核心是,人工智能系统是否可以为其行为承担刑事责任。Kingston说,以色列Ono Academic College的Gabriel Hallevy对这个问题进行了深入探讨。
现行法律可能适用于AI的三个场景
刑事责任通常需要一个行动和一个心理意图(在法律术语中可以表述为一种犯罪行为和犯罪意图)。Kingston说,Hallevy探索了三种可能适用于人工智能系统的场景。
第一种被称为“通过他者犯罪的肇事者”(perpetrator via another),患有精神疾病的人或动物犯下罪行时适用,他们也因此被认为是无辜的。但是,任何指使过精神病人或动物的人都可以被追究刑事责任。例如,一条狗的主人命令其攻击另一个人。