6. 活动四:围绕AI运动规划的伦理在这个活动中,学生将考虑围绕允许机器人自主决策的伦理问题。

活动四:围绕AI运动规划的伦理在这个活动中,学生将考虑围绕允许机器人自主决策的伦理问题。

注意:该活动要求学生在遇到生命危险情景时考虑对自驾车行为的艰难决策。如果你认为这个题目可能让你班的学生心烦意乱,你可能想跳过《道德机器》模拟或《围绕AI运动规划活动的伦理学》。

1 .为介绍话题,投射视频《自驾车的伦理困境——帕特里克·林》。然后作为一个班级来讨论下面的问题。

  • 在所描述的情境中,你是否会通过击中摩托车把自己的安全置于其他人的安全之上?你会不会通过不旋转来减少对他人的危险,即使你会击中大物体并可能死亡?既然司机受伤的可能性较小,你会不会通过击中SUV来取中场?
  • 相对于你会做什么,自驾车应该做什么?考虑一下你是摩托车手还是越野车司机。
  •  "反应" ( 人类驾驶员的分秒反应 )和"蓄意决定" ( 无人驾驶汽车的计算响应 )之间有什么区别?
  • 在紧急情况下规划一辆汽车以某种方式反应,可被视为预谋杀人。你认为这是一个有效的论据吗?为什么,为什么不?

2 .引导学生想象他们被雇佣来帮助规划新的自动驾驶汽车的导航规则。问问他们可以考虑给汽车什么规则。然后将它们引入到活动《道德机器》中,这是公众参与和讨论人类视角对机器制造的道德决策的平台。当学生点击红色的‘开始判断’按钮时,将被赋予13个随机选择的情景进行评价和反应。在完成所有13个场景后,学生可以回顾他们的结果以及他们的反应如何与其他参与了模拟的人相比。作为一个班级讨论下列活动。

  • 道德机器模拟是工程师培训人工智能机器人做出决策的一种方式-- --通过众包公众的决策并让人工智能相应行动。你认为那种决策方法的利弊是什么?如果人们以比其他人更多地对某些群体产生负面影响的方式做出反应,会发生什么?训练人工智能做出这些艰难决策的其他方法可能是什么?
  • 如何让你感觉到人工智能可能正在做出这些决定,而不是人类?如果你发现拥有人工智能做出这些决策会带来更安全的道路和工作场所环境,那么这会改变你的看法?