6. 活动4:人工智能政策
在上个活动中,学生们探索了各种人工智能技术的利弊,揭示了这些技术如何能够帮助人们,也揭示了它们可能造成的伤害或伦理困境。在本次活动中,学生们将考虑政策或法规是否有助于确保人工智能技术只用于好的方面。
1.总结学生在上一次活动中学到的东西,如果人工智能在社会中帮助人们,并符合人们的价值观,它可以是有益的,但如果它被编程做一些有害的事情,或如果它在实现好事的过程中具有破坏性,它可能是危险的。
2.告诉学生,许多行业、政府和公民组织正在倡导或建立指导方针、政策、法规和法律,以确保人工智能的道德设计和使用。虽然违反其中一些规定,如美国联邦贸易委员会(FTC)的规定,可能会给公司带来法律后果;其他政策,如公司的道德准则,只是公司内部努力遵守的目标,违反可能并不总是有后果。分享下面的资源列表(或其他政策资源),并给学生一些时间来探索它们。告诉他们选择两个来更仔细地探索。
- USA Federal Trade Commission Guidance
- European Union’s Ethics Guidelines for Trustworthy AI—Press Release
- Hong Kong’s Ethical Accountability Framework
- Artificial Intelligence at Google: Our Principles
- Microsoft’s Responsible AI page
- IBM: Everyday Ethics for Artificial Intelligence
- Partnership on AI’s Goals and Thematic Pillars
- USA Children’s Online Privacy Protection Act (COPPA): FAQs on COPPA and Schools
- The Institute for Ethical AI in Education’s The Ethical Framework for AI in Education
3.使用维恩图,让学生比较和对比他们选择的两个例子。他们不需要完整地阅读资源,而是应该试图找到他们的例子如何处理偏见、公平、透明度、可解释性、问责性或价值观等主题的主要观点。学生完成了他们的维恩图之后,让他们分享在检查的道德准则中发现的共同主题。
4.告诉学生谷歌最近提出的一项帮助解决这些问题的创新被称为模型卡。模型卡提供了一个整体框架,用于共享机器学习模型的信息,例如:目的和受众、设计和培训数据、实现限制和权衡。谷歌表示,这些模型卡可以由许多开发人员创建,并将提高各种利益相关者对人工智能的透明度。在这里仔细看看谷歌模型卡的两个例子(https://modelcards.withgoogle.com/model-reports)。
5. 用一场关于人工智能伦理责任的课堂讨论来结束本次活动,提问如下所示。帮助学生理解所有利益相关者,甚至是用户,对合乎道德的人工智能设计和使用分担责任。所有利益相关者都可以在决定人工智能未来将如何使用方面发挥作用。
- 你认为哪个更有效:私营企业自我监管,还是政府制定法律来监管人工智能的设计和开发?为什么?
- 谁负责确保人工智能的设计和实施符合道德?谁应该为此负责?为什么?