作者

管理员

博客帖子

让教育中的AI实现公平

发布时间:2022年10月3日

博士后研究员玛丽·厄特贝格·莫登兼副教授玛丽莎·蓬蒂在哥德堡大学(University of Gothenburg),他主张将公平“具体化”及其对瑞典教育中人工智能使用的影响

什么是“公平”?
公平有很多不同的定义,被认为是公平的东西随着时间和空间的推移而演变,这使得定义变得很有挑战性。公平通常是用相关但不等同的术语来描述的,例如公平、正义、无偏见等。这些术语中的每一个都同样难以定义,尽管我们接受它们。由于这种模糊性,我们自己的价值体系决定了我们所称的公平。如果我们没有共同的价值观,那么确定什么是公平的可能是一项挑战。因此,我们将公平放在瑞典教育的背景下,主张一种情境化的公平观。 

2020年,Borenstein和Howard认为,将模糊的公平和偏见概念从其应用背景中分离出来,或者不理解人不仅仅是数据,无助于解决教育中使用人工智能产生的道德问题。正如他们所言,解决复杂的道德挑战不能在真空中完成,而必须通过“从问题的根源开始(即人”(62)。这个观察结果与公平性不是算法的属性,而是社会制度的性质.

然而,公平机器学习(ML)的设计者和研究人员倾向于抽象出使用ML系统的社会技术背景(Selbst., 2019). 由于对社会技术背景的抽象,公平市场营销设计师没有捕捉到更广泛的背景,包括创造更公平结果或将公平理解为一个概念所必需的信息(Selbst等人,2019年)。 

因此,算法被设计为现实的统计模型来预测潜在的结果,但即使是复杂的模型也不可避免地会被简化。在教育背景下,教学活动的特点是关系和互动的复杂网络(Selwyn,2017)。考虑群体是如何表现的,哪些人属于哪些群体,而不是将不同的群体视为一个单一的实体,这一点至关重要。Baker和Hawn(2021)发现,当应用算法模型时,忽略或不考虑群体差异,会导致不公平结果。例如,如果AIEd系统旨在确定哪些学生有落后的风险,并提醒教师注意这一点,那么应该如何定义这一群体是一个关键问题。 

这一背景促使我们开始分析瑞典教育中公平的概念,以及如何在EdTech公司的政策文件和报告样本中表达这些概念。在我们的研究中,我们试图回答以下问题:

  • 决策者、当局和其他相关利益相关者如何在瑞典教育中对公平概念进行概念化和情境化?
  • 描述了在教育中使用人工智能的潜力或好处,以及对谁有利?
  • 谈到人工智能,人们认为教育公平有哪些风险?

我们使用修辞分析,这是一种用于批判性政策分析的有用方法,以了解政策在使不平等永久化方面所起的作用(Winton,2012),探索相关社会群体(RSG)的修辞情况(Pinch和Bijker,1984)。接下来,我们研究了每个社会群体对公平的解释,以及他们对人工智能的解释。

效率是人工智能的整体价值
现在,我们与您分享我们正在进行的与前两个问题相关的工作的一些初步结果。我们确定了三个RSG,其中每个组在AI方面具有相似的价值。

第一组包括政府、数字政府机构和瑞典地方当局和地区协会。这里,人工智能的整体价值与效率有关,集团将其解释为经济型。第二组包括教育科技公司,他们将人工智能的整体价值解释为教学价值。第三类包括政府机构,他们将人工智能视为维持和促进特定群体获得公共福利的一种方式。这三个RSG重视个人平等获得高质量公共服务的权利。

在瑞典福利制度的框架内,教育被视为公共部门的一部分。公平被视为与向所有人提供类似机会(更公平地获得教育和平等的教育质量)方面的平等相关。国家教育数字战略中没有提到人工智能,因此没有解决具体的教育需求。因此,在使用人工智能后可能导致不公平的条件并不被理解。

人工智能的主要教学价值在于提供个性化教学以满足学生需求的机会。此外,人工智能被认为可以腾出教师在某些课堂任务上的时间,让他们有更多的时间与学生在一起。然而,学校需要分配资源来培训人工智能教师。独立学校和市立学校以及城乡地区的学生成绩差距越来越大,这给公平带来了问题。

目前,拥有优秀学生的学校能够更好地吸引更有能力的教师,而最有能力的教师不会在瑞典低社会经济地位社区的弱势学生学校工作。我们认为,表现不佳的学校中的学生将有很高的落后风险,学习者将无法在人工智能饱和的未来中茁壮成长,教师也将无法接受熟练使用人工智能的培训。

一些临时结论
RSG似乎倾向于遵循“AI类型”而不质疑其使用。算法被视为提高效率、降低成本和增强教学的个性化。我们认为,这些修辞论点是基于一个狭隘的公平概念,被表述为正式接受教育的机会,与社会正义的理念相分离。此外,人工智能对学生学习的贡献方式根本没有讨论。尽管在教育中使用人工智能具有高风险和潜在的高影响,但缺乏对重要性和优先性的考虑,也没有对这项技术的基本社会、种族和经济问题进行思考。对人工智能在教育中的具体含义缺乏考虑可能与人工智能的发展方式有关,人工智能缺乏“共同目标和受托责任、专业历史和规范、将原则转化为实践的成熟方法、强大的法律和专业问责机制”(Mittelstadt,2019年,第1页)。将注意力集中在这些方面是失踪的老师项目将继续进行。

工具书类                     
Borenstein,J.和Howard,A.(2021年)。人工智能的新挑战和人工智能道德教育的需要。人工智能与道德,1:61-65。https://doi.org/10.1007/s43681-020-00002-7

Mittelstadt,B.(2019年)。仅凭原则无法保证符合道德标准的人工智能真正的机器智能, 1: 501–507.

Pinch,T.J.和Bijker,W.E.(1984年)。事实和人工制品的社会建构:或者科学社会学和技术社会学如何相互受益。科学社会研究,14(3), 399–441.

Selbst,A.D.、Boyd D.、Friedler,S.A.、Venkatasubramanian,S.和Vertesi,J.(2019年)。社会技术系统中的公平和抽象。FAT*’19:公平、问责制和透明度会议记录(第59–68页)。https://doi.org/10.1145/3287560.3287598

塞尔温,N.(2017)。教育和技术。关键问题和辩论伦敦布卢姆斯伯里学院。

Winton,S.(2013)。关键政策研究中的修辞分析。国际教育质量研究杂志, 26:2, 158-177.

最近的博客帖子