跳到主要内容

很遗憾,我们不完全支持您的浏览器。如果您可以选择,请升级到新版本或使用Mozilla火狐浏览器,Microsoft边缘,谷歌浏览器或Safari 14或更新版本。如果您不能,并且需要支持,请将您的反馈发送给我们.

爱思维尔
与我们一起发布
连接

在学校培养人工智能素养的关键要素

2024年1月16日|7分钟读取

两个女人坐在电脑前聊天

图书馆员在塑造一个人工智能生成的信息不仅丰富而且可信、可靠、人人都能获得的未来中不可或缺。

在信息大量生成和传播的时代,人工智能(AI)的兴起极大地改变了我们获取信息和与信息交互的方式。然而,随着对人工智能生成内容依赖性的增加,用户对人工智能信息真实性和可信性的信任这一关键问题成为一个紧迫的问题。人工智能生成的内容通常为用户提供复杂的信息网络,导航起来可能会很困难。

此外,人工智能算法的不透明性以及决策过程中缺乏透明度可能会在用户中产生怀疑和疑虑。人工智能生成的信息的可靠性如何?评估人工智能技术可信度的框架是什么?

在此背景下,以信息管理、验证和传播方面的专业知识而闻名的图书馆员,在弥合用户与人工智能生成信息之间的差距方面具有独特的地位。图书馆员可以充当口译员和调解员,有助于深入了解人工智能技术的复杂性及其对信息检索的影响。图书馆员还可以通过支持人工智能素养和提倡人工智能系统的透明度来增强用户信任。

教育用户:校园AI素养

要开始评估人工智能,用户必须首先了解它或成为人工智能素养。人工智能素养,包括了解、理解、使用和评估人工智能,以及考虑道德问题(Ng等人,2021)。懂人工智能的人也了解基本的人工智能概念,如机器学习、自然语言处理和神经网络。为了使学生、研究人员和教员具备必要的技能来驾驭这一复杂局面,图书馆需要优先开发培训资源,使个人能够仔细审查有关人工智能应用程序的信息。当图书馆用户掌握了人工智能的能力和限制时,他们可以正确评估人工智能驱动的工具和资源。 

人工智能识字概念可以通过许多传统的识字途径教授,例如信息识字、媒体识字和数字识字。记住,你不需要成为计算机专家就可以创建或参加AI扫盲研讨会。人工智能素养的关键不在于技术专长,而在于培养批判性思维。 

除了对人工智能概念的基本掌握外,人工智能素养还包括批判性评估人工智能技术的能力。使用结构化方法或具体的提问策略进行评估,可以在促进更有意义的讨论方面发挥关键作用,最终提高理解和批判性评估。以下是开始这一过程的一些技巧,以及为指导非技术人员而定制的结构化问题。 

两个女人看着电脑屏幕

机器人装置测试

一种特别有用的资源称为机器人测试(Wheatley and Hervieux,2020)。它是由麦吉尔大学的两名图书馆员阿曼达·惠特利和桑迪·赫维厄开发的,旨在为新接触人工智能的个人提供一个结构化框架,以评估与人工智能技术相关的新信息。 

ROBOT,机器人的缩写第页可靠性,o(o)客观的,b条国际会计准则,o(o)所有权,以及t吨type描述了评估人工智能工具信息的关键标准。首字母缩写词中的每个单词都包含一组问题,指导用户完成全面的评估过程。例如,为了识别人工智能工具的类型,用户可以提出以下问题:

  • 它属于哪一类特定的人工智能? 

  • 这项技术更多的是一个概念还是实际应用的东西? 

  • 它依赖什么类型的信息系统? 

  • 它需要人的参与吗? 

ROBOT测试的完整大纲及其提示用户提出的问题可以在上找到麦吉尔图书馆人工智能素养网站在新选项卡/窗口中打开.

评估和开发可解释性

人工智能素养还包括能够评估和解释这些技术。新用户可能会将人工智能系统视为一个“黑匣子”,在这个黑匣子中,信息进入系统,然后在不了解答案的情况下给出答案。能够有一个更好的解释,可以让用户看到黑盒子,并考虑如何使用输入来创建输出。这是建立用户信任的关键步骤。图书馆员可以也应该提倡提高人工智能系统的透明度,并鼓励开发人员和技术公司披露人工智能生成内容的内部工作。 

一位女士站在一群学生面前领导一个班

然而,人工智能系统的复杂性往往在开发人员和最终用户之间的对话中带来挑战。特别是非技术人员可能会发现,即使有机会寻求解释,有效地表达他们的询问也很困难。毕竟,你不知道你不知道什么。由于不熟悉主题,很难预测合适的问题。这强调了用户在评估更复杂的人工智能系统之前,必须熟悉基本的人工智能概念。 

在接下来的两个部分中,我们列出了解释类型和可解释性的关键组成部分,并提出了一些示例性问题,以指导用户探索和评估人工智能系统。

人工智能系统的解释类型

解释从理解机器学习(ML)系统的功能开始(Cabitza等人,2023年)。这包括认识到这些系统能够或不能为用户提供什么,以及认识到人类决策者仍然需要提供解释和判断的领域。 

然后,用户可以开始查看AI系统的功能、输出等。在最近的一篇论文中,Cabitza等人提出了一个全面的概述,确定了人工智能系统的各种类型的解释以及评估其质量的标准(2023)。在寻求人工智能系统的解释时,他们提出了以下关键问题:“

  • 计算解释:算法A是如何产生输出O的? 

  • 机械解释:为什么算法A产生了输出O? 

  • 合理解释:为什么输出O是正确的? 

  • 因果解释:导致O的物理现象是什么? 

  • 信息性解释:输出O是什么意思? 

  • 注意说明:输出O背后的不确定性是什么?” 

通过浏览这些不同的解释领域,用户可以开始揭开人工智能系统“黑匣子”的神秘面纱,并有信心将人工智能系统用作导航研究或课程作业的工具。

可解释性的关键要素

什么是人工智能的好解释?为了帮助建立解释人工智能系统的标准,Balasubramaniam及其同事(2023年)提出了一个框架,概述了可解释性的关键组成部分。该模型为从业者提供了一个指南,通过解决关键问题,帮助他们确定可解释性的具体要求:

  • 收件人(问问自己,解释者试图向谁解释?)

  • 方面(解释什么?)

  • 语境(哪些语境情况需要解释?)

  • 解释者(谁解释?)

鼓励用户在提出问题解释人工智能系统时,寻求这些组件的答案。 

爱思唯尔承认,透明度和可解释性已成为人工智能系统的新兴质量要求。在其可解释的人工智能系统中,下面的综合视频解释了背后的技术Scopus AI公司.

观看下面的视频↓

提示:观看视频时,尝试应用文章中的评估框架和关键问题。

Scopus AI背后的技术

Scopus AI背后的技术

图书馆员可以建立对人工智能技术的信任

通过积极参与AI扫盲计划,图书馆员可以在授权用户对AI生成信息的可信度做出知情决策方面发挥重要作用。通过他们在信息素养方面的专业知识以及致力于促进透明和道德的信息实践,图书馆员可以对人工智能技术的可靠性灌输信任和信心。 

为了培养用户对人工智能技术的信任,图书馆员、人工智能开发人员和决策者之间的合作至关重要。建立一种多学科方法,优先考虑透明度、教育和道德因素,可以为建立一个更可靠、更负责任的人工智能生态系统铺平道路。图书馆员在塑造人工智能生成的信息不仅丰富而且可信、可靠、人人都能获得的未来中不可或缺。

深入探讨图书馆员的人工智能主题:

人工智能在图书馆服务中的作用着眼于让你的机构更容易访问人工智能,包括支持研究人员和学生的建议。 

解决人工智能知识系统中的偏见讨论了图书馆员和研究人员合作对抗人工智能模型中的偏见的方式。

参考文献

Abedin,B.、Meske,C.、Rabi,F.和Klier,M.(2023)。介绍可解释人工智能(XAI)的迷你轨道。 

Balasubramaniam,N.、Kauppinen,M.、Rannisto,A.、Hiekkanen,K.和Kujala,S.(2023年)。人工智能系统的透明度和可解释性:从道德准则到要求。信息和软件技术, 159, 107197. 

Borrego-Díaz,J.和Galán-Páez,J.(2022)。数据科学中的可解释人工智能:从基础问题到社会技术考虑。思维和机器, 32(3), 485-531. 

Buijsman,S.(2022)。在XAI中定义解释和解释深度。思维和机器, 32(3), 563-584. 

Cabitza,F.、Campagner,A.、Malgieri,G.、Natali,C.、Schneeberger,D.、Stoeger,K.和Holzinger,A.(2023)。引证-走向可解释AI设计解释概念的类型学带应用程序的专家系统, 213, 118888. 

Kangra,K.和Singh,J.(2022年)。可解释的人工智能:概念和当前进展。英寸可解释的边缘人工智能:未来计算的视角(第1-17页)。商会:施普林格国际出版社。 

Kasinidou,M.(2023年6月)。全民AI素养:参与式方法。英寸2023年计算机科学教育创新与技术会议记录V.2(第607-608页)。https://doi.org/10.1145/3587103.3594135在新选项卡/窗口中打开

Kong,S.C.、Cheung,W.M.Y.和Zhang,G.(2022)。评估人工智能识字课程,以培养大学生的概念学习、识字和赋权:重新关注概念构建。人类行为报告中的计算机,7100223。https://doi.org/10.1016/j.chbr.2022.100223在新选项卡/窗口中打开

Nagahisarchoghaei,M.、Nur,N.、Cummins,L.、Nur,N.,Karimi,M.M.、Nandanwar,S.…&Rahimi,S.(2023年)。一项关于可解释人工智能技术的实证调查:从技术和应用角度来看的最新趋势、使用情况和类别。数码产品, 12(5), 1092. 

Ng,D.T.K.,Leung,J.K.L.,Chu,K.W.S.和Qiao,M.S.(2021年)。人工智能素养:定义、教学、评估和道德问题。信息科学与技术协会会议记录, 58(1), 504-509.https://doi.org/10.1002/pra2.487在新选项卡/窗口中打开

Hervieux,S.&Wheatley,A.(2020年)。ROBOT测试[评估工具]。图书馆。https://librairy.wordpress.com/2020/03/11/the-robot-test(在线阅读)在新选项卡/窗口中打开

Quakulinski,L.、Koumpis,A.和Beyan,O.D.(2023年)。医疗人工智能系统的透明度。国际语义计算杂志