技术盒图示

10(更多)每个人都应该知道的人工智能术语

苏珊娜·雷

自从生成性人工智能在2022年底迅速成为主流以来,我们大多数人都对这项技术以及它如何使用自然语言帮助我们更轻松地与计算机交互有了基本的了解。我们中的一些人甚至可以在与朋友一起喝咖啡的时候抛出“提示”和“机器学习”之类的时髦词汇。(如果您还没有完成,可以从这篇介绍性文章开始:每个人都应该知道的10个AI术语)但随着人工智能的不断发展,其词汇也在不断演变。你知道大型和小型语言模型之间的区别吗?或者“GPT”在ChatGPT中代表什么?或者RAG与清理制造物有什么关系?我们在这里帮助您进行人工智能术语的下一级细分,以加快您的速度。

科技迷宫图解

推理/计划

使用人工智能的计算机现在可以通过使用从历史数据中学习的模式来理解信息,从而解决问题和完成任务,这类似于推理。最先进的系统正在显示出进一步发展的能力,通过制定计划、设计一系列行动来解决日益复杂的问题,以实现目标。想象一下,要求一个人工智能程序帮助组织一次主题公园之旅。该系统可以实现这个目标——你可以乘坐六种不同的游乐设施,包括确保水上冒险活动在一天中最热的时候进行,并且可以将其分解为一个时间表的步骤,同时通过推理确保你不会再次回到任何地方,并且你将在中午到下午3点之间乘坐飞溅过山车。
不透明重量图示

训练/推理

创建和使用人工智能系统有两个步骤:训练和推理。训练有点像人工智能系统的教育,当它被输入数据集并学习执行任务或根据数据进行预测时。例如,它可能会给出一份最近在一个街区售出的房屋的价格清单,以及每一个街区的卧室和浴室数量,以及许多其他变量。在培训期间,系统会调整其内部参数,这些参数是决定在影响定价时为每个因素赋予多少权重的值。推断是指它使用这些学习到的模式和参数对即将上市的新房进行价格预测。
技术盒图示

SLM/小型语言模型

小型语言模型(SLM)是大型语言模型,或LLM。他们都使用机器学习技术来帮助他们识别模式和关系,从而产生真实、自然的语言反应。但是,虽然LLM非常庞大,需要大量的计算能力和内存,但SLM例如Phi-3在较小的、经过管理的数据集上进行训练,并且参数较少,因此更紧凑,甚至可以在没有互联网连接的情况下离线使用。这使得它们非常适用于笔记本电脑或手机等设备上的应用程序,在这些设备上,你可能想问一些关于宠物护理的基本问题,但不需要深入研究如何训练导盲犬的详细、多步骤推理。
技术盒图示

接地

生成性人工智能系统可以编写故事、诗歌和笑话,也可以回答研究问题。但有时他们面临着将事实与虚构区分开来的挑战,或者他们的训练数据已经过时,然后他们可能会做出不准确的反应,即幻觉。开发人员致力于通过接地过程帮助人工智能与现实世界准确交互,即他们将模型与数据和有形示例连接并固定,以提高准确性,并生成更具上下文相关性和个性化的输出。
技术块图示

检索增强生成(RAG)

当开发人员让人工智能系统访问基础源以帮助其更加准确和最新时,他们使用一种称为检索增强生成(RAG)的方法。RAG模式通过添加额外的知识来节省时间和资源,而无需重新培训人工智能程序。就好像你是歇洛克·福尔摩斯,你已经阅读了图书馆里的每一本书,但还没有破解这个箱子,所以你走到阁楼,打开一些古老的卷轴,瞧——你找到了拼图中缺失的那一块。同样,如果你有一家服装公司,想创建一个聊天机器人来回答特定于你的商品的问题,你可以在产品目录上使用RAG模式,帮助客户从你的商店中找到完美的绿色毛衣。
显示各种形状的插图

业务流程

人工智能程序在处理人们的请求时有很多事情要做。编排层是引导他们以正确的顺序完成所有任务以获得最佳响应的层。例如,如果你问微软Copilot谁是Ada Lovelace,然后问她是什么时候出生的,那么人工智能的编配器就是用来存储聊天历史的,可以看到你后续查询中的“她”指的是Lovelaces。编配层也可以遵循RAG模式,通过在互联网上搜索新信息来添加到上下文中,并帮助模型找到更好的答案。这就像一位大师在提示小提琴、长笛和双簧管,因为它们都跟着乐谱来产生作曲家心中的声音。
显示球的插图

内存

今天的人工智能模型在技术上没有内存。但是AI程序可以有精心编制的指令,通过在每个事务中遵循特定步骤来帮助他们“记住”信息,例如在聊天中临时存储以前的问题和答案,然后将该上下文包含在模型的当前请求中,或使用RAG模式中的接地数据,以确保响应具有最新信息。开发人员正在试验编排层,以帮助人工智能系统知道他们是否需要暂时记住步骤的分解,例如,短期记忆,比如在便签上记下提醒,或者通过将某个东西存储在更永久的位置来更长时间地记住它是否有用。
显示各种形状的插图

变压器模型和扩散模型

几十年来,人们一直在教授人工智能系统理解和生成语言,但加速最近进展的突破之一是变压器模型。在生成型人工智能模型中,变形金刚是理解上下文和细微差别最好、最快的模型。他们善于讲故事,关注数据中的模式,权衡不同输入的重要性,帮助他们快速预测接下来的内容,从而生成文本。一个变压器的声望是它是ChatGPT中的T——生成预训练变压器。扩散模型通常用于图像创建,通过采取更渐进、更有条理的过程来增加扭曲,从随机位置扩散像素,直到它们以一种在提示中形成所需图片的方式分布。扩散模型一直在做一些小的改变,直到它们创造出一些有用的东西。
显示块和圆的插图

前沿模型

前沿模型是一种大规模的系统,它可以突破人工智能的边界,用新的、更广泛的功能执行各种各样的任务。他们可以如此先进,以至于有时他们能够完成的任务让我们感到惊讶。包括微软在内的科技公司成立了前沿模范论坛分享知识,制定安全标准,帮助每个人理解这些强大的人工智能程序,以确保安全和负责任的开发。
矩形方块图

通用分组

GPU代表图形处理单元,基本上是一个涡轮增压计算器。GPU最初设计用于平滑视频游戏中的花哨图形,现在它们是计算的肌肉车。这些芯片有许多微小的核心或电路和晶体管网络,它们共同解决数学问题,称为并行处理。由于这基本上就是AI所要解决的问题——大规模解决大量计算,以便能够用人类语言进行交流并识别图像或声音——GPU对于AI工具的训练和推理来说都是不可或缺的。事实上,今天最先进的模型都是通过使用巨大的互联GPU集群进行训练的,有时有成千上万的GPU分布在巨大的数据中心中,就像微软在Azure中的那些,Azure是有史以来最强大的计算机之一。
彩色盒子插图

这个故事的图片是由Makeshift Studios创作的。故事发表于2024年5月13日。