负责任地大规模构建生成性人工智能一年的7个收获

人工智能生成的装饰图像。

去年,生成性人工智能取得了巨大进步,人们体验到了用文字和Microsoft Copilot工具生成逼真视觉效果的能力,这些工具可以总结错过的会议,帮助撰写商业计划书,或者根据冰箱里的东西建议晚餐菜单。虽然微软早已确立了构建AI应用程序的原则和流程,以尽量减少意外伤害,并为人们提供他们想要的体验,但大规模部署生成性AI产品带来了新的挑战和机遇。

这就是为什么微软最近发布了第一份年度报告负责的AI透明度报告帮助人们了解我们如何处理负责任的人工智能(RAI)。该公司还推出Azure AI中可用的新工具帮助企业客户和开发人员保护其AI输出的质量,并防止恶意或意外使用系统。

这是一个重要的一年,对激动人心的新技术和大规模防护措施进行了压力测试。以下是微软首席负责人工智能官娜塔莎·克兰普顿(Natasha Crampton)和微软负责人工智能首席产品官莎拉·伯德(Sarah Bird)的一些重要收获,娜塔莎·布兰普顿领导团队定义和管理公司的RAI方法,莎拉·伯尔德推动整个产品组合的RAI实施:

人工智能生成的装饰图像。

#1:让负责任的人工智能成为基础,而不是事后思考

负责任的人工智能从来不是一个团队或一组专家,而是微软所有员工的责任。例如,每个从事开发生成性人工智能应用程序的员工都必须遵循公司负责任的人工智能标准,负责产品开发的AI要求的详细列表。这些指导包括评估新AI应用程序的潜在影响,制定计划管理使用中发现的未知故障,以及确定限制或更改,以便客户、合作伙伴和使用AI应用的人员做出明智的决策。

微软还投资于强制性培训,以在整个公司建立意识和宣传——去年年底,99%的员工完成了我们年度商业行为标准培训中有关负责任AI的培训模块。

Natasha Crampton说:“在产品发货之前,不可能将负责任的人工智能工作作为某种事后的补充检查清单。”。“它需要从一开始就融入到我们构建产品的方式中。我们需要公司的每个人从一开始便考虑负责任的AI考虑。”
人工智能生成的装饰图像。

#2:做好快速发展和行动的准备

新AI产品开发是动态的。将生成性人工智能规模化需要快速整合数十个试点项目的客户反馈,然后与客户持续接触,以了解随着更多人开始使用新技术,可能会出现什么问题,以及是什么使体验更具吸引力。

正是通过这个过程,微软决定在Bing搜索引擎上提供不同的对话风格——更具创意、更平衡或更精确的模式——作为Copilot的一部分。

莎拉·伯德说:“我们需要和他们一起进行一个试验周期,让他们在那里试穿。”。“我们从中学习,并相应地调整产品。”
人工智能生成的装饰图像。

#3:集中以更快地扩展

正如公司介绍的那样微软Copilot并开始在其产品中集成这些AI驱动的体验,该公司需要一个更集中的系统来确保发布的所有内容都符合相同的高标准。而且,为每一种产品重新发明轮子是没有意义的,这就是为什么该公司正在Azure AI中开发一个负责任的人工智能技术堆栈,以便团队可以依赖相同的工具和流程。

微软负责的人工智能专家还开发了一种新方法,集中评估和批准产品发布的方式。该团队回顾了产品团队在绘制、测量和管理生成性人工智能潜在风险方面所采取的步骤,这些步骤基于共识驱动的框架,在技术堆栈的每一层以及产品发布之前、期间和之后。他们还考虑了从测试、威胁建模和“red-teaming”中收集的数据,这是一种通过尝试撤销或操作安全功能来对新的生成性人工智能技术进行压力测试的技术。

将此审查过程集中化,可以更容易地检测和缓解产品组合中的潜在漏洞,制定最佳实践,并确保公司内部以及与Microsoft以外的客户和开发人员及时共享信息。

萨拉·伯德(Sarah Bird)表示:“技术正在发生变化,速度极快。”。“我们必须真正专注于把它做好一次,然后最大限度地重复使用(这些经验教训)。”
人工智能生成的装饰图像。

#4:告诉人们事情从哪里来

由于人工智能系统在生成难以与真实事物区分的人工视频、音频和图像方面表现得如此出色,因此用户能够识别人工智能生成信息的来源变得越来越重要。

2月,微软与其他19家公司达成了一系列自愿承诺,旨在旨在打击欺骗性使用人工智能的自愿承诺以及2024年选举中可能滥用“深水假货”。这包括鼓励功能来阻止旨在制造误导公众的虚假图像的滥用提示,嵌入元数据以识别图像的来源,以及为政治候选人提供举报自己深度伪造的机制。

微软已经开发并部署了媒体来源功能(或“内容凭据”),使用户能够验证图像或视频是否由人工智能生成,使用加密方法用有关其来源和历史的元数据标记和签署人工智能生成的内容,遵循我们于2021年共同创建的内容来源和真实性联盟(C2PA)制定的开放技术标准。Microsoft的AI for Good Lab好实验室该公司还将更多的精力放在识别深水假货、追踪不良行为人并分析他们的策略上。

“这些问题不仅是科技公司面临的挑战,也是更广泛的社会挑战,”娜塔莎·克拉普顿(Natasha Crampton)表示。
人工智能生成的装饰图像。

#5:将RAI工具交给客户

为了提高人工智能模型输出的质量,并帮助防止恶意使用其生成性人工智能系统,微软还致力于它在客户手中使用的相同工具和保护措施这样他们才能负责任地建设。这些包括开源以及商业工具和服务,以及帮助组织构建、评估、部署和管理生成性人工智能系统的模板和指南。

去年,微软发布了Azure AI内容安全,帮助客户识别和过滤AI模型中不需要的输出的工具,如仇恨、暴力、性或自残内容。最近公司增加了新工具Azure AI Studio中现在可用或即将推出的,用于帮助开发人员和客户提高其自己生成性AI系统的安全性和可靠性。

这些新功能允许客户对其应用程序进行安全评估,帮助开发人员快速识别和解决漏洞,执行额外的风险和安全监控,并检测模型“产生幻觉”或生成虚假或虚构数据的实例。

Sarah Bird说:“关键是,我们想让默认情况下的安全变得更容易。”。
人工智能生成的装饰图像。

#6:期待人们打破东西

随着人们体验到越来越复杂的人工智能技术,一些人可能不可避免地会尝试以无害到恶意的方式挑战系统。这导致了一种被称为“越狱”的现象,在技术上指的是绕过人工智能系统中内置的安全工具的做法。

除了在发布新AI产品更新之前探测潜在漏洞外,微软还与客户合作,确保他们也有最新的工具来保护自己在Azure上构建的自定义AI应用程序。

例如,微软最近推出的新型号使用模式识别检测和阻止恶意越狱,有助于保护大型语言模型(LLM)和用户交互的完整性。另一种试图阻止一种新型的攻击,这种攻击试图插入指令,让某人控制人工智能系统。

娜塔莎·克兰普顿说:“这些是我们当然没有设计的用途,但当你在推动技术的发展时,自然会发生这种情况。”。
人工智能生成的装饰图像。

#7:帮助用户了解AI的限制

虽然人工智能已经可以做很多事情来让生活更轻松,但它还远远不够完美。对于用户来说,验证他们从支持人工智能的系统中收到的信息是一种很好的做法,这就是为什么微软会在任何聊天输出的末尾提供引用源的链接。

自2019年以来,微软一直在发布“透明度说明”,为公司平台服务的客户提供有关功能、限制、预期用途的详细信息,以及负责集成和使用人工智能的详细信息。该公司还在面向消费者的产品中包括用户友好的通知,例如Copilot、,就风险识别、人工智能出错或生成意外内容的可能性等主题提供重要披露,并提醒人们他们正在与人工智能交互。

随着生成性人工智能技术及其应用的不断扩大,关键是要继续加强系统,适应新法规,更新流程,并努力创建能够提供人们想要的体验的人工智能系统。

Sarah Bird说:“我们需要非常谦虚地说,我们不知道人们将如何使用这项新技术,所以我们需要听取他们的意见。”。“我们必须不断创新、学习和倾听。”

这个故事的图像是使用Microsoft Designer创建的,这是一个AI强大的图形设计应用程序。