EC1:张卫南

上海交通大学

大型决策模型
近几十年来,顺序决策任务大多通过专家系统和强化学习来处理。然而,这些方法仍然无法推广到以低成本解决新任务的程度。在本文中,我们讨论了一种利用基于Transformer的序列模型来处理决策任务的新范式,即大型决策模型。从离线强化学习场景开始,早期的尝试表明,在给定足够的专家轨迹的情况下,序列建模方法可以用于训练有效的策略。当序列模型变大时,观察到其对各种任务的泛化能力和对新任务的快速适应能力,这对于agent在不久的将来实现用于序列决策的人工通用智能具有很大潜力。

EC2:许海峰

芝加哥大学

机器学习的经济学
在本次演讲中,我将概述我们实验室对机器学习经济学的研究,该研究由两个互补的线索组成,即,为经济学而进行的机器学习和为机器学习而进行的经济学。第一个线程开发了新的学习算法,用于未知战略/经济环境中的智能决策,从基本游戏理论模型到推荐系统,再到防御-防御交互。我将重点介绍新技术,以应对这一步伐中的独特挑战,例如非平稳但仍可追踪的对手行为和相互冲突的代理人利益。我们实验室研究的第二个线索是利用经济学原理来理解机器学习,例如数据的估值和定价。我还将简要介绍我们最近为构建数据交易平台所做的努力,以及在此过程中我们面临的有趣挑战。

EC3:奥伦·萨尔兹曼

以色列理工学院

算法运动规划满足最少的机器人手术需求
用于微创手术的机器人,如可操纵的针头和同心管机器人,有可能显著改变普通医疗程序的执行方式。它们可以减少患者的恢复时间,加快愈合,减少疤痕。然而,手动控制这些设备是非常不直观的,需要自动规划方法。为了使此类医疗程序的自动化得到临床认可,从患者护理、安全和监管的角度来看,验证程序自动化中涉及的运动规划算法的正确性和有效性至关重要。在本文中,我调查了最近和正在进行的工作,在这些工作中,我们为医用机器人开发了高效和有效的规划能力,为各种规划属性提供了可证明的保证,并在该领域引入了新的令人兴奋的研究机会。

EC4:凌娟·吕

索尼研究

实现负责任人工智能生成内容的途径
AI生成的内容(AIGC)在过去几年中受到了极大的关注,内容从图像、文本到音频、视频等。与此同时,AIGC已经成为一把双刃剑,最近因其负责任的使用而受到了很多批评。在这篇文章中,我们关注三个可能阻碍AIGC在实践中健康发展和部署的主要问题,包括隐私风险;偏见、毒性、错误信息;和知识产权(IP)。通过记录已知和潜在风险以及AIGC的任何可能滥用场景,目的是敲响潜在风险和滥用的警钟,帮助社会消除障碍,并促进AIGC更加道德和安全的部署。

EC5:帕纳吉奥蒂斯·库瓦罗斯

伦敦帝国理工学院

神经符号多智能体系统的形式化验证
人工智能(AI)的重大进步使具有挑战性的任务实现了自动化,例如计算机视觉,这些任务传统上很难使用经典方法解决。这加速了将人工智能组件纳入具有高度社会影响的各种应用程序(如医疗和交通)的趋势。尽管如此,即使人们越来越认同人工智能对社会有益,其固有的脆弱性也阻碍了其在安全关键型应用中的应用。为了应对这些担忧,人工智能的正式验证领域在过去几年迅速发展,提供了自动验证人工智能系统是否按预期稳健运行的方法。本演讲将介绍我们在这一领域开发的一些关键方法,包括符号系统和连接系统。本课程将讨论基于逻辑的方法来验证无界多智能体系统(即由任意数量的同质智能体组成的系统,例如机器人群),建立神经网络模型鲁棒性的优化方法,以及分析神经符号多智能体系统特性的方法。

EC6:阿鲁内什·辛哈

罗格斯商学院

用于现实世界决策的人工智能和多智能体系统
博弈论是研究多智能体系统的一种流行模型。在本次演讲中,我将介绍我使用Stackelberg博弈模型对对抗性多智能体问题进行建模的工作,从标准效用最大化玩家发展到有限理性的丰富模型。使用效用最大化对手模型的第一行工作介绍了审计游戏和威胁筛选游戏的模型,以及用于大规模解决这些问题的新优化方法。第二条工作线着眼于学习有限理性行为和基于所学模型优化战略决策的各个方面;这些方面包括研究不同类别的有限理性,针对这些高度非线性模型的可扩展优化方法,以及从数据中高保真地学习多个交互主体的行为模型。总的来说,具有原则性战略决策优化的数据驱动行为模型为研究和社会效益应用提供了许多机会。

EC7:Ondrej Kuzelka

布拉格捷克技术大学

一阶逻辑中的计数和采样模型
一阶模型计数(FOMC)是对给定域元素集上一阶逻辑语句的模型进行计数的任务。其加权变体WFOMC通过为模型分配权重来推广FOMC,并在统计关系学习中有许多应用。不同作者十多年的研究已经确定了非平凡类的WFOMC问题,这些问题可以在域元素数量的时间多项式中求解。本文介绍了WFOMC的最新研究成果以及加权一阶模型抽样(WFOMS)的相关问题。我们还讨论了WFOMC和WFOMS在统计关系学习和其他领域的可能应用,例如,自动解决枚举组合学和初等概率理论中的问题。最后,我们提到了仍需解决的研究问题,以使这些方法的应用更加广泛。

EC8:Enrico Scala公司

布雷西亚大学

混合系统的人工智能规划
在规划需要在世界上执行操作的某些物理实体(例如机器人)的任务时,有必要考虑相当复杂的模型,以确保找到的计划实际上是可执行的。这是因为系统状态根据潜在的非线性动力学演化,在整个任务过程中,相互依赖的离散和连续变化会发生。这类系统通常在规划中使用混合命题逻辑和数学的语言进行紧凑表示。然而,这些语言仍然缺乏理解和利用。在这些情况下进行规划的实际困难是什么?我们如何构建能够扩展到实际规模问题的系统?哪些领域可以从这些语言中受益?我的研究旨在从理论和实践两个方面回答这些问题,从特定片段的复杂性分析、创新的启发式搜索方法和模型到模型编译。这些模型和相关规划师承诺提供不依赖大量数据的可信赖和可解释的人工智能解决方案。

EC9:杨柳

加州大学圣克鲁斯分校字节舞研究

人类标记数据在LLM时代的重要性
大型语言模型(LLM)的出现给定制机器学习模型的开发带来了一场革命,并引发了关于重新定义数据需求的争论。LLM的培训和实施促进了自动化,这引发了人们的讨论和期望,即人类层面的标签干预可能不再像在监督学习时代那样具有同等的重要性。
本文提出了令人信服的论据,支持LLM时代人类标记数据的持续相关性。

EC10:Nisarg Shah

多伦多大学

推进算法决策中的公平极限
随着算法和人工智能模型越来越多地被用于增强甚至取代传统的人类决策,人们对确保公平对待(群体)人们的兴趣也越来越浓厚。虽然公平在算法决策的许多领域是一个相对较新的设计标准,但它在微观经济学理论中的研究历史悠久。在本次演讲中,我将首先总结在资源分配等传统经济问题中促进公平保障的最新进展,然后描述如何将这些公平概念应用于新的决策范式,从分类和聚类到推荐系统和会议同行评审。

EC11:Aylin Caliskan公司

华盛顿大学

人工智能、偏见和道德
尽管ChatGPT试图减轻偏见,但当被指示将土耳其中性句子“O bir doktor.O bir hemşire”翻译成英语时,结果是有偏见的:“他是一名医生。她是一名护士。”2016年,我们已经证明,通过无监督学习训练的语言表征可以通过语料库中的统计规律自动嵌入社会认知中记录的内隐偏见。在语言、视觉和多模态语言中嵌入关联-视觉模型表明,大规模社会文化数据是人类对性别、种族或民族、肤色、能力、年龄、性别、宗教、社会阶层和交叉关联的隐性偏见的来源。对语言、视觉、语言视觉和生成性人工智能中的性别偏见的研究突出了人工智能中女性和女孩的性别化,而文本到图像生成器等易于访问的生成性人工智模型则在规模上放大了偏见。随着人工智能越来越多地将决定生命结果和机会的任务自动化,人工智能偏见的伦理对人类认知、社会、正义和人工智能的未来有着重要的影响。因此,至关重要的是提高我们对人工智能偏见深度和普遍性的理解,以减轻其在机器和社会中的影响。