跳到主要内容
10.5555/3666122.3668723指导程序文章/章节视图摘要出版物页面钳口会议记录会议集合
研究论文

关系神经网络可以解决哪些规划问题?

2023年12月
文章编号:2601,页数59522-59542
出版:2024年5月30日 出版历史
  • 获取引文提醒
  • 摘要

    目标制约政策通常被理解为“前馈”电路,以神经网络的形式,从当前状态和目标规范映射到下一个要采取的行动。然而,在什么情况下可以学习到这样的政策,以及该政策的效率如何,尚不清楚。本文通过与串行目标回归搜索(S-GRS)建立联系,对表示规划问题策略的关系神经网络(如图神经网络和变压器)进行电路复杂性分析。我们证明了有三类一般的规划问题,即电路宽度和深度的增长是对象数量和规划范围的函数,并提供了建设性的证明。我们还说明了这种分析在设计用于政策学习的神经网络方面的实用性。

    工具书类

    [1]
    罗恩·阿尔福德(Ron Alford)、维卡斯·希瓦申卡尔(Vikas Shivashankar)、马克·罗伯茨(Mark Roberts)、杰里米·弗兰克(Jeremy Frank)和大卫·W·阿哈(David W Aha)。分层规划:将任务和目标分解与任务共享联系起来国际JCAI, 2016. 10
    [2]
    Waiss Azizian和Marc Lelarg。不变和等变图神经网络的表达能力。ICLR公司, 2021. 10
    [3]
    巴勃罗·巴塞罗、埃戈尔·科斯特列夫、米凯尔·莫奈、豪尔赫·佩雷斯、胡安·鲁特和胡安·巴勃罗·席尔瓦。图形神经网络的逻辑表达能力。ICLR公司, 2020. 6, 10
    [4]
    安东尼·巴雷特和丹尼尔·斯维尔德。描述用于规划的子目标交互。国际JCAI, 1993. 10
    [5]
    大卫·布费利(Davide Buffelli)、彼得罗·利奥(Pietro Lió)和法比奥·范丁(Fabio Vandin)。SizeShiftReg:一种改进图形神经网络尺寸泛化的正则化方法。NeurIPS公司, 2022. 10
    [6]
    汤姆·拜兰德。命题STRIPS规划的计算复杂性。Artif公司。智力。, 69(1-2): 165-204, 1994. 1, 10
    [7]
    蔡金一、马丁·福勒和尼尔·伊梅尔曼。图识别变量数的最优下界。组合数学, 12(4):389-410, 1992. 6
    [8]
    托马斯·卡塔(Thomas Carta)、克莱门特·罗马克(Clément Romac)、托马斯·沃尔夫(Thomas-Wolf)、西尔万·兰普利(Sylvain Lamprier)、奥利维尔·西戈德(Olivier Sigaud)和皮埃尔·伊夫斯·。通过在线强化学习在交互式环境中建立大型语言模型。arXiv:2302.02662, 2023. 1
    [9]
    Hubie Chen和Omer Giménez。行动本地,思考全球:牵引式规划的宽度概念。ICAPS公司, 2007. 1, 4, 5, 10, 15
    [10]
    约瑟夫·卡尔伯森(Joseph Culberson)。Sokoban完成了PSPACE。技术报告,阿尔伯塔大学,1997年。2, 10
    [11]
    董红华、毛佳元、田林、王冲、李丽红和周丹尼。神经逻辑机。ICLR公司, 2019. 1, 9, 10, 21
    [12]
    Dominik Drexler、Jendrik Seipp和Hector Geffner。学习草图,将规划问题分解为有界宽度的子问题。ICAPS公司, 2022. 10
    [13]
    库特鲁汉·埃罗(Kutluhan Erol)、詹姆斯·亨德勒(James Hendler)和达纳·S·瑙(Dana S Nau)。HTN规划:复杂性和表达性。AAAI公司, 1994. 10
    [14]
    理查德·菲克斯(Richard E Fikes)和尼尔斯·J·尼尔森(Nils J Nilsson)。STRIPS:应用定理证明解决问题的新方法。Artif公司。智力。, 2(3-4):189-208, 1971. 2
    [15]
    尤金·弗洛伊德。无回溯搜索的一个充分条件。JACM公司, 29(1):24-32, 1982. 15
    [16]
    Naresh Gupta和Dana S Nau。区块的复杂性——世界规划。Artif公司。智力。, 56(2-3):223-254, 1992. 10
    [17]
    蒋正耀和罗珊。神经逻辑强化学习。ICML公司, 2019. 9
    [18]
    理查德·卡普(Richard M Karp)。组合问题的可约性施普林格,1972年。10
    [19]
    理查德·科尔夫(Richard E Korf),《作为搜索的规划:定量方法》(Planning as Search:A Quantitative Approach)。Artif公司。智力。, 33(1):65-88, 1987. 10
    [20]
    理查德·李(Richard Li)、阿兰·贾布里(Allan Jabri)、特雷弗·达雷尔(Trevor Darrell)和普基特·阿格拉瓦尔(Pulkit Agrawal)。使用关系强化学习实现实用的多对象操作。ICRA公司, 2020. 1, 9, 10
    [21]
    梁学友、黄文龙、费霞、徐鹏、卡洛尔·豪斯曼、布莱恩·伊希特、皮特·弗洛伦斯和曾安迪。代码作为策略:具体控制的语言模型程序。arXiv预打印arXiv:2209.07753, 2022. 1
    [22]
    弗拉基米尔·利夫希茨(Vladimir Lifschitz)。关于STRIPS的语义。关于行动和计划的推理摩根·考夫曼,1987年。2
    [23]
    尼尔·利波维茨基和赫克托·杰夫纳。经典规划问题的宽度和系列化。ECAI 2012年IOS出版社,2012年。5, 10, 15
    [24]
    罗哲正(Zhezheng Luo)、毛嘉元(Jiayuan Mao)、约书亚(Joshua B Tenenbaum)和莱斯利·帕克·凯尔布林(Leslie Pack Kaelbling)。超图神经网络的表达与推广。LoG公司, 2022. 6, 10
    [25]
    克里斯托弗·莫里斯(Christopher Morris)、马丁·里泽特(Martin Ritzert)、马蒂亚斯·菲(Matthias Fey)、威廉·汉密尔顿(William L Hamilton)、扬·埃里克·伦森(Jan Eric Lenssen)、高拉夫·拉特坦(Gaura。Weisfeiler和Leman Go神经网络:高阶图形神经网络。AAAI公司, 2019. 5, 6
    [26]
    伯爵D·萨克多蒂。抽象空间层次中的规划。Artif公司。智力。, 5(2):115-135, 1974. 10
    [27]
    阿什什·瓦斯瓦尼(Ashish Vaswani)、诺姆·沙泽尔(Noam Shazeer)、尼基·帕尔玛(Niki Parmar)、雅各布·乌斯科雷特(Jakob Uszkoreit)、利昂·琼斯(Llion Jones)、艾丹·戈麦斯(Aidan N Gomez)、尤卡斯·凯泽(ukasz Kaiser。注意力是你所需要的。NeurIPS公司, 2017. 1, 5
    [28]
    威廉·维加·布朗(William Vega-Brown)和尼古拉斯·罗伊(Nicholas Roy)。任务和运动规划是PSPACE-Complete。AAAI公司, 2020. 2
    [29]
    王廷武(Tingwu Wang)、廖仁杰(Renjie Liao)、巴吉米(Jimmy Ba)和费德勒(Sanja Fidler)。神经网络:用图形神经网络学习结构化策略。ICLR公司, 2018. 1
    [30]
    许凯乌鲁、胡卫华、莱斯科维奇和杰尔卡。图形神经网络有多强大?ICLR公司, 2019. 10
    [31]
    徐克育、李静玲、张墨芝、杜文思、川崎健和杰尔卡。神经网络可以推理什么?ICLR公司, 2020. 10
    [32]
    徐克育、张墨芝、李静玲、杜西蒙、川崎健和杰尔卡。神经网络如何外推:从前馈到图形神经网络。ICLR公司, 2021. 10

    建议

    评论

    信息和贡献者

    问询处

    发布于

    封面图片指南会议记录
    NIPS’23:第37届神经信息处理系统国际会议记录
    2023年12月
    80772页

    出版商

    柯兰联合公司。

    美国纽约州Red Hook

    出版历史

    出版:2024年5月30日

    限定符

    • 研究文章
    • 研究
    • 推荐有限公司

    贡献者

    其他指标

    文献计量学和引文

    文献计量学

    文章指标

    • 0
      引文总数
    • 0
      总下载次数
    • 下载量(最近12个月)0
    • 下载次数(最近6周)0

    其他指标

    引文

    视图选项

    查看选项

    媒体

    数字

    其他

    桌子

    分享

    分享

    共享此出版物链接

    在社交媒体上分享