基于递归神经网络的无上下文文法合成

@文章{Yellin021SynthesizingCG,title={从递归神经网络合成上下文无关语法},author={Daniel M.Yellin和Gail Weiss},journal={系统构建和分析的工具和算法},年份={2021},体积={12651},页码={351-369},url={https://api.semanticscholar.org/CorpusID:231648035}}
提出了一种从训练好的递归神经网络(RNN)中提取上下文无关文法(CFG)子类的算法,以及如何将PRS转换为CFG,从而实现对所学语言的熟悉而有用的表示。

询问这篇论文
AI供电

使用树自动机学习和A*搜索从递归神经网络中提取上下文无关文法

提出了一种可视下推文法的主动学习算法及其在无上下文语言训练的递归神经网络代理模型学习中的适用性。

快速确定性黑盒无上下文文法推理

建议按照通用语言概念嵌套规则预先构造输入程序,递归地应用学习到的规则,并使黑盒无上下文语法推理具有确定性,通过实证比较,可以获得更快的运行时和更高质量的语法。

向无上下文语法的自动黑盒逆向工程扩展

这项工作观察到Arvada的许多泛化步骤违反了通用语言概念嵌套规则,并建议按照这些嵌套规则预先构建输入程序,递归地应用学习的规则,并使黑盒上下文无关语法推理具有确定性。

使用从不拒绝的神经分析器进行异常检测

本文介绍了从神经网络中提取产生式规则的过程,以及使用这些规则来确定给定句子是名词性的还是反常的,实验表明,该方法能够对非规则格式和包含高随机性/熵区域的格式进行语法推理和异常检测。

学习上下文无关语法:具有外部堆栈内存的递归神经网络的能力和局限性(cid:3)

在网络学习了转换规则和堆栈操作,并通过提供提示增强了网络的学习能力后,开发了一个模拟堆栈,该堆栈通过量化所有激活还原为离散堆栈。

递归神经网络能学习嵌套递归吗?

本文通过实验研究了几种递归神经网络(RNN)学习嵌套递归的能力,并通过将学习任务简化为学习一种广义Dyck语言(即由各种匹配括号组成的语言)来测量其学习嵌套递归能力的上限。

RNN可以生成具有最佳内存的有界层次语言

引入了Dyck-,即嵌套良好的括号和嵌套深度的语言,反映了自然语言语法的有界内存需求和长距离依赖性,并通过显式构造证明了具有$O(m\log-k)$隐藏单元的RNN就足够了,即内存的指数减少。

上下文无关语言推理的多项式算法

通过这种方法,所有满足上下文分布两个约束的上下文无关语言都可以在限定范围内被识别。

自然语言学习中的语法推理方法综述

研究人员在过去十年中开发的一项关于从例子中推断上下文无关语法的方法的调查,旨在为读者介绍自然语言学习研究中的主要概念和当前方法。

神经网络下推自动机:结构、动力学和训练

一种新模型,即神经网络下推自动机(NNPDA),它是一种将递归网络与外部堆栈存储器耦合的混合系统,应该能够学习和识别某些类别的上下文无关文法。

使用查询和反例从递归神经网络中提取自动机

我们提出了一种新的算法,该算法使用精确的学习和抽象来提取描述给定训练RNN的状态动力学的确定性有限自动机。我们使用Angluin的L*

评估LSTM学习上下文无关语法的能力

结论是,LSTM没有学习相关的潜在上下文无关规则,这表明良好的总体性能是通过评估滋扰变量的有效方法获得的。