反对称RNN swMATH ID: 27774 软件作者: Bo Chang、Minmin Chen、Eldad Haber、Ed H.Chi 描述: 反对称RNN:递归神经网络的动态系统观。递归神经网络在序列数据建模中得到了广泛的应用。然而,由于渐变的爆炸或消失,使用这些模型学习长期依赖性仍然很困难。在本文中,我们将递归网络与常微分方程联系起来。在此理论框架下,提出了一种称为反对称RNN的特殊形式的递归网络,由于其基本微分方程的稳定性,它能够捕获长期相关性。现有的提高RNN可训练性的方法通常会带来很大的计算开销。相比之下,反对称RNN通过设计实现了相同的目标。我们通过大量的仿真和实验展示了这种新架构的优势。反对称RNN表现出更可预测的动力学。它在需要长期记忆的任务上优于常规的LSTM模型,在短期依赖性占主导地位的任务上也与之相匹配,尽管它要简单得多。 主页: https://arxiv.org/abs/1902.09689 关键词: 机器学习;arXiv_状态ML;arXiv_cs.LG公司;循环神经网络;循环神经网络;LSTM模型 相关软件: 火炬差异;亚当;GRU-ODE支架;神经CDE;火炬;MNIST公司;CIFAR公司;AlexNet公司;ImageNet公司;凯拉斯;数字Py;LSTM公司;DeepONet(深度网络);Deep Adverserial正则化器;爱德华;ADVI公司;TensorFlow公司;开放式泡沫 引用于: 7出版物 标准条款 1出版物描述软件 年份 反对称RNN:递归神经网络的动态系统观Bo Chang、Minmin Chen、Eldad Haber、Ed H.Chi 2019 全部的 前5名16位作者引用 1 哈利什·巴特。 1 卡提克省杜莱萨米 1 埃里克·福戈斯顿 1 拉奇特·古普塔 1 谢安尼先生 1 拉杰夫·库马尔·杰曼 1 达努什卡库拉纳特 1 Lim、Soon Hoe 1 孟平超 1 布拉克斯顿奥斯汀 1 潘绍武 1 马恩·克拉滕 1 亚历克斯·谢尔斯汀斯基 1 王新余 1 尹伟石 1 龙城尹 5篇连载文章中引用 2 物理D 2 SIAM应用动力系统杂志 1 计算机和流体 1 机器学习研究杂志(JMLR) 1 电子研究档案 全部的 前5名在7个字段中引用 5 计算机科学(68至XX) 三 动力系统和遍历理论(37至XX) 2 统计学(62-XX) 2 生物学和其他自然科学(92-XX) 1 常微分方程(34-XX) 1 算子理论(47-XX) 1 流体力学(76-XX) 按年份列出的引文