跳到主页内容
美国国旗

美国政府的官方网站

Dot政府

gov意味着它是官方的。
联邦政府网站通常以.gov或.mil结尾。之前分享敏感信息,确保你在联邦政府政府网站。

Https系统

该站点是安全的。
这个https(https)://确保您连接到官方网站,并且您提供的任何信息都是加密的并安全传输。

访问密钥 NCBI主页 MyNCBI主页 主要内容 主导航
.2018年8月21日;115(34):8505-8510.
doi:10.1073/pnas.1718942115。 Epub 2018年8月6日。

利用深度学习求解高维偏微分方程

附属公司

利用深度学习求解高维偏微分方程

杰群·韩等。 美国国家科学院程序. .

摘要

长期以来,由于众所周知的“维数灾难”问题,开发求解高维偏微分方程(PDE)的算法一直是一项非常困难的任务。本文介绍了一种基于深度学习的方法,可以处理一般的高维抛物偏微分方程。为此,使用倒向随机微分方程重新计算偏微分方程,并使用神经网络近似未知解的梯度,非常符合深度强化学习的精神,梯度作为策略函数。在非线性Black-Scholes方程、Hamilton-Jacobi-Bellman方程和Allen-Cahn方程等算例上的数值结果表明,该算法在高维情况下无论在精度还是成本上都是非常有效的。通过同时考虑所有参与主体、资产、资源或粒子,而不是对其相互关系进行特别假设,这为经济学、金融学、运筹学和物理学开辟了可能性。

关键词:Feynman–Kac;倒向随机微分方程;深度学习;高维;偏微分方程。

PubMed免责声明

利益冲突声明

作者声明没有利益冲突。

数字

图1。
图1。
的绘图θu个0近似值为u个(t吨=0,x个=(100,,100))100-一维非线性Black–Scholes方程40等距时间步长(N个=40)和学习率0.008阴影区域表示平均值±的SDθu个0近似值为u个(t吨=0,x个=(100,,100))进行五次独立跑步。深度BSDE方法实现了尺寸的相对误差0.46%在的运行时1,607第条。
图2。
图2。
(顶部)深度BSDE方法的相对误差u个(t吨=0,x个=(0,,0))什么时候λ=1100-尺寸HJB等式。13具有20等距时间步长(N个=20)和学习率0.01阴影区域表示平均值±五次不同运行的相对误差SD。深度BSDE方法实现了尺寸的相对误差0.17%在运行时330第条(底部)最佳成本u个(t吨=0,x个=(0,,0))针对不同的值λ如果是100-尺寸HJB等式。13,通过深度BSDE方法和经典蒙特卡罗模拟公式。14.
图3。
图3。
(顶部)深度BSDE方法的相对误差u个(t吨=0.3,x个=(0,,0))100-量纲Allen–Cahn方程。15具有20等距时间步长(N个=20)和学习率0.0005阴影区域表示平均值±五次不同运行的相对误差SD。深度BSDE方法实现了尺寸的相对误差0.30%在运行时647第条(底部)时间演变u个(t吨,x个=(0,,0))对于t吨[0,0.3]如果是100-量纲Allen–Cahn方程。15采用深BSDE方法计算。
图4。
图4。
求解半线性抛物偏微分方程的网络结构图解H(H)每个子网的隐藏层和N个时间间隔。整个网络(H(H)+1)(N个1)总共包含要同时优化的自由参数的层。每列t吨=t吨1,t吨2,,t吨N个1对应于当时的子网t吨.小时n个1,,小时n个H(H)是子网络中的中间神经元t吨=t吨n个对于n个=1,2,,N个1.

类似文章

引用人

工具书类

    1. Bellman RE。动态编程。普林斯顿大学出版社;普林斯顿:1957年。
    1. Goodfellow I,Bengio Y,Courville A.深度学习。麻省理工学院出版社;马萨诸塞州剑桥市:2016年。
    1. LeCun Y、Bengio Y、Hinton G.深度学习。自然。2015;521:436–444.-公共医学
    1. Krizhevsky A,Sutskever I,Hinton GE。深度卷积神经网络的Imagenet分类。收件人:Bartlett P、Pereira F、Burges CJC、Bottou L、Weinberger KQ,编辑。神经信息处理系统的进展。第25卷。柯兰联合公司。;纽约州红钩市:2012年。第1097-1105页。
    1. Hinton G等人。语音识别中声学建模的深度神经网络:四个研究小组的共同观点。IEEE信号处理杂志2012;29:82–97.

出版物类型