净值

用深层神经网络解决反问题。从间接测量中恢复函数或高维参数向量是各个科学领域的中心任务。解决这类反问题的几种方法已经得到了很好的发展和理解。最近,出现了利用深度学习和神经网络求解反问题的新算法。尽管这些技术仍处于初级阶段,但在低剂量CT或各种稀疏数据问题等应用中表现出惊人的性能。然而,对于反问题的深度学习,目前的理论成果很少。本文对所提出的NETT(Network-Tikhonov)反问题方法建立了完整的收敛性分析。NETT考虑由训练的神经网络定义的正则化器值较小的数据一致性解。我们得到了适定性结果和定量误差估计,并提出了一种训练正则化器的可能策略。我们的理论结果和框架不同于以往用神经网络求解反问题的工作。提出了一种可能的数据驱动正则化器。数值计算结果表明,即使对于训练数据中不同类型的未知量,NETT仍然具有良好的性能。为了得到收敛性和收敛速度的结果,我们引入了一个基于绝对Bregman距离的新框架,将标准Bregman距离从凸到非凸推广。


zbMATH中的参考文献(参考文献15条,1标准件)

显示第1到15个结果,共15个。
按年份排序(引用)

  1. 哈布林,安德烈亚斯;霍勒,马丁:成像反问题的生成变分模型(2022)
  2. 巴尔,利亚;Sochen,Nir:通过无监督学习实现基于PDE的断层扫描的强大解决方案(2021年)
  3. 陈云梅;刘洪成;叶,小静;张庆超:非光滑非凸图像重建的可学习下降算法(2021)
  4. 赵泰元;钟,朱丽安;蒋佳华:混合高斯先验大规模反问题的混合投影方法(2021)
  5. 德胡普,马丁五世。;拉萨,马蒂;黄,克里斯托弗A:非线性算子函数与非线性反问题之深度学习架构(2021)
  6. 伦茨,塞巴斯蒂安;豪普特曼,安德烈亚斯;塔瓦宁,塔尼亚;舍恩利布,卡罗拉·比比安;Simon Arridge:反问题中的学习算子修正(2021)
  7. 丹尼尔,奥布曼;施瓦布,约翰内斯;Haltmeier,Markus:正则化反问题的深度综合网络(2021)
  8. 皮涅茨,托马斯;科布勒,埃里希;波克,托马斯;Alexander Effland:共享基于能量的图像重建模型的先验知识(2021)
  9. 阿斯普里,安德里亚;科罗列夫,尤里;Scherzer,Otmar:数据驱动的投影正则化(2020)
  10. 巴格尔,丹尼尔·奥特罗;鲁施纳,约翰内斯;Schmidt,Maximilian:使用深度图像先验和学习重建方法的计算机断层重建(2020)
  11. 包钢;叶,小静;臧耀华;周浩民:弱对抗网络反问题的数值解法(2020)
  12. 李,豪森;施瓦布,约翰内斯;安东尼,斯蒂芬;Haltmeier,Markus:NETT:用深层神经网络解决反问题(2020)
  13. 施瓦布,约翰内斯;安东尼,斯蒂芬;Haltmeier,Markus:Big in Japan:正则化网络求解反问题(2020)
  14. 徐浩;常海斌;张东晓:DLGA-PDE:结合深度学习和遗传算法发现候选库不完整的偏微分方程(2020)
  15. 阿瑞奇,西蒙;马斯,彼得;厄克特姆,奥赞;Schönlieb,Carola Bibiane:使用数据驱动模型求解反问题(2019)