跳到主要内容
10.1145/3659914.3659931acm会议文章/章节视图摘要出版物页面pasc公司会议记录会议集合
研究论文
开放式访问

PETScML:科学机器学习中训练回归问题的二阶解算器

出版:2024年6月3日出版历史

摘要

近年来,我们目睹了科学机器学习的出现,它是一种数据驱动工具,通过深度学习技术分析计算科学和工程应用产生的数据。

这些方法的核心是学习神经网络实现的监督训练算法,这是一个高度非凸的优化问题,通常使用随机梯度方法来解决。然而,与深度学习实践不同,科学的机器学习训练问题具有更大的平滑数据量和更好的经验风险函数特征,这使得它们适合于无约束优化的传统求解器。

我们引入了一个轻量级软件框架,该框架构建在科学计算的可移植和可扩展工具包之上,以弥补深度学习软件与传统求解器之间的差距,实现无约束最小化。

我们实证地证明了基于Hessian的Gauss-Newton近似的信赖域方法在改善回归任务中产生的泛化错误方面的优越效果,该方法用于学习各种科学机器学习技术和测试用例的替代模型。所有被测试的传统二阶解算器,包括L-BFGS和带线搜索的不精确牛顿,无论是在成本还是精度方面,都与用于验证代理模型的自适应一阶方法相比较有利。

工具书类

  1. 安恒斌,莫泽耀,刘兴平。2007.在不精确牛顿法中选择强制项。J.计算。申请。数学。200, 1 (2007), 47--60.谷歌学者谷歌学者数字图书馆数字图书馆
  2. 罗汉·阿尼尔(Rohan Anil)、维尼特·古普塔(Vineet Gupta)、托默·科伦(Tomer Koren)、凯文·里根(Kevin Regan)和约拉姆·辛格(Yoram Singer)。2020年,二阶优化变得切实可行。CoRR公司abs/2002.09018(2020)。arXiv:2002.09018号谷歌学者谷歌学者
  3. 萨蒂什·巴莱、施里朗·阿比扬卡、马克·亚当斯、史蒂文·本森、杰德·布朗、彼得·布鲁恩、克里斯·布舍尔曼、埃米尔·康斯坦丁斯库、利桑德罗·达尔辛、阿尔普·德纳、维克托·艾伊霍特、雅各布·法布索维奇、威廉·格罗普、瓦茨拉夫·哈普拉、托宾·艾萨克、皮埃尔·朱利维特、德米特里·卡佩夫、迪内什·考希克、马修·克内普利、范德·孔、斯科特·克鲁格、戴夫·阿·梅,路易斯·柯夫曼·麦克因斯(Lois Curfman McInnes)、理查德·特兰·米尔斯(Richard Tran Mills)、劳伦斯·米切尔(Lawrence Mitchell)、托德·蒙森(Todd Munson)、何塞·罗曼(Jose E.Roman)、卡尔·鲁普(Karl Rupp)、帕特里克·萨南(Patrick Sanan)、杰森·萨里奇(Ja。2023PETSc/TAO用户手册。技术报告ANL-21/39-版本3.20。阿贡国家实验室。谷歌学者谷歌学者
  4. 萨蒂什·巴莱、施里朗·阿比扬卡、马克·亚当斯、史蒂文·本森、杰德·布朗、彼得·布鲁恩、克里斯·布舍尔曼、埃米尔·康斯坦丁斯库、利桑德罗·达尔辛、阿尔普·德纳、维克托·艾伊霍特、雅各布·费布索维奇、威廉·格罗普、瓦茨拉夫·哈普拉、托宾·艾萨克、皮埃尔·朱利维特、德米特里·卡佩夫、迪内什·考希克、马修·克奈普利、范德·孔、斯科特·克鲁格、戴夫·A·梅,路易斯·柯夫曼·麦克因斯(Lois Curfman McInnes)、理查德·特兰·米尔斯(Richard Tran Mills)、劳伦斯·米切尔(Lawrence Mitchell)、托德·蒙森(Todd Munson)、何塞·罗曼(Jose E.Roman)、卡尔·鲁普(Karl Rupp)、帕特里克·萨南(Patrick Sanan)、杰森·萨里奇(Ja。2023.PETSc网页。https://petsc.org/谷歌学者谷歌学者
  5. 卢卡·贝加马奇、何塞·马林和安吉莱斯·马丁内斯。对称正定线性系统的紧拟牛顿预条件。数值线性代数及其应用27、6(2020年),e2322。谷歌学者谷歌学者交叉引用交叉引用
  6. 莱昂·博图(Léon Bottou)、弗兰克·E·柯蒂斯(Frank E.Curtis)和豪尔赫·诺塞达尔(Jorge Nocedal)。2018.大规模机器学习的优化方法。SIAM版本。60, 2 (2018), 223--311.谷歌学者谷歌学者交叉引用交叉引用
  7. 尼古拉斯·博莱(Nicolas Boullé)、克里斯托弗·厄尔斯(Christopher J Earls)和亚历克斯·汤森(Alex Townsend)。2022.通过人类可理解的深度学习,数据驱动发现格林函数。科学报告12, 1 (2022), 4824.谷歌学者谷歌学者
  8. 尼古拉斯·博莱、戴安娜·哈利基亚斯和亚历克斯·汤森。2023.事实证明,椭圆PDE学习具有数据效率。美国国家科学院院刊120、39(2023)、e2303904120。谷歌学者谷歌学者交叉引用交叉引用
  9. 尼古拉斯·博莱(Nicolas Boullé)、中岛由纪夫(Yuji Nakatsukasa)和亚历克斯·汤森(Alex Townsend)。2020年,理性神经网络。神经信息处理系统的研究进展33 (2020), 14243--14253.谷歌学者谷歌学者
  10. Peter R Brune、Matthew G Knepley、Barry F Smith和Xuemin Tu.2015。组成可扩展的非线性代数解算器。SIAM版本。57, 4 (2015), 535--565.谷歌学者谷歌学者数字图书馆数字图书馆
  11. Steven L Brunton、Joshua L Proctor和J Nathan Kutz。2016年,通过非线性动力系统的稀疏识别,从数据中发现控制方程。国家科学院学报113, 15 (2016), 3932--3937.谷歌学者谷歌学者交叉引用交叉引用
  12. Richard H Byrd、Samantha L Hansen、Jorge Nocedal和Yoram Singer。2016年,大规模优化的随机拟Newton方法。SIAM优化杂志26, 2 (2016), 1008--1031.谷歌学者谷歌学者数字图书馆数字图书馆
  13. 理查德·伯德(Richard H Byrd)、豪尔赫·诺塞达尔(Jorge Nocedal)和罗伯特·施纳贝尔(Robert B Schnabel)。拟纽顿矩阵的表示及其在有限记忆方法中的应用。数学规划63, 1--3 (1994), 129--156.谷歌学者谷歌学者数字图书馆数字图书馆
  14. 蔡晓川和大卫·E·凯斯。2002.非线性预处理不精确牛顿算法。SIAM科学计算杂志24, 1 (2002), 183--200.谷歌学者谷歌学者数字图书馆数字图书馆
  15. Andrew R Conn、Nicholas IM Gould和Philippe L Toint。2000信赖域方法。暹罗。谷歌学者谷歌学者
  16. 乔治·西本科(George Cybenko)。1989.通过S形函数的叠加进行近似。控制、信号和系统数学2, 4 (1989), 303--314.谷歌学者谷歌学者
  17. Lisandro D Dalcin、Rodrigo R Paz、Pablo A Kler和Alejandro Cosimo。2011.使用Python的并行分布式计算。水资源进展34, 9 (2011), 1124--1139.谷歌学者谷歌学者交叉引用交叉引用
  18. Sambit Das、Bikash Kanungo、Vishal Subramanian、Gourab Panigrahi、Phani Motamarri、David Rogers、Paul Zimmerman和Vikram Gavini。2023.量子精度下的大尺度材料建模:金属合金中准晶和相互作用扩展缺陷的从头算模拟。高性能计算、网络、存储和分析国际会议记录(美国科罗拉多州丹佛市)(SC’23)。美国纽约州纽约市计算机机械协会,第1条,12页。谷歌学者谷歌学者数字图书馆数字图书馆
  19. Maarten V de Hoop、Daniel Zhengyu Huang、Elizabeth Qian和Andrew M Stuart。2022.使用神经网络进行操作员学习的成本-准确性权衡。机器学习杂志(2022).谷歌学者谷歌学者
  20. Alexey Dosovitskiy、Lucas Beyer、Alexander Kolesnikov、Dirk Weissenborn、Xiaohua Zhai、Thomas Unterthiner、Mostafa Deghani、Matthias Minderer、Georg Heigold、Sylvain Gelly等,2020年。一幅图像相当于16x16个单词:用于大规模图像识别的变形金刚。arXiv预印arXiv:2010.11929(2020).谷歌学者谷歌学者
  21. 约翰·杜奇(John Duchi)、伊拉德·哈赞(Elad Hazan)和约拉姆·辛格(Yoram Singer)。2011.在线学习和随机优化的自适应次梯度方法。机器学习研究杂志12, 7 (2011).谷歌学者谷歌学者数字图书馆数字图书馆
  22. 斯坦利·艾森斯塔特(Stanley C Eisenstat)和荷马·F·沃克(Homer F Walker)。1996.用不精确牛顿法选择强迫项。SIAM科学计算杂志17, 1 (1996), 16--32.谷歌学者谷歌学者数字图书馆数字图书馆
  23. Roy Frostig、Matthew James Johnson和Chris Leary。2018年,通过高级跟踪编写机器学习程序。机器学习系统4(9) (2018).谷歌学者谷歌学者
  24. Donald Goldfarb、Yi Ren和Achraf Bahamou。2020年。训练深层神经网络的实用准牛顿方法。第34届神经信息处理系统国际会议记录(加拿大温哥华)(NeurIPS)。第201条,共11页。谷歌学者谷歌学者数字图书馆数字图书馆
  25. Priya Goyal、Piotr Dollár、Ross Girshick、Pieter Noordhuis、Lukasz Wesolowski、Aapo Kyrola、Andrew Tulloch、Yangqing Jia和Kaiming He。2017年。准确、大批量sgd:1小时内培训imagenet。arXiv预打印arXiv:1706.02677(2017).谷歌学者谷歌学者
  26. Vineet Gupta、Tomer Koren和Yoram Singer。2018.洗发水:预处理随机张量优化。谷歌学者谷歌学者
  27. 丹·亨德里克斯和凯文·金佩尔。2016.高斯误差线性单位(GELUs)。arXiv预打印arXiv:1606.08415(2016).谷歌学者谷歌学者
  28. 库尔特·霍尼克(Kurt Hornik)、麦克斯韦尔·斯汀科姆(Maxwell Stinchcombe)和哈尔伯特·怀特(Halbert White)。1989年。多层前馈网络是通用逼近器。神经网络2, 5 (1989), 359--366.谷歌学者谷歌学者数字图书馆数字图书馆
  29. 高黄、刘庄、劳伦斯·范德马滕和基里安·温伯格。2017年。紧密连接的卷积网络。IEEE计算机视觉和模式识别会议记录。4700--4708.谷歌学者谷歌学者交叉引用交叉引用
  30. Kazuki Irie、Imanol Schlag、Róbert Csordás和Jürgen Schmidhuber。2021.超越线性变压器,配备经常性快速称重程序员。神经信息处理系统研究进展34 (2021), 7703--7717.谷歌学者谷歌学者
  31. 贾伟乐、王涵、陈墨涵、卢登辉、林琳、Roberto Car、E Weinan和张琳峰。2020年。利用机器学习将分子动力学的从头算精度极限提高到1亿个原子。SC20:高性能计算、网络、存储和分析国际会议。IEEE,1-14。谷歌学者谷歌学者数字图书馆数字图书馆
  32. Diederik P Kingma和Jimmy Ba.2014年。ADAM:一种随机优化方法。arXiv预印本arXiv:1412.6980(2014).谷歌学者谷歌学者
  33. 尼古拉·科瓦奇奇(Nikola Kovachki)、塞缪尔·兰塔勒(Samuel Lanthaler)和悉达塔·米什拉(Siddhartha Mishra)。2021.关于傅里叶神经算子的通用逼近和误差界。机器学习研究杂志22, 1 (2021), 13237--13312.谷歌学者谷歌学者数字图书馆数字图书馆
  34. Nikola B Kovachki、Zongyi Li、Burigede Liu、Kamyar Azizzadenesheli、Kaushik Bhattacharya、Andrew M Stuart和Anima Anandkumar。2023.神经算子:函数空间之间的学习映射及其在偏微分方程中的应用。J.马赫。学习。物件。24, 89 (2023), 1--97.谷歌学者谷歌学者
  35. Samuel Lanthaler、Siddhartha Mishra和George E Karniadakis。2022.DeepONets的错误估计:无限维的深度学习框架。数学汇刊及其应用6,1(2022年3月),tnac001。谷歌学者谷歌学者交叉引用交叉引用
  36. Yann LeCun、Yoshua Bengio和Geoffrey Hinton。2015年,深度学习。自然521, 7553 (2015), 436--444.谷歌学者谷歌学者
  37. 李西林,2017。预处理随机梯度下降。IEEE神经网络和学习系统事务29, 5 (2017), 1454--1466.谷歌学者谷歌学者
  38. 李宗义(Zongyi Li)、尼古拉·科瓦奇奇(Nikola Kovachki)、卡米亚尔·阿齐扎德涅谢利(Kamyar Azizzadenesheli)、布里吉德·刘(Burigede Liu)、考希克·巴塔查里亚(Kaushik Bhattacharya)、安德鲁·斯图亚特(Andrew Stuart)和阿尼马·阿南德库马尔(Anima Anandkumar)。2020年。参数偏微分方程的傅里叶神经算子。arXiv预打印arXiv:2010.08895(2020).谷歌学者谷歌学者
  39. 刘东川和豪尔赫·诺塞达尔。1989年,关于大规模优化的有限内存BFGS方法。数学编程45, 1--3 (1989), 503--528.谷歌学者谷歌学者
  40. 刘璐璐、高卫国、韩瑜和大卫·E·凯斯。线性和非线性系统的重叠乘法Schwarz预处理。J.计算。物理学。496 (2024), 112548.谷歌学者谷歌学者数字图书馆数字图书馆
  41. 杨柳和弗雷德·鲁斯塔。2021.不精确Hessian信息下Newton-MR的收敛。SIAM优化杂志31, 1 (2021), 59--90.谷歌学者谷歌学者数字图书馆数字图书馆
  42. 伊利亚·洛希洛夫和弗兰克·赫特。2017.解耦重量衰减正则化。arXiv预打印arXiv:1711.05101(2017).谷歌学者谷歌学者
  43. 陆璐、金鹏展、庞国飞、张忠强和乔治·埃姆·卡尼亚达克斯。2021.基于算子的普遍逼近定理,通过DeepONet学习非线性算子。自然机器智能3, 3 (2021), 218--229.谷歌学者谷歌学者
  44. 吕璐、孟旭辉、蔡盛泽、毛志平、索姆达塔·戈斯瓦米、张忠强和乔治·埃姆·卡尼亚达克斯。2022.基于公平数据对两个神经运算符(带有实际扩展)进行全面公平的比较。应用力学与工程中的计算机方法393 (2022), 114778.谷歌学者谷歌学者交叉引用交叉引用
  45. 卡洛·马卡蒂和克里斯托夫·施瓦布。椭圆偏微分方程深算子网络的指数收敛性。SIAM J.数字。分析。61, 3 (2023), 1513--1545.谷歌学者谷歌学者交叉引用交叉引用
  46. 詹姆斯·马滕斯和罗杰·格罗斯。2015.使用kronecker-factor近似曲率优化神经网络。关于机器学习的国际会议。PMLR,2408--2417年。谷歌学者谷歌学者
  47. 詹姆斯·马滕斯(James Martens)和伊利亚·萨茨克弗(Ilya Sutskever)。2011.使用无Hessian优化学习递归神经网络。第28届机器学习国际会议论文集(ICML-11)。1033--1040.谷歌学者谷歌学者
  48. 理查德·特兰·米尔斯(Richard Tran Mills)、马克·亚当斯(Mark F.Adams)、萨蒂什·巴莱(Satish Balay)、杰德·布朗(Jed Brown)、阿尔普·德纳(Alp Dener)、马修·克内普利(Matthew Knepley)、斯科特·克鲁格(Scott E.Kruger)、汉娜·摩根(Hannah Morgan)、托德·蒙森(Todd。2021.面向基于GPU的exascale系统的性能便携式PETSc。并行计算。108 (2021), 102831.谷歌学者谷歌学者数字图书馆数字图书馆
  49. 维诺德·奈尔和杰弗里·欣顿。2010年。校正线性单元改进了受限的Boltzmann机器。第27届机器学习国际会议(ICML-10)会议记录。807--814.谷歌学者谷歌学者数字图书馆数字图书馆
  50. Tenavi Nakamura-Zimmerer、Qi Gong和Wei Kang。2021.高维Hamilton-Jacobi-Bellman方程的自适应深度学习。SIAM科学计算杂志43,2(2021),A1221--A1247。谷歌学者谷歌学者数字图书馆数字图书馆
  51. 豪尔赫·诺塞达尔(Jorge Nocedal)和斯蒂芬·赖特(Stephen J Wright)。2006数值优化。斯普林格。谷歌学者谷歌学者
  52. 托马斯·奥利里·罗塞伯里(Thomas O'Leary-Roseberry)、尼克·阿尔杰(Nick Alger)和奥马尔·加塔斯(Omar Ghattas)。2021.低秩无鞍牛顿:随机非凸优化的可缩放方法。arXiv:2002.02881号谷歌学者谷歌学者
  53. 托马斯·奥利里·罗塞贝里、陈鹏、翁贝托·维拉和奥马尔·加塔斯。2024.衍生信息神经算子:高维参数衍生学习的有效框架。J.计算。物理学。496 (2024), 112555.谷歌学者谷歌学者数字图书馆数字图书馆
  54. 大泽和贵、石川聪、横田力拓、李世刚和托尔斯滕·霍夫勒。2023.ASDL:PyTorch中梯度预处理的统一接口。arXiv预打印arXiv:2305.04684(2023).谷歌学者谷歌学者
  55. Osawa Kazuki、Yohei Tsuji、Yuichiro Ueno、Akira Naruse、Rio Yokota和S.Matsuoka。2018.大型迷你背带的二阶优化方法:在35个Epochs中在ImageNet上训练ResNet-50。ArXiv公司abs/1811.12019(2018)。谷歌学者谷歌学者
  56. Adam Paszke、Sam Gross、Francisco Massa、Adam Lerer、James Bradbury、Gregory Chanan、Trevor Killeen、Zeming Lin、Natalia Gimelshein、Luca Antiga、Alban Desmaison、Andreas Kopf、Edward Yang、Zachary DeVito、Martin Raison、Alykhan Tejani、Sasank Chilamkurthy、Benoit Steiner、Lu Fang、Junjie Bai和Soumith Chintala。2019.Pytorch:一个命令式、高性能的深度学习库。神经信息处理系统的研究进展32 (2019).谷歌学者谷歌学者
  57. J.Gregory Pauloski、Qi Huang、Lei Huang.、Shivaram Venkataraman、Kyle Chard、Ian Foster和Zhao Zhang。2021.KAISA:深度神经网络的自适应二阶优化框架。高性能计算、网络、存储和分析国际会议记录(密苏里州圣路易斯)(SC’21)。美国纽约州纽约市计算机协会,第13条,共14页。谷歌学者谷歌学者数字图书馆数字图书馆
  58. 马齐亚尔·莱斯。2018.深层隐藏物理模型:非线性偏微分方程的深层学习。机器学习研究杂志19, 1 (2018), 932--955.谷歌学者谷歌学者数字图书馆数字图书馆
  59. Maziar Raissi、Paris Perdikaris和George E Karniadakis。2019.基于物理的神经网络:用于解决涉及非线性偏微分方程的正问题和逆问题的深度学习框架。计算物理杂志378 (2019), 686--707.谷歌学者谷歌学者交叉引用交叉引用
  60. Farbod Roosta-Khorasani和Michael W Mahoney。2019.子样本牛顿法。数学规划174 (2019), 293--326.谷歌学者谷歌学者数字图书馆数字图书馆
  61. 贾斯汀娜·萨津斯卡·沃尔、亚历山大·沃尔(Aleksander Wawer)、亚历山大·帕瓦拉克(Alekshandra Pawlak)、朱莉娅·斯齐马诺夫斯卡(Julia Szymanowska)、伊莎贝拉·斯特凡尼亚克(Izabela Stefaniak),米查尔·贾基维茨(Michal Jarkiewicz)和卢卡斯。2021.通过深层语境化词语表征检测形式思维障碍。精神病学研究304 (2021), 114135.谷歌学者谷歌学者交叉引用交叉引用
  62. 尤根·施密杜贝尔(Jürgen Schmidhuber)。2015年,《神经网络深度学习:概述》。神经网络61 (2015), 85--117.谷歌学者谷歌学者
  63. 尼科尔·施劳多夫(Nicol N Schraudolph)。2002.二阶梯度下降的快速曲率矩阵向量乘积。神经计算14, 7 (2002), 1723--1738.谷歌学者谷歌学者
  64. Samuel L Smith、Benoit Dherin、David GT Barrett和Soham De.2021。随机梯度下降中隐式正则化的起源。2021年第九届国际学习代表大会(2021).谷歌学者谷歌学者
  65. 特隆·斯泰豪格(Trond Steihaug)。1983.共轭梯度法和大规模优化中的信任域。SIAM J.数字。分析。20, 3 (1983), 626--637.谷歌学者谷歌学者数字图书馆数字图书馆
  66. 伊利亚·萨茨克弗(Ilya Sutskever)、詹姆斯·马滕斯(James Martens)、乔治·达尔(George Dahl)和杰弗里·辛顿(Geoffrey Hinton)。2013年,关于深度学习中初始化和动力的重要性。机器学习国际会议。PMLR,1139--1147。谷歌学者谷歌学者
  67. 菲利普·托因特。1981.利用牛顿法实现有效的稀疏性最小化。稀疏矩阵及其用途。学术出版社,57-88。谷歌学者谷歌学者
  68. 简·范登·布兰德、彭炳慧、赵松和欧姆里·温斯坦。2021.在近线性时间中训练(过参数化)神经网络。第12届理论计算机科学创新大会(ITCS 2021)(莱布尼茨国际信息学论文集,第185卷)James R.Lee(编辑)。Dagstuhl-Leibniz-Zentrum für Informatik修道院,德国达格斯图尔,63:1-63:15。谷歌学者谷歌学者
  69. 温同琪、张琳峰、王涵、E Weinan和David J Srolovitz。2022.材料科学的深层潜力。材料期货1, 2 (2022), 022601.谷歌学者谷歌学者交叉引用交叉引用
  70. 徐鹏(Peng Xu)、弗雷德·罗斯塔(Fred Roosta)和迈克尔·马奥尼(Michael W Mahoney)。2020年。不精确Hessian信息下非凸优化的牛顿型方法。数学规划184, 1--2 (2020), 35--70.谷歌学者谷歌学者数字图书馆数字图书馆
  71. 杨明翰(Minghan Yang)、徐冬(Dong Xu)、温再文(Zaiwen Wen)、陈梦云(Mengyun Chen)和徐鹏翔(Pengxiang Xu)。2022.深度学习的基于草图的经验自然梯度方法。科学计算杂志92, 3 (2022), 94.谷歌学者谷歌学者数字图书馆数字图书馆
  72. 姚哲伟(Zhewei Yao)、阿米尔·戈拉米(Amir Ghoma)、沈盛(Sheng Shen)、穆斯塔法·穆斯塔法(Mustafa Mustafa.)、库尔特·凯泽尔(Kurt Keutzer)和迈克尔·马奥尼(Michael Mahoney)。2021.AdaHessian:机器学习的自适应二阶优化程序。AAAI人工智能会议记录35,12(2021年5月),10665--10673。谷歌学者谷歌学者交叉引用交叉引用
  73. Yang You、Igor Gitman和Boris Ginsburg.2017年。将sgd批量大小扩展到32k,用于imagenet培训。arXiv预打印arXiv:1708.038886, 12 (2017), 6.谷歌学者谷歌学者
  74. 杨友、李靖、萨珊克·雷迪、乔纳森·徐、桑吉夫·库马尔、斯里纳德·博贾纳帕利、宋晓丹、詹姆斯·德梅尔、库尔特·凯泽尔和谢卓绝。2020年。深度学习的大批量优化:76分钟内培训BERT。2020年第八届国际学习代表大会(2020).谷歌学者谷歌学者
  75. Bing Yu等人,2018年。deep Ritz方法:一种基于深度学习的数值算法,用于求解变分问题。数学与统计传播6, 1 (2018), 1--12.谷歌学者谷歌学者交叉引用交叉引用
  76. 张俊超、杰德·布朗、萨蒂什·巴莱、雅各布·费布索维奇、马修·克内普利、奥纳·马林、理查德·特兰·米尔斯、托德·蒙森、巴里·史密斯和斯特凡诺·扎皮尼。2021.PetscSF可扩展通信层。IEEE并行和分布式系统汇刊33, 4 (2021), 842--853.谷歌学者谷歌学者交叉引用交叉引用
  77. Ellen D Zhong、Tristan Bepler、Bonnie Berger和Joseph H Davis。2021.Cryo-DRGN:使用神经网络重建异质低温电磁结构。自然方法18, 2 (2021), 176--185.谷歌学者谷歌学者

索引术语

  1. PETScML:科学机器学习中训练回归问题的二阶解算器

          建议

          评论

          登录选项

          检查您是否可以通过登录凭据或您的机构访问本文。

          登录

          完全访问权限

          • 发布于

            封面图片ACM会议
            PASC’24:高级科学计算平台会议记录
            2024年6月
            296页
            国际标准图书编号:9798400706394
            内政部:10.1145/3659914

            本作品根据Creative Commons Attribution International 4.0许可证授权。

            出版商

            计算机协会

            美国纽约州纽约市

            出版历史

            • 出版:2024年6月3日

            检查更新

            限定符

            • 研究论文

            接受率

            24年PASC纸张接受率26属于36提交文件,72%总体验收率109属于221提交文件,49%
          • 文章指标

            • 下载次数(过去12个月)0
            • 下载次数(最近6周)0

            其他指标

          PDF格式

          以PDF文件查看或下载。

          PDF格式

          电子阅读器

          使用eReader联机查看。

          电子阅读器