摘要
[1] 大脑模型动物园R1.6.0。 https://github.com/Cerebras/modelzoo/tree/R_1.6.0。 谷歌学者 保罗A。 Buitrago和Nicholas A。 尼斯特罗姆。 2019.开放指南针:加速人工智能在开放研究中的应用。 《关于机器崛起的高级研究计算实践和经验会议录》(美国伊利诺伊州芝加哥)(PEARC’19)。 第72条,共9页。 谷歌学者 保罗A。 Buitrago和Nicholas A。 尼斯特罗姆。 2021.新皮质与桥梁-2:科学、发现和社会公益的高性能AI+HPC生态系统。 在高性能计算领域。 施普林格国际出版公司,205-219。 谷歌学者 雅各布·德夫林(Jacob Devlin)、张明伟(Ming Wei Chang)、肯顿·李(Kenton Lee)和克里斯蒂娜·图塔诺娃(Kristina Toutanova)。 2019.BERT:深度双向变形金刚语言理解预培训。 《计算语言学协会北美分会2019年会议记录:人类语言技术》,NAACL-HLT。 4171–4186. https://doi.org/10.18653/v1/n19-1423 谷歌学者 Emani等人,2022年。 针对深度学习工作负载的新型AI加速器的综合评估。 2022年,IEEE/ACM高性能计算机系统(PMBS)性能建模、基准测试和仿真国际研讨会。 13-25之间。 https://doi.org/10.109/PMBS56514.2022.00007 谷歌学者 亚伦·戈卡斯兰(Aaron Gokaslan)和瓦尼亚·科恩(Vanya Cohen)。 2019.OpenWebText语料库。 http://Skylion007.github.io/OpenWebTextCorpus 谷歌学者 Abhinand Nasari等人,2022年。 对人工智能/机器学习工作负载的国家网络基础设施资源加速器的性能进行基准测试。 高级研究计算实践与经验(美国马萨诸塞州波士顿)(PEARC’22)。 第19条。 谷歌学者 亚历克·拉德福德(Alec Radford)、杰夫·吴(Jeff Wu)、瑞文·柴尔德(Rewon Child)、大卫·卢(David Luan)、达里奥·阿莫迪(Dario Amodei)和伊利亚·萨茨克弗(Ilya Sutskever)。 2019.语言模型是无监督的多任务学习者。 (2019). 谷歌学者 Colin Raffel等人,2020年。 使用统一的文本到文本转换器探索迁移学习的局限性。 《机器学习研究杂志》21,1(2020),5485–5551。 谷歌学者 奥拉夫·伦尼伯格(Olaf Ronneberger)、菲利普·菲舍尔(Philipp Fischer)和托马斯·布洛克斯(Thomas Brox)。 2015.U-Net:生物医学图像分割的卷积网络。 医学图像计算和计算机辅助干预——2015年MICCAI。 施普林格国际出版社,商会,234–241。 谷歌学者 交叉引用 Ashish Vaswani等人,2017年。 注意力是你所需要的。 神经信息处理系统进展,第30卷。 Curran Associates公司。 谷歌学者
建议
融合CPU+GPU处理器(或APU)的并行计算效能研究 SAAHPC’11:2011年高性能计算应用加速器研讨会论文集 图形处理单元(GPU)作为并行计算的加速器取得了长足进步。 然而,由于GPU作为离散设备驻留在PCIe上,GPU应用程序的性能可能会受到数据传输的限制。。。 可扩展异构计算(SHOC)基准套件 GPGPU-3:图形处理单元通用计算第三次研讨会会议记录 可扩展的异构计算系统由多种计算设备组成,如商品多核处理器、图形处理器、可重构处理器等,作为一种持续性能的方法,正受到人们的关注。。。 用于高度并行数据密集型查询处理的便携式基准测试套件 PPAA 2015:分析应用程序并行编程第二次研讨会会议记录 传统上,数据仓库工作负载是使用以CPU为中心的集群来处理的,例如那些构成Amazon EC2中可用机器的大部分的集群,而提高分析性能的重点是利用同质。。。