跳到主要内容
10.1145/3240765.3240774指导程序文章/章节视图摘要出版物页面会议记录acm-pubtype公司
研究论文

基于深度Q学习的SGD自适应精度框架

作者信息和声明
出版:2018年11月5日出版历史

摘要

随机梯度下降(SGD)是一种在许多应用中广泛使用的算法,特别是在深度学习模型的训练过程中。SGD的低精度实现已被研究为一种主要的加速方法。然而,如果使用不当,低精度实现可能会恶化其收敛性,因为当梯度在局部最优值附近变小时会产生舍入误差。在这项工作中,为了平衡吞吐量和算法精度,我们应用Q学习技术通过设计适当的决策函数来自动调整SGD的精度。提出的Q学习决策函数以目标函数的错误率、梯度和当前精度配置为输入。然后Q学习自适应地选择合适的精度,以提高硬件效率和算法精度。我们使用FPGA等可重构器件来评估由所提出的Q学习方法生成的自适应精度配置。我们使用带有MNIST和CIFAR10数据集的LeNet-5模型原型化该框架,并在Xilinx KCU1500 FPGA板上实现。在实验中,我们分析了不同精度表示的吞吐量以及我们的框架的精度选择。结果表明,具有自适应精度的所提出的框架将吞吐量提高了4.3×与传统的32位浮点设置相比,它实现了最佳的硬件效率和算法精度。

工具书类

  1. [1].Rumelhart D.E.公司。,辛顿G.E。、和威廉姆斯·R.J。, “通过反向传播错误学习表征,”自然,卷。323,没有。6088,第页。533,1986.谷歌学者谷歌学者交叉引用交叉引用
  2. [2].博图(Bottou L.)。, “神经网络中的随机梯度学习,”神经网络研究进展,卷。91,没有。8,第页。12, 1991.谷歌学者谷歌学者
  3. [3].雷希特B。,关于C。,赖特·S·。、和牛福。, “霍格沃德!:一种并行化随机梯度下降的无锁方法,“in神经信息处理系统研究进展2011年,pp。693701.谷歌学者谷歌学者
  4. [4].德萨公司。,张C。,Olukotun K。、和雷氏硬度。, “驯服野外:霍格沃德的统一分析-样式算法,“in神经信息处理系统研究进展,2015年,pp。26742682.谷歌学者谷歌学者
  5. [5].库尔巴里奥·M·。,本吉奥·Y。、和大卫·J·P。, “用低精度乘法训练深度神经网络,“arXiv预打印arXiv:1412.7024,2014.谷歌学者谷歌学者
  6. [6].古普塔S。,阿格拉瓦尔A。,Gopalakrishnan K。、和纳拉亚南P。, “有限数值精度的深度学习,“in机器学习国际会议2015年,pp。17371746.谷歌学者谷歌学者
  7. [7].韩S。,毛H。、和Dally W.J.公司。, “深度压缩:使用修剪、训练量化和哈夫曼编码压缩深度神经网络,“arXiv预打印arXiv:1510.00149,2015.谷歌学者谷歌学者
  8. [8].德萨C。,费尔德曼·M·。,雷氏硬度。、和Olukotun K。, “理解和优化异步低精度随机梯度下降,“in计算机体系结构(ISCA),2017 ACM/IEEE第44届年度国际研讨会IEEE,2017年,pp。561574.谷歌学者谷歌学者
  9. [9].张Q(音译)。,元F。,叶·R。、和徐Q(音译)。, “近似:迭代方法的近似计算框架,“in第51届设计自动化年会会议记录美国机械工程师协会,2014年,pp。16.谷歌学者谷歌学者
  10. [10].鲁德尔·S。, “梯度下降优化算法综述,“arXiv预打印arXiv:1609.04747,2016.谷歌学者谷歌学者
  11. [11].Mnih V.公司。,Kavukcuoglu K。,银色D。,格雷夫斯A。,安东尼奥卢一世。,维尔斯特拉·D·。、和里德米勒M。, “玩Atari游戏进行深度强化学习,“arXiv预打印arXiv:1312.5602,2013.谷歌学者谷歌学者
  12. [12].Xilinx公司(2017)Xilinx Kintex UltraScale FPGA KCU1500加速开发工具包.https://www.xilinx.com/products/boards-and-kits/dk-u1-kcu1500-g.html谷歌学者谷歌学者
  13. [13].张C。,李P。,太阳G。,关毅(Guan Y.)。,肖B。、和丛J。, “基于FPGA的深度卷积神经网络加速器优化设计,“in2015年ACM/SIGDA现场可编程门阵列国际研讨会会议记录ACM,2015年,pp。161170.谷歌学者谷歌学者数字图书馆数字图书馆
  14. [14].英伟达。(2018)cuDNN开发人员指南.https://docs.nvidia.com/deeplearning/sdk/cudnn-developer-guide/index.html谷歌学者谷歌学者
  15. [15].卡拉·K。,阿里斯塔·D·。,阿隆索·G。,穆特鲁·O。、和张C。, “FPGA加速密集线性机器学习:一种精确收敛权衡,“in2017年IEEE第25届现场可编程定制计算机(FCCM)年度国际研讨会IEEE,2017年,pp。160167.谷歌学者谷歌学者
  16. [16].周S。,吴毅(音)。,镍Z。,周十。,文H。、和邹毅(音)。, “DoReFa-Net:训练具有低比特宽梯度的低比特宽卷积神经网络,“arXiv预打印arXiv:1606.06160,2016.谷歌学者谷歌学者
  17. [17].林X。,赵C。、和平移W。, “一种精确的二元卷积神经网络,“in神经信息处理系统研究进展2017年,pp。345353.谷歌学者谷歌学者
  18. [18].萨顿R.S。巴托A.G。,强化学习:简介.麻省理工学院出版社剑桥,1998,卷。1.谷歌学者谷歌学者数字图书馆数字图书馆
  19. [19].戈萨维A。, “强化学习:教程调查和最新进展,”信息计算杂志,卷。21,没有。2,第页。178192,2009.谷歌学者谷歌学者数字图书馆数字图书馆
  20. [20].Werbos P.J.公司。, “构建和理解自适应系统:工厂自动化和大脑研究的统计/数值方法,”IEEE系统、人与控制论汇刊,卷。17,没有。1,第页。720,1月1987.谷歌学者谷歌学者数字图书馆数字图书馆
  21. [21].巴托A.G。,萨顿R.S。、和安德森·C·W。, “可解决学习控制难题的类神经自适应元件,”IEEE系统、人与控制论汇刊,卷。SMC-13公司,没有。5,第页。834846,9月1983.谷歌学者谷歌学者交叉引用交叉引用

索引术语

  1. 基于深度Q学习的SGD自适应精度框架
        索引项已通过自动分类分配给内容。

        建议

        评论

        登录选项

        请检查您是否可以通过登录凭据或您的机构访问此文章以获得完全访问权限。

        登录

        完全访问权限

        • 发布于

          封面图片指南会议记录
          2018 IEEE/ACM国际计算机辅助设计会议(ICCAD)
          2018年11月
          939页

          版权所有©2018

          出版商

          IEEE出版社

          出版历史

          • 出版:2018年11月5日

          权限

          请求有关此文章的权限。

          请求权限

          限定符

          • 研究论文