格拉夫拉布

GraphLab:一种新的并行机器学习框架。设计和实现高效、可证明正确的并行机器学习(ML)算法是一个挑战。现有的高级并行抽象(如MapReduce)表达能力不足,而MPI和Pthreads等低级工具让ML专家反复解决相同的设计难题。通过针对ML中的常见模式,我们开发了GraphLab,它改进了像MapReduce这样的抽象,在保证数据一致性和实现高度并行性能的同时,紧凑地表达具有稀疏计算依赖性的异步迭代算法。我们通过设计和实现信念传播、Gibbs抽样、Co-EM、Lasso和压缩感知的并行版本,展示了GraphLab框架的表达能力。我们证明了使用GraphLab可以在大规模的实际问题上获得出色的并行性能。


zbMATH中的参考文献(参考文献23条)

显示第1到第20个结果,共23个。
按年份排序(引用)
  1. 力、气;钟、江;曹泽宏;Li,Xue:通过启发式贪婪方法和缓存策略优化流图划分(2020)
  2. 桑巴西万,拉吉夫;达斯,苏利什;Sahu,Sujit K:大数据统计机器学习的贝叶斯视角(2020)
  3. 张,灿;朱烈煌;许昌;卡希夫、谢里夫;张川;Liu,Ximeng:PGAS:用于精确受限最短距离查询的隐私保护图加密(2020)
  4. 达斯,阿里亚姆;Zaniolo,Carlo:陈述性递归计算的过时同步分布式模型(2019)
  5. Joana M.F.da Trindade,Konstantinos Karanasos,Carlo Curino,Samuel Madden,Julian Shun:Kaskade:高效图形分析的图形视图(2019)阿尔十四
  6. Fegaras,Leonidas:分布式大数据分析的代数(2017)
  7. 洪,吉惠;基松公园;汉、雍古;拉塞尔,莫斯托法·卡马尔;沃沃,大望加;Lee,Young Koo:大型动态图上使用距离索引的基于磁盘的最短路径发现(2017)
  8. 世俊公园;Shin,Jinwoo:线性规划最大乘积置信传播的收敛性和正确性(2017)
  9. Philipp Moritz,Robert Nishihara,Stephanie Wang,Alexey Tumanov,Richard Liaw,Eric Liang,Melih Elibol,Zongheng Yang,William Paul,Michael I.Jordan,Ion Stoica:Ray:新兴人工智能应用的分布式框架(2017)阿尔十四
  10. 艾,吴;陈伟胜;Xie,Jin:基于随机权值前馈神经网络的分布式协同学习零梯度和算法(2016)
  11. 拜耳,伊曼纽尔:fastFM:因子分解机库(2016)
  12. 何其荣;尹俊明;Xing,Eric P.:互联网规模网络的潜在空间推断(2016)
  13. 吕静;嗨,史蒂文·C·H。;王佳蕾;赵培林;刘志勇:大规模在线核心学习(2016)
  14. Ignacio Arnaldo,Kalyan Veeramachaneni,Andrew Song,Una May O'Reilly:带来你自己的学习者:一个基于云的、用于机器学习的数据并行共享(2015)不是zbMATH
  15. 玛格利亚坎,萨拉;斯图兹,菲利普;格罗斯,保罗;伯恩斯坦,亚伯拉罕:foxPSL:快速、优化和扩展的PSL实施(2015)ioport公司
  16. 玛哈尼,阿里扎S。;Sharabiani,Mansour T.A.:SIMD并行MCMC采样与大数据贝叶斯分析应用(2015)
  17. 马丁斯,安德烈夫特。;费盖雷多,Mário A.T。;阿吉亚,佩德罗·M·Q。;史密斯,诺亚A。;Xing,Eric P.:(\mathrmAD^3):图形模型中地图推理的交替方向对偶分解(2015)
  18. 阿加瓦尔,阿列赫;小教堂,奥利弗;达迪克,米罗斯拉夫;John Langford:可靠有效的terascale线性学习系统(2014)
  19. 克鲁兹,弗拉维奥;罗查,里卡多;戈尔茨坦,塞思·科本;并行规划(Frank-Pfing,2014),线性规划语言
  20. 科尔达,塔玛拉G。;皮纳尔,阿里;普兰腾加,托德;塞沙赫里,C。;任务,克里斯汀:用MapReduce计算大量图形中的三角形(2014)