格拉夫拉布

GraphLab:一种新的并行机器学习框架。设计和实现高效、可证明正确的并行机器学习(ML)算法是一个挑战。现有的高级并行抽象(如MapReduce)表达能力不足,而MPI和Pthreads等低级工具让ML专家反复解决相同的设计难题。通过针对ML中的常见模式,我们开发了GraphLab,它改进了像MapReduce这样的抽象,在保证数据一致性和实现高度并行性能的同时,紧凑地表达具有稀疏计算依赖性的异步迭代算法。我们通过设计和实现信念传播、Gibbs抽样、Co-EM、Lasso和压缩感知的并行版本,展示了GraphLab框架的表达能力。我们证明了使用GraphLab可以在大规模的实际问题上获得出色的并行性能。


zbMATH中的参考文献(参考文献23条)

显示第1到第20个结果,共23个。
按年份排序(引用)
  1. 桑巴西万,拉吉夫;达斯,苏利什;Sahu,Sujit K:大数据统计机器学习的贝叶斯视角(2020)
  2. 张,灿;朱烈煌;许昌;谢里夫、卡西夫;张川;Liu,Ximeng:PGAS:用于精确受限最短距离查询的隐私保护图加密(2020)
  3. 达斯,阿里亚姆;Zaniolo,Carlo:陈述性递归计算的过时同步分布式模型(2019)
  4. 乔安娜M。F。da Trindade,Konstantinos Karanasos,Carlo Curino,Samuel Madden,Julian Shun:Kaskade:高效图形分析的图形视图(2019)阿尔十四
  5. 毛鲁奇;普赛拉,朱塞佩;Toccu,Maurizio:Hadoop vs.Spark:对开放数据语料库Hammer查询引擎性能的影响(2018)
  6. Fegaras,Leonidas:分布式大数据分析的代数(2017)
  7. 洪,吉惠;基松公园;汉、雍古;拉塞尔,莫斯托法·卡马尔;沃沃,大望加;Lee,Young Koo:大型动态图上使用距离索引的基于磁盘的最短路径发现(2017)
  8. 世俊公园;Shin,Jinwoo:线性规划最大乘积置信传播的收敛性和正确性(2017)
  9. 菲利普·莫里茨、罗伯特·西哈拉、斯蒂芬妮·王、亚历克谢·图马诺夫、理查德·利亚乌、埃里克·梁、梅利赫·伊莱波、杨宗亨、威廉·保罗、迈克尔一世。Jordan,Ion Stoica:Ray:新兴人工智能应用的分布式框架(2017)阿尔十四
  10. 艾,吴;陈伟胜;Xie,Jin:基于随机权值前馈神经网络的分布式协同学习零梯度和算法(2016)
  11. 拜耳,伊曼纽尔:fastFM:因子分解机库(2016)
  12. 何其荣;尹俊明;Xing,Eric P.:互联网规模网络的潜在空间推断(2016)
  13. 吕静;嗨,史蒂文·C。H、 。;王佳蕾;赵培林;刘志勇:大规模在线核心学习(2016)
  14. Ignacio Arnaldo,Kalyan Veeramachaneni,Andrew Song,Una May O'Reilly:带来你自己的学习者:一个基于云的、用于机器学习的数据并行共享(2015)不是zbMATH
  15. 玛格利亚坎,萨拉;斯图兹,菲利普;格罗斯,保罗;伯恩斯坦,亚伯拉罕:foxPSL:快速、优化和扩展的PSL实施(2015)ioport公司
  16. 玛哈尼,阿里扎S。;夏拉比尼,曼苏尔T。A、 :SIMD并行MCMC采样,用于大数据贝叶斯分析(2015)
  17. 马丁斯,安德烈é F。T、 。;菲格雷多,Má里约A。T、 。;阿吉亚,佩德罗·M。Q、 。;史密斯,诺亚A。;Xing,Eric P.:(\mathrmAD^3):图形模型中地图推理的交替方向对偶分解(2015)
  18. 阿加瓦尔,阿列赫;小教堂,奥利弗;哑弹ík、 米罗斯拉夫;John Langford:可靠有效的terascale线性学习系统(2014)
  19. 克鲁兹,弗拉维奥;罗查,里卡多;戈尔茨坦,塞思·科本;Pfenning,Frank:图结构上并发编程的线性逻辑编程语言(2014)
  20. 科尔达,塔玛拉G。;皮纳尔,阿里;普兰腾加,托德;塞沙赫里,C。;任务,克里斯汀:用MapReduce计算大量图形中的三角形(2014)