在上实现许多统计学习算法稀疏矩阵-矩阵分解,矩阵完成,弹性网回归、因式分解机。此外,“rsparse”通过提供以下方法增强了“Matrix”包多线程<稀疏、密集>矩阵乘积和本地切片压缩稀疏行(CSR)格式的稀疏矩阵。回归问题的算法列表:1) 通过遵循近似规则化领导者(FTRL)的弹性网络回归随机梯度下降(SGD),根据McMahan等人(<doi:10.1145/2487575.2488200>)2) 根据Rendle(2010<doi:10.1109/ICDM.2010.127>)矩阵分解和矩阵补全的算法列表:1) 基于交替最小二乘的加权正则矩阵分解(WRMF)Squares(ALS)——胡、科伦、沃林斯基(2008<doi:10.1109/ICDM.2008.22>)2) 通过ALS实现最大利润矩阵分解,Rennie,Srebro的论文(2005, <数字对象标识代码:10.1145/102351.1102441>)3) 快速截断奇异值分解(SVD),软阈值SVD,通过ALS完成软计算矩阵-Hastie,Mazumder的论文等(2014年<doi:10.48550/arXiv.1410.2596>)4) 线性流矩阵分解,来自“实用线性模型Sedhain,Bui,Kawale等人(2016年,国际标准图书编号:978-1-57735-770-4)5) 通过SGD进行GlobalVectors(GlobalVe)矩阵分解,Pennington的论文,Manning Socher(2014年<https://aclantology.org/D14-1162/>)包相当快,内存效率高-它允许使用大型数据集-数百万行和数百万列。这特别有用适用于从事推荐系统工作的从业者。
请使用规范形式https://CRAN.R-project.org/package=rsparse链接到此页面。