使用DC编程方法学习RBM

维迪亚达尔·乌帕迪亚,P。萨斯特里
第九届亚洲机器学习会议记录,PMLR 77:498-5132017年。

摘要

利用RBM对数似然函数是凸函数的差分的性质,构造了凸函数差分(DC)规划的随机变量,以最小化负对数似然。有趣的是,传统的对比发散算法是上述公式的一个特例,可以选择两种算法的超参数,从而使每个微带的计算量相同。我们表明,对于给定的计算预算,与标准对比发散算法相比,该算法几乎总是更快地达到更高的对数似然。此外,我们将该算法修改为使用中心梯度,并表明与基准数据集上的标准中心梯度算法相比,该算法更高效。

引用本文


BibTeX公司
@会议记录{pmlr-v77-upadhya17a,title={使用DC编程方法学习RBM},author={Upadhya,Vidyadhar和Sastry,P.S.},booktitle={第九届亚洲机器学习会议论文集},页数={498--513},年份={2017},editor={张敏玲和Noh,Yung-Kyun},体积={77},series={机器学习研究论文集},address={韩国首尔延世大学},月={11月15日--17日},发布者={PMLR},pdf={http://proceedings.mlr.press/v77/upadhya17a/upadhya 17a.pdf},url={https://proceedings.mlr.press/v77/upadhya17a.html},abstract={通过利用RBM对数似然函数是凸函数差分的性质,我们构造了凸函数差(DC)的随机变量编程以最小化负对数似然。有趣的是,传统的对比发散算法是上述公式的一个特例,可以选择两种算法的超参数,从而使每个微带的计算量相同。我们表明,对于给定的计算预算,与标准对比发散算法相比,该算法几乎总是更快地达到更高的对数似然。此外,我们将该算法修改为使用中心梯度,并表明与基准数据集上的标准中心梯度算法相比,该算法更高效。}}
尾注
%0会议论文%使用DC编程方法学习RBM%维迪亚达尔·乌帕迪亚%A P.S.萨斯特里%第九届亚洲机器学习会议论文集%C机器学习研究进展%D 2017年%张敏玲%E Yung-Kyun Noh先生%F pmlr-v77-upadhya17a型%我PMLR%电话:498--513%U型https://proceedings.mlr.press/v77/upadhya17a.html%第77页%X通过利用RBM对数似然函数是凸函数的差分的性质,我们构造了凸函数差分(DC)规划的随机变量,以最小化负对数似然。有趣的是,传统的对比发散算法是上述公式的一个特例,可以选择两种算法的超参数,从而使每个微带的计算量相同。我们表明,对于给定的计算预算,与标准对比发散算法相比,该算法几乎总是更快地达到更高的对数似然。此外,我们将该算法修改为使用中心梯度,并表明与基准数据集上的标准中心梯度算法相比,该算法更高效。
亚太地区
Upadhya,V.&Sastry,P.S.(2017年)。使用DC编程方法学习RBM。第九届亚洲机器学习会议记录,英寸机器学习研究进展77:498-513网址:https://proceedings.mlr.press/v77/upadhya17a.html。

相关材料