主页

论文

提交的资料

新闻

编辑委员会

特殊问题

开源软件

程序(PMLR)

数据(DMLR)

交易(TMLR)

搜索

统计

登录

常见问题

联系我们



RSS源

基于流形平坦化和重构的表示学习

Michael Psenka、Druv Pai、Vishal Raman、Shankar Sastry、Yi Ma; 25(132):1−47, 2024.

摘要

现实世界中,可学习数据的一个常见假设是它具有某种低维结构,而形式化这种结构的一种方法是通过流形假设:可学习数据位于某个低维流形附近。深度学习架构通常具有压缩的自动编码器组件,其中数据映射到低维的潜在空间,但通常许多架构设计选择都是手动完成的,因为这些模型本身并没有利用数据的数学结构。为了利用这种几何数据结构,我们提出了一种几何流形式的迭代过程,用于显式地构造一对神经网络,该神经网络分层地从该流形的有限样本线性化并重建嵌入子流形。我们的这种生成的神经网络,称为Flattening networks(FlatNet),在理论上是可解释的,在规模上计算上是可行的,并且能够很好地推广到测试数据,这种平衡在基于流形的学习方法中是不常见的。我们给出了关于合成高维流形数据和2D图像数据的经验结果,并与其他模型进行了比较。我们的代码是公开的。

[腹肌][pdf格式][围兜]      [代码]
©JMLR公司2024(编辑,贝塔)

乳臭虫