PKDD/ECML 2023:意大利都灵——第四部分
达奈·库特拉 , 克劳迪娅工厂 , 曼努埃尔·戈麦斯·罗德里格斯 , 埃琳娜·巴拉利斯 , 弗朗西斯科·邦奇 :
数据库中的机器学习和知识发现:研究方向——欧洲会议,ECML PKDD 2023,意大利都灵,2023年9月18日至22日,会议记录,第四部分。 计算机科学课堂讲稿 14172, 施普林格 2023 ,国际标准图书编号 978-3-031-43420-4
自然语言处理
川渝江 , 钱一鸣 , 陈丽君 , 杨古 , 夏雪 :
无监督的深度跨语言实体对齐。 3-19 周思哲 , 苏玉格 , 沈嘉明 , 韩嘉伟 :
通过识别和精炼关系模式进行基于语料库的关系抽取。 20-38 李伟晨 , Rati Devidze公司 , 索菲·费伦兹 :
学习使用最大熵强化学习来玩基于文本的冒险游戏。 39-54 陈浩天 , 韩章(Han Zhang) , 郭厚景 , 舒昌毅 , 陈炳胜(Bingsheng Chen) , 周向东 :
SALAS:监督方面学习通过方面信息丢失改进抽象多文档摘要。 55-70 尼拉杰·库马尔 , 安库尔·纳朗 , 布雷杰什·拉尔 :
KL针对低资源任务的规范化框架。 71-89 维克托·阿戈斯蒂内利 , 陈丽忠 :
通过模块化线性注意改进自回归NLP任务。 90-106 刘天云 , 张兴华 , 张振宇 , 王玉斌(Yubin Wang) , 李全刚 , 张帅(Shuai Zhang) , 刘廷文 :
用双重图形表示增强表检索。 107-123 维维克·斯利瓦斯塔瓦 , 萨维塔·巴特 , 尼兰扬·佩达内卡尔 :
几个好句子:抽象文本摘要的内容选择。 124-141 陈嘉耀 , 王瑞(Rui Wang) , 何觉英 , 李俊杰(Mark Junjie Li) :
在非平均场推理的神经主题建模中鼓励稀疏性。 142-158
神经/符号学习
阿曼达·贝辛格 , Q.蒂雷尔·戴维斯 , 詹姆斯·巴格罗 , 乔什·邦加德 :
指标就是信息:神经符号回归的基准挑战。 161-177 南江 , 野香雪 :
通过控制变量遗传规划的符号回归。 178-195 N'Dah Jean Kouagou公司 , 斯特凡·海因多夫 , Caglar Demir公司 , 阿克塞尔·库里尔·恩贡加·恩戈莫 :
中的神经类表达式合成 阿尔奇克(D) . 196-212 里希·哈兹拉 , 吕克·德·雷德 :
深层可解释的关系强化学习:一种神经符号学方法。 213-229 莫妮卡·贾因 , 库尔德普·辛格 , Raghava Mutharaju公司 :
ReOnto:生物医学关系提取的神经符号学方法。 230-247
优化
孙莹(音) , 洪伟勇 , 张磊(Lei Zhang) :
NKFAC:一种用于深度神经网络的快速稳定的KFAC优化器。 251-267 梅迪·塞伊 , 阿明·巴尼塔莱比·德科尔迪 , 周子瑞 , 张勇(音) :
基于时间注意图神经网络的精确组合优化。 268-283 哈迪亚·穆萨耶娃 , 米卡·比诺瓦 :
用多目标优化改进了小数据的多标签传播。 284-300 陈凡 , 克里斯托斯·特拉波列迪斯 , 马克·施密特 :
过参数化和Polyak-Łojasiewicz条件下随机重模糊的快速收敛性。 301-315 艾蒂卡·阿加瓦尔 , 卡提克·S·古鲁穆蒂 , 安基特·阿吉特·贾因 , Shantala Manchenahally公司 :
扩展多通道设施选址问题的可扩展解决方案。 316-332 Sungjin Im公司 , 本杰明·莫斯利 , 徐晨阳 , 张瑞龙 :
在线状态探索:竞争最坏情况和学习增强算法。 333-348 亚历山大·希佩特·费勒 , 弗洛伦特·布查德 , 阿玛尔·棉恩 , 蒂图安·维耶 , 阿诺德·布雷洛伊 :
用黎曼优化学习图形因子模型。 349-366
推荐系统
李伯瑜 , 郭婷(Ting Guo) , 朱星泉 , 杨旺(Yang Wang) , 方晨 :
ConGCN:用于一致推荐的因式分解图卷积网络。 369-386 钱昭 , 吴正伟 , 张志强 , 周军(音) :
推荐长尾增强图对比学习。 387-403 赵鹏宇 , 王守金 , 陆文鹏 , 彭雪萍 , 张伟余(Weiyu Zhang) , 超群郑 , 黄永刚 :
通过联合建模事件匹配和风格匹配进行新闻推荐。 404-419 哈拉希·米什拉 , Sucheta Soundarajan公司 :
BalancedQR:平衡查询推荐框架。 420-435
强化学习
杰岱 , 陈旭光 :
时间差异学习的分布收敛性。 439-454 莱西市 , 罗伯特·达达西 , 池月杰 , 巴勃罗·塞缪尔·卡斯特罗 , 马蒂厄·盖斯特 :
基于On-Policy Q函数正则化的离线强化学习。 455-471 Arpan Dasgupta公司 , 巴旺·库马尔 :
Alpha消除:使用深度强化学习减少稀疏矩阵分解期间的填充。 472-488 扬·沃尔克 , 费利克斯·施密特 , 赫尔克·范·霍夫 :
从离线数据中学习基于层次规划的策略。 489-505 卢卡·萨比奥尼 , 弗朗西斯科·科尔达 , 马塞洛·雷斯特利 :
上下文马尔可夫决策过程中策略梯度方法的步长学习。 506-523 Nam Phuong Tran公司 , Long Tran-Thanh公司 :
不变利普希茨强盗:一种侧面观察方法。 524-539 蒙玲慧 , 熊玄堂 , 一番臧 , 张曦 , 李国琦 , 邢登鹏 , 徐波 :
基于模型的多智能体强化学习的过滤观察结果。 540-555 姜朝晖 , 保罗·翁 :
数据有效强化学习的无监督显著补丁选择。 556-572 强河 , 周天一 , 孟芳 , 塞塔雷·马格苏迪 :
时差动力学的特征子空间及其如何改进强化学习中的值逼近。 573-589
表征学习
大卫·弗里德 , 克里斯蒂安·雷默斯 , 海纳·斯塔肯施密特(Heiner Stuckenschmidt) , 马蒂亚斯·尼珀特 :
学习非纠缠离散表示。 593-609 昆汀·德尔佛斯 , 沃尔夫冈·斯坦默 , 托马斯·罗森巴赫 , 德瓦拉克·维塔尔 , 克里斯蒂安·科斯廷 :
通过运动和对象连续性促进对象表示学习。 610-628 阿尔弗雷多·赖奇林 , 乔瓦尼·卢卡·马切蒂 , 汉阴 , 阿纳斯塔西亚·瓦拉瓦 , 丹尼卡·克拉吉奇 :
通过交互学习物体的几何表示。 629-644 曼努埃尔·比西戈 , 费迪南多·西卡莱斯 :
极随机树在随机预测距离计算中的良好行为。 645-660 菲利普·萨特科夫斯基 , 卡罗尔·皮扎克 , 普尔泽米斯瓦夫·斯普雷克 , 杰克·塔波尔 , 托马斯·特兹辛斯基 :
超网络构建声音的隐式神经表示。 661-676 普里扬卡·楚达萨马 , 图沙尔·卡达姆 , 拉贾特·帕特尔 , Aakarsh Malhotra公司 , 马诺伊·马加姆 :
部分标记学习中基于角度和距离损失的对比表示。 677-692 路易斯·阿曼多·佩雷斯·雷伊 , 乔瓦尼·卢卡·马切蒂 , 丹尼卡·克拉吉奇 , 德米特里·贾尼科夫 , 迈克·霍伦德斯基 :
稳定剂存在下的等变表征学习。 693-708 外田博树 , 和田裕一郎 , Léo Andéol公司 , 中川拓美 , 张玉辉 , Takafumi Kanamori公司 :
通过相似结构理解对比学习机制:理论分析。 709-727 Pranav波杜瓦尔 , 高拉夫·奥贝罗伊 , 桑加姆·维尔马 , 阿尤什·阿加瓦尔 , 卡拉姆吉特·辛格 , 悉达多·阿斯塔纳 :
BipNRL:用于节点表示学习的二部图上的互信息最大化。 728-743