@正在进行{yang-etal-2023改进,title=“改进深度文本聚类训练”,author=“杨宗浩胡文鹏和Tan、Yushan和罗、准钦“,editor=“Bouamor、Houda和皮诺、胡安和巴厘岛,卡利卡”,booktitle=“计算语言学协会的发现:EMNLP 2023”,月=12月,年=“2023”,address=“新加坡”,publisher=“计算语言学协会”,url=“https://aclantology.org/2023.findings-emnlp.163”,doi=“10.18653/v1/2023.findings-emnlp.163”,pages=“2490--2499”,abstract=“经典的深度聚类优化方法基本上利用聚类中心、互信息和距离度量等信息构建隐式广义标签以建立信息反馈(弱监督)从而优化了深层模型。然而,由于聚类精度的限制,得到的广义标签在整个聚类过程中有不同程度的错误,这严重干扰了聚类过程。为此,本文从经验风险最小化的角度,利用样本之间的相关性,提出了一种通用的深度聚类优化方法。在两种经典的深度聚类方法上的实验证明了该方法的必要性和有效性。代码见https://github.com/yangzonghao1024/DCGLU。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“yang-etal-2023-改进”><标题信息><title>深度文本聚类的改进训练</titleInfo><name type=“personal”><namePart type=“given”>宗浩</namePart>杨<角色>作者</角色></name><name type=“personal”>文鹏胡<namePart type=“family”><角色>作者</角色></name><name type=“personal”>玉山<namePart type=“family”>谭</namePart><角色>作者</角色></name><name type=“personal”>准钦罗<namePart type=“family”><角色>作者</角色></name><originInfo><日期发布>2023-12年</日期发布></originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会的发现:EMNLP 2023</titleInfo><name type=“personal”>侯达布阿莫尔<角色>编辑器</角色></name><name type=“personal”>胡安皮诺<角色>编辑器</角色></name><name type=“personal”>卡利卡语巴厘岛<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>新加坡</place></originInfo>会议出版物</relatedItem>经典的深度聚类优化方法基本上利用聚类中心、互信息和距离度量等信息构建隐式广义标签,以建立信息反馈(弱监督),从而优化深度模型。然而,由于聚类精度的限制,由此产生的广义标签在整个聚类过程中都有不同程度的误差,这极大地干扰了聚类过程。为此,本文从经验风险最小化的角度,利用样本之间的相关性,提出了一种通用的深度聚类优化方法。对两种经典深度聚类方法的实验证明了该方法的必要性和有效性。代码位于https://github.com/yangzonghao1024/DCGLU。</摘要><identifier type=“citekey”>yang-etal-2023改进10.18653/v1/2023.findings-emnlp.163<位置><网址>https://aclantology.org/2023.findings-emnlp.163</url></位置><部分>2023-12年<扩展单元=“page”><开始>2490<end>2499</范围></部分></mods></modsCollection>
%0会议记录%深度文本聚类的改进训练%阿扬、宗浩%阿虎、文鹏%玉山阿潭%阿罗,准钦%Y Bouamor,Houda公司%胡安·皮诺%Y巴厘岛,卡利卡%计算语言学协会的发现:EMNLP 2023%D 2023年%12月8日%计算语言学协会%C新加坡%F yang-etal-2023改进%X经典的深度聚类优化方法基本上利用聚类中心、互信息和距离度量等信息来构建隐含的广义标签,以建立信息反馈(弱监督),从而优化深度模型。然而,由于聚类精度的限制,得到的广义标签在整个聚类过程中有不同程度的错误,这严重干扰了聚类过程。为此,本文从经验风险最小化的角度,利用样本之间的相关性,提出了一种通用的深度聚类优化方法。对两种经典深度聚类方法的实验证明了该方法的必要性和有效性。代码位于https://github.com/yangzonghao1024/DCGLU。%R 10.18653/v1/2023.findings-emnlp.163%U型https://aclantology.org/2023.findings-emnlp.163%U型https://doi.org/10.18653/v1/2023.findings-emnlp.163%第2490-2499页
降价(非正式)
[深度文本聚类的改进训练](https://aclantology.org/2023.findings-emnlp.163)(Yang等人,发现2023)
国际计算语言学协会
- 杨宗浩、胡文鹏、谭玉山和罗准钦。2023改进的深度文本聚类训练.英寸计算语言学协会的发现:EMNLP 2023,第2490–2499页,新加坡。计算语言学协会。