以下是约翰霍普金斯大学语言和语音处理中心举办的研讨会录音的链接。我们努力记录我们的大部分活动,以造福那些无法出席的人,以及那些希望查看所提供信息的人。此处未列出的录音可供CLSP内部根据要求查看。
有关最近研讨会的录音,请访问CLSP的YouTube频道。
-
-
- Kira Radinsky(诊断机器人/Technion)“学习预测未来”
- 龚伯清(谷歌)“走向野外视觉识别:长尾源和开放复合目标”
- 德克·霍维(博科尼大学)“NLP中偏见和道德问题的五个来源及应对措施“
- Iryna Gurevych(达姆施塔特科技大学)“让我们辩论:理解和生成自然语言论证”
- 米雷拉·拉帕塔(爱丁堡大学)”这部电影是关于什么的?自动内容分析和摘要”
- Tuomas Virtanen(坦佩雷大学)“声场的计算分析“
- Preslav Nakov(卡塔尔计算研究所)”检测假新闻“
- Judy Hoffman(佐治亚理工学院)“理解和缓解模型和数据集偏差”
- 吴志正(脸书)“音频深度假冒检测“
- Annie Louis(谷歌)“了解极地问题的间接答案”
- Piotr Szymanski(弗罗茨瓦夫科技大学)“ML/NLP模型比较的贝叶斯方法和ASR-NLP差距的量化”
- 赫尔曼·坎珀(斯特伦博什大学)”从未标记的语音中学习声学单位和单词(带点视觉)“
- Frank Hutter(弗赖堡大学)”神经结构搜索时代的到来“
- Violet Peng(加州大学洛杉矶分校)“从语言理解到创造性生成“
- Chris Re(斯坦福大学)“命名实体消歧的指导性自我监督“
- Abdelrahman Mohamed(脸书)“更好地利用未配对数据和预先训练的模块进行语音识别”
- 马特·加德纳(艾伦人工智能研究所)”我们相信的NLP评估“
- Mei-Yuh Hwang(Mobvoi AI实验室)“Mobvoi:当前和未来”
- 扎卡里·利普顿(卡内基·梅隆大学)“深度(交互)主动学习:治愈一切还是灾难?“
- Bhuvana Ramabhadran(谷歌)“基于音译的多语言代码转换语言方法“
- Vivian Chen(国立台湾大学)“可扩展且健壮的会话系统“
- Rada Mihalcea(密歇根大学)“语言与人”
-
-
-
-
- Nima Mesgarani(哥伦比亚大学)–“对稳健语音处理中涉及的神经机制进行逆向工程”
- Jonathan May(南加州大学信息科学研究所)——“我如何学会停止担忧和爱情评估(并保持担忧)”
- Rebecca Steorts(杜克大学)“微集群的灵活模型及其在实体分辨率中的应用”
- Vikramjit Mitra(SRI International)–“走向强大的语音处理系统:语音感知、手势语音和机器学习”
- 路易斯·菲利普·莫伦西(卡内基梅隆大学)“人类交流动力学建模”
- 鲁旺(东北大学)“理解文本中的观点和论点”
- Florian Metze(卡内基梅隆大学)“上下文软件语音识别的视觉功能”
- Hendrik Kayser(奥尔登堡大学)–“助听器和自动语音识别中多通道信号增强的概率空间滤波器估计”
- Yejin Choi(华盛顿大学)——“程序语言和知识”
- Mona Diab(乔治华盛顿大学)-“处理阿拉伯语社交媒体:挑战与机遇”
- Nancy Chen(信息通信研究所)–“低资源口语关键词搜索”
- 克里斯托·基洛夫(约翰·霍普金斯大学)“多语言HLT应用的丰富形态学建模”
- Pedro Moreno(谷歌研究)–“谷歌语音搜索中的上下文语音识别”
- Colin Cherry(加拿大国家研究委员会)——“有效训练双语神经网络语言模型的抽样”
- David Peterson(语言发明艺术)——“圆锥形”
- Alexander“Sasha”Rush(哈佛)——“深度学习和语言结构”
- Bowen Zhou(IBM,T.J.Watson研究中心)-“深度学习问答的最新进展”
- Diane Litman(匹兹堡大学)——“从文本中挖掘论点,用于写作教学和评估”
- John Hershey(MERL)–“通过深度聚类实现语音分离:走向智能音频分析和理解”
- KyungHyun Cho(纽约大学)——“机器翻译的未来(?)”
- Richard Socher(MetaMind)——“语言和视觉的多模态问题解答”
- Alona Fyshe(维多利亚大学)“语料库、认知和构成”
- Niko Brummer(AGNITIO)–“说话人和语言识别中的二进制和多类校准”
- Sameer Singh(华盛顿大学)——“利用高层监督进行关系嵌入的互动培训
-
档案文件