我们该怎么办?
你可以加入以下6位学者中的任何一位。每一位学者都提供了他们正在招募的一些主题。
迪玛·达门(Dima Damen):计算机视觉教授,研究方向为自我中心视觉、视频理解和细粒度动作理解。
- 使用EPIC-KITCHENS(+VISOR,EPIC字段)或Ego4D数据集时出现问题
- 长尾视频理解
- 细粒度视频描述
- 视听细粒度动作识别、定位或检索
彼得·弗拉赫(Peter Flach):人工智能教授,研究方向为评估和改进机器学习模型、挖掘高度结构化数据和以人为中心的人工智能。
- 分类器校准
- 不确定性表示和传播
- 知识密集型人工智能
- 可解释性和可解释性
马吉德·米尔梅赫迪:计算机视觉教授,研究人类和动物行为理解和医学图像/体积分析
- 人的行为理解和评估,例如在医疗保健中的行为质量分数
- 使用相机捕捉、无人机进行动物动作分析和理解
- 医学图像和体积的分割、分类和预测
劳尔·桑托斯·罗德里格斯:数据科学和人工智能副教授,对(以人为中心)机器学习及其在医疗保健和气候科学中的应用的基础研究感兴趣。
- 解释性、透明度和公平性
- 弱监督学习
- 机器学习中的人类视觉感知
- 人/代理交互和协作
迈克尔·沃伊(Michael Wray):计算机视觉助理教授,对视频理解和自然语言处理有研究兴趣。
- 理解视觉语言模型中的偏见
- 长视频的视频矩检索和视频语料库矩检索
- 细粒度视觉语言检索
- 视频语言模型的组成
扎赫拉·阿卜杜拉(Zahra S.Abdallah):数据科学和机器学习助理教授,对时间序列及其医疗应用和学习多种模式感兴趣。
- 时间序列分析(分类、聚类、可解释性)
- 适应性和主动学习
- 基因组数据分析,例如用于癌症早期检测的蛋白质分析
- 用于组合各种类型数据源的数据融合和多种方式
Telmo Silva Filho公司:数据科学助理教授,研究方向为机器学习模型评估、解释性、潜在变量模型和计算机视觉的医学应用。
- 可解释的评估,即模型何时/为什么会失败?
- 用于评估的潜在变量模型
- 医学图像的分割与合成
蒂洛·布格哈特(Tilo Burghardt):计算机科学副教授,研究方向为动物生物统计、图像组学以及计算机视觉在动物福利、农业和保护中的应用
- 动物物种、个体和形态特征检测的深度学习
- 识别动物姿势、行为和社会形态
- 计算机视觉、分类学、遗传学和生态学方法的集成
- 保护无人机和相关机器人平台的自主视觉导航