迪玛·达门

计算机视觉教授,计算机科学学院,
负责人机器学习和计算机视觉小组,布里斯托尔大学
EPSRC早期职业研究员(2020-2025)

高级研究科学家,谷歌DeepMind

新闻

2024年5月:我们IJCV 2024论文的在线开放访问现已在线的

2024年3月:我的团队中开设了两个博士职位。2024年4月30日前申请。

2024年2月:第一届EgoVis(联合)研讨会将于CVPR2024举行-看见呼吁提名《自我中心视野》杰出论文

2024年1月:研究夏令营申请现已结束。结果预计2月20日。

2023年11月:布里斯托尔2024年夏季研究申请现已开放[DL 2024年1月19日]

2023年10月:我们的BMVC’23论文ArXiv上现在提供了“从讲述的自我视频中学习时间句子基础”

2023年9月:EPIC字段NeurIPS 2023验收文件

2023年8月:在OpenReview上公开征求意见的调查文件“对自我中心主义愿景未来的展望”截至9月15日。所有重大更正/建议将在修订版中确认。

2023年8月:我们的论文“从讲述的自我视频中学习时间句子基础”被BMVC 2023接受。即将进行预打印

2023年7月:我们的论文“意大利的厨师能在印度教机械师什么?”在ICCV 2023上被接受。数据集和代码是公共的

2023年6月:我将于明年1月在WACV 2024上发表主旨演讲。

2023年6月:宣布2023年EPIC-CKITCHENS挑战赛获胜者

[申请关闭]2023年5月:与Adobe合作,开放长期视频理解博士学位——2023年9月至2024年2月期间开始。尽快在这里申请,直到填满或6月底。

2023年3月:Postdoc Opportunity(26个月)在我的团队中开放-详细信息和申请流程-DL 2023年4月23日

2023年2月:CVPR 2023接受了两篇论文

2023年2月:ICASSP 2023接受了两篇论文:Play-It-Back和EPIC-SOUNDS

2023年2月:对加州大学伯克利分校进行研究访问

2023年1月:EPIC-SOUNDS数据集公开

2022年10月:我们的论文ConTra被ACCV 2022接受为口头报告

2022年9月:NeurIPS 2022接受VISOR和EgoClip文件

2022年9月:2022/2023年最多3个开放博士职位在我的组中[应用程序已关闭]

2022年8月:租赁VISOR基准:视频分割和对象关系.观看拖车

2022年6月:在新奥尔良与CVPR 2022一起举办了第十届EPIC联合研讨会和第一届Ego4D研讨会

2022年3月:CVPR 2022接受了两篇论文。

2022年2月:Ego4D数据集现已公开

2022年1月:

2021年12月:新增ArXiv论文:UnweaveNet:解开活动故事

2021年11月:我们的BMVC 2021论文“借助我的时间背景”现已发布在ArXiv上可用

2021年10月:Ego4D项目ArXiv纸现在退出。在期间显示会话EPIC@CCV2021

2021年9月:我们的论文重塑自我中心愿景IJCV接受

2021年8月:欢迎亚历山大·斯特吉奥朱斌(Bin Zhu)作为组的postdoc

2021年7月:2021 EPIC-CITCHENS挑战赛技术报告已联机

2021年6月:我们的论文慢速听觉流在ICASSP 2021中获得优秀论文(1700篇论文中有3篇获奖)

2021年6月:EPSRC Program Grant Visual AI现在有一个实时网站

2021年6月:很高兴成为CVPR 2021的杰出评审员

2021年5月:在CVPR 2021期间,我将在第二期视频理解综合教程,FGVC第八次研讨会第二HVU车间除了合作之外第八EPIC@CVPR2021

2021年3月:CVPR 2021论文“视频检索中的语义相似性”现在在ArXiv上

2021年3月:CVPR 2021论文“用于少量快照动作识别的时间关系交叉变换器”现在是ArXiv

2021年2月:将在两个CVPR2021研讨会上发表主题演讲:细粒度视觉分类(FGVC8)整体视频理解(HVU)

2021年1月:我演讲的幻灯片ICPR的HAU2021年车间可以找到在这里

2020年11月:在ACCV 2020上发表了两篇论文:公平游戏:视频模型中的帧属性 (项目)
使用上下文认知初始化的元学习 (项目)

2020年11月:很高兴作为ICCV 2021项目主席在蒙特利尔

2020年9月:很高兴加入ELLIS(欧洲学习和智能系统实验室)协会作为成员

2020年9月:将在ICMI 2020的深度视频理解研讨会

2020年9月:将在HCMA车间与ACM MM一起10月12日

2020年8月:我们的最终计划EPIC@ECCV公司车间现在在线可用

2020年7月1日:EPIC-KTICHESN-100数据集现已发布-下载,网络研讨会

2020年6月:ArXiv手稿《重塑自我中心主义的视野》现在联机

2020年6月:将很高兴于8月在ECCV研讨会上发表主题演讲:计算机视觉中的女性合成和多模式视频感知挑战

2020年6月:自豪成为CVPR 2020杰出评审员.

2020年6月:我在CVPR2020教学视频研讨会上关于“从日常任务的讲述视频中学习”的演讲现已发布联机

2020年6月:第7次截止日期史诗级@ECCV2020车间是7月10日,包括已发表的会议记录

2020年4月:EPSRC计划授予Visual AI批准供资。

2020年3月:我加入IJCV编辑委员会作为副编辑。

2020年3月:我们的论文《动作修饰:从教学视频中的副词中学习》已在CVPR 2020上通过ArXiv公司-观看此处解释方法的视频

2020年3月:我们的论文“用于细粒度动作识别的多模态域自适应”现已在CVPR 2020上被口头接受阿尔西夫-参见项目详细信息

2020年2月:CVPR 2020中接受的两篇论文-已在Arxiv提供(见出版物)

2019年12月:Jade-2 HPC集群已接受资助

2019年12月:我在印度胡布利NCVPRIPG2019的演讲已经开始在这里

2019年12月:我开始EPSRC早期职业奖学金UMPIRE公司今年1月5年的基金会旨在扩大我在物体交互理解方面的研究活动。

2019年11月:我作为副主编加入IEEE TPAMI编辑委员会

2019年11月:祝贺Davide Moltisanti和Michael Wray通过博士生学习

2019年10月:我将在极限视觉ICCV研讨会上发表演讲在这里

2019年10月:BMVA研讨会上所有演讲的视频如下在YouTube上提供

2019年10月:我在北非暑期学校机器学习4小时教程的视频现在在YouTube上:第1部分,第2部分

2019年9月:我们的论文“Retro-Actions:Learning‘Close’by Time-Reversing‘Open’Videos”(ICCVW)现已在Arxiv上发表-细节

2019年8月:我们发布预处理模型技术报告用于EPIC厨房的动作识别

2019年7月:我们的论文“使用多个动词标签学习视觉动作”被BMVC2019大会接受在Arxiv上可用

2019年7月:ICCV 2019接受了两篇论文,与Evangelos Kazakos(布里斯托尔)、Arsha Nagrani和Andrew Zisserman(牛津)合著的《EPIC-Fusion:用于自我中心主义动作识别的视听时间绑定》,与Mike Wray(布里斯托)合著《通过多部分言语嵌入实现精细动作检索》,Gabriela Csurka和Diane Larlus(Naver实验室)

2019年7月:我将在ICCV2019研讨会YouTube8M,ICCV2019研讨会ACVR,并在BMVC2019研讨会EgoApp

2019年7月:CFPBMVA视频理解研讨会9月25日在伦敦

2018年6月:我的教程中的幻灯片北非机器学习暑期学校(NASSMA)现在是联机

2019年4月:用于跨数据集动作识别的双域LSTM论文的相机就绪版本和细节-CVPR 2019现已上线

2019年4月:我们的论文《利弊:长视频中技能决定的等级软件暂时注意》的相机就绪版本和细节-2019年CVPR现已上线

2019年4月:第五届EPIC研讨会通过-EPIC@ICCV2019将于10月/11月在首尔举行

2019年4月:将在第七届辅助计算机视觉和机器人研讨会今年10月,ICCV将在首尔举行。

2019年4月:我们的论文《无边框视频中单一时间戳监控的动作识别》(Action Recognition from Single Timestamp Supervision in Untrimmed Videos)的相机就绪版本和细节-2019年CVPR现已上线在Arxiv上

2019年3月:期待再次担任2019年BMVA暑期学校今年六月在林肯

2019年3月:我现在在VISAPP的主题演讲幻灯片联机

2019年3月:受邀担任北非第一所机器学习暑期学校的演讲人之一NASSMA公司

2019年2月:2019年CVPR接受的三篇论文(即将在Arxiv上发布)

2019年2月:主题演讲布拉格VISAPP 2019

2018年12月:EPIC@CVPR2019研讨会将在长滩举行

2018年10月:计划在MPI Tubingen进行演讲-细节

2018年9月:EPIC-CITCHENS在2018年ECCV大会上以口头形式亮相-相机准备就绪阿尔西夫,网页

2018年9月:EPIC-KITCHENS挑战CodaLab的排行榜现已揭晓打开

2018年9月:两篇论文在BMVC 2018上发表。行动完成情况(数据集)和卡路里网

2018年8月:EPIC-SKILLS数据集,用于我们的CVPR2018论文联机

2018年8月:计划史诗@ECCV2018车间现在可用。9月9日在慕尼黑加入我们

2018年7月:期待提供关于以自我为中心的愿景作为的一部分BMVA暑期学校7月5日,东安格利亚大学。

2018年4月:2018 EPIC-KITCHENS今日上线:11.5M帧,全高清,60fps,头戴式,32个厨房,来自4个城市(北美和欧洲),10个国家。完全注释:40K动作片段,454K对象边界框。数据集:http://epic-kitchens.github.io详细信息:阿尔西夫

2018年4月:我们的论文“使用贝叶斯模型检测人类日常变化”在ICPR2018上获得认可,将于今年8月在北京发表。细节

2018年2月:我们的论文“谁更好,谁最好”被CVPR2018接受,将于今年6月在盐湖城发表。细节

2018年2月:祝贺杨迪徐因为他通过了博士生考试,但有轻微的修改

2018年1月:担任UoB高性能计算执行董事会成员

2017年10月:被选为2017年ICCV杰出评审员

2017年10月:热情待客威尼斯ICCV举办的第二届国际自我感知互动与计算(EPIC)研讨会

2017年10月:我们的论文“侵入边界:标记自我中心视频中对象交互的时间边界”在ICCV上发表-细节

2017年10月:我们的论文“经常性援助:LSTM厨房任务的跨数据培训”在ACVR上发表-pdf格式

2017年9月:的单元详细信息新的应用深度学习M级单元-统一目录

2017年9月:担任模式识别副编辑

2017年8月:很高兴成为Bristol’s Cookpad的顾问,负责制定计算机视觉和机器学习议程

2017年4月:7月6日,BMVA暑期学校Lincoln将提供关于自我中心主义愿景的辅导

2017年4月:5月15日,布里斯托尔将举行一次公众演讲,主题是“一台可穿戴相机能了解我什么?”

2017年3月:我演讲中关于使用RGBD数据识别行动和活动的挑战和机遇的幻灯片,BMVA研讨会现已推出

2017年2月:BMVA关于迁移学习研讨会的视频现已提供

2016年12月:BMVA转移学习研讨会最终计划现已推出

2016年10月:代码已发布关于使用双面Kinects采集和注册点云的3DV论文

2016年9月:使用两台相对的Kinects进行3D数据采集和注册-3DV接受论文

2016年8月:BMVC接受行动完成文件并发布数据集-项目网页

2016年8月:诺基亚技术捐赠5万欧元新闻稿

2016年8月:行动完成文件于2016年9月在纽约BMVC接受。项目

2016年7月:博士生Michael Wray和Davide Moltisanti在BMVA暑期学校获得二等海报奖新闻

2016年7月:CFP:计算机视觉中的迁移学习-BMVA研讨会[细节、日期和提交]

2016年6月:计算机视觉和机器学习博士学位(国内/欧盟学生)-打开截止日期,jobs.ac.uk上的广告

2016年6月:2016年冰川CVPR演示

2016年5月:EPIC@ECCV2016研讨会(自我中心感知、互动和计算)已接受。

2016年4月:EPSRC项目位置将于2016年7月开始提供资金

2016年3月:You-Do,I-Learn:以自我为中心的无监督发现物体及其交互模式,实现基于视频的指导CVIU验收

2015年11月:EPSRC项目概览将于2016年3月开始提供资金

2015年9月:ACPR接受论文“使用自下而上和自上而下的层次结构从深度传感器进行无监督的日常例行建模”

2015年9月:《从头戴式IMU评估视觉注意力》论文在日本冈山ISWC上发表

2015年9月:论文“使用深度缩放核化相关滤波器和遮挡处理的实时RGB-D跟踪”在BMVC上发表

2015年8月:博士生瓦希德·索利曼(Vahid Soleiman)在2015年生物科学院发表了关于使用深度传感器进行远程肺功能测试的论文。演示视频

2015年6月:PLOSONE文章在线提供

2015年6月:《智能与机器人系统杂志》上关于认知机器人系统的SI:概念和应用联机

2015年3月:跨学科研究实习授予CS学生Hazel Doughty.

2014年9月:论文“You-Do,I-Learn:从多用户自我中心主义视频中发现任务相关对象及其交互模式”在BMVC上展示

2014年9月:论文“根据骨骼数据对人体运动进行在线质量评估”在BMVC上展示

2014年9月:论文“多用户以自我为中心的在线系统,用于对象使用的无监督协助”在ECCVW上展示(ACVR 2014)

2014年8月:C++代码(性能提高1.2版)和Android apk用于实时目标探测器可用。

2014年7月:布里斯托尔自我中心物体相互作用数据集现已发布

2014年7月:IAPR时事通讯中发表的书评

2014年7月:BMVC 2013视频讲座现在可以在线使用.

2014年7月:Sphere项目网站irc-sphere.ac.uk现已发布(2013-2018)。

2014年5月:可为3G403和2G400学生提供项目创意.

2014年2月:以自我为中心的视野开设博士学位-尽快申请。。。

2013年11月:GlaciAR项目由三星2013年GRO大奖

2013年11月:认知机器人系统(CRS 2013)(2013年IROS研讨会),在日本东京成功闭幕。

2013年9月:2013年BMVC在布里斯托尔圆满结束

2013年8月:杰出评论家奖IEEE AVSS 2013.

2013年6月:杰出评论家奖IEEE CVPR 2013.

2013年5月:我们的多目标探测器(MOD)代码的新bug-fixed版本(v1.1)现已推出联机

研究项目

HOI-Ref:手-物交互参考

S Bansal、M Wray、D Damen(2024年)。HOI-Ref:自我中心视野中的手-物交互转诊。ArXiv公司|网站|HOI-QA数据集|型号和代码

TIM:时间间隔机器

TIM:用于视听动作识别的时间间隔机器。Jacob Chalk、Jaesung Huh、Evangelos Kazakos、Andrew Zisserman、Dima Damen(2024年)。IEEE/CVF计算机视觉和模式识别(CVPR)。网页|代码和型号|ArXiv公司|<a href=“https://openaccess.thecf.com/content/CVPR2024/papers/Chalk_TIM_A_Time_Interval_Machine_for_Audio-Visual_Action_Recognition_CVPR_2024_paper.pdf“>CVF PDF

眼不见,心不烦

自我中心视频中的空间认知:眼不见,心不烦。Chiara Plizzari、Shubham Goel、Toby Perrett、Jacob Chalk、Angjoo Kanazawa、Dima Damen(2024年)。网页|ArXiv公司|视频

每次射门计数

每个镜头都计数:在视频中使用示例进行重复计数。Saptarshi Sinha,Alexandros Stergiou,Dima Damen(2024年)。网页|代码|ArXiv公司

我们提出了一种基于范例的方法,可以发现目标视频中重复的视频范例之间的视觉对应关系。我们提出的Every Shot Counts(ESCounts)模型是一种基于注意力的编码器-解码器,它对不同长度的视频以及来自相同和不同视频的示例进行编码。

GenHowTo公司

GenHowTo:学习从教学视频中生成动作和状态转换。托马斯·苏切克(Tomas Soucek)、迪马·达门(Dima Damen)、迈克尔·沃伊(Michael Wray)、伊万·拉普特夫(Ivan Laptev)、约瑟夫·西维奇(Josef Sivic)(2024年)。IEEE/CVF计算机视觉和模式识别(CVPR)。网页|代码|阿尔希夫|CVF-PDF格式

抓住机会

抓握:重建自我中心视频中的手-物稳定抓握。朱志凡(Zhifan Zhu)和迪马·达门(Dima Damen)(2024)。ArXiv公司。网页|EPIC掌握数据集和代码|ArXiv(v2)

排名2靠后

Rank2Reward:从被动视频学习成型奖励功能。Daniel Yang、Davin Tjia、Jacob Berg、Dima Damen、Pulkit Agrawal和Abhishek Gupta(2024年)。IEEE机器人与自动化国际会议(ICRA)。网页|ArXiv公司

Ego-Exo4D

网页和数据集|视频

自我-Exo4D:从第一人称和第三人称的角度理解熟练的人类活动。K Grauman等人(2024年)。IEEE/CVF计算机视觉和模式识别(CVPR)。ArXiv公司,网页,PDF格式|CVF PDF格式

利己主义愿景的未来。

对自我中心主义愿景未来的展望。C Plizzari*、G Goletto*、A Furnari*、S Bansal*、F Ragusa*、GM Farinella、D Damen、T Tommasi。(2024). 国际计算机视觉杂志(IJCV)。PDF格式 预打印|ArXiv公司

从讲述自我的视频中学习时间句子基础

从叙述的自我视频中学习时态句子基础。K Flanagan、D Damen、M Wray(2023年)。英国机器视觉会议(BMVC)。ArXiv摄像头就绪|项目网页|代码和型号

EPIC领域:结合3D几何和视频理解

拖车|下载

EPIC领域:结合3D几何和视频理解。V Tschernezki*、A Darkhalil*、Z Zhu*、D Fouhey、I Laina、D Larlus、D Damen、A Vedaldi(2023)。神经信息处理系统(NeurIPS)预打印,网页

意大利的厨师能教印度的技工什么?

意大利的厨师能教印度的技工什么?场景和地点的动作识别泛化。C Plizzari、T Perrett、B Caputo、D Damen。ICCV 2023年预打印|网页|数据集|代码

动动脑筋:改进长尾视频识别

CVF PDF格式|CVF支持|ArXiv公司|网页|基准、规范和模型

动动脑筋:改进长尾视频识别。T Perrett、S Sinha、T Perret、M Mirmehdi、D Damen。CVPR 2023。

早期行动预测的时间渐进注意

CVF PDF格式|CVF支持|ArXiv公司|网页|代码

人群的智慧:早期行动预测的时间渐进关注。A Stergiou,D Damen。CVPR 2023。

EPIC-SOUNDS:一个大型的声音动作数据集

拖车|下载

EPIC-SOUNDS:一个大型的声音动作数据集。J Huh*、J Chalk*、E Kazakos、D Damen、A Zisserman。ICASSP 2023。ArXiv公司,网页

回放:音频识别的迭代注意

代码

回放:音频识别的迭代关注。A Stergiou,D Damen。ICASSP 2023。ArXiv公司,网页

VISOR:视频分割和对象关系

拖车|外墙@EPIC2022|下载

EPIC-KITCHENS VISOR基准:VIdeo分割和对象关系。A Darkhalil、D Shan、B Zhu、J Ma、A Kar、R Higgins、S Fidler、D Fouhey、D Damen。NeurIPS 2022。PDF格式,网页

ConTra:用于跨模式检索的上下文转换器

视频

ConTra:用于跨模式检索的上下文转换器。A Fragomeni、M Wray、D Damen。ACCV(2022年)口腔.阿尔希夫|PDF预打印|项目网页|代码

自我中心视频-语言预培训

自我中心视频-语言预设。KQ Lin、AJ Wang、M Soldan、M Wray、R Yan、EZ Xu、D Gao、R Tu、W Zhao、W Kong、C Cai、H Wang、D Damen、B Ghanem、W Liu、MZ Shou。NeurIPS(2022)。ArXiv公司|PDF预打印|项目网页|代码

UnweaveNet:解开活动故事

视频

UnweaveNet:解开活动故事。W Price、C Vondrick、D Damen。CVPR(2022年)。ArXiv纸张|项目网页|注释

Ego4D:3000小时自我中心视频环游世界

Ego4D项目和数据集|显示会话视频|预告片视频

在3000小时的自我中心视频中环游世界。K Grauman(+83作者)等,CVPR(2022)。ArXiv公司

自我中心主义视频中的时间语境

视频

在我的时间背景的帮助下:多模态自我中心行动识别。E Kazakos、J Huh、A Nagrani、A Zisserman、D Damen。BMVC(2021)。ArXiv纸张|项目网页|代码、功能和型号

重定自我中心的视野

拖车|视频演示|网络研讨会|下载

重定自我中心观。D Damen、H Doughty、G Farinella、A Furnari、E Kazakos、J Ma、D Moltisanti、J Munro、T Perrett、W Price、M Wray。IJCV公司。IJCV纸张,ArXiv公司,网页

EPIC-KITCHENS数据集:收集、挑战和基线。D Damen、H Doughty、GM Farinella、S Fidler、A Furnari、E Kazakos、D Moltisanti、J Munro、T Perrett、W Price、M Wray。IEEE模式分析和机器智能汇刊43(11)第4125-4141页(2021)。美国电气工程师协会,Arxiv预打印

视频检索中的域自适应

用于跨模式视频检索的多视图嵌入中的域自适应。J Munro、M Wray、D Larlus、G Csurka、D Damen。ArXiv(2021)。ArXiv纸张

视频检索中的语义相似度

视频检索中的语义相似度研究。M Wray、H Doughty、D Damen。CVPR(2021)。CVF PDF格式|ArXiv预打印|项目网页|视频

时间关系交叉变换器

用于少量快照动作识别的时间相关交叉变换器。T Perrett、A Masullo、T Burghardt、M Mirmehdi、D Damen。CVPR(2021)。CVF PDF格式|ArXiv预打印|代码和型号|项目网页

慢速听觉流

用于音频识别的低速听觉流。E Kazakos、A Nagrani、A Zisserman、D Damen。ICASSP(2021)。ArXiv预打印|IEEE PDF|代码和型号|项目网页 [未完成论文]

视频模型中的帧属性

交互式仪表板|Teaser视频|代码

公平游戏:视频模型中的帧属性。W Price,D Damen。ACCV(2020)。ArXiv预印本|项目详细信息|连续可变频率|CVF PDF格式

使用上下文认知初始化的元学习

谈话视频

使用上下文认知初始化的元学习。T Perrett、A Masullo、T Burghard、M Mirmehdi、D Damen。ACCV(2020)。ArXiv预打印|CVF公司|CVF PDF格式|项目详细信息

动作修饰语:从教学视频中的副词学习

视频,谈话视频

动作修饰语:学习教学视频中的副词。H Doughty、I Laptev、W Mayol-Cuevas、D Damen。CVPR(2020)。ArXiv预打印,CVF PDF格式,项目详细信息

用于细粒度动作识别的多模态域自适应

视频,口头演示视频

用于细粒度动作识别的多模式域自适应。J Munro,Dima Damen。CVPR(2020)。ArXiv预打印,CVF PDF格式,项目详细信息,代码

反作用

视频

回溯动作:通过时间反转“打开”视频来学习“关闭”。戴玛·戴门·W·普莱斯。ICCV(2019)。ArXiv预打印,项目详细信息

细粒度动作检索

视频

通过多部分语音嵌入实现细粒度动作检索。迈克尔·沃伊(Michael Wray)、戴安·拉鲁斯(Diane Larlus)、加布里埃拉·苏尔卡(Gabriela Csurka)、迪玛·达门(Dima Damen)。ICCV(2019)。CVF PDF格式,ArXiv预打印,项目详细信息

用于自我中心行为识别的视听时间绑定

谈话视频,视频

EPIC融合:以自我为中心的动作识别的视听时间绑定。Evangelos Kazakos、Arsha Nagrani、Andrew Zisserman、Dima Damen。ICCV(2019)。项目详细信息,CVF PDF格式,Arxiv预打印

使用多个动词标签学习视觉动作

视频

使用多个动词标签学习视觉动作。M Wray,D Damen。BMVC(2019)。ArXiv预打印,项目详细信息

DDLSTM:双域LSTM

视频

DDLSTM:用于跨数据动作识别的双域LSTM。T Perrett和D Damen。CVPR(2019)。pdf预印本,阿尔西夫 项目详细信息

优点和缺点:排名软件注意模块

Teaser视频

结果视频

优点和缺点:长视频中技能决定的等级软件暂时关注。H Doughty、W Mayol-Cuevas、D Damen。CVPR(2019)。pdf预印本,阿尔西夫,项目详细信息

基于单个时间戳的动作识别

结果视频

无字幕视频中单一时间戳监控的动作识别。D Moltisant、S Fidler和D Damen。CVPR(2019)。pdf预印本,项目详细信息

帐篷组件自我中心数据集

视频

(2021)B Sullivan,C Ludwig,D达门W Mayol-Cuevas和I Gilchrist。视觉运动行为中的注视-头部固定:来自组装露营帐篷的证据。《视觉杂志》21(3):13。PDF格式

EPIC-帐篷:露营帐篷集会的自我中心视频数据集。Y Jang、B Sullivan、C Ludwig、I.D.Gilchrist、D Damen和W Mayol-Cuevas。ICCV研讨会(2019年)。pdf格式,项目详细信息,数据集,注释

缩放自我中心视野:EPIC-KITCHENS 2018

视频

缩放自我中心视野:EPIC-KITCHENS数据集。D Damen、H Doughty、G Farinella、S Fidler、A Furnari、E Kazakos、D Moltisanti、J Munro、T Perrett、W Price、M Wray。ECCV(2018)。网页|数据集|阿西夫

EPIC厨房行为识别模型评价。W Price,D Damen。Arxiv(2019年)阿尔西夫|github|PDF格式

EPIC-KITCHENS数据集:收集、挑战和基线。D Damen、H Doughty、GM Farinella、S Fidler、A Furnari、E Kazakos、D Moltisanti、J Munro、T Perrett、W Price、M Wray。IEEE模式分析和机器智能汇刊(2020年)。Arxiv预打印

视频中的技能确定

视频

谁更好?谁是最好的?技能决定的成对深度排名。H Doughty、D Damen、W Mayol-Cuevas。CVPR(2018)。PDF格式|阿西夫|数据集

动作完成:一种用于矩检测的时间模型

使用时间注意的弱监督完成时刻检测。F Heidarivincheh、M Mirmehdi、D Damen。ICCV人类行为理解研讨会。阿尔西夫|CVF PDF格式2019年10月。

视频2018,视频2016

动作完成:力矩检测的时间模型。F Heidarivincheh、M Mirmehdi、D Damen。英国机器视觉会议(BMVC),2018年9月。Arxiv PDF|数据集

超越行动识别:RGB-D数据中的行动完成。F Heidarivincheh、M Mirmehdi、D Damen。英国机器视觉会议(BMVC),2016年9月。pdf格式|摘要|数据集

人体常规建模和变化检测

使用贝叶斯建模的人类日常变化检测。Y Xu,D Damen。ICPR(2018)。PDF格式

使用动态贝叶斯网络的无监督长期例程建模。Y Xu、D Bull、D Damen。DICTA(2017)。PDF格式

主动变更对象交互的边界

视频

侵入边界:标记自我中心主义视频中对象交互的时间边界。D Moltisanti、M Wray、W Mayol-Cuevas、D Damen。2017年国际计算机视觉会议(ICCV)。pdf格式(摄像头就绪)|阿西夫

自我中心行为的语义嵌入

视频

SEMBED:自我中心主义动作视频的语义嵌入。M Wray、D Moltisanti、W Mayol-Cuevas、D Damen。自我中心互动、感知和计算(EPIC),欧洲计算机视觉研讨会(ECCVW),2016年10月。pdf格式|数据集

你做我学

视频1(2014),视频2(2017)

使用眼镜电脑自动捕获和提供辅助任务指导:GlaciAR系统。T Leelasawassuk、D Damen、W Mayol-Cuevas。《增强人类》,2017年3月pdf格式

You-Do,I-Learn:从多用户自我中心视频中发现任务相关对象及其交互模式。D Damen、T Leelasawassuk、O Haines、A Calway、W Mayol-Cuevas。英国机器视觉会议(BMVC),2014年9月。PDF格式|摘要|数据集

多用户以自我为中心的在线系统,用于对象使用的无监督协助。D Damen、O Haines、T Leelasawassuk、A Calway、W Mayol-Cuevas。ECCV辅助计算机视觉和机器人(ACVR)研讨会,2014年9月。PDF预打印

评估头戴式IMU的视觉注意力。T Leelasawassuk、D Damen、W Mayol-Cuevas。可穿戴计算机国际研讨会(ISWC),2015年9月。PDF格式

DS-KCF:基于深度的实时单目标跟踪器

视频1|视频2|代码

采用深度缩放核化相关滤波器和遮挡处理的实时RGB-D跟踪。M Camplani、S Hannuna、M Mirmehdi、D Damen、L Tao、T Burghardt和A Paiment。英国机器视觉大会(BMVC),2015年9月。PDF格式.

三维纹理最小对象的实时学习与检测

视频|代码

三维纹理小对象的实时学习和检测:一种可伸缩的方法。D Damen,P Bunnun,A Calway,W Mayol-Cuevas。英国机器视觉会议(BMVC),2012年9月。PDF格式|摘要|代码|视频|数据集.

增强现实制导中的高效无纹理目标检测。T Hodan、D Damen、W Mayol-Cuevas、J Matas。IEEE混合增强现实国际研讨会(ISMAR)混合增强现实视觉识别与检索研讨会,2015年9月。

以自我为中心的实时工业工作流

视频1|视频2

使用自我中心传感器网络对工业工作流进行认知学习、监控和协助。G Bleser、D Damen、A Behera等人,PLOSONE,2015年6月PDF格式.

使用RGB-D摄像头进行自我实时工作空间监控。D Damen、A Gee、W Mayol-Cuevas、A Calway。智能机器人与系统(IROS),2012年10月。PDF格式|视频.

人体运动的在线质量评估

代码

根据骨骼数据对人体运动进行在线质量评估。A Paiment、L Tao、S Hannuna、M Camplani、D Damen和M Mirmehdi。英国机器视觉会议(BMVC),2014年9月。PDF格式|数据集.

自行车问题

将活动解释为一致的事件组-使用属性多集语法的贝叶斯框架。D Damen和D Hogg国际计算机视觉杂志(IJCV),2012年。PDF格式.

识别关联事件:寻找可行解释的空间。D Damen和D Hogg。计算机视觉和模式识别(CVPR),佛罗里达州迈阿密,2009年6月。PDF格式|海报

检测步行行人携带的物体

视频|代码

从步行行人序列中检测携带的物体。D Damen和D Hogg。模式分析和机器智能(PAMI),2012年。PDF格式.

检测短视频序列中的携带对象。D Damen和D Hogg。欧洲计算机视觉会议(ECCV),法国马赛,2008年10月PDF格式|海报

研究小组成员

以前的学生和Postdocs