{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期-部件”:[[2024,9,13]],“日期-时间”:“2024-09-13T02:52:48Z”,“时间戳”:1726195968427},“发布者位置”:“查姆”,“引用-计数”:28,“出版者”:“施普林格自然瑞士”,“isbn-type”:[{“类型”:”打印“,“值”:“978303131462”},{“类型”:“电子”,“值”:“9783031314179”}],“许可证”:[{“start”:{“date-parts”:[[2023,1,1]],“date-time”:“2023-01-01T00:00:00Z”,“timestamp”:1672531200000},“content-version”:“tdm”,“delay-in-days”:0,“URL”:“https:\/\/www.springernature.com\/gp\/researners\/text-and-data-mining”},{“开始”:{“date-ports”:[2023,1]]:“2023-01-01T00:00:00Z”,“时间戳”:1672531200000},“content-version”:“vor”,“delay-in-days”:0,“URL”:“https:\/\/www.springernature.com//gp\/researters\/text-and-data-mining”}],“content-domain”:{“domain”:[“link.springer.com”],“crossmark-restriction”:false},“short-container-title”:[],“published-print”:{“date-parts”:[[2023]]},”DOI“:”10.1007\/978-31-31417-9_40“,“type”:“book-chapter”,“created”用法:{“date-parts”:[[2023,5,6]],“date-time”:“2023-05-06T12:02:31Z”,“timestamp”:1683374551000},“page”:“532-542”,“update-policy”:”http://\/dx.doi.org\/10.1007\/springer_crossmark_policy“,”source“:”Crossref“,“is-referenced-by-count”:1,“title”:[“一种基于转换器的快速和高效图像解调的U-Net体系结构”],“前缀”:“10.1007”,“作者”:[{“ORCID”:“http://\/ORCID.org\/0000-0001-7417-1513”,“authenticated-ORCID”:false,“给定”:“Densen”,“family”:“Puthussery”,“sequence”:“first”,“affiliation”:[]},{“ORCID”:“http://\-ORCID.org\/0000-0002-8743-2345”,“authenticated-ORCID“:false”,“give”:“P.S.”,“家族”:“Hrishikesh”,“序列”:“附加”,“从属关系”:[]},{“ORCID”:“http://\/orcid.org\/00000-0002-6667-226X”,“authenticated-orcid”:false,“given”:“C.V.”,“family”:“Jiji”,”sequence“:”additional“,”affiliation“:[]}],“member”:“297”,“published-online”:{“date-parts”:[2023,5,7]]},“reference”:[{“key”:”40_CR1“,”doi-asserted-by“:”crossref“,“unstructured”:“Anwar,S.,Barnes,N.:关注特征的真实图像去噪。CoRR abs \/1904.07396(2019)。http://\/arxiv.org\/abs\/1904.0 7396”,“DOI”:“10.1109\/ICCV.2019.00325”},{“key”:“40_CR2”,“DOI-asserted-by”:“crossref”,“unstructured”:“Cheng,X.,Fu,Z.,Yang,J.:图像去噪的多尺度动态特征编码网络(2019年)”,“DOI”:“10.1109\/ICCVW.2019.00432”},{“key”:“40_CR3”,“unstructured”:“Dosovitskiy,A.,et al.:图像值16x16个单词:用于大规模图像识别的变形金刚。In:第九届学习表征国际会议,ICLR 2021,虚拟事件,奥地利,20137年5月3日,2021年。OpenReview.net(2021)。https:\/\/openreview.net\/forum?id=YicbFdNTTy“},{“key”:“40_CR4”,“doi-asserted-by”:“crossref”,“unstructured”:“Haris,M.,Shakhnarovich,G.,Ukita,N.:超分辨率的深度反向投影网络(03 2018)”,“doi”:“10.1109\/CVPR.2018.00179”},},“key“:”40_CR5He,B.、Wang,C.、Shi,B.和Duan,L.Y.:使用MOPNET的拖布云纹图案。摘自:IEEE计算机视觉国际会议(ICCV)论文集,2019年10月”,“DOI”:“10.1109”,{“key”:“40_CR6”,“DOI-asserted-by”:“crossref”,“unstructured”:“Kim,Y.,Soh,J.W.,Park,G.Y.,Cho,N.I.:通过自适应实例归一化将学习从合成去噪转移到实际去噪。收录于:IEEE计算机视觉与模式识别会议(CVPR),2020年6月”,“DOI”:“10.1109”,{“key”:“40_CR7”,“DOI-asserted-by”:“crossref”,“unstructured”:“Kupyn,O.,Budzan,V.,Mykhailych,M.,Mishkin,D.,Matas,J.:Deblurgan:使用条件对抗网络的盲运动去模糊。CoRR abs \/1711.07064(2017)。http://\/arxiv.org\/abs\/1711.07064“,“DOI”:“10.1109\/CVPR.2018.00854”},{“key”:“40_CR8”,“DOI-asserted-by”:“crossref”,“unstructured”:“Ledig,C.等人:使用生成对抗网络的真实感单幅图像超分辨率。摘自:2017 IEEE计算机视觉和模式识别会议(CVPR),pp.105\u2013114(2017)”,“DOI:”10.1109\/CVPR.2017.19“},{“key”:“40_CR9”,“doi-asserted-by”:“publisher”,“unstructured”:“Li,Y.,Zhang,K.,Cao,J.,Timofte,R.,Van Gool,L.:Localvit:将位置引入视觉变压器(2021)。https:\/\/doi.org\/10.48550\/ARXIV.2104.05707,https:\//ARXIV.org\/abs\/2104.05707”,“doi”:“10.48550\/ARXV.2104.057”},{“键”:“40_CR10”,“doi-asserted-by“:“publisher”,“unstructured”:“Liang,J.,Cao,J.、Sun,G.、Zhang,K.、Van Gool,L.、Timofte,R.:Swinir:使用swi transformer恢复图像。收录于:2021 IEEE\/CVF国际计算机视觉研讨会(ICCVW),第1833\u20131844页(2021)。https:\/\/doi.org\/10.109\/ICCVW54120.2021.00210“,”doi“:”10.1109\/ICCV W541202021.0210“},{“key”:“40_CR11”,“unstructured”:“Liu,B.,Shu,X.,Wu,X.:使用深度卷积神经网络演示摄像捕获的屏幕图像(2018)”},}“key:”40_CR12“,”doi-asserted-by“:”publisher“,”unstructure“:”Liu,Z.,et al.:Swin transformer:使用移动窗口的分层视觉变换器。参加:2021 IEEE计算机视觉国际会议,ICCV 2021,蒙特利尔,QC,加拿大,2013年10月10日,2017年,2021年。第9992页\u201310002。IEEE(2021)。https:\/\/doi.org\/10.109\/ICCV48922.2021.00986“,”doi“:”10.1109\/ICCV6892.2021.00886“},{“key”:“40_CR13”,“doi-asserted-by”:“publisher”,“unstructured”:“Luo,X.,Zhang,J.,Hong,M.,Qu,Y.,Xie,Y.和Li,C.:用于单个图像演示的具有域自适应的深度小波网络。收录于:2020 IEEE计算机视觉和模式识别研讨会(CVPRW),第1687页,20131694(2020)。https:\/\/doi.org\/10.109\/CVPRW50498.2020.00218“,”doi“:”10.1109\/CVPRV50498.020.00218“},{”key“:”40_CR14“,”doi-asserted-by“:”publisher“,”first page“:“4160”,“doi”:“10.1109\/TIP.2018.2834737”,“volume”:“27”,“author”:“Y Sun”,“year”:“2018”,“unstructured”:“”Sun,Y.、Yu,Y.和Wang,W.:使用多分辨率卷积神经网络恢复Moir\u00e9照片。IEEE传输。图像处理。27,4160\u20134172(2018)“,“期刊标题”:“IEEE Trans。图像处理。},{“key”:“40_CR15”,“unstructured”:“Vaswani,A.,et al.:注意是你所需要的。CoRR abs \/1706.03762(2017)。http://\/arxiv.org\/abs\/1706.0 3762”},},“key“:”40_CR16“,”unstructure“:”Wang,Z.,Cun,X.,Bao,J.,Liu,J.:Uformer:用于图像恢复的通用u形变压器。CoRR-abs \/2106.03106(2021).https:\/\/arxiv.org\/abs\/2106.03106“},{”key“:”40_CR17“,”doi-asserted-by“:”publisher“,”unstructured“:”Xia,Z.,Chakrabarti,A.:用深层神经网络识别自然图像去噪的重复模式。在:IEEE计算机视觉应用冬季会议,WACV 2020,美国科罗拉多州斯诺马斯村,2020年3月1日,第2415\u20132423页。IEEE(2020)。https:\/\/doi.org\/10.109\/WACV45572.2020.9093586“,”doi“:”10.1109\/WACV65572.2020.9093586“},{“key”:“40_CR18”,“unstructured”:“Xie,E.,Wang,W.,Yu,Z.,Anandkumar,A.,Alvarez,J.M.,Luo,P.:Segformer:使用转换器进行语义分割的简单高效设计。收录于:Ranzato,M.、Beygelzimer,A.、Dauphin,Y.、Liang,P.、Vaughan,J.W.(编辑)《神经信息处理系统进展》,第34卷,第12077\u201312090页。Curran Associates,Inc.(2021年)。https:\/\/processes.neurips.cc\/paper\/2021\/file\/64f1f27bf1bf4ec22924fd0acb550c235-paper.pdf“},{“key”:“40_CR19”,“doi-asserted-by”:“crossref”,“unstructured”:“Yang,F.、Yang,H.、Fu,J.、Lu,H.和Guo,B.:学习用于图像超分辨率的纹理变换网络。收录于:IEEE计算机视觉与模式识别(CVPR)会议记录,2020年6月”,“DOI”:“10.1109”,{“issue”:“7”,“key”:“40_CR20”,“DOI-asserted-by”:“crossref”,“first page”:”3528“,“DOI:”10.1109,TIP.2017.2695104“,“volume”::“26”,“author”:“J Yang”,“year”:“2017”,“unstructured”:“Yang,J.,Liu,F.,Yue,H.,Fu,X.,Hou,C.,Wu,F.:通过信号分解和引导滤波进行纹理图像演示。IEEE Trans。图像处理。26(7),3528\u20133541(2017)“,“期刊标题”:“IEEE Trans。图像处理。“},{”key“:”40_CR21“,”非结构化“:”Yuan,S.等人:Ntire 2020图像解调挑战:方法和结果。在:2020 IEEE\/CFF计算机视觉和模式识别研讨会(CVPRW)会议,pp.1882\u20131893(2020)“},{”key“:”40_CR22“,”doi断言“:”crossref“,”非结构化“:”Yuan,S.、Timofte,R.、Slabaugh,G.、Leonardis,A.:Aim 2019图像解调挑战:数据集和研究。2019 IEEE\/CVF国际计算机视觉研讨会(ICCVW),第3526\u20133533页(2019)“,“DOI”:“10.1109\/ICCVW.2019.00437”},{“key”:“40_CR23”,“DOI-asserted-by”:“crossref”,“unstructured”:“Yuan,S.、Timofte,R.、Leonardis,A.、Slabaugh,G.:2020年图像演示的挑战:方法和结果。摘自:IEEE计算机视觉和模式识别(CVPR)研讨会论文集,2020年6月”,“DOI”:“10.1109”,“ICCVW.2019.00437”},{“key”:“40_CR24”,“DOI-asserted-by”:“publisher”,”unstructured“:”Yuan,S.,et al.:《2019年图像演示挑战:方法和结果》(2019)。https:\/\/DOI.org\/10.48550\/ARXIV.1911.03461“,”DOI“:”10.48550\/ARXIV.1911.03461“},{“key”:“40_CR25”,“DOI-asserted-by”:“crossref”,“unstructured”:“Zhang,H.,Dai,Y.,Li,H.、Koniusz,P.:用于图像去模糊的深层分层多抽样网络。收录于:2019 IEEE\/CVF计算机视觉与模式识别会议(CVPR),第5971\u20135979页(2019)”,“DOI”:“10.1109\/CVPR.2019.00613”},}“key“:”40_CR26“,”unstructured“:”Zhang,Y.,Li,K.,Li.,K.、Wang,L.,Zhong,B.,Fu,Y.:使用非常深的剩余通道注意网络的图像超分辨率。CoRR abs \/1807.02758(2018)。http://\/arxiv.org\/abs\/1807.02758“},{“key”:“40_CR27”,“doi-asserted-by”:“publisher”,“unstructured”:“Zheng,B.,Yuan,S.,Slabaugh,G.,Leonardis,A.:使用可学习带通滤波器的图像演示(2020)。https:\/\/doi.org\/10.48550\/arxiv.2004.00406。https:\/\/arxiv.org\/abs\/2004.00406“,”DOI“:”10.48550\/arxiv.2004.00406“},{“key”:“40_CR28”,“unstructured”:“Zhu,X.、Su,W.、Lu,L.、Li,B.、Wang,X.和Dai,J.:可变形DETR:用于端到端目标检测的可变形变压器。参加:第九届国际学习代表大会,ICLR 2021,虚拟活动,奥地利,20137年5月3日,2021年。OpenReview.net(2021)。https:\/\/openreview.net\/forum?id=gZ9hCDWe6ke“}],“container-title”:[“计算机和信息科学中的通信”,“计算机视觉和图像处理”],“原始标题”:[],“语言”:“en”,“链接”:[{“URL”:“https:\/\/link.springer.com\/content\/pdf\/10.1007\/978-3-0317-31417-9_40”,“内容类型”:“未指定”,“content-version”:“vor”,“intended-application”:“”相似性检查“}”,“存放”:{“日期-部分”:[[2023,5,6]],“日期-时间”:“2023-05-06T12:14:27Z”,“时间戳”:1683375267000},“分数”:1,“资源”:{“主要”:{:“URL”:“https:\/\/link.springer.com\/10.10007\/978-3-0317-9_40”},“ISBN”:[“9783031314162”,“978301314179”],“references-count“:28,”URL“:”http://\/dx.doi.org\/10.1007\/978-3-031-31417-9_40“,”关系“:{},”ISSN“:[”1865-0929“,”1865-0837“],”ISSN-type“:[{”type“:”print“,”value“:”1865-0.929“},{”类型“:”electronic“,”value“:“1865-0937”}],”主题“:[],”发布“:{”日期部分“:[2023]]},“assertion”:[{“value”:“2023年5月7日”,“order”:1,“name”:“first_online”,“label”:“First Online”,“group”:{“name”:“ChapterHistory”,“label”:“章节历史”}},{“value”:“CVIP”,“order”:1,“name”:“conference_acrombit”,“标签”:“conference-Acromnim”,“group”:{name”:”ConferenceInfo“,”label“:”会议信息“},”{value“:”计算机视觉和图像处理国际会议“,”order“:2,”name“:”conference_name“,”标签“:”会议名称“,”组“:{”Name“:”ConferenceInfo“,”label“:”会议信息“}},{”value“:”Nagpur“,“order”:3,“Name”:“Conference_city”,“label”:“ConferenceCity”,“group”:{“Name”:“ConferenceInfo”,“标签”:“会议信息”}}、{“value”:“India”,“orders”:4,“Name“:信息“,”label“:”会议信息“}},{“value”:“2022”,“order”:5,“name”:“Conference_year”,“label”:“会议年份”,“group”:{“name”:“ConferenceInfo”,“标签”:“Conferency Information”}}{“value“:”2022年11月6日“,”order“:8,”name“:”conference_end_date“,”label“:”会议结束日期“,”group“::10,“名称”:“conference_id“,”label“:”会议id“,”group“:{”name“:”ConferenceInfo“,”label“:“会议信息”}},{”value“:”https:\\//vnit.ac.in\/cvip2022\/“,”order“:11,“name”:“conferenceuurl”,“label”:“会议url”,“group”:“name”:“type”,“label”:“type”,“group“:{”name“:”ConfEventPeerReviewInformation“,”label“:”Peer Review Information(由会议组织者提供)“}},{”value“:”Microsoft CMT“,”order“:2,“name”:“conference_management_system”,“label”:“会议管理系统”,“group”:{同行评审信息(由会议组织者提供)“}},{“value”:“307”,“order”:3,“name”:“number_of_submissions_sent_for_Review”,“label”:“发送供评审的提交数”,“group”:{“name”:“ConfEventPeerReviewInformation”,“table”:“同行评审信息”(由会议主办方提供)}}number_of_full_papers_accepted“,”label“:”接受的全文数“,”group“:{”name“:”ConfEventPeerReviewInformation“,”标签“:”同行评审信息(由会议组织者提供)“}},{”value“:”11“,”order“:5,”name“:”number_ of_short_papers_Accepteded“,”table“:”已接受的短文数“,“group”:{“name”:“”ConfEventPeerReviewInformation“,”label“:”同行评审信息(由会议组织者提供)“}},{”value“:”36%-该值由等式“接受的全文数”/“发送供评审的提交数*100”计算,然后四舍五入为整数。“,”order“:6,”name“:”acceptance_rate_of_Full_Papers“,”标签“:”全文接受率“,”group“:{”name“:”ConfEventPeerReviewInformation“,”label“:”Peer Review Information(由会议组织者提供)“}},{”value“:”3“,”order“:7,”name“:”average_number_of_reviews_per_paper“,”标签“:”每篇论文的平均评论数“,”google“:同行评议信息(由会议组织者提供)“}},{“value”:“4”,“order”:8,“name”:“average_number_of_papers_per_reviewer”,“label”:“每个审阅者的平均论文数”,“group”:{“name”:“ConfEventPeerReviewInformation”,“table”:“同行评审信息(由大会组织者提供)”}}external_reviewers_involved“,”label“:”涉及外部审阅者“,”group“:{”name“:”ConfEventPeerReviewInformation“,”标签“:”同行审阅信息(由会议组织者提供)“}}]}}