{“状态”:“正常”,“消息类型”:“工作”,“消息版本”:“1.0.0”,“消息”:{“索引”:{“日期部分”:[[2023,8,18]],“日期时间”:“2023-08-18T04:43:52Z”,“时间戳”:1692333832584},“引用计数”:63,“发布者”:“工程技术学会(IET)”,“问题”:“10”,“许可证”:[{“开始”:{“日期部分”:[[2023,6,21]],“日期时间”:“2023-06-21T00:00:00Z”,“timestamp”:16873056000000},“content-version”:“vor”,“delay-in-days”:0,“URL”:“http://\/creativecommons.org\/licenses\/by\/4.0\/”}],“funder”:[{“DOI”:“10.13039\/501100001809”,“name”:“国家自然科学基金”,“DOI-asserted-by”:“publisher”,“award”:[“61991413”,“62073205”,“6127333”9“]}],”内容域“:{”域“:[“ietreasure.onlinelibrary.wiley.com”],“crossmark-restriction”:true},“short-container-title”:[“IET图像处理”],”published-print“:{“date-parts”:[[2023,8]]},”抽象“:”摘要<\/jats:title>近年来,用于图像处理和水下机器人视觉的水下图像增强引起了学术界的广泛关注。然而,在大多数现有方法中,水下图像增强是通过一个简单的假设完成的:衰减系数在彩色通道中是统一的。这种假设导致增强结果不稳定且视觉效果不佳。此外,这些方法不能成功地应用于探索来自具有互补特征信息的多个颜色信道的相对独立的传输。为了应对这些挑战,提出了一种新的信道2010传输估计网络(CTEN),旨在探索水下场景中彩色信道之间的传输差异。具体而言,提出了一种特定于颜色\u2010的校正模块,用于自动量化水下环境中多个彩色通道的传输能力。此外,还设计了信道传输估计模块,以同时探索多个颜色信道的相对独立性,并估计每个颜色信道的介质传输,这表示不同颜色辐射在水中反射后的衰减程度。然后,引入一种新的残差策略,将这两个模块集成在一起,完成水下增强。使用该模型,作者能够回答为什么信道2010传输估计优于单个传输估计的问题,并建立了一个泛化理论来说明独立传输估计模型对每个彩色信道的影响。在多个水下图像数据集上的实验验证了该CTEN\u00a0模型的优越性<\/jats:p>“,”DOI“:”10.1049\/ipr2.12845“,”type“:”journal-article“,”created“:{”date-parts“:[[2023,6,21]],”date-time“:”2023-06-21T10:29:45Z“,”timestamp“:1687343385000},”page“:“2958-2971”,”update-policy“:“:0,”标题“:[”通过信道\u2010wise传输估计网络进行水下图像增强“],”前缀“:”10.1049“,”卷“:”17“,”作者“:[{”ORCID“:”http://\/ORCID.org\/0000-0002-2018-1764“,”authenticated-ORCID“:false,”给定“:”Qiang“,”family“:”Wang“,”sequence“:”first“,”affiliation“:”[{“name”:“沈阳大学制造业综合重点实验室(中国沈阳)“},{“name”:“中国科学院沈阳自动化研究所机器人技术国家重点实验室”}、{“name”:“中科院沈阳机器人与智能制造研究所”}]},}“ORCID”:“http:\/\/orcid.org\/00000-0002-1314-6653“,”authenticated-orcid“:false,”given“:”Bo“,”family“:”Fu“,“sequence”:“additional”,“affiliation”:[{“name”:“中国科学院沈阳自动化研究所机器人国家重点实验室”},{“name:”中国科学院沈阳机器人与智能制造研究所“}]},{“given”:“Huijie”,“family”:“Fan”,“sequence”:“additional”,“affiliation”:[{“name”:“中国科学院沈阳自动化研究所机器人国家重点实验室”}中国科学院沈阳机器人与智能制造研究所“}]}],“成员”:“265”,“在线发布”:{“日期-部件”:[[2023,6,21]]},“参考”:[{“key”:“e_1_2_12_2_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1109\/TCSVT.2019.296377210.1109\/TCSVT.2020.3035108“},{“key”:“e_1_2_12_4_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1016\/j.engappai.2023.105946“}”,{键“:”e_1_i_12_5_1“,”doi-assert-by“:”publisher“,“doi”:“10.1016\/j.engeappai.2023105952”},“key“:”d_2_12-6_1“”,“article-title”:“”基于多\u2010间隔子星图透视均衡的水下图像增强方法”,“作者”:“周杰”,“年份”:“2023”,“期刊标题”:“IEEE J.Oceanic Eng.”},{“key”:“e_1_2_12_7_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1109\/ACCES.2019.2928976“},”{“key”:”e_2_12-8_1“,”doi-assert-by“:”crossref“,“unstructured”:“Fabbri C.Islam M.J。Sattar J.:使用生成性对抗网络增强水下图像。收录于:2018 IEEE机器人与自动化国际会议(ICRA)pp.7159\u20137165.IEEE Piscataway(2018)“,”DOI“:”10.1109\/ICRA.2018.8460552“},{”key“:”e_1_2_12_9_1“,”DOI-asserted-by“:”publisher“,“DOI”:“10.1109\/TIP.2019.2955241 7.2751671“},{“键”:“e_1_2_12_11_1”,“doi-asserted-by“:”publisher“,”doi“:”10.1109\/TIP.2022.3196546“},{“key”:“e_1_2_12_12_1”,“doi-assert-by”:“crossref”,“first page”:”1“,“doi”:“10.1109\/LGRS.2022.3170702”,“article-title”:“利用深度信息对水下图像进行自动颜色校正”,“volume”:“19”,“author”:“Zhou J”,“year”:“2022”,”journal-title“:”IEEE Geosci。远程传感器。莱特。“},{”key“:”e_1_2_12_13_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1016\/j.engappai.2022.104785”},“key”:“e_1_i_12_14_1”,“doi-assert-by”:“publisher”,”doi“:”10.1109\/48.50695 channel previous”,“volume”:“33”,“author”:“He K.”,“year”:“2010”,“journal-title“:”IEEE Trans。模式分析。机器。智力。“},{”key“:”e_1_2_12_16_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1016\/j.jvcir.2014.11.006”},“{”key“:“e_1_I_12_17_1”,“unstructured”:“Omer I.Werman M.:颜色线:特定于图像的颜色表示。In:2004年IEEE计算机视觉和模式识别计算机学会会议记录(CVPR 2004)第2卷。IEEE Piscataway(2004)”}、{“key“:”e_1_2_12_18_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/TCSVT.2019.2958950”},{“key”:“e_1_i_12_19_1”,“doi-assert-by”:“publisher”,”doi“:”10.1109\/ACCES.2019.2894525“},“key“:”e_2_12-20_1“,{“key”:“e_1_2_12_21_1”,“doi-asserted-by”:“publisher”,“doi”:“10.1109 \/TCSVT.2021.3115791“},{“key”:“e_1_2_12_22_1”,“doi-asserted-by”:“publisher”,“doi”:“10.1109 \/TIP.2018.2813092”},}“密钥”:“e_1_2_12_12_2 3_1”,”doi-assert-by“:”publisher“,”doi“:”10.1109\/JOE.2022.3140563:“10.1109\/TBC.2019.2960942”},{“key”:“e_1_2_12_25_1”,“doi-asserted-by”:“publisher”DOI“:”10.1109\/TCSVT.20182.884615“},{“issue”:“8”,“key”:“e_1_2_12_26_1”,“首页”:“2822”,“文章标题”:“使用haze\u2010线和新的定量数据集进行水下单图像颜色恢复”,“volume”:“43”,“author”:“Berman D.”,“year”:“2020”,“journal title”:“IEEE Trans.Pattern Anal.Mach.Intell.”},{“key”:“e_1_2_12_27_1”,“doi-asserted-by“:”publisher“,”doi“:”10.1109\/LRA.2020.2974710“},{”key“:”e_1_2_12_28_1“,“doi-assert-by”:“crossref”,“unstructured”:“Song W.Wang Y.Huang D。Tjondronigoro D.:一种基于水下光衰减的快速场景深度估计模型,用于水下图像恢复。收录于:环太平洋多媒体会议pp.678\u2013688.Springer Cham(2018)“,”DOI“:”10.1007\/978-3-030-00776-8_62“},{“key”:“e_1_2_12_29_1”,“article-title”:“Uiec2_u2010net:Cnn\u2010-based underwater image enhancement using two color space”,”volume“:”96“,”author“:”Wang Y.“,”“year”:“2021”,”journal-title“:”Multim.Tools Appl.“}”,{”key“:“e_i_2_12”_30_1“,”doi-asserted-by“:”publisher“,”doi“:”10.1109\/TIP.2021.3076367“},{”key“:”e_1_2_12_31_1“,”unstructured“:”Goodfellow I.J.Pouget Abadie J.Mirza M.Xu B.Warde Farley D.Ozair S.et \u00a0al.:生成对抗网。摘自:IEEE神经信息处理系统国际会议论文集第2672\u20132680.IEEE Piscataway(2014)“}、{”key“:”e_1_2_12_32_1“,”unstructured“:”Radford A.Metz L.Chintala S.:深度卷积生成对抗网络的无监督表示学习。摘自:学习代表国际会议记录。ICML圣地亚哥(2016)。可从以下网址获得:https:\/\/arxiv.org\/abs\/1511.06434“},{“key”:“e_1_2_12_33_1”,“unstructured”:“Denton e.L.Chintala S.Fergus R.et \u00a0al.:使用拉普拉斯对抗网络金字塔的深生成图像模型。In:《神经信息处理系统进展》第1486\u20131494页。麻省理工学院出版社,马萨诸塞州坎布里奇分校(2015)”}doi由“:”crossref“,”非结构化“断言:”Hashisho Y.Albadawi M.Krause T.vonLukas U.F.:使用U\u2010net去噪自动编码器的水下颜色恢复。2019年第11届图像和信号处理与分析国际研讨会(ISPA)pp.117\u2013122.IEEE Piscataway(2019)“,“DOI”:“10.1109\/ISPA.2019.8868679”},{“key”:“e_1_2_12_35_1”,“DOI-asserted-by”:“crossref”,”非结构化“Ronneberger O.Fischer P。Brox T.:U\u2010net:生物医学图像分割的卷积网络。收录于:《国际医学图像计算与计算机辅助干预会议》第234\u2013241.Springer Cham(2015)页,“DOI”:“10.1007\/978-3-319-24574-4_28”},{“key”:“e_1_2_12_36_1”,“unstructured”:“Jamadandi A。Mudenagudi U.:基于示例\u2010的通过小波校正变换增强的水下图像增强。收录于:IEEE计算机视觉和模式识别会议论文集第11\u201317.IEEE Piscataway(2019)“},{“key”:“e_1_2_12_37_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1109“/TNNLS.2020.3007534“}”,{”key“:”e_1_i_12_38_1“,”doi-assert-by“:”publisher“,“doi”:“10.1109”/TCSVT.2021.3074197“}9_1“,”doi由“:”publisher“断言,”doi“:”10.1109\/TKDE.2009.191“},{”key“:”e_1_2_12_40_1“断言,”doi由“:”crossref“断言,”nonstructured“断言:”Gatys L.A.Ecker A.S.Bethge M.:使用卷积神经网络的图像风格转移。In:《IEEE计算机视觉与模式识别会议论文集》第2414\u20132423.IEEE Piscataway(2016)“,”doi“:”10.1109\/CVPR.2016.265“},{“key”:“e_1_2_12_41_1”,“doi-asserted-by”:“publisher”,”doi“:“10.1016\/j.optlastec.2018.05.48”},}“key”:”e_1_i_12_42_1“,”doi-assert-by“:”publisher“,“doi”:“10.1109\/JOE.2021.3104055”}“:”10.1016\/j.neucom.2020.07.130“},{”key“:”e_1_2_12_44_1“,”doi-asserted-by“:”publisher“,”DOI“:”10.1016\/j.engappai.2021.104171“},{“key”:“e_1_2_12_45_1”,“DOI-asserted-by”:“publisher”,”DOI:“10.1007\/s11042-019-08404-4”},“key“:”e_1_i_2_12_46_1“,“doiasserted-by“:”crossref“,‘unstructured’:”Fu X.Zhuang P.Huang Y.Liao Y.Zhang X.P。丁旭:一种基于retinex\u2010的单一水下图像增强方法。2014 IEEE图像处理国际会议(ICIP)pp.4572\u20134576.IEEE Piscataway(2014)“,”DOI“:”10.1109\/ICIP.2014.7025927“},{“key”:“e_1_2_12_47_1”,“DOI-asserted-by”:“crossref”,”unstructured“:”Karras T.Laine S。Aila T.:用于生成性对抗网络的基于样式\u2010的生成器体系结构。收录于:IEEE计算机视觉与模式识别会议论文集第4401_u20134410.IEEE Piscataway(2019)页,“DOI”:“10.1109”,CVPR.2019.00453“},{“key”:“e_1_2_12_48_1”,“DOI-asserted-by”:“crossref”、“unstructured”:“Mao X.Li Q.Xie H.Lau R.Y.Wang Z。保罗·斯莫利S.:最小二乘生成对抗网络。摘自:IEEE国际计算机视觉会议论文集pp.2794\u20132802.IEEE Piscataway(2017)“,”DOI“:”10.1109\/ICCV.2017.304“},”{“key”:“e_1_2_12_49_1”,”DOI-asserted-by“:”publisher“,”DOI“:“10.1109\/TCSVT.2022.3174817”},{“issue”:“1”,”key“:”e_2_12-50_1“,“首页”:“387”,”article-title“:”Watergan:无监督生成网络,用于实现单目水下图像的2010年实时颜色校正”,“卷”:“3”,“作者”:“李J.”,“年份”:“2017年”,“新闻标题”:“IEEE Rob。自动。莱特。“},{”key“:”e_1_2_12_51_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/JOE.2019.2911447”},“key”:“e_1_i_12_52_1”,“unstructured”:“Uplavikar P.M.Wu Z.Wang Z.:All\u2010in\u2010one underwater image image enhancement using domain\u2010对抗性学习。In:CVPR Workshops pp.1\u20138.IEEE Piscataway(2019)”}“,{“key“:”e_2_12-53_1“由“:”插入publisher“,”DOI“:”10.1016\/j.patcog.2019.107038“},{“key”:“e_1_2_12_54_1”,“DOI-asserted-by”:“crossref”,”unstructured“:”He K.Zhang X.Ren S.Sun j.:“图像识别的深度剩余学习”。摘自:IEEE Computer Vision and Pattern recognition Proceedings of the IEEE Conference on Computer Visual and Patterm Recognitions pp.770\u2013778.IEEE Piscatawaykey“:”e_1_2_12_55_1“,”doi-asserted-by“:”crossref“,“unstructured”:“Bastidas A.A.Tang H.:频道注意力网络。摘自:IEEE计算机视觉和模式识别(CVPR)研讨会会议记录。IEEE Piscataway(2019)“,”DOI“:”10.1109\/CVPRW.2019.00117“},{”key“:”e_1_2_12_56_1“,”DOI-asserted-by“:”crossref“,“unstructured”:“Zhong Z.Lin Z.Q.Bidart R.Hu X.Daya I.B.Li Z.et \u00a0al.:语义切分的挤压\u2010和\u2010注意力网络。In:IEEE\/CVF计算机视觉和模式识别会议论文集(CVPR)IEEE Piscataway(2020)“,”DOI“:”10.1109\/CVPR42600.2020.01308“},{”key“:”e_1_2_12_57_1“,”DOI-asserted-by“:”crossref“,“unstructured”:“Wang X.Gupta A.:使用风格和结构对抗网络的生成图像建模。In:European Conference on Computer Vision pp.318\u2013335.Springer Berlin(2016)”,“DOI”:“10.1007\/978-3319-46493-0_20”},”{“key”:“”e_1_2_12_58_1“,“doi-asserted-by”:“crossref”,“unstructured”:“Pathak D.Kr\u00c3d'henb\u00c3d'ijhl P.Donahue J.Darrell T.Efros A.A.:上下文编码器:通过补漆学习特征。摘自:IEEE计算机视觉和模式识别会议论文集pp.2536\u20132544.IEEE Piscataway(2016)“,”DOI“:”10.1109\/CVPR.2016.278“},{“key”:“e_1_2_12_59_1”,”DOI-asserted-by“:”crossref“,”unstructured“:”Kim J.Lee J.K。Lee K.M.:使用非常深的卷积网络获得精确的图像超\u2010分辨率。收录于:IEEE计算机视觉与模式识别(CVPR)会议论文集,pp.1646\u20131654.IEEE Piscataway(2016)“,”DOI“:”10.1109“/CVPR.2016.182“},{”key“:”e_1_2_12_60_1“,”DOI-asserted-by“:”publisher“,“DOI”:“10.1109”TIP.2017.2663846。Sequeira J.Mavromatis S.:基于自适应参数采集,使用相对全局直方图拉伸进行浅水图像增强。收录于:国际多媒体建模会议pp.453\u2013465.Springer Cham(2018)“,”DOI“:”10.1007\/978-3-319-73603-7_37“},”key“:”e_1_2_12_62_1“,”DOI-asserted-by“:”publisher“,“DOI”:“10.1109\/TIP.2015.2491020”},键“:”e_1_2_12_64_1“,”DOI-asserted-by“:”crossref”,“非结构化”:“Wang W.Shen J.Dong X.Borji A.:由注视预测驱动的显著物体检测。在:《IEEE计算机视觉和模式识别会议论文集》第1711\u20131720.IEEE Piscataway(2018)“,“DOI”:“10.1109\/CVPR.2018.00184”}],“容器标题”:[“IET图像处理”],“原始标题”:[],“语言”:“en”,“已存放”:{“日期部分”:[[2023,8,18]],“日期时间”:“2023-08-18T02:28:44Z”,“时间戳”:1692325724000},“分数”:1,”resource“:{”primary”:{“URL”:“https:\/\/ietresearch.onlinelibrary.wiley.com/doi\/10.1049\/ipr2.12845”}},“副标题”:[],“短标题”:[],“已发布”:{-“日期-部件”:[[2023,6,21]]},”references-count“:63,”journal-issue“:”10“,”published-print“:{-日期-部件“:[2023,8]]}}”,“alternative-id”“:[”10.1049\/ipr2.12845“],”URL“:”http:\/\/dx.doi.org\/10.1049\/ipr2.12845“,”存档“:[”Portico“],”关系“:{},”ISSN“:[“1751-9659”,”1751-9667“],“ISSN-type”:[{“value”:“1751-96059”,“type”:“print”},{“value”:“1761-9667”,“类型”:“electronic”}],“subject”:[],“published”:{“date-parts”:[2023,6,21]]},“断言”:[{“value”:“2023-03-16”,“order”:0,“name”:“received”,“label”:“已接收”,“group”:{name“:”publication_history“,”label“:”publication history“}},{“value”:“2023-05-29”,“order”:1,“name”:“accepted”,“label”:“accepted(接受)”,“group”:{“name”:“publication_history”,“标签”:“Publicate history(发布历史)”},“value“:”2023-06-21]}}