IT之家11月14日消息,第31届国际多媒体会议(ACMInternationalConferenceonMultimedia,ACMMM)于10月29日至11月2日在加拿大渥太华举行,中国团队在在本次会议上收获满满。
IT之家注:ACM国际多媒体会议(ACMMM)自1993年首次召开以来,每年召开一次,已经成为多媒体领域顶级会议,也是中国计算机学会推荐的A类国际学术。
今年ACMMM会议累计收到3072篇投稿论文,录用902篇,录用率为29.3%,其中浙江大学团队斩获最佳论文奖(BestPaperAward)、南京航空航天大学团队获得荣誉提名奖(HonorableMentionAward),清华大学团队获得勇敢创意奖(BraveNewIdeaAward)。
最佳论文奖
本次最佳论文奖论文标题为《CATR:Combinatorial-DependenceAudio-QueriedTransformerforAudio-VisualVideoSegmentation》(CATR:用于视频分割的组合依赖型音频查询转换器)。
论文链接:https://arxiv.org/abs/2309.09709
开源地址:https://github.com/aspirinone/CATR.github.io
作者单位:ZhejiangUniversity;FinvolutionGroup;
该论文主要介绍了跨模态信息引导的视频分割,论文中提出了一种基于组合依赖和音频查询的视频分割框架(CATR)。
该方案像素级掩码标注视频中的声音对象,并关联声音和发出声音的对象,从而在视频中识别和分割发出声音的人。
荣誉提名奖
RefineTAD:LearningProposal-freeRefinementforTemporalActionDetection
作者单位:NanjingUniversityofAeronauticsandAstronautics;NanjingUniversity
该论文主要研究时间动作检测(TAD),通过全新的定位优化框架,解耦定位细化过程与传统动作检测方法,在每个时间点生成多尺度的定位细化信息。
勇敢创意奖
Semantics2Hands:TransferringHandMotionSemanticsbetweenAvatars
论文链接:https://arxiv.org/abs/2308.05920
开源地址:https://github.com/abcyzj/Semantics2Hands
作者单位:TsinghuaUniversity;TsinghuaUniversityBeijingNationalResearchCenterforInformationScienceandTechnology
该论文主要在动画制作和人机交互中,保持虚拟人物的手部动作语义前提下进行手部动作迁移。
更多信息可以访问:https://www.acmmm2023.org/