会议名:中国矿业大学“图像分析与理解”前沿论坛
时间:2021年12月9日上午9:45
线下地点:尊龙凯时A501
腾讯会议号:820127086 会议密码:857272
专家一:李永露-香港科技大学博士后
专家简介:李永露博士目前在香港科技大学计算机科学与工程系担任博士后研究员,主要与Chi-Keung TANG教授和Yu-Wing Tai教授合作进行视觉行为理解与智能机器人方向的研究。他于2021年9月从上海交大计算机系获博士学位,师从卢策吾教授。目前,他在视觉和人工智能顶会和顶刊上共发表13篇论文,一作9篇,含TPAMI、NeurIPS、CVPR、ICCV、ECCV、AAAI等,;他同时担任了多个顶级学术会议的审稿人,如CVPR、NeurIPS、ICCV、ICLR、ICML、AAAI等;博士期间,他获得了多种荣誉,包括百度奖学金(全球十人)、2020全球华人AI学生AI百人(机器学习top-10)、WAIC云帆奖-明日之星(全球十人)、上海市优秀博士毕业生、上交计算机系85基金优秀博士、NeurIPS 2021杰出审稿人奖、国家奖学金、华为奖学金、A班计划、WAIC优秀开发者。
报告时间:9:45-10:25
报告题目:知识驱动的人类活动理解
报告简介:人类行为理解对机器智能和具身智能至关重要。然而,目前基于深度学习的体系仍存在对数据依赖性强、泛化能力差等问题。在这里,我们提出了一个知识驱动的推理角度来促进行为理解,并开发人类行为知识引擎(HAKE)项目。为了提供基于知识的推理,HAKE提供了26个M+人体部分级原子状态(部分状态)、细粒度对象知识(属性、可提供性)、逻辑规则和因果关系的注释。为了提供基于知识的推理,HAKE提供了26个M+人体部件级原子状态(部分状态)、细粒度对象知识(属性、可提供性)、逻辑规则和因果关系的注释。它提高了一些广泛使用的行为基准的性能,并在few/zero-shot学习场景中显示出较好的泛化能力。此外,我们正致力于提出高级HAKE+X项目,使HAKE成为一个跨学科的研究平台,并推动CV、NLP、认知科学、机器人学和因果推理的联合研究。而且,我们将关注具身智能,探索基于HAKE的人-机器人-场景交互,并为真实机器人平台开发一个知识驱动的感知和推理系统。
专家二:杨旭-东南大学副教授
专家简介:杨旭教授在2021年从南洋理工大学获取计算机专业人工智能方向博士学位,现为东南大学计算机院副教授,为PALM实验室一名指导教师。其主要研究方向为深度学习,因果推断,视觉推理任务,尤其关注图像标题生成任务。在过去的5年内,以第一作者身份发表顶级会议期刊论文多篇,包括TPAMI,CVPR,ICCV,ECCV,以及ACMMM。同时担任多项会议期刊审稿人工作,包括CVPR,ICCV,ECCV,TIP,TMM等。
报告时间:10:35-11:15
报告题目:引入外部知识生成图像标题
报告简介:现阶段,基于深度神经网络的图像文本生成模型已经取得了较大的进展,但是也存在两个较大的缺陷,那就是这些模型生成出来的图像文本较为死板以及很容易就学习到数据集的偏置。此报告简单介绍了三个方法来解决这两个缺陷,这三个方法分别引入了不同的额外的知识,分别为场景图信息,句式信息以及常识推理信息来生成语义更为丰富,以及更少偏见的图像文本。在引入不同的额外信息时,不同的设计策略被采用来构建模型,比如图卷积网络,模块化网络以及基于因果推断的网络设计。