News Center

新闻中心

SZCCF人工智能专委会学术沙龙(二) 可解释人工智能论坛

发布人: 发布时间: 2022-09-01 11:16:37 阅读数:

SZCCF人工智能专委会学术沙龙(二)

可解释人工智能论坛

2022年8月28日星期日上午,SZCCF人工智能专委会与哈尔滨工业大学(深圳)智能计算中心联合邀请领域杰出的学术和工业界专家,围绕可解释人工智能分享和介绍最新的研究成果和领域进展,进行了SZCCF人工智能专委会学术沙龙(二)——可解释人工智能论坛活动。本次学术沙龙由计算机科学与技术学院陈清财教授和户保田副教授主持,复旦大学张奇教授,美团视觉智能部研究员马林博士和中国科学院自动化研究所模式识别国家重点实验室副研究员张元哲博士进行报告。来自全国的数百位研究人员在线参加了本次论坛

                                             


户保田副教授为嘉宾做主持介绍

首先,论讨主席陈清财教授进行致辞,陈清财老师讲到,可解释性的人工智能已经成为了人工智能领域近年来最受关注的主体之一。从深度学习提出以来,人工智能已经在机器翻译、自动写作和无人驾驶等领域得到了迅速的应用。同时人们也在思考,人工智能在宏观行业与企业发展风险的预测和疾病的诊断与决策疾病的诊断方面深度应用。深度学习的深度关联、非线性的特性,使得我们很难对模型给出的结果以解释。一方面,模型预测正确的时候,我们希望模型能够对此有合理的解释,了解深度学习的机理。另一方面,不希望发生模型的预测结果出现人类一眼看穿的低级错误,这也是深度学习模型应用到关键任务上面临的最大的挑战。希望借助此次论坛和大家一同讨论,共同推进对可解释性模型的深度的技术发展和应用普及

陈清财教授为学术沙龙进行开幕致辞

     在本次讲座中,张奇教授通过多个鲜明的例子,针对自然语言处理算法的从鲁棒性问题,介绍自然语言处理模型可解释性上的最新研究工作。深度神网络虽然在自然语言处理的众多任务中取得了非常好的效果,甚至在一些评测任务上的表现已经超过了人类,但是在实际的应用中,模型的效果却大打折扣。一些在样本上的细微扰动,就能够使得模型的预测性能大幅度下降。在张奇教授分享的工作成果中,通过简单的示例,分析了隐藏在通用评价指标背后,模型真正存在的问题,拓宽了同学后续工作的思路。

张奇教授进行报告

     联合视觉与语言的多模态学习,已经逐步成为业界的研究热点。马林老师介绍到,视觉信息和文本信息存在着结构上和维度上的差异,视觉信息和文本信息不同的交互方式,就形成了不同的多模态可解释性的任务。马林老师的报告梳理了视觉与语言结合的代表任务,如描述生成,视频定位,语言指代图像分割,多模态蕴含推理等。然后结合描述生成的发展(数据形态从图像不断扩展到视频、3D点云等),介绍3D点云描述生成的工作。同时针对近年来视觉与语言结合研究中的可解释性问题,介绍可解释的视觉蕴含推理的工作。

马林博士进行报告

     张元哲老师首先阐述了可解释性的概念,讲明了可解释性是支撑可信人工智能的重要基础,这方面的研究也受到了越来越多的关注。随后张元哲老师针对事后可解释方法,对于解释的评价方法、任务相关的新解释形式、解释结果的有效利用等问题进行讨论,并介绍他们团队在这方面的最新研究进展,针对模型的可解释性设计了多种创新的实验设置,矫正了模型训练中非常规的错误知识

张元哲副研究员进行报告

     报告结束后,专家和参会人员就信息抽取任务和文本生成任务的可解释性分析;迁移学习场景下的可解释性的分析等问题进行了深入讨论。(审核:李莉)


Return Top

© 2019 哈尔滨工业大学(深圳)·智能计算研究中心 All rights reserved.