2018年4月30日—5月3日,第6届国际表征学习大会(International Conference on Learning Representations, ICLR: https://iclr.cc/Conferences/2018/)在加拿大温哥华会展中心隆重召开。ICLR是机器学习与深度学习领域内影响力最大的学术会议之一,代表着热门科研领域的最前沿,具有广泛而深远的国际影响力。该会议源于2013年表征学习研讨会,每年举办一次。 经过短短六年的发展,ICLR已逐渐成为国际公认的机器学习和人工智能研究领域最具影响力的盛会之一,代表着当今机器学习人工智能学术界的最高水平。
本届ICLR会议录用论文337篇,录用率为34%,参会人数约2000人。作为机器学习人工智能领域内影响力最大的学术会议之一,ICLR受到来自世界各国的相关研究人员和机构的广泛关注,包括机器学习领域内顶尖科学家Geoffrey E Hinton作为第一作者发表文章 ,因而在该会议上发表论文极具挑战性。本年度,仅有大约5篇来自国内高校的文章被大会录用,如清华、上海交大、香港科技和西电等。大会不仅汇集了来自全世界高校的知名学者、科研人员,同时也吸引了众多科技巨头,如Google、Microsoft、Facebook、IBM、Amazon、NVIDIA、Uber和Intel,以及百度和网易等知名企业,就机器学习、人工智能等多个研究领域的热点内容和成果进行深入的探讨,并预测新的研究方向。
今年,公司雷达信号处理国家级重点实验室陈渤教授指导的博士生张昊和郭丹丹,提出了适用于深度主题模型的威布尔混合自编码推理方法的相关论文,“WHAI: Weibull Hybrid Autoencoding Inference for Deep Topic Modeling”,并被会议录用,这也是公司员工首次作为第一作者的论文发表在ICLR大会上,并做相关poster展示。该工作延续了团队与德州大学奥斯汀分校(UTAustin)周名远教授合作的,分别发表于NIPS2015的深度概率统计模型和ICML2017的针对大数据的概率统计深层网络快速学习方法的研究成果,聚焦于概率统计深层网络在测试阶段的快速学习和扩展到大数据的问题。该工作所提出的模型,首先利用威布尔分布逼近伽马分布,以此可从均匀分布中采样噪声得到简单的重参技术, 之后联合随机梯度马尔科夫链蒙特卡洛方法和变分自编码方法获得针对深层文本模型的混合自编码推理方法,实现了在测试阶段中大数据背景下直接通过网络映射快速得到样本的特征,显著提升了概率深度网络的实用性。通过该次大会,一方面展示了雷达信号处理国家级重点实验室师生在机器学习和深度网络领域的研究能力和成果,扩大了实验室的学术影响力,同时也有助于实验室与该领域顶尖学者的交流以及对该领域最新研究进展的了解。
论文工作详情请参考陈渤教授主页:http://web.xidian.edu.cn/bchen/
论文作者合影。从左到右:陈渤教授,郭丹丹,张昊,周名远教授。
陈渤教授于ICLR 2018国际会议上作海报讲解。