在刚刚闭幕的人工智能顶级会议 ICLR 2020(04.26~05.01)上,华人学者的崛起令世人眼前一亮:华人作者参与论文数占比近60%。其中,智源学者、清华大学计算机系朱军教授团队发表了7篇论文,论文数位列 ICLR 2020 全球第二;紧随其后的是智源学者、北京大学信息科学技术学院王立威教授团队,他们发表了6篇论文;此外,智源青年科学家、商汤科技执行研究总监代季峰团队发表了2篇论文。

ICLR,全称为 International Conference on Learning Representations,公认的深度学习领域国际顶级会议之一。2013 年由深度学习三位奠基人中的两位:Yoshua Bengio 和 Yann LeCun 牵头创办。ICLR采取完全公开评审规则,这使得论文评审的透明性和广泛性在机器学习顶会中独树一帜,同时也大大增加了论文被接收的难度。据统计,ICLR 2020 共收到了 2594 篇论文投稿,最终共有 687 篇被接收,录取率仅为26.5%。

那么,朱军团队在ICLR上硕果累累的背后,有哪些成功经验值得我们学习借鉴呢?同时在朱军看来,这次刚刚闭幕的ICLR,我们能看到哪些值得关注的AI研究新趋势呢?为此,智源编辑第一时间联系了朱军。

整理:常政、王炜强

智源:首先祝贺你们团队在ICLR 2020上发表了7篇文章,能简要介绍一下其中的主要内容和研究成果吗?

朱军: 这些文章总共涵盖三方面的内容:

第一方面是我们一直在做的贝叶斯深度学习,它共涉及到两篇文章[1][2],主要解决概率模型的高效学习的算法问题,例如对马尔可夫随机场这种基于能量的模型做高效推理和学习等。

第二方面是博弈论和强化学习,涉及三篇文章[3][4][5]。我们重点关注了在决策任务里存在的不完全信息问题,如我们有两篇文章探讨了求解不完全信息扩展型博弈的高效算法和理论分析,提出了有理论保障的多智能体强化学习算法和高效的Lazy-CRF算法。第三篇文章基于概率图模型,提出了一个统一框架去解部分可观测的马尔可夫决策过程,即POMDP的问题。

第三方面是对抗鲁棒的学习,涉及到两篇文章[6][7]。主要是关于对抗攻击的防御问题,主要贡献是通过理论分析和算法设计,我们提出了新的训练和测试的方法,使深度学习模型能够在理论和实际上提升对抗鲁棒性。

智源:这些论文中的研究成果,可以在产业界的哪些领域得到应用?

朱军: 在贝叶斯深度学习方面,产业界的应用有很多场景。它主要解决神经网络缺乏不确定性建模和处理的问题,针对可能存在的噪声、甚至是对抗的干扰,我们可以给出一个比较可靠的预测结果,并且针对用户的执行度也可以做出比较可靠的衡量。它们主要应用于金融或工业中的场景,如在金融领域的风控、征信、理财产品流动性预测等。

在对抗攻击与防御上,主要解决人工智能的算法安全问题。随着人工智能应用的发展,安全已成为国家、企业、消费者普遍关心的问题。我们当前针对对抗攻击的防御,旨在规避人工智能算法在实际应用时的主要风险(比如算法不可靠、伪造内容等),可以改善其在对抗攻击情况下的可靠性和安全性,应用前景广阔。

强化学习的实际应用,主要包括游戏环境下的机器决策,如AlphaGo;此外也包括行业应用系统中的优化控制,比如交通灯控制、物流调度等需要进行整体规划的应用。

智源:你们团队这次发表的论文数位列ICLR 2020 全球第二,这证明你们的团队非常有效率、高产,能否分享一下背后的成功经验?

朱军: 我对我们团队研究工作的体会,主要是这几个方面:

一是想要系统地产出,就必须要系统深入地去工作 ,这样更容易积累、形成持续性的成果。比如,我们在贝叶斯机器学习领域其实已经深耕了十多年,这才能保证我们每年会有一些稳定的成果产出。

二是要关注人工智能面临的一些新挑战 。像我们现在重点研究的对抗攻击鲁棒性以及不完全信息下的决策问题,其实我们从几年前就开始深入探讨了,这样经过一段时间的积累之后,就会有比较好的成果出来。

三是要和学生们一起学习 。这也是非常重要的体会,人工智能这个领域进展非常迅速,交叉属性很强,所以我们需要和不同背景的学生们一起,对关注的重要问题进行学习和研究。

四是要坚持、不畏难 。在工作中面对困难时,要毫不畏惧并不断克服,想要做到这一点并不是很容易,首先重要的是必须能坚持下来。

智源:能否介绍一下你们在研究工作中面临的困难主要有哪些?

朱军: 以学生选题为例,一般情况下大家会相对容易跟着当前热点、潮流去进行选题,但这样不利于学生们比较系统、深入地针对某个领域进行挖掘,因此相对而言会比较难于持续做出成果。所以我们一直强调要让学生保持专注,哪怕是做一些当前看起来比较困难但比较有前景的工作。但这其实并不是那么容易。从学生的角度而言,当他们刚开始对一个领域没有深入认识的时候,很难去把握特别重要的事情,因此极有可能被热点带着跑,我们便需要花费大力气去说服学生坚持做重要的工作。例如我们在研究贝叶斯深度学习的时候,要搭建一个珠算编程库,这实际上花费了我相当长的时间说服学生。但是坚持下来之后,学生们就慢慢会发现,原来这种看上去“很难”的路往往会“更容易”产出创新成果。

此外,从另一个角度讲,像领域前沿发展比较快的研究方向,要想做出成果,本身就需要静下心去应对棘手的问题,需要拿出更多的毅力和专注度去坚持,去深入,而不是浮于一些相对比较表面的工作。

智源:本次ICLR 2020的入选文章里,您觉得有哪些值得关注的新趋势和新成果?

朱军: 我觉得里面涌现出了一些研究趋势,虽然它们不是完全新的问题,但都是AI 经历了深度学习这一股潮流之后,值得大家去重点关注的问题。当然选择这些方向,也可能是因为个人的“bias”,和我们自己的研究关注点有关。

一是多智能体强化学习。 这两年在机器学习领域,这个问题呈现快速增长的趋势,今年的ICLR也是一样,有多篇文章。我们也已经开展了这方面的研究。

二是关于结构化数据的学习。 包括像大家提到比较多的图数据、序列数据等。在深度学习之前,机器学习里曾经深入研究了结构化数据的学习问题。随着深度神经网络的研究深入,目前对于结构化数据的研究实际上已经有回归的趋势,再结合表征学习的能力,关于结构化数据的处理水准有望可以再上一个台阶。

三是符号化的知识表征。 符号化模型是第一代人工智能的典型成果,现在,它和表征学习的结合,是非常值得关注的一个方向。

四是因果推断。 它已经被大家提了好多年,是一个重要的话题,值得受到越来越多的关注。

智源:你们团队目前正在从事哪些方面的研究?您怎么看待表征学习领域的未来走向?

朱军: 我们主要做三个方向,正好今年在ICLR上发表的论文全部涵盖了。就是我前面说的:贝叶斯机器学习、对抗鲁棒的学习、以及决策。这三部分内容其实是紧密关联的,其中贝叶斯机器学习是比较基础的一块,它为后面两个方向提供了概率工具、方法和理论的支持。在对抗鲁棒的学习和决策中,我们重点关注的是不确定性、不完全信息的建模和推理,以期获得更加鲁棒的学习算法和更加高效的决策方法。

关于表征学习,我觉得它主要解决的是复杂数据表示的问题,表征学习和其它机器学习方法,比如贝叶斯、强化学习、博弈论等,本身并不冲突,而是可以互相受益。就像我们现在看到的ICLR讨论领域的发展那样,它并不是纯粹关于神经网络或者表征学习的,实际上涵盖更广泛的议题,比如决策、符号推理、因果推断等,所有这些都或多或少和表征学习相关,并且利用表征学习的进展而受益。比如强化学习的发展,它实际上采用表征学习实现环境感知,然后在此基础上进行更加有效的强化学习。所以,我觉得ICLR会议未来也会和ICML、NeurIPS一样,全面覆盖机器学习、人工智能领域的一些主要方向和问题。

参考文献:朱军团队 ICLR 2020 发表的7篇论文

[1]Chongxuan Li, Chao Du, Kun Xu, Max Welling, Jun Zhu, Bo Zhang. To Relieve Your Headache of Training an MRF, Take AdVIL. In International Conference on Learning Representations, 2020.

[2]Yucen Luo, Alex Beatson, Mohammad Norouzi, Jun Zhu, David Duvenaud, Ryan P. Adams, Ricky T. Q. Chen. SUMO: Unbiased Estimation of Log Marginal Probability for Latent Variable Models. In International Conference on Learning Representations, 2020.

[3]Yichi Zhou, Tongzheng Ren, Jialian Li, Dong Yan, Jun Zhu. Lazy-CFR: Fast and Near-optimal Regret Minimization for Extensive Games with Imperfect Information. In International Conference on Learning Representations, 2020.

[4]Yichi Zhou, Jialian Li, Jun Zhu. Posterior Sampling for Multi-agent Reinforcement Learning: Solving Extensive Games with Imperfect Information. In International Conference on Learning Representations, 2020.

[5]Shiyu Huang, Hang Su, Jun Zhu, Ting Chen. SVQN: Sequential Variational Soft Q-Learning Networks. In International Conference on Learning Representations, 2020.

[6]Tianyu Pang, Kun Xu, Jun Zhu. Mixup Inference: Better Exploiting Mixup to Defend Adversarial Attacks. In International Conference on Learning Representations, 2020.

[7]Tianyu Pang, Kun Xu, Yinpeng Dong, Chao Du, Ning Chen, Jun Zhu. Rethinking Softmax Cross-Entropy Loss for Adversarial Robustness. In International Conference on Learning Representations, 2020.

在刚刚闭幕的人工智能顶级会议 ICLR 2020(04.26~05.01)上,华人学者的崛起令世人眼前一亮:华人作者参与论文数占比近60%。其中,智源学者、清华大学计算机系朱军教授团队发...