今年整体接收率为 31.8%,你的论文出现在列表中了吗?

深度学习顶级学术会议 ICLR 2023 录用结果已经公布! 论文接收的完整列表已经在 OpenReview 平台上公开

点击这里进群—> 加入NLP交流群

ICLR 2022 完整论文列表:https://openreview.net/group?id=ICLR.cc/2023/Conference#notable-top-5-

ICLR 全称为国际学习表征会议(International Conference on Learning Representations),今年将举办的是第十一届,预计将于 5 月 1 日至 5 日在卢旺达首都基加利线下举办。

在机器学习社区中,ICLR 是较为「年轻」的学术会议,它由深度学习巨头、图灵奖获得者 Yoshua Bengio 和 Yann LeCun 牵头举办,2013 年才刚刚举办第一届。不过 ICLR 很快就获得了学术研究者们的广泛认可,被认为是深度学习的顶级会议。在 Google Scholar 的学术会议 / 杂志排名中,ICLR 目前排名第十位,要高于 NeurIPS。

在今年的接收统计中, ICLR 共接收近 5000 篇投稿,整体接收率为 31.8% ,接近于去年的 32.26%。今年还有一个变化是接收论文的 tag 会有两个, 一个是论文类型(oral、spotlight、poster),另一个是 presentation 的方式

位于 top5% 论文内容涉及 Transformer、in-context learning、扩散模型等内容。

597e30db61913f6234c8a4651862f9cc.png top5% 论文列表截图

论文接收列表一放出,在推特上引起了热烈讨论。

斯坦福大学计算机科学博士 Dan Fu 表示自己参与的论文中了 spotlight,他还谈到,大家都在议论 Attention is all you need,但没有人给出到底需要多少层 Attention?在这篇论文中,他们提出了一个新的生成语言模型 H3,其性能优于 GPT-Neo-2.7B,只需要 2 个 Attention 层。

KAIST AI(韩国电信公司与韩国科学技术院合作成立的 AI 研发机构)表示,他们总共有 24 篇论文被 ICLR 2023 录取,包括 9 篇 Spotlights。

除此以外,Salesforce AI Research 也有多篇论文被接收。

在本次接收名单中,马毅教授、Yann LeCun 等人合作撰写的文章《Minimalistic Unsupervised Learning with the Sparse Manifold Transform》也被接收,除此以外,马毅教授参与的另一篇关于增量学习论文也在接收列表中。

最近一段时间,生成模型发展迅速,随之而来的风险也在增加,谷歌一篇关于大型语言模型如何更好的向用户显示输出的研究也被接收:

很多网友都在推特上分享了论文被接收的喜悦,没有中的小伙伴也不要灰心,争取在接下来的顶会上有所斩获。

参考链接:https://twitter.com/search?q=ICLR%202023&src=typed_query&f=top

点击这里进群—>加入NLP交流群
原文链接: https://mp.weixin.qq.com/s?__biz=MzI3ODgwODA2MA==&mid=2247516768&idx=4&sn=33aca1aa2ce5436d1e8c5d50d299b262&chksm=eb5396f3dc241fe5b62c116a50b08d1bf865d55eaec616cc152d59febc660091e3d59613a97f&scene=126&sessionid=0 一篇 ICLR 2023中,和Transformer做时间序列相关的 论文 。这篇文章提出了CrossFrormer,用来解决多元时间序列问题。CrossFromer主要的切入点在于,之前的Transformer更多的考虑是如何通过时间维度attention建立时序上的关系,而缺少面对多元时间序列预测时,对不同变量关系之间的刻画。这篇文章填补了这个空白,提出了时间维度、变量维度两阶段attention,尤... No.69智源社区强化学习组强化学习研究观点资源活动周刊订阅告诉大家一个好消息,《强化学习周刊》已经开启“订阅功能”,以后我们会向您自动推送最新版的《强化学习周刊》。订阅方法:方式1:扫描下面二维码,进入《强化学习周刊》主页,选择“关注TA”。方式2:点击本文下方的“阅读原文”,进入《强化学习周刊》Hub社区版,根据内附的详细订阅步骤,完成订阅。关于周刊强化学习作为人工智能领域研究热点之一,其在... ©作者 |刘星超单位 |德州大学奥斯汀分校研究方向 |生成式模型Diffusion Generative Models(扩散式生成模型)已经在各种生成式建模任务中大放异彩,但是,其复杂的数学推导却常常让大家望而却步,缓慢的生成速度也极大地阻碍了研究的快速迭代和高效部署。研究过 DDPM 的同学可能见到过这种画风的变分法(Variational Inference)推导(截取自 What ar... ‍©作者 | 杜大钊单位 |中科院软件所研究方向 | 时序建模 论文 标题:MICN: Multi-scale Local and Global Context Modeling for Long-term Series Forecasting 论文 链接:https://openreview.net/forum?id=zt53IDUR1U本文中了 2023 ICLR 的 oral。又是一篇长时间序列预... 深度学习&机器学习&人工智能–常见、顶级会议介绍 ICLR 全称为“International Conference on Learning Representations”(国际学习表征会议)。 ICLR 被认为是“深度学习的顶级会议”。 会议由位列深度学习三大巨头之二的Yoshua Bengio和Yann LeCun牵头创办; NIPS(NeurIPS),全称神经信息处理系统大会(Conference and Workshop on Neural Information Processin 点击蓝字 关注我们iMeta期刊3月 投稿 量增幅超80 % 文章 投稿 及发表情况Submissions and Articles Published Trend●文章 投稿 量根据wiley网站统计,截止2023年3月底,iMeta文章 投稿 量203篇,其中2023年3月份 投稿 量29篇,比2月份 投稿 量增加80 % 以上。具体数据如下图:●文章审稿时间截至2023年3月底,从提交到在线出版的中位数为110天,年初... ICLR 简介 ICLR ,全称为「International Conference on Learning Representations」(国际学习表征会议),2013 年开始每年举办一次,2020年将举办第八届会议,该会议已经得到学术研究者们的广泛认可,被认为是深度学习领域的顶级会议,虽然成立时间不长,但是与AAAI、CVPR、ACL 及 NIPS 等老牌学术会议一样,被 CCF 评选为一类会... 本文讨论了模态互补性在多模态鲁棒性中的重要性,并基于信息论提出了一种数据集层面量化度量,用于量化不同模态之间有多少互补信息,以及这些信息对预测标签有多大贡献。该指标基于互信息神经估计器(MINE)来计算。提出了一个两阶段pipeline,分成数据生成阶段和度量计算阶段。在数据生成阶段,作者生成具有受控模态互补性的数据集。在度量计算阶段,作者使用生成的数据集计算度量并分析结果。,并通过实验验证了其有效性。此外,本文还讨论了各种相关主题,如变压器、对抗性示例和深度学习模型。