晓查 发自 凹非寺 量子位 报道 | 公众号 QbitAI
NeurIPS 2020今天正式召开,今年共有1900篇论文被接收,创下历史新高。
今天早晨,大会评委会公布了获得最高荣誉的论文名单:
包括GPT-3在内的三篇获得最佳论文奖,一篇2011年论文获得时间检验奖。而去年新增的杰出新方向论文奖并未颁出。
由于受到新冠疫情影响,原计划在温哥华举办的NeurIPS不得不改为在线上举办。
最佳论文奖No-Regret Learning Dynamics for Extensive-Form Correlated Equilibrium
这篇论文来自米兰理工大学和卡内基梅隆大学,研究方向为学习理论。
论文地址:https://arxiv.org/abs/2004.00603
获奖理由:
相关均衡(CE)易于计算,并且可以获得比众所周知的纳什均衡要高得多的社会福利。在普通形式的游戏中,CE的一个令人惊讶的特征是,可以通过简单且分散的算法最小化后悔的特定概念(即所谓内部后悔)。
本文证明了在大型游戏(即泛型或树型游戏)中收敛到CE的后悔最小化算法的存在性。
该结果解决了博弈论、计算机科学和经济学之间一个长期存在的开放性问题,并且可能对涉及中间人的游戏产生重大影响,例如,通过导航应用程序对有效的交通路线产生影响。
Improved Guarantees and a Multiple-Descent Curve for Column Subset Selection and the Nyström Method
这篇论文来自加州大学伯克利分校,也是一篇关于学习理论的论文。
论文地址:https://arxiv.org/abs/2002.09073
获奖理由:
从一个大矩阵中选择一个小的但有代表性的列向量子集是一个困难的组合问题,并且已知一种基于基数约束的行列式点过程的方法可以提供一种实用的近似解决方案。
本文推导了近似解的近似因子在最佳可能低秩近似上的新上界和下界,该上下界甚至可以获得关于子集大小的多重下降行为。本文进一步将分析扩展到获得Nyström方法的保证。
由于这些近似技术在机器学习中得到了广泛的应用,本文有望产生实质性的影响,并给出新的见解,例如核方法、特征选择和神经网络的双下降行为等。
Language Models are Few-Shot Learners
这篇论文可能是今年最知名、最出圈的论文,来自OpenAI的研究,也就是鼎鼎大名的GPT-3,作者数量达到31人之多!
Feng Niu博士毕业后没有进入学界,而是在谷歌工作了一年,之后和他的导师Christopher Ré(也是论文作者之一)等人共同创立AI公司Lattice Data。该公司2017年被苹果以2亿美元收购。
值得一提的是,去年的时间检验奖也颁给了华人学者,获奖的是来自微软研究院高级首席研究员Lin Xiao。
关于NeurIPS 2020今年NeurIPS共收到9454篇论文投稿,1900篇被接收,论文接收率仅为20.09%。
虽然今年接收率比过去几年都低,但论文的绝对数量却增长了33%。这主要是由于今年论文投稿数量大增,去年总投稿数仅6743。
在今年投稿的机构学校中,谷歌以169篇入选位居第一,清华大学和北京大学分别有63篇、37篇被接收。
其中有两位清华校友杨林和汪昭然分别入选9篇,是今年华人学者之最。
官方博客:https://neuripsconf.medium.com/announcing-the-neurips-2020-award-recipients-73e4d3101537
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态
花粉社群VIP加油站
猜你喜欢