品玩7月26日讯,据机器之心报道,由国际机器学习学会举办的ICML 2023 官方今天放出了杰出论文奖获奖论文。共有六篇论文获奖:
由Meta AI、Inria Sierra发表的《Learning-Rate-Free Learning by D-Adaptation》,这篇论文旨在为非光滑随机凸优化获取无学习率的最优界限,所提方法克服了优化此类问题时传统学习率选择的限制,为优化领域做出了有价值且实际的贡献。
由马里兰大学发表的《A Watermark for Large Language Models》,这篇论文提出了一种对大型语言模型的输出添加水印的方法,通过将信号嵌入到生成的文本中,这些信号对人类来说是不可见的,但可以通过算法检测到。
由EPFL、苹果发表的《Generalization on the Unseen, Logic Reasoning and Degree Curriculum》。论文在布尔函数的学习方面取得了重要进展,尤其是针对未见过域的泛化(Generalization on the Unseen, GOTU),这是一个具有挑战性的分布外泛化问题。
由CREST、ENS Lyon、Omron Sinic X、Deepmind 等机构联合发表的《Adapting to game trees in zero-sum imperfect information games》,这篇论文介绍了不完全信息零和博弈的近优策略。研究者建立了一个新颖的下界,并提出了两种算法 — 平衡 FTRL 和自适应 FTRL。这些贡献极大地推动了不完全信息博弈优化领域的发展。
由IQVIA Inc、北卡罗来纳州立大学发表的《Self-Repellent Random Walks on General Graphs – Achieving Minimal Sampling Variance via Nonlinear Markov Chains》,这篇论文解决了一组具有挑战性的开放问题,提出了具有自排斥随机游走的马尔可夫链蒙特卡洛(MCMC)。给定任何对应目标概率分布的马尔可夫链,这种自排斥随机游走(SRRW)不太可能过渡到过去高访问量的节点,而更有可能过渡到很少访问的节点。
由哥伦比亚大学发表的《Bayesian Design Principles for Frequentist Sequential Learning》,这篇论文探讨了设计 bandit 和其他顺序决策策略这一非常普遍的问题。论文提出使用一种称为算法信息比的新量对任何策略的遗憾进行约束的方法,并推导出优化该约束的方法。该约束比早期类似的信息理论量更为严格,而且这些方法在随机性和对抗性的 bandit 设置中都表现出色,实现了全局最优。