当前位置: 首页 > 新闻动态 > AI营销

北大字节VAR获最佳论文、厦大清华获亚军,NeurIPS 2025最佳论文出炉

作者:心靈之曲 浏览: 发布日期:2024-12-04
[导读]:NeurIPS2024最佳论文揭晓!两篇论文荣获最佳论文奖,两篇荣获最佳论文亚军。本届大会共收到15671篇有效论文投稿,接收率仅为25.8%。最佳论文奖:视觉自回归建模:通过Next-Scale预测实现可扩展图像生成(VisualAutoregressiveModeling:ScalableImageGenerationviaNext-ScalePrediction)北京大学和字节跳动研究者合作完成,一作田柯宇。该论文提出了一种全新的视觉自回归生成范式VAR,在图像生成速度、质量和可扩展性方面

neurips 2025最佳论文揭晓!两篇论文荣获最佳论文奖,两篇荣获最佳论文亚军。本届大会共收到15671篇有效论文投稿,接收率仅为25.8%。

最佳论文奖:

  • 视觉自回归建模:通过Next-Scale预测实现可扩展图像生成 (Visual Autoregressive Modeling: Scalable Image Generation via Next-Scale Prediction) 北京大学和字节跳动研究者合作完成,一作田柯宇。该论文提出了一种全新的视觉自回归生成范式VAR,在图像生成速度、质量和可扩展性方面超越了扩散模型,展现出类似大型语言模型的扩展定律和零样本泛化能力。论文地址 项目地址

  • 随机泰勒导数估计器:任意微分算子的有效摊销 (Stochastic Taylor Derivative Estimator: Efficient amortization for arbitrary differential operators) 新加坡国立大学和Sea AI Lab研究者合作完成,一作Zekun Shi。该论文提出了一种高效的方法来计算高维和高阶微分算子的导数,显著提升了物理信息神经网络(PINN)的计算效率,使其能够解决更大规模的问题。论文地址 项目地址

最佳论文亚军:

  • 并非所有token都对预训练有用 (Not All Tokens Are What You Need for Pretraining) 厦门大学、清华大学和微软研究者合作完成,Zhenghao Lin和Zhibin Gou为共同一作。该论文挑战了传统语言模型预训练中对所有token一视同仁的范式,提出了一种选择性语言建模方法,通过选择性地利用关键token进行训练,提升了模型的效率和性能。论文地址 项目地址

  • 使用扩散模型的较差版本引导其自身 (Guiding a Diffusion Model with a Bad Version of Itself) 英伟达和阿尔托大学合作完成,一作Tero Karras。该论文提出了一种利用较差版本的扩散模型来引导生成过程的方法,在提升图像质量的同时保持了生成的多样性。论文地址

这些获奖论文代表了人工智能领域最新的研究成果,为图像生成、模型预训练和微分算子计算等方向带来了新的突破。NeurIPS 2025将于12月10日至15日在温哥华举行。

免责声明:转载请注明出处:http://shjed.com/news/261972.html

扫一扫高效沟通

多一份参考总有益处

免费领取网站策划SEO优化策划方案

请填写下方表单,我们会尽快与您联系
感谢您的咨询,我们会尽快给您回复!