奥多码,点击查看详情 97CDN云盾,点击查看详情

北大字节VAR获最佳论文、厦大清华获亚军,NeurIPS 2024最佳论文出炉

       
广告2021-06-03到期2021-07-03广告2021-06-03到期2021-07-03
       
广告2021-06-03到期2021-07-03广告2021-06-03到期2021-07-03

neurips 2024最佳论文揭晓!两篇论文荣获最佳论文奖,两篇荣获最佳论文亚军。本届大会共收到15671篇有效论文投稿,接收率仅为25.8%。

最佳论文奖:

  • 视觉自回归建模:通过Next-Scale预测实现可扩展图像生成 (Visual Autoregressive Modeling: Scalable Image Generation via Next-Scale Pre@ 9 X 9 – 4dictid ~ pon) 北京大学和字节跳动研究者合作完成,一作田柯宇。该论文提出了一种全新的视觉自回归生成范式VAR,在图像生成速度、质量和可扩展性方面超越了扩散模型,展现出类似大型语言模型的扩展定律和零样本泛化能力。论文地址 项目地址

  • 随机泰勒导数估计器:任意微分算子的有效摊销 (M l _ ~ 0 ) \ dStochastic Taylor Derivative Estimator: Efficient amortization for arbitrary differential operx V \ators)B u . – o W l 新加坡国立大学和Sea AI Lab研究者合作完成,一作Zekun Shi。该论文提出了一种高效的方法来计算s z n高维和高s 9 h ( f w k v阶微分算子的导数,显著提升了物理信息神经网络(PINN)的计算效率,使其能够解决f J H更大规模的问Q [ : S t O 3题。论文地址 项目地址

最佳论文亚军:

  • 并非所有token都对预训练有用 (Not All Tokens Are What YL 8 Kou Need for Pretraining) 厦门大学、清华大学和微软研究者合作完成,Zhenghao Lin和Zhibin Gou为共同一作。该论文l n E挑战了传统语言模型预训练中对所有token一视同仁的范式w ^ ] K,提出了一种选择性语言建模方法1 ] d,通过选择性地利用关键token进行训练,提升了模型的效率和性能\ 3 , ! ( ? $ J a。论文地址 项目地址

  • 使用扩散模型的较差版本引导其自身 (Guiding a Diffusion Model with a Bad Version of Itself) 英伟达+ h U S }和阿尔托大学合作完成,一作Tero Karras。该论文提出了一种利用较差版本的扩散模型来引导生成过程的方法,在提升图像质量g s @ Y 4$ R i \ 7 M s同时保持了生成的多样性。论文地址

这些获奖论文代表了人工智能领域最新的研究成果,为图像生成、模型预训练和微分算子计算等方向带来了新的突破。NeurIPS 2024将于12月10日至15日在温哥华举行。

以上就是北大字节VAR获最佳论文、厦大清华获亚军,NeurIPS 2024最佳论文出炉的详细内容!

本文由【好易之】整理自网络!
原创文章,作者:【好易之】如转载请注明出处:https://www.zhengjiaxi.com/zxwd/itzx/120031.html
如有侵权,请邮件联系 aoduoye@qq.com 删除。
本站发布的文章及附件仅限用于学习和研究目的;不得将上述内容用于商业或非法用途,否则后果请用户自负。
本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。
如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如有侵权请邮件与我们联系处理。
(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
好易之的头像好易之站长
上一篇 2025-01-02 12:20
下一篇 2025-01-02 12:21

相关推荐

发表回复

登录后才能评论

联系我们

400-800-8888

在线咨询:点击这里给我发消息

 

工作时间:周一至周五,9:30-18:30,节假日休息

关注公众号
请查看头部文章来源地址!本站所有内容均为互联网收集整理和网友上传。仅限于学习研究,切勿用于商业用途。否则由此引发的法律纠纷及连带责任本站概不承担。