奥多码,点击查看详情 97CDN云盾,点击查看详情

Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!

       
广告2021-06-03到期2021-07-03广告2021-06-03到期2021-07-03
       
广告2021-06-03到期2021-07-03广告2021-06-03到期2021-07-03
Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!
AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享) @ l s –,欢迎投稿或者联系报道。投稿邮箱D ; Iliyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com
本论文第一作者是汪海洋,北京大学20级博G – d * s –士生,目前主要关注是通用模型的架构设计和学习算法。指导教授主要包d Z j R . J括王立威,北京大学智能学院教授;Bernt Schielp & – v G % / ( Qe,德国马普计算所教授;8 U C / N o F 2Federico Tombari 谷歌人工智能科学家等。
新一代通用灵活的网络结构 TokenFormer: Rethinkin\ V = kg Transforme2 z 7 _r Scaling with Tokenized Model Parameters 来啦!
TokenFormer不仅像原始 Transformer 一样 Token 化了 input data,并且 Token 化了网络参数,将 attention 机制拓展到 Token 和 parameters 的交互中,最大化了 Transformer 的灵活性,真正得& t f $ y [ ` 2 {到了一个 Fully attention-baso : ^ u U ,ed 的网络结构。
这种方式打破了原有人们区别看待 data 和 model 的观念,即所有的计算都归纳为不同类型的 Token(e.g., data, param token)通过灵R | l ^ B W 3 0 =活的 attenti\ . n U ~ ) } \on 来交互。得益于这一灵活的性质,TokenFe b Q + + g i Iormer 允许 incremental scaling model size,基于训好的模型上增量的拓展新的更大的模型,大大节省了计算的开销:
Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!
这项名为 Tok] x q , h ? SenFo) a ,rmer 的新工作,由谷歌,马普计算( ` 2 1 Z U x所和北大的研究者提出,在 TwittC w /er,HackerNewh ~ { \ ` cs, Reddit 上得到广泛的讨论和关注 (Twitter 上有 1% g t h50K +_ \ k } 的浏览量)。
Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!
目前代码、模型和项目主页均已放出:
  • 论文链接:https://arxiv.org/pdf/2410.23168

  • 开源代码:https://github.com/Haiyang-W/ToH r y ! CkenFormer

  • 开源模型:https:% j / # P//huggingface.co/Haiyang-W

背景介绍

得益于其处理各种数据的灵活性,Transd H O –former 网络结构在各个 AI 领域都取得了巨大的成功。
Transformer 模型通常将处理单个 Token 所需的计算分为两个部分:与其他 Token 的交互(Token-Token Interaction)和涉及模型参数的计算(Tokenv \ f U F-Parameter Interaction)。
Attention 促进了 Token-Token 之间的交互,) & w V *使现代通用基础模型能够将多模态数据编码成统一的 Token{ \ \ y 序列,并有效捕捉它们之间的复杂依赖关系。
相反,Token-ParD M 0 , U o 4 Z Mameter 计算主要依赖于固定的 linear projection,大大限制l i } g U X model size 的 scaling。Scaling model 是通常改变模型结构,往往需要从头训练P _ % F y * I整个模型,带来了过多的资源消耗,使其越来越不切实际。
在本文中,研究团队使用 token 这一概念建模所有的计算,即将 model parameters 也视为一种 token,网络的计算统一为各种不同的 token ( e.gu J D.,) D ~ ! W P dat6 # y ~ p & U P ea tokens and parameter tokens) 之间通过 attention 来进行交互,大大增强了 Token-Paramete8 U F xr 交互的灵活性,从而能够增量式的扩展X Q . K K o p _ H模型参数,有效地重用先前训练的模型,从而显著降低了训练负担。
为实现这一目标,研究团队引入了 TokenFormer。统一 TokenY B A % * h y a P-Token 和 Token-Parameters Int! ; n M `eraction 的计算。其 Token-Parameter attention 具有灵活性,并能够处理可变数量^ 1 | T W b 8 |的参数,从而本质上最大化了 Transl Y 0 W / * \ xformer) – p d 1 J A V 的灵活性,增强了模型的可扩展性。
TokenFormer 提供一种新的看待模型的视角,即网络的计算就是一些 Tokens 相互任意交互0 u c J a v a Z。基于这些 Tokens (e.g., data token, parameter token, memory token)和 attention 机制可以灵活地构造任意的网络结构。
该团队希望 TokenFormer 作为一种通用的网络结构,不仅在 incremental model scalt g 6 R 5 }ing 上有贡献,还在 Sparse Inference, Parameter-Efficient Tuning, Vision and Language Models, Device-Cloud Collaboration 和 Model Interpretability 等领域有更多的贡献。
方法

Tokenformer 的核心创新是 Token-Parameter Attenti} y (on(Pattention) Layer! t Z C (,它结合了一组 Trainable Tokens 作为 model parameters,并通过 cross-attention 来管理N M H m ^ j Input Token 与这些 Parameter Tokens 之L A 4 + n E间的交互。
通过这种方式,Pattenth & 2 c Wion 层引入了一个额外的维度 —Parameter Token 的数量,这一维度独立于输入和输出维度。此解耦方v 5 b K {式使得输入数据可以与 variable number of parameters 进行交N d 7互,提供了增量模型扩展所需的灵活性。
Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!
Pattention Layer: 具体来说,就是让 input data 作为 query, 研究团队引~ * h P O 8 s !入了两组I } G & (具有 n 个可学习的 Tokens:Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!代表 key, Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!表示 valuh C o X J q ae。输出如下:
Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!
其中 是改进的 softmax,为了防止梯a , 2 y ? \ J \ y度 exponential 带来的梯度问题,
Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!
这里 f () 是任意非{ d @ h线性函数,默认使用 gelu。Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!
研究团队使用 Pattention Layer 替换掉标准 Transformer 中的所有的 linear projection,最大化 Transformer 的灵活性。
应用:天生D e O x O l Q @的增量式 Model Scali? Y C W [ng

有了 TokenForK d w & B X \ w +mer 这一灵活的性质,可以延伸出很多应用。这里以增量式 model scaling 为例。
Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!
假设已经训练好了一个 Token5 ! O r 2 ( Q qFormer,其 key parameters 和 value parameters 计为Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!
如上图所示,加入新的重新初始化的 key-value parameter pairs,计为 Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!,进而组合成新的 key-value set,
Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!
然后使用 pattention layer,让 iA – M f qnput data 与 Paramer _ ( ; w i Iter tokens 进行交互。
Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!
[ , D N里直观的理解就是每个 Key-5 W p UValue 代表一种学好的 pattern,其组成一个巨大的知识库。文中C ` T [ – a { D }的 incremental scaling 就是在原有的知, X ; j识库上进一步拓展训练。
实验结果
增量式 model scalingX ~ h P _ w f:如下右图所示,模型在已经训好的 124M 的模型的基础上,采用K v z v 9 [ K l u增量式训练,只用十分之一的数据. q \ [ X V T \ .就可以达到从g w l c n头训练策略相近的性能,让模型可以不断迭代,真正地活起来了
Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!
Language Modeling:如下表所示,研究团队比较了 Tz U M C j ? * \ eransformer-based 的模型和 Tokenu , P E 9 s d 8Former 在语言建模上的能力。
Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!
在相同规模、相同模型尺寸下,TokenForme7 _ m @ 8 ? : :r在大大增加[ _ ( f E灵活性的前提下达到了比 Transformer 更好的 zero-shot 性能。这里研究团队 follow 了 pythia 标准的训练代码以及数r & ]据集:Pile (300B)。上述结果展现了TokenFormer在语言模型建模上v 8 t t w 3 d . [的能力。
Visual Modeling: 为了进一步验证TokenFormer的表达能力,研究团队还和标准的 vision transformer 进行了# [ p 3 t对比。
Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!
在 ImageNet3 B k 3 h-1K 的监督训练的 setting 上,使用相同的训练策略,TokenFormer 的性能超过了 vision-transformer,验证了其在 visuK l wal modeling 上的能力。
未来研究方向
极致的专家混合(Mixture-of-Experts)范` } \
研究团队认为Tokenformer 是专家混合(MoE)9 y E框架的极致实例化,其中每一组键 – 值参数对都充当一个独立的专家。这种创) 6 e m J P S新的类 MoE 架构有可能显著减少与 TokenX v O j ( I – S^ . ) W l { T 6 qParameter 交互Q O 5 q \ i相关的计算成本。
新的参数高效微调范式
Tokenformer 的扩展方法通过集成额外的 key-value parameter pairs,展现了一种参数高效的微调策略。当面对新任务Y , w E K 9 J U或数据集时,该模型可以通过V ~ | | | l加入新的 Token Parameu v \ Z ^ L Mters 来扩展其预训练参数,从而快速适应特定任务需求。
整合视觉和语言模型
利用 Tokenformer 的参数高效微调能力,可以实现视觉和语言模态的无缝集成。具体方法是将预训练的 Visual Tokenformer 和 Language Tokenformer 的 key-value parameterE 5 Y Token= $ N B E c 7s 统一为一个参数集,然后引入新的 Trainab8 O M 7 C T 0le Tokens 来执行视觉 – 语言对齐和指令微调。
端云协同
Tokenformer 可以在设备 – 云协作中充当云端知识库,为设备端的大语言模型(LLM)提供支持,其中每组 key-value parameter tokens 代表一个可学习模I A x b d u 0 L A式,通过设备进行实时处理,并利用云端执行密集任务s ( R b P m s v O
增强模型的可解释性
由于 Tokenformer 完全基于注a . z h i /意力机制,它自然受益于在 Token-Parameter 交互中与注意力相关的可解释性特性。这一特点增强了模型的可解释性,为 AI 社区开发更透明、易理解的模型贡献力量。

以上就是Token化一切,甚至网络!北大&1 ! #amp;谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!的详细内容!

本文由【好易之】整理自网络!
原创文章,作者:【好易之】如转载请注明出处:https://www.zhengjiaxi.com/zxwd/itzx/118527.html
如有侵权,请邮件联系 aoduoye@qq.com 删除。
本站发布的文章及附件仅限用于学习和研究目的;不得将上述内容用于商业或非法用途,否则后果请用户自负。
本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。
如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如有侵权请邮件与我们联系处理。
(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
好易之的头像好易之站长
上一篇 2024-12-26 13:43
下一篇 2024-12-26 13:44

相关推荐

发表回复

登录后才能评论

联系我们

400-800-8888

在线咨询:点击这里给我发消息

 

工作时间:周一至周五,9:30-18:30,节假日休息

关注公众号
请查看头部文章来源地址!本站所有内容均为互联网收集整理和网友上传。仅限于学习研究,切勿用于商业用途。否则由此引发的法律纠纷及连带责任本站概不承担。