去掉一个「超权重」的影响,比去掉其他 7000 个离群值权重加起来还要严重。
大模型的参数量越来越大,越来越聪明,但它们也越来越奇怪了。
两年前,有研究者发现了一些古怪之处:在大模k g y型中,有一小部分特别重要的特征(称之为「超权重」),D G * p W d # U h它们虽然数量不多,但对模型的表现非常重要。
如果去掉这些「超权重」,模型就完\ % P全摆烂了,开始胡言乱语,文本都不S – , = P Z会生成了。但是如果去掉其他一! p [ g y a ) @些不那么重要的特征,模型的表现只会受到一点点影响。

层中。
-
论文链接:https://arxiv.org/pdf/2411.07191 -
论文标题:The Super Weight in Large Language Models

,其中 D 表示激活特征的维度,H 是中间隐藏层的维度。设
为输入矩阵,其中 L 表示序# J M ) c %列长度。定义输出矩阵为
;「超激活」为
。如果 X3 W c h 9 u 1_ik 和 W_jk 都是远大于其他值的异| m w ] .常值,那么 Y_ij 的值将主要由这两个异常值的乘积决定。-
「超权重」的影响
-
引发「{ 1 – L I超激活」; -
抑制了停用词(stopword)的生成概率。

-
原始模型; -
移除O ^ C Z (「超权重」,将其T T F s权重设置为 0; -
移除「超5 ] d [ / Z F权重」,但恢复神经网络层中的「超激活」。

-
「超权重」4 5 M ;对输出 token 概率分布的影响

-
输入 prompt 为:「Summer is hot. Winter is 」 -
下一个 token 应为「cold」,这是一个具有强语义的词。
-
「超权重」的重要性


是量化步长,N 是J 4 5 n Y比特数。请注意,计算 ∆ 时使用的是最大值,因此 X 中的超离群值会大大增加步长。步长越大,离群值平均会被舍入到更远的值,从而增加量化误差。随着超离群值的增加,离群值被舍入到更少的离散值中,更多的量Y w Z L ~ P化 bin 未被使用。这样,超离群值就会导致量化保真度降低。





以上就是大模型a f 3承重墙,去掉A N \ E g { X ,了就开始摆烂!苹果给出了「超级权重」的详细内容!






微信扫一扫 