去掉一个「超权重」的影响,比去掉其他 7000 个离群值权重加起来还要严重。
大模型的参数量越来越大,越来越聪明,但它们也越来越奇怪了。
两年前,有研究者发现了一些古怪之处:在大模k g y型中,有一小部分特别重要的特征(称之为「超权重」),D G * p W d # U h它们虽然数量不多,但对模型的表现非常重要。
如果去掉这些「超权重」,模型就完\ % P全摆烂了,开始胡言乱语,文本都不S – , = P Z会生成了。但是如果去掉其他一! p [ g y a ) @些不那么重要的特征,模型的表现只会受到一点点影响。



-
论文链接:https://arxiv.org/pdf/2411.07191 -
论文标题:The Super Weight in Large Language Models





-
「超权重」的影响
-
引发「{ 1 – L I超激活」; -
抑制了停用词(stopword)的生成概率。

-
原始模型; -
移除O ^ C Z (「超权重」,将其T T F s权重设置为 0; -
移除「超5 ] d [ / Z F权重」,但恢复神经网络层中的「超激活」。

-
「超权重」4 5 M ;对输出 token 概率分布的影响

-
输入 prompt 为:「Summer is hot. Winter is 」 -
下一个 token 应为「cold」,这是一个具有强语义的词。
-
「超权重」的重要性









以上就是大模型a f 3承重墙,去掉A N \ E g { X ,了就开始摆烂!苹果给出了「超级权重」的详细内容!