奥多码,点击查看详情 97CDN云盾,点击查看详情

NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉

       
广告2021-06-03到期2021-07-03广告2021-06-03到期2021-07-03
       
广告2021-06-03到期2021-07-03广告2021-06-03到期2021-07-03
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉

aixiv专栏是本站发布学术、技术内容的栏目。过去数年,本站aixiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

本篇工作已被 NeurIPS(2024 Conference on Neural Information Processing Systems)会议接收,文章第一作者为浙江大学软件学院硕士生王鹏,师从张宁豫副教授。
在当前人工智能的迅t ( ~ )猛发展中,大模型的知识c U 9 y U ? } o记忆能力成为了提升智能系$ 8 p : $统理解和推理能力的关键l + \ ` j ]。然而,与人类记忆相比,机器记忆缺乏灵活性和可控性,难以在动态环境中实现有效的知识更新与编辑。人类的大脑拥有高度适应性的记忆机制,能够根据外部环境变化及时进行信息的筛选、修正与增强。这种能力不仅使得我们能够精准地获取信息,还可以根据任务需求高效地调用相关知识。
相比之下,现有的大模型主要依赖固定的参数和数据来存储知识,一旦训练完成,修改和更新P P ! 1 @特定知识的代价极大,常常因知识谬误导致模型输出不准确或引发「幻觉」现象。% e 1 B | r ! U因此,如何对大模型的知识记忆进行精确I v U控制和编辑,成为当前研究的前沿热点。
本文借鉴认知科学和人类记忆的机制,探讨了大模型终身知/ 3 * x识编辑问题,提出了一种基于双8 $ 8 ( M W Y重记忆机制的大模型知识编辑方法 WISE, 旨在持续更新大语言模型的世界知识和纠正其幻觉性输出。此工作结合参数化长期记忆和工作记忆,在保持语E ] W g b @ w言模型通用能力的同时可成功对模型进行数千次连续编辑
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉
  • 论文标题:WISE:– z C % E Rethinking the Knowledge Memory for Lifelong Model Editing of Large Language Models

  • 论文链接: https://arxiv.org/abF K Z ^ / V {s/2405.14768
  • 代码链接: https://github.com/zjunlp/EasyEdit
1. 背景与挑战
随着大模型(LLMs)的广泛应~ l a ]用,持续更新其世界知识和纠正幻觉性输出成为一个关键问题。过去的方法在长期模型知识编辑中往往无法同时实现可靠性、泛化性和局部性,这被称为「不可# % A c C F G e实现三角」(如下图)。
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉
图 1 可靠性、泛化性和局部性之间的度量三角
2. 理论基础
2.1 终生模型知识编辑定义
? ? }生模型知识编辑问题专注于对 LLMs 进行连续的、大量的编辑操作,目的是使模型的输出能够与人类预期保持一致,同时保留模型先前的知识与p 8 \ 6 O 1 Q F d能力 (如图 2 所示)。具体来说,就是通过一系列时间序列上的编辑操作,逐步改进模型x m B 1 ( A对特定查询的处理能力,这些编辑操作由一个不断变化的编辑数据集NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉来驱动 [3,16,17]。) v & e u l
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉
图 2 终生~ 6 n a e \ c + l模型编辑任务示4 \ H 5 | M I p意图
5 r R 8 W W K W Q生模型编辑的目标是实现以下三个关键特性:
  • 可靠性(Reliability):模型能够在顺序编辑后记住当前和之前的m / m P编辑操作。

  • 泛化能力(Generalization)a R ) . D P ` x ;:模型不仅仅记住查询-目标对,] _ & k 3 e f #而是能够理解并泛化到不同类型的查询。

  • 局部性(Locality):模型编辑操作不会影响与编辑知识无关的预训练知识。

其过程可以描述为:给定一个已经在NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉上预训练的模型NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉, 当模型需要纠正错误或注入新知识时会使用一个随时间变化的编辑数据z y + . Z \图片来进行编辑操作。在第 T 个编辑步骤中,模型知识编v t w ( v ) x辑器(Model Ed7 / W a d i y @ –itoi Y n I k W F |r, ME)接收第 T 个编辑样例和 T-1 步! % q K ] a 3 ( \的的模型NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉,并产生修正后的 LLM 模型NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉。遵循以下等式:
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉是当前编辑步I { J f骤的输入,NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉是期望输出;同时保留对过去编辑步骤中输入NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉的记忆,并维持对不相关数据NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉的处理能力。
注意,使用终生模型知+ L D b o w 6识编辑技术并非必须一直编辑大模型,如3 Y @ O { Y | 4 a积累大量新数据后可通过全量微Y L S P L _ E调继续更新大u a L 5 H e模型的知识。终生模型知识编辑技术适用于小数据持续知识更新和谬误修正
2.2 语言模型中的知识记忆
在人类认知中,工作记忆为生物大脑提供了暂时保存信息的能力,以便以适应不断变化的环境的方式执行对话、推理和数学等任务。相似地,过去的文献 [8, 9, 10] 表明语言模型的记忆可分为长期(情节性的)记忆和工作记忆(短期):工作记忆可能存储在神经元的持续激活(推理时的 Activation)中,长期记忆可能存储在模型参数(Weight)中。
我们发现更新的知识驻留在记忆中的位置会影响编辑性能,现有方法可以大致分为两类:编辑长期记忆和编辑工作记忆。长期记忆是通过直接编辑模型参数来更新通用的参数化知识,这种S V { i 8 } f 6方法会与之前的预训练知识产生冲突,导致局部l X y x n / s t性较差 (例如 FT-EWC [1]、ROME [2]);而工作记l k U 9 4忆则是在推理时通过H W E h检索替换神经网络的激活/表征,不修改模型参N P l ( T M Q [数。尽管工作记忆方法在可靠性和局部性上表现优异,但其检索到的表征难以实现泛化,导致编辑的知识无法有效推广(例如 GRACE [3]、SERAC [4])。这些揭示了长期记忆和工作记忆对于M Z Y L终身模型编辑都有缺点。
此外,尽管有一些针对 LLM 架构的特殊记忆o | ! ^ n :设计,如 MemorryL^ b g & J wLM [6] 和 Memoria [7],它们改变了模型架构(大部分 Traik C mn from scratch)且不能直接应用于不同的 LLMs。
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉
图 3 当前模型B G W( B 1辑方法的比较
这启发我们提出一个关# . % 5 R键科学问题:如何设计适配大模型的知识记忆更新机制,以打破终生知识编辑中的不可能三角
3.WISE 方法介绍
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉
人类大脑的左右半球在不同任务中的分工给了我们灵感,这启发我们设计了 WISE,一个t A !具备双参数记忆机制的框架。WISE 通过主记忆存储预训练知识,并引入侧记忆来专门存储编辑后的知识。侧记忆可以被视为一种中期记忆,它结合了长时记忆的f r P 8 P 3 r泛化E T O b ) e F |能力和基于检索的工作记忆的可靠性与局部性。我们仅在侧记忆中进行编辑,并训练一个路由器来决定在处理查询时应使用哪种记忆。
为了实现连续编辑,WISE 还设计了一种知识分片机制,将不同的编辑集合存储在独立的、正交的子空间中,最后将这些编辑合并为统一的侧记忆。主记忆存储模型在预训练阶段学到的知识:
1. 侧记忆(Wv’)作为一个副本,记录模型在编辑后的更新信息。
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉
2. 知识分片:将侧记忆划分成不同的随机子空间来存储编辑信息。具S L L T g ~ x x P体来说,对于第 i 个编辑碎片,我们为其生成一个随机梯度掩码 Mi。这些掩码确保了每次编辑都仅在侧记忆的特定子空间中进行,从而实现了编辑u 3 % 5 % 4 f的局部化q ? # B U c c和正交化。
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉
3. 自适应 Gate:采用基于激活的门控策略来决定在给定查询时使用主记忆还是侧记忆。门控激活指示器的计算方式是比较f \ } o 1 e侧记忆和主记忆的激活差异(如下列公式所示)。我们设计了基于边界的损失函数,确保编辑查询的激@ , &活指标比无关查询大,具体目标是n 9 z f p y G z:编辑查询的激活值O G – [ t 0 / t L应大于无关查询,且两者之间的差异超过设定的阈值
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉
4. 知识合并:通过 Ties-Merge [5] 技术将各个子空间的知识合并为一致的表征,实现参数的高i | 6 7 ] 7效利用。
4. 实验结果
实验结果表明,直接修改模型权重会覆盖预训, S ^ k A l u l练的知识,导致新旧知识冲突,破坏局部性,影响模型对非编辑领域的保留。
WISE 在M 7 K / n 0 a E多个任务(如问答、幻觉修正、分布外数据)上表现出色,尤其是在 LLaMA、GPT 等3 D R . r d架构中,WISE 大幅超越现有编辑方法。通过评估可靠性、泛化性和局部性三项指标,WISE 在长期编辑中能够有效解决模型冲突问题,并展示了优异的稳定性和扩展性。
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉
5. 实验分析
处理长序列持续编辑的潜力
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉
WISE 在z x N [ 9 g w U 9 3K 次编辑下表现出色,尤其是 WISE-Retrieve 通过高效的子空间组织和路由V z ~ \ : 3 9 O k机制,能够在较少* \ j P z性能下降的情况下应对大量编辑。
路由激活可视化
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉
WISE 通过激活指标准确区分编辑查询与非相关查询,确保编辑的局部性,并成功将相关查询路由I w T i n p {到侧记忆,避免干扰预训练知识。
在 LLM 中的引入位置
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉
应在 LLM 的中间到后期层引入侧记忆。这些层被认为能够更好地处理高级语! s r I s { c R :言现象,并且通过残差连接保持了较低层次的语义信息,使得编辑操作能够更有效地影响模型的输出。
WISE 的额外开销
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉
在编辑次数 3K 时,仅增加了 0.64% 的参数量和 4% 的 GPU 显存需求,且推理时间开销较小,具有较高的计算效率。
6. 总结与展望
9 n L m [ @文为长期J $ T V模型知识编辑提供了一种新颖的解决思路,通过侧记忆设计和知识分片技术F n } ] r (,在不; ? X n # N ~牺牲模型性能的情况下,实现了知识的有效更新。未来r 4 ; *的研究可以进一步优化路由策略,提升侧记忆的检索) * G M G Z a h !效率;探索更好的记忆架构,以应对更加复杂的编辑场景。
当前阶段,针对事实和实例记忆等类型的知识编辑,通常采用以下几种方法:外部记忆更新(如 RAG、Memory 等 [12][13])、局部参数更新(如 ROME [2]、AlphaEdit [11])或全局参数更新(如微调或对齐)。而对于更抽象的知识类型,如安全性、人格或自我认知等,还可使用运行时干预(Steering [12][13])或慢思考方法(如借助 o1 思想进行错误修正)
不断提升大模型的知识处理能力,进而实现通用人工智能(AGI),是学术界与工业界的K d z h Y Y + 1 O共同目C , 0标。大模型知识编辑技术的突破,不仅能够促进大模型对新知识和新技能的快速、永久习得,还可以实现神经与符号知识\ q { $ $ ! 4之间的高效转换与处理。此外,当大模型出现致命错误或安全隐患时,基于知识编辑技术可以快速定位问题根源,并实现及时的干预和控制。这种技术对确保大模型的可信与安全至关重要。
此外,大模型的知识编辑技术不仅能有效优V @ %化模型的表现,还能促进对大模型知识机理的深入研究。通过对参数进行干预与分析,研究人员可以进一步解构并理解 「电子大脑」的运作原理。
参考文献
[1] Overcoming catastrophic forgetting in neural networks.
[2] Locating and Editing Factual Associatio` r N B k H O (ns in GPT.
[3] Aging witJ ? B ` h Gh GRACE: Lifelong Model Editing with Discrete Key-Value Adaptors.
[4] Memory-Based Model Editing at Scale.
[5] TIES-Merging: Resolving Interferenc} – $e When Merging Models.
[6] MEMORYLLM: Towav q p Y / b =rds Self-Updatable Large Language Modelsy + d.
[7] Memoria: Resolving Fateful Forgetting Proble; w Z W zm througH 3 ~ rh Human-Inspired Memory Architec} # * Z _ ) Nture.
[8] FROST: A Distributed Neuf F \ * q rrocomputational Model of Worc R f 7 A Oking Memory Maintenance.
[9] Large Lan/ q x s wguage Models with Controllable Working Memory.
[10] Adaptivea f A semG 3 3 + c $iparametric language models
[11] AlphaEdit:K U % u | 2 B C O Null-Spa^ L u O W + U f 3ce Constrais X w H #ned Knowledge Editing for Languagq e g T ae Models
[12] Retrieval-augmeno O V _ ]ted generation for large language models: A survy v u yey
[13] Towards LifeSpan Cognitive Systems
[14] Word Embeddings Are Steers for LanguJ W o / D A e { lage Models
[15] Steering Llama 2 via Contrastive Activation Addition
[16] Enhance Lifelong Model Editing with Contin8 2 } \ ] 5 E Cuous Data-Adapter Association
[17] Wil2 J _ kKE: Wise-Layer Knowledge Editor for Lifelong Knowl) y ledge Editing

以上就是NeurQ ! X Y l SIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉的详细内容!

本文由【好易之】整理自网络!
原创文章,作者:【好易之】如转载请注明出处:https://www.zhengjiaxi.com/zxwd/itzx/118334.html
如有侵权,请邮件联系 aoduoye@qq.com 删除。
本站发布的文章及附件仅限用于学习和研究目的;不得将上述内容用于商业或非法用途,否则后果请用户自负。
本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。
如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如有侵权请邮件与我们联系处理。
(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
好易之的头像好易之站长
上一篇 2024-12-26 12:57
下一篇 2024-12-26 12:57

相关推荐

发表回复

登录后才能评论

联系我们

400-800-8888

在线咨询:点击这里给我发消息

 

工作时间:周一至周五,9:30-18:30,节假日休息

关注公众号
请查看头部文章来源地址!本站所有内容均为互联网收集整理和网友上传。仅限于学习研究,切勿用于商业用途。否则由此引发的法律纠纷及连带责任本站概不承担。