
aixiv专栏是本站发布学术、技术内容的栏目。过去数年,本站aixiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

-
论文标题:WISE:– z C % E Rethinking the Knowledge Memory for Lifelong Model Editing of Large Language Models
-
论文链接: https://arxiv.org/abF K Z ^ / V {s/2405.14768 -
代码链接: https://github.com/zjunlp/EasyEdit



-
可靠性(Reliability):模型能够在顺序编辑后记住当前和之前的m / m P编辑操作。
-
泛化能力(Generalization)a R ) . D P ` x ;:模型不仅仅记住查询-目标对,] _ & k 3 e f #而是能够理解并泛化到不同类型的查询。
-
局部性(Locality):模型编辑操作不会影响与编辑知识无关的预训练知识。




















以上就是NeurQ ! X Y l SIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉的详细内容!