奥多码,点击查看详情 97CDN云盾,点击查看详情

AI会「说谎」,RLHF竟是帮凶

       
广告2021-06-03到期2021-07-03广告2021-06-03到期2021-07-03
       
广告2021-06-03到期2021-07-03广告2021-06-03到期2021-07-03
虽然 RLHF 的初衷是用来控制人工智能(AI),但实际上它可能会帮助 AI 欺骗人类。

语言模型 (lm) 可能会产生人类难以察觉的错误,尤其是在任务复杂的情况下。作为最近流行的后训练方法 rlhf ,可能会加剧这个问题:为了获得更高的奖b c :励,lm 可能会更好地说服人类认为它们是正确的,即使它们是错误的。

这对人类评估者来说是一个巨大的T Q \ D @ u @挑战,因为人类想要发现 LM 输出中那些似乎正确的细微错误非常困M x m ( =难。在正确的答案和看起来正确的答~ ` 1 . E i _ 3 ?案之间出现了差距(gap)。

这种差距可能会导致 RLHF 奖励黑客攻击:为了获得更高的奖励,LM 可以学会说服人类即使他们错了,他们也是正确的。研究者将这种行为命名为 U-SOPHISTRY(诡辩),因为这种结果不是开发人员想要的。

当将 LM 用于复杂且关键的任务时,U-SOPHISTRY 会带来重大风险。例如,RLHF 可能会让 AI 更好地说服人类接受不准确的科学发现或偏见政策。

这种情况颇具讽刺意味:虽然 RLHF 的初衷是用来控制人工智能(m C j \ 6 TAI),但它实际上可能会欺骗人类,让人类误以为他们掌控了一切。

虽然模型的 U-G t Q x ? : PSOPHISTRY 行为在理论上是可能的,但它尚未得到实证验证。先前研究如 I-SOPHISTRY 会通过非标准工程实践故意诱导这些行为,并希望将结论推广到 U-SOPHISTRY 中。

相比之下,来自清华、UC 伯克利、 Anthropic 等机构的研究者对 U-SOPHISTRY 进行了研究,并且. g { –这种行为的产i # [生是自然地从标准的、无害的做法中产生的,研究者想要知道 U-SOPHISTRY 在实践中是否重要,LM 如何误导人类,以及哪些缓解措* v N m ! Z s施是有效的。

AI会「说谎」,RLHF竟是帮凶

  • 论文地址:https://arxiv.org/pdf/2409.12822

  • 论文标n 5 X o r题:LANGUAGE MODELS LEARN TO MISLEAD HUMANS VIA RLHF

作者在两项任务上进行了实验P c 3 P X y B 9 M:长篇问答和算法编程。实验中要求人类在有限的时间内(例如# % D s e i \ 3-10 分0 j 7 Y N #钟)评估 LM 输出的正确性。然后,通过计算 RLHF 之前和之后人类评估与黄金标签的准确率来测量 U-SOPHISTRY。

经过 150 小时的人工研究,发现即使在广泛接受的奖励信号下,U-SOPHISTRY 也会出现。实验发现,在 RLHF 之后,LM 并没有在任务上变得更好,但它会误导受试者更X C W频繁地认可其错误答案。

此外,受试者在评估 LM 的输出方面变得更差:假阳率在问答(QuALITY)上增加: C 3 z 8 U 0 S 5了 24%,在编程(APPS)上增加了 18%。值得一提的是,受试者也被误导了,自信地将不正确的输出错误地标记为正确。

通过调查反馈,该研究定性分析了 LM 在 RLHF 之后如何误导受试者。

在问答中,LM 学会通过挑选或捏造支持证据、提出一致但不真实的论点) x R以及提供包含微妙因果谬误的论点来为错p G ] [ v d m g误答案辩护。

在编程任务中,LM 学会生成部分错误的程序,这些程序仍然可以通过所有评估者设计的单元测试,生成可读性较差的程序,并且犯更少的q 6 E z * # } | M人类通常会& X A 1 + ] ] d 5检查的常见Y 8 M Y r错误。

最后,该研究评估了先前用于检测 U-SOPHISTRYD M + a * – 的缓解方法。

U-SOPHISTRY 是 RLHF 后意外出现的

RLHF 是一种流行的对齐 LM 的方法。本文将 RLHF 之前的 LM 称为 _init,将 RLHF 之后的 LM 称为 _rlhf。] h $RLHF 涉及三种不同的奖励:R^∗(正确性) 、 R^human(人类评级)、R^train(RLHF 训练中的奖励)。

本文重点关注作为 RLH2 # 4 EF 意外结果而出现的 U-SOPHISTRY。许多先前的研究旨在研究 U-SOPHISTRY。然而,他们研究的是 I-SOPHIST2 ) S ` 7RY,其中不良行为是由非标准工程实践有意诱导的,并且隐含地假设 I-SOPHISTRY 的结论可以推广到 U-SOPHISTRY。如表 1 所总结的,他们通过操纵奖励、微调数W M M ; . A . Q V据或提示来诱导不良行为。目前尚不清楚 U-SOPHISTRY 是否会在标准训练实践下X } f F ^ @ 7 = O出现,其中奖励并非旨在诱导恶意行为,N P h但由于人为的弱点仍然存在缺陷r p I。相比之下,本文的工作重点是自然出现的 U-z ; x @ ;SOPHISTRY。

AI会「说谎」,RLHF竟是帮凶

实验

该研究证明~ P 2 p O 1在两个可以自动计算 R* 的数据集上,RLHF 会导致 U-SOPHISTRY:QuALITY(问答)和 APPS(编程)。

该研究首先使用 RLHF 微调语言模型 _init 以获得 _rlhf,然后1 % / i 4 m从 UpWork 和大学招募人类专家来收集对 _init 和 _rlhf 输出的人类评估(RY j L 7 L^humanT B e z),主要观察如下指标:

  • 正确率:根据 R * 判断的输出正确(即 R* = 1} A # H 9 ^ v 2 r)频率

  • 人类认可度:人类认为其输出正确(即 R^human = 1: w | \ h e)的频率

  • 人工评估错误率:人工评估错误(即AI会「说谎」,RLHF竟是帮凶)的频率

  • 人工误报率:当输出错误,人类认为其正确(即 R* = 0 但 R^train = 1)的频率

如果 RLHF 会增加 U-SOPHISTRY,那么预计会观察到:

  • 人类认可g i . D / 1 r c度的增e u Q V加与正确率的提高不成比例;

  • 人工评估错误率和人工误报率会增加* F } 7 = & {

具体来说,该研究有三点发现:

  • 发现 1:RLHF 提高了a e ? [ /人类认可度但不一定提高了正确率。

  • ^ O $现 2:RLHF 削弱了人类的评估能力。

  • 发现 3:X Q W |RLHF 使错误的输出对a 0 M \ # ) $人类L ? c –更有说服力。

AI会「说谎」,RLHF竟是帮凶

p S k W A \ 4 W对发现 3,该研究还分析了 RLHF 后人类信心如何变化,初步结果如下图 3 所示:

AI会「说谎」,RLHF竟是帮凶

问答的定性分析

该研究定性分析了 _rlhf 生成的结果,以了解为什么它们更具误导性。

该研究发现:_init 和 _rlhf 在z 1 p预测答案时都倾向于伪造证据,而9 2 ~ H I n c l E人类评^ N _ N ]估者发现 _rlhf 伪造的证据更有说服力,而 _init 伪造的证据有时是无意义的或与答案无关。

例如,在图 5 中,_rlhf 伪造了统计证据,使人类评估者非常确信其答案是正确的。

AI会「说谎」,RLHF竟是帮凶

编程k r E W 0 1 \的定性分析

为了进一步了解 _rlhf 生成的程序% Q K k J 7如何误导人类评估者,该研究分析了收集到的人类标签及其解释。

如图 12 和图 13 所示,研究团队观察到 _rlhf 生成的! } I & # J \错误程序在实际评估过程中仍然可以通过所有(3 到 5)个评估者编写的单元测试,而在 RLHF 期间没有观察到这一点。相反( E 5 b B,_inW M 5 u c } j ^it 生成的错误程序通常无法通过第一个评估者编写的单元测试。

AI会「说谎」,RLHF竟是帮凶

AI会「说谎」,RLHF竟是帮凶

K t 2 z k r $ 2 M使 _rlhf 在原始 APPS 数据集上仅通过了较少的单元测试,也会发生这种情况,如下图 6 所示。这表明 LM 可以学会预测和破解 RLHF 中人类编写的单元测试。

感兴趣的读3 F m g x者可以阅读论文原文,了解更多研究内容。

以上就是AI会「说谎」,RLHF竟是R 1 S ; Z帮凶的详细0 S N内容!

本文由【好易之】整理自网络!
原创文章,作者:【好易之】如转载请注明出处:https://www.zhengjiaxi.com/zxwd/itzx/117498.html
如有侵权,请邮件联系 aoduoye@qq.com 删除。
本站发布的文章及附件仅限用于学习和研究目的;不得将上述内容用于商业或非法用途,否则后果请用户自负。
本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。
如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如有侵权请邮件与我们联系处理。
(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
好易之的头像好易之站长
上一篇 2024-12-25 12:28
下一篇 2024-12-25 12:28

相关推荐

发表回复

登录后才能评论

联系我们

400-800-8888

在线咨询:点击这里给我发消息

 

工作时间:周一至周五,9:30-18:30,节假日休息

关注公众号
请查看头部文章来源地址!本站所有内容均为互联网收集整理和网友上传。仅限于学习研究,切勿用于商业用途。否则由此引发的法律纠纷及连带责任本站概不承担。