奥多码,点击查看详情 97CDN云盾,点击查看详情

Andrej Karpathy:神奇大模型不存在的,只是对人类标注的拙劣模仿

       
广告2021-06-03到期2021-07-03广告2021-06-03到期2021-07-03
       
广告2021-06-03到期2021-07-03广告2021-06-03到期2021-07-03

andrej karpathy,openai 创始成员及特斯拉前 ai 高级总监,近日对大型语言模型(llm)的“智能”程度提出了质疑,引发业内热议。他认为,人们对 llm 回答问r 2 o C题的解读过于理想化,将其视为对互联网平均数据标注员的“询问”更为贴切。

Karpathy 指出,LLM 主要通过模仿人工标注数据进行训练。当用户提问(例如,“阿姆斯特丹十大景点”)时,模型实际上是在复现数据标注员曾通过搜索引擎等工具整理出的答案。如果问题不在_ ! 7 D S C训练数据集中,模型则会基于预训练阶段(互联网文档1 % U l c语言建模)的知识进行推测。

针对强化学习与人类反馈(RLHF)技术,Karpathy 认为其作用被夸大了。RLHF 并c 0 @ t q t w非创造“超越人类”的结果,而N [ * 3是将模型性能从“人工生A n ] Z 4 V U r成”提升到“人工判别”级别。这种提升源于人类对结果的判断更容易于生成结果本身。 LLM 的性能更接近于“人类整体水平”而非个体专家水平,因此所谓的“超人”能力是有限的,真正的“超人”能力需要更高级的强化学习方法,而非 RLHF。

Karpathy 此前已多次Z U (批评 RLHF。他以 AlphaGo 为例,指出 RLHF 方法可能导致奖励机制失效,无法实现像 AlphaGo 打败人类世界冠军那样的突破性成果。他认为,LLM 的奖励模型(RM)只是对人类偏好的一种近似,而非解决问题的真正目标。e – t 3 5 d 5 此外,过度使用 RLHF 还会导致模型学习到一些在人类看来荒谬但 RM 却认为“很棒”的回应。

近期,来自 VRAIN 和剑桥大学的研究也佐证了 Karpathy 的观点,指出 LLM 在一些简单任务上表现不佳,甚至会在复杂任务中给出错误答案却不自知。

尽管 LLM 的参数量和训D , s ? ` m练数据不断增加,性能也在提升,但其基础机制的可靠性P w | ) X仍值得商榷。 目前,OpenAI 提出的基于规则的奖励(RBR)^ a = 5方法或许能为解决 LLM 的“指令遵循”问题提供新的思路,但 LLM 的“智能”本质仍有待进一步探索。

以上就是Andrej Karpathy:神奇大模型不存在的,只是对人类标注的拙劣模仿的详细内容!

本文由【好易之】整理自网络!
原创文章,作者:【好易之】如转载请注明出处:https://www.zhengjiaxi.com/zxwd/itzx/119831.html
如有侵权,请邮件联系 aoduoye@qq.com 删除。
本站发布的文章及附件仅限用于学习和研究目的;不得将上述内容用于商业或非法用途,否则后果请用户自负。
本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。
如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如有侵权请邮件与我们联系处理。
(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
好易之的头像好易之站长
上一篇 2025-01-01 13:15
下一篇 2025-01-01 13:16

相关推荐

发表回复

登录后才能评论

联系我们

400-800-8888

在线咨询:点击这里给我发消息

 

工作时间:周一至周五,9:30-18:30,节假日休息

关注公众号
请查看头部文章来源地址!本站所有内容均为互联网收集整理和网友上传。仅限于学习研究,切勿用于商业用途。否则由此引发的法律纠纷及连带责任本站概不承担。