原来早在 2017 年,百度就进行过 Scaling Law 的相关研究,并且通过实证研究验证了深度学习模型的泛化误差和模型大小随着训练集规模的增长而呈现出可G k g 0 S 1预测的幂律 scaling 关系。只是,N r , e他们当时用的是 LSTM,\ l G而非 Transformer,也没有将相关发现命名为「Scaling Law」。

-
论文标题:scaling laws for neural language models
-
论文链接:https://arxiv.g [ ^ 0 * S P 7org/o k d tpdL T # Vf/2001.08361













以上就是遗憾不B % . x V?原来百度2017年; \ c 7 w就研究过Scaling Law,连AnthropicR n f o P CEO灵感都来自百度的详细内容!