所有分类
  • 所有分类
  • 未分类

微软新模型“以小博大”击败Llama2,招来网友疑问:用Benchmark训练的吗?

🆕最新资讯🆕
微软最新发布的开源模型phi-1.5引发了全网热议,尽管参数量只有1.3B,却超过了拥有7B参数的Llama2。这个“四两拨千斤”的模型核心在于只使用少量高质数据。phi-1.5在多个Benchmark上都取得了比Llama2还要优异的成绩,甚至被一些人怀疑是直接通过Benchmark训练出来的。团队成员介绍,phi-1.5的训练和推理速度都比较快,而且在安全性方面也不输给Llama2。微软一直致力于将“大”模型做“小”,phi-1.5是在继承phi-1.0的基础上加入了一般场景对话功能,证明了数据质量胜过数量的思想在微软的模型中的应用。此外,微软还推出了更小规模的模型TinyStories,参数量只有一百万。
来源:https://www.qbitai.com

原文链接:https://aixinjiyuan.com/994.html,转载请注明出处~~~
0
广告位招租

评论0

请先
暂时无公告
显示验证码
没有账号?注册  忘记密码?