所有分类
  • 所有分类
  • 未分类

MathGLM:20亿参数模型表现超越GPT-4,准确率高达100%

🆕最新资讯🆕
当前,大型语言模型(LLM)在NLP领域的下游任务方面表现出了卓越的能力。然而,在数学推理方面,LLM的性能不尽如人意。为了解决这个问题,来自清华大学、TAL AI Lab和智谱AI的研究者联合提出了一个新模型MathGLM,它能够准确地执行复杂的算术运算,并且准确率几乎达到了100%。MathGLM是一个具有20亿参数的语言模型,通过基于Transformer的仅解码器架构和自回归目标的训练,能够进行基本算术运算和复杂混合运算。研究结果表明,MathGLM在算术任务中的性能远超过了GPT-4和ChatGPT。此外,还通过分步策略重建算术数据集,并使用GLM的不同变体作为骨干来训练MathGLM,提高了其在数学应用题上的性能。实验结果显示,随着模型尺寸的增加,MathGLM的性能也相应增强。综上所述,MathGLM展现出了卓越的性能,对于数学推理任务具有重要的应用价值。
来源:https://www.jiqizhixin.com/

原文链接:https://aixinjiyuan.com/1064.html,转载请注明出处~~~
0
广告位招租

评论0

请先
暂时无公告
显示验证码
没有账号?注册  忘记密码?