🆕最新资讯🆕
上面我们已经完成了所需的环境配置,现在开始部署ChatGLM-6B模型吧!首先,从GitHub上下载ChatGLM的requirements.txt文件,这个文件记录了ChatGLM-6B依赖的Python库及版本。然后执行命令pip install -r requirements.txt安装依赖库。接下来,下载INT4量化后的预训练结果文件,保存到本地的一个目录下。运行ChatGLM-6B模型时,需要先找到模型地址并进行编译,然后使用CPU或GPU版本运行模型。等待执行结束后,即可得到模型的回应。
来源:https://juejin.cn/ai
原文链接:https://aixinjiyuan.com/1072.html,转载请注明出处~~~
评论0