1 Star 1 Fork 0

笑遥浪子 / chatglm-6b-fine-tuning

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
该仓库未声明开源许可证文件(LICENSE),使用请关注具体项目描述及其代码上游依赖。
克隆/下载
贡献代码
同步代码
取消
提示: 由于 Git 不支持空文件夾,创建文件夹后会生成空的 .keep 文件
Loading...
README

查看此文档,你将学到什么?

  • 1 如何部署运行chatglm-6b
  • 2 如何微调模型

在此感谢 https://github.com/yuanzhoulvpi2017/zero_nlp/tree/main/simple_thu_chatglm6b,参考了up主的成果,自己稍微修改了一下

如何部署运行chatglm-6b?

  • 1、git clone https://huggingface.co/THUDM/chatglm-6b.git
  • 2、安装依赖
    pip3 install protobuf==3.20.0 transformers==4.26.1 icetk cpm_kernels
  • 3、修改 chat_interact.py 中的 PRE_TRAINED_MODEL_PATH='上面克隆的chatglm-6b文件夹路径'
  • 4、运行代码 python3 chat_interact.py
  • 5、生成效果如下: 回答问题
    • 1.png 做数学题
    • 2.png 写标书提纲
    • 3.png 时政解答
    • 4.png 翻译
    • 5.png
    • 另外还有许多功能,比如:
      • 自我认知
      • 提纲写作
      • 文案写作
      • 邮件写作助手
      • 信息抽取
      • 角色扮演
      • 评论比较
      • 旅游向导

如何微调chatglm-6b?

  • 1 准备数据集
  • 2 运行start_train.sh 训练代码,我用了4张P40
  • train.png

文件结构说明

  • chat_interact.py 交互式对话,命令行下运行,一般用于测试机器人对话。
  • chat_server.py 连接数据库,根据数据表对话内容,排队进行回答,并将生成内容回写到表,它依赖我写的数据库连接组件,另外还有一个http服务接收前端请求。
  • start_chat_server.sh 启动chat_server.py
  • data2 训练数据集
  • fine-tuning 训练代码目录
    • pre-trained-model 预训练的模型文件存储目录,这里面不包含.bin文件,需要将bin复制进来,当然这个目录你也可以放到其它任意位置。
      训练需要安装如下依赖
      pip3 install datasets
      pip3 install peft
  • start_train.sh 训练shell

环境说明

  • 系统版本:CentOS Linux release 7.9.2009 (Core)
  • 内核版本:3.10.0-1160.el7.x86_64
  • python 版本:3.7.16
  • NVIDIA驱动版本: 515.65.01
  • CUDA 版本:11.7
  • cuDNN 版本:v8.8.0
  • GPU:P40 24gb * 8

空文件

简介

fork https://github.com/chenyiwan/chatglm-6b-fine-tuning 展开 收起
Python 等 2 种语言
取消

发行版

暂无发行版

贡献者

全部

近期动态

加载更多
不能加载更多了
Python
1
https://gitee.com/xiaoyaolangzi/chatglm-6b-fine-tuning.git
git@gitee.com:xiaoyaolangzi/chatglm-6b-fine-tuning.git
xiaoyaolangzi
chatglm-6b-fine-tuning
chatglm-6b-fine-tuning
master

搜索帮助