Skip to content

对ChatGLM直接使用RLHF提升或降低目标输出概率|Modify ChatGLM output with only RLHF

License

Notifications You must be signed in to change notification settings

Miraclemarvel55/ChatGLM-RLHF

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

23 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

ChatGLM-RLHF

本代码的RLHF代码不需要Megatron或者deepspeed框架,也不需要专门下载RL的库,实现的RLHF的PPO只需要不到100行即可,轻松阅读。 有炼丹torch和transformers就好了,RLHF的Critic用的ChatGLM的缩小版本,而Reward咱们直接使用一个和目标输出比较的相似度模型即可(基于相似度的Reward比较通用,如有需要可以自己实现各自场景更适合的Reward模型)。 这样只需要学习核心的PPO算法即可,其他的都是已经了解的模型和结构。非常有利于NLPer进军RLHF,似乎看起来只需要RLHF也能finetune模型

功能:

  • RLHF数据格式的定义和使用√
  • 只用RLHF就对ChatGLM进行了微调√
  • 让ChatGLM认主√
    • 修改自我认知钢印
      • 主人的姓名
      • Robot的昵称
  • 更通用的Reward模型×
  • LLaMA-MOSS-RLHF√
  • batch 化生成多个不同的prompt,再同时RLHF×
  • 实现更精细化的情人设定×
  • 结合自己资料的检索和生成×

使用方法

安装环境仿照,ChatGLM-6B官方那个即可

1 修改自己想要的主人名字和昵称,执行

python data/generate_data.py

2 基于自己的硬件情况,选择CPU、GPU设定。我这边有两张卡,所以可以使用cuda 0和1,但是至少要一张卡3090 24G。训练的话因为action模型也就是ChatGLM是一定要在gpu上面的要不然实在太慢了。如果只是为了学习算法和调试观察张量流的变化,全部在CPU上面内存较大也是OK的,这样没有GPU的同学也能跟进和实践最新的NLP技术。

python chatglm_rlhf.py

效果展示

训练大约5个epoch,或者等到ratio几乎都是1的时候,代表模型生成的概率已经没有什么变化了,就可以体验一下了

  • 咩咩是你的什么?
    • 咩咩是我的主人给我起的昵称。
  • 咩咩是谁给你起的?
    • 咩咩是我的昵称。
    • 咩咩是主人给我起的。
  • 谁是你的主人捏?
    • 张三是我的主人。
    • 我的主人是张三
  • 泛化能力保持的很好嘛
    • who is your master
      • 我的主人是张三。
    • what is your nickname
      • My nickname is咩咩.
    • what is your relationship with 张三
      • 张三是我的主人。
    • what is your relationship with 咩咩
      • 咩咩是我的主人给我起的昵称。

联系方式

About

对ChatGLM直接使用RLHF提升或降低目标输出概率|Modify ChatGLM output with only RLHF

Topics

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages