deepspeed-chat 允许用户使用我们灵活的 api(如下所示)构建自己的 rlhf 训练流程,用户可以使用这些 api 重建自己的 rlhf 训练策略。我们希望这些功能可以为研究探索中创建各种 rlhf 算法提供通用接口和后端。
engine = deepspeedrlhfengine(
actor_model_name_or_path=args.actor_model_name_or_path,
critic_model_name_or_path=args.critic_model_name_or_path,
tokenizer=tokenizer,
num_total_iters=num_total_iters,
args=args)
trainer = deepspeedppotrainer(engine=engine, args=args)
for prompt_batch in prompt_train_dataloader:
out = trainer.generate_experience(prompt_batch)
actor_loss, critic_loss = trainer.train_rlhf(out)
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/yun246069.html