您当前的位置: 首页 >> 标签:OpenAI发布最新大模型安全对齐奖励方法——RBR
OpenAI发布最新大模型安全对齐奖励方法——RBR

随着ChatGPT等产品的广泛应用,确保其输出的安全性成为场景化落地的关键。传统方法是使用RLHF(人类反馈强化学习)来进行安全对齐,但有两 浏览全文>>