- 博客(2)
- 收藏
- 关注
原创 chatgpt中的强化学习 PPO
本该到此结束,但是上述实现的时候其实是把生成的每一步的奖励都使用统一的句子级reward,但该代码其实也额外按照每个token来计算奖励值的,为了获取每个token的奖励,我们在生成模型的隐层表示上,多加一个线性层,映射到一维,作为每个状态的预测奖励值。类似的,在文本生成中我们也可以用蒙特卡洛方法来估计一个模型的状态价值。假如我们只采样到了s1和s2,没有采样到s3,由于7和3都是正向奖励,s1和s2的训练后生成的概率都会变大,且s1的概率变的更大,这看似合理,但是s3是未参与训练的,它的概率反而减小了。
2023-04-06 10:54:52 3566
原创 文本风格迁移入坑须知
首先给一个论文阅读列表:1. Unpaired Sentiment-to-Sentiment Translation: A Cycled Reinforcement Learning Approach2. Delete, Retrieve, Generate: A Simple Approach to Sentiment and Style Transfer3. Generating Sen...
2019-12-31 15:20:39 1743
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人