GPT 论文精读笔记
Generative Pre-trained Transformer(GPT)系列是由 OpenAI 提出的非常强大的预训练语言模型,这一系列的模型可以在非常复杂的 NLP 任务中取得非常惊艳的效果,例如文章生成,代码生成,机器翻译,问答等,而完成这些任务甚至 并不需要有监督学习进行模型微调 。
本文梳理了 GPT 系列文章中介绍的的关键技术,包括:
- GPT-1 的解码器、微调、输入形式;
- GPT-2 的 Zero-shot 和 Prompt;
- GPT-3 的 Few-shot;
- Instruct GPT 如何通过基于人类反馈的强化学习生成有帮助的和安全的文本。