零样本性能超越小样本,谷歌1370亿参数新模型比GPT-3更强 在 NLP 大然而,像 该 为了该FLAN:该该训练细节模型架构和预训练。在实验下尽管在 CB 和 在阅读理解对于开放域问答常识推理和共指消解不同模型在五个常识推理在两个共指消解翻译测试其他实验由于该论文的核心问题是图 5 显示了实验下图 6 结果表明,对于较大规模的模型,