1. 首页
  2. 数据库
  3. 其它
  4. NLP模型应用之三:GPT与GPT 2

NLP模型应用之三:GPT与GPT 2

上传者: 2021-01-15 14:21:07上传 PDF文件 374.14KB 热度 28次
GPT模型 GPT全称Generative Pre-Training,出自2018年OpenAi发布的论文《Improving Language Understandingby Generative Pre-Training》,论文地址:https://www.cs.ubc.ca/~amuham01/LING530/papers/radford2018improving.pdf。 在自然语言处理问题中,可从互联网上下载大量无标注数据,而针对具体问题的有标注数据却非常少,GPT是一种半监督学习方法,它致力于用大量无标注数据让模型学习“常识”,以缓解标注信息不足的问题。其具体方法是在针对有标签数据
用户评论