GPT-2
美国
人工智能GPT-3替代大语模型(LLMS)

GPT-2 翻译站点

OpenAI的生成预训练的变压器2

标签:
爱站权重:PC 百度权重移动 百度移动权重

GPT-2是OpenAI于2019年2月创建的开源人工智能。

Alec Radford,Jeffrey Wu,Rewon Child,David Luan,Dario Amodei和Ilya Sutskever在语言模型中提出了OpenAI GPT-2模型。

这是一种因〜40 GB文本数据的大型语料语言上的语言建模预测的因果(单向)变压器。

本文的摘要如下:

*GPT-2是一种基于最大变压器的大型语言模型,具有15亿个参数,在800万个网页的数据集中培训。 GPT-2经过一个简单的目标训练:鉴于某些文本中所有以前的单词,预测下一个单词。数据集的多样性导致这个简单的目标包含跨不同领域的许多任务的天然演示。 GPT-2是GPT的直接扩展,其参数超过10倍,并且对数据量超过10倍进行训练。

原文:

GPT-2 is an open-source artificial intelligence created by OpenAI in February 2019.

OpenAI GPT-2 model was proposed in Language Models are Unsupervised Multitask Learners by Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei and Ilya Sutskever.

It’s a causal (unidirectional) transformer pretrained using language modeling on a very large corpus of ~40 GB of text data.

The abstract from the paper is the following:

*GPT-2 is a large transformer-based language model with 1.5 billion parameters, trained on a dataset of 8 million web pages. GPT-2 is trained with a simple objective: predict the next word, given all of the previous words within some text. The diversity of the dataset causes this simple goal to contain naturally occurring demonstrations of many tasks across diverse domains. GPT-2 is a direct scale-up of GPT, with more than 10X the parameters and trained on more than 10X the amount of data.*

数据统计

数据评估

GPT-2浏览人数已经达到204,如你需要查询该站的相关权重信息,可以点击"爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:GPT-2的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找GPT-2的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于GPT-2特别声明

本站GPT 案例导航提供的GPT-2都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由GPT 案例导航实际控制,在2023年3月9日 下午10:31收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,GPT 案例导航不承担任何责任。

相关导航