Palmyra
美国
人工智能GPT-3替代大语模型(LLMS)

Palmyra 翻译站点

企业的隐私优先法学硕士

标签:
爱站权重:PC 百度权重移动 百度移动权重

[作者](https://gpt3demo.com/apps/writer)的开发人员Palmyra主要通过英语文本进行了预先培训。请注意,通过CommonCrawl访问的培训语料库中仍然存在痕量的非英语数据。在模型预处理过程中,利用了因果语言建模(CLM)目标。

Palmyra有三种尺寸:针对小型,基础和大型参数,分别为1.28亿,50亿或200亿。他们接受了商业和营销写作的培训,而不是Reddit帖子和Gutenberg项目,因此一开始就会有所惊喜。然后,您将使用最后10年的年度报告,财务,博客文章等加载其MAW,以使其成为您的MAW。 (要清楚,此和任何派生的数据都不会过滤回作者。)

与GPT-3类似,Palmyra基地是仅包含解码器的模型家族的成员。结果,它是利用自我监督的因果语言建模的目标进行了预训练的。 Palmyra Base使用GPT-3的提示和一般实验设置,以便每GPT-3进行评估。

原文:

Palmyra, developer by [Writer](https://gpt3demo.com/apps/writer), was primarily pre-trained with English text. Note that there is still a trace amount of non-English data present within the training corpus that was accessed through CommonCrawl. A causal language modeling (CLM) objective was utilized during the process of the model's pretraining.

Palmyra comes in three sizes: 128 million, 5 billion or 20 billion parameters, respectively, for Small, Base and Large. They’re trained on business and marketing writing, not Reddit posts and Project Gutenberg, so there are less surprises to begin with. Then you load up its maw with the last 10 years of annual reports, financials, blog posts and so on to make it yours. (This and any derived data do not filter back to Writer, to be clear.)

Similar to GPT-3, Palmyra Base is a member of the same family of models that only contain a decoder. As a result, it was pre-trained utilizing the objective of self-supervised causal language modeling. Palmyra Base uses the prompts and general experimental setup from GPT-3 in order to conduct its evaluation per GPT-3.

数据统计

数据评估

Palmyra浏览人数已经达到342,如你需要查询该站的相关权重信息,可以点击"爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:Palmyra的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找Palmyra的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于Palmyra特别声明

本站GPT 案例导航提供的Palmyra都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由GPT 案例导航实际控制,在2023年3月9日 下午10:31收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,GPT 案例导航不承担任何责任。

相关导航