Chinchilla by DeepMind
美国
人工智能GPT-3替代大语模型(LLMS)

Chinchilla by DeepMind 翻译站点

DeepMind的GPT-3竞争对手

标签:
爱站权重:PC 百度权重移动 百度移动权重

DeepMind的研究人员提出了一种称为Chinchilla的新预测的计算机模型,该模型使用与Gopher相同的计算预算,但具有700亿个参数,数据的4倍。

在多种下游评估任务上,龙猫均匀且显着优于Gopher(280b),GPT-3(175b),侏罗纪-1(178b)和Megatron-Turing NLG(530b)。它用于微调和推理的计算大大降低,极大地促进了下游的用法。

Chinchilla在MMLU基准测试中的最新平均准确度为67.5%,比Gopher提高了7%。

大型语言模型培训的主要趋势是增加模型规模,而不增加训练令牌的数量。最大的致密变压器MT-NLG 530B现在比GPT-3的1700亿参数大3×。

资料来源:https://analyticsindiamag.com/deepmind-launches-gpt-3-rival-chinchilla/

原文:

Researchers at DeepMind have proposed a new predicted compute-optimal model called Chinchilla that uses the same compute budget as Gopher but with 70 billion parameters and 4 times more data.

Chinchilla uniformly and significantly outperforms Gopher (280B), GPT-3 (175B), Jurassic-1 (178B), and Megatron-Turing NLG (530B) on a large range of downstream evaluation tasks. It uses substantially less computing for fine-tuning and inference, greatly facilitating downstream usage.

Chinchilla showed a state-of-the-art average accuracy of 67.5% on the MMLU benchmark, a 7% improvement over Gopher.

The dominant trend in large language model training has been to increase the model size, without increasing the number of training tokens. The largest dense transformer, MT-NLG 530B, is now over 3× larger than GPT-3’s 170 billion parameters.

Source: https://analyticsindiamag.com/deepmind-launches-gpt-3-rival-chinchilla/

数据统计

数据评估

Chinchilla by DeepMind浏览人数已经达到341,如你需要查询该站的相关权重信息,可以点击"爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:Chinchilla by DeepMind的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找Chinchilla by DeepMind的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于Chinchilla by DeepMind特别声明

本站GPT 案例导航提供的Chinchilla by DeepMind都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由GPT 案例导航实际控制,在2023年3月9日 下午10:31收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,GPT 案例导航不承担任何责任。

相关导航