GLM-130B
美国
人工智能GPT-3替代大语模型(LLMS)

GLM-130B 翻译站点

开放的双语预训练模型

标签:
爱站权重:PC 百度权重移动 百度移动权重

GLM-130b是一种开放的双语(英语和中文)双向密集模型,使用1300亿个参数,使用通用语言模型(GLM)进行预培训。它已经接受了超过4000亿个文本令牌(每个英语和中文)的培训,并具有令人印象深刻的功能。

它旨在支持单个A100(40G * 8)或V100(32G * 8)服务器上的130B参数的推理任务。通过INT4量化,可以将硬件要求进一步减少到4 * RTX 3090(24G)的单个服务器,几乎没有性能降解。截至2022年7月3日,GLM-130B已接受超过4000亿个文本令牌的培训(中文和英语200B),它具有以下独特功能:

原文:

GLM-130B is an open bilingual (English & Chinese) bidirectional dense model with 130 billion parameters, pre-trained using the algorithm of General Language Model (GLM). It has been trained on over 400 billion text tokens (200 billion each for English and Chinese), and has some impressive capabilities.

It is designed to support inference tasks with the 130B parameters on a single A100 (40G * 8) or V100 (32G * 8) server. With INT4 quantization, the hardware requirements can further be reduced to a single server with 4 * RTX 3090 (24G) with almost no performance degradation. As of July 3rd, 2022, GLM-130B has been trained on over 400 billion text tokens (200B each for Chinese and English) and it has the following unique features:

数据统计

数据评估

GLM-130B浏览人数已经达到359,如你需要查询该站的相关权重信息,可以点击"爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:GLM-130B的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找GLM-130B的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于GLM-130B特别声明

本站GPT 案例导航提供的GLM-130B都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由GPT 案例导航实际控制,在2023年3月9日 下午10:31收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,GPT 案例导航不承担任何责任。

相关导航