Portfolio News

启明星 | 智谱AI宣布开源ChatGLM-6B大模型,千亿基座对话模型启动内测

15/03/2023 | 启明创投

近日,启明创投投资企业、认知智能领跑者智谱AI开源了GLM系列模型的新成员——中英双语对话模型ChatGLM-6B,支持在单张消费级显卡上进行推理使用。这是继此前开源GLM-130B千亿基座模型之后,智谱AI再次推出大模型方向的研究成果。与此同时,基于千亿基座模型的ChatGLM也同期推出,初具问答和对话功能,现已开启邀请制内测(内测申请网址:chatglm.cn),后续还会逐步扩大内测范围。

ChatGLM-6B是一个开源的、支持中英双语问答的对话语言模型,并针对中文进行了优化。该模型基于General Language Model(GLM)架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB显存)。

ChatGLM-6B使用了和ChatGLM相同的技术,针对中文问答和对话进行了优化。经过约1T标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62亿参数的ChatGLM-6B虽然规模不及千亿模型,但大大降低了推理成本,提升了效率,并且已经能生成相当符合人类偏好的回答。

具体来说,ChatGLM-6B具备以下特点:

  • 充分的中英双语预训练:ChatGLM-6B在1:1比例的中英语料上训练了1T的token量,兼具双语能力。

  • 优化的模型架构和大小:吸取GLM-130B训练经验,修正了二维RoPE位置编码实现,使用传统FFN结构。6B(62亿)的参数大小,也使得研究者和个人开发者自己微调和部署ChatGLM-6B成为可能。

  • 较低的部署门槛:FP16半精度下,ChatGLM-6B需要至少13GB的显存进行推理,结合模型量化技术,这一需求可以进一步降低到10GB(INT8)和6GB(INT4),使得ChatGLM-6B可以部署在消费级显卡上。

  • 更长的序列长度:相比GLM-10B(序列长度1024),ChatGLM-6B序列长度达2048,支持更长对话和应用。

  • 人类意图对齐训练:使用了监督微调(Supervised Fine-Tuning)、反馈自助(Feedback Bootstrap)、人类反馈强化学习(Reinforcement Learning from Human Feedback)等方式,使模型初具理解人类指令意图的能力。输出格式为markdown,方便展示。

基于以上特点,ChatGLM-6B在一定条件下具备较好的对话与问答能力,以下是ChatGLM-6B的对话效果展示:

不过由于ChatGLM-6B模型的容量较小,不可避免地存在一些局限和不足,包括:

  • 相对较弱的模型记忆和语言能力:在面对许多事实性知识任务时,ChatGLM-6B可能会生成不正确的信息,也不太擅长逻辑类问题(如数学、编程)的解答。

  • 可能会产生有害说明或有偏见的内容:ChatGLM-6B只是一个初步与人类意图对齐的语言模型,可能会生成有害、有偏见的内容。

  • 较弱的多轮对话能力:ChatGLM-6B的上下文理解能力还不够充分,在面对长答案生成和多轮对话的场景时,可能会出现上下文丢失和理解错误的情况。

同时,智谱AI还开启了ChatGLM线上模型的内测。相比起ChatGLM-6B,ChatGLM线上模型的能力提升主要来源于独特的千亿基座模型GLM-130B。它采用了不同于BERT、GPT-3以及T5的GLM架构,是一个包含多目标函数的自回归预训练模型。

2022年11月,斯坦福大学大模型中心对全球30个主流大模型进行了全方位的评测,GLM-130B是亚洲唯一入选的大模型。在与OpenAI、Google Brain、微软、英伟达、Meta AI的各大模型对比中,评测报告显示GLM-130B在准确性和公平性指标上与GPT-3 175B(davinci)接近或持平,鲁棒性、校准误差和无偏性优于GPT-3 175B。

基于千亿基座的ChatGLM线上模型目前进行邀请制内测,用户需要使用邀请码进行注册,也可以填写基本信息申请内测。

由ChatGLM生成的对话效果展示:

整体而言,ChatGLM距离国际顶尖大模型研究和产品还有一定差距,GLM团队也在博客中坦言了这一点,并表示将持续研发并开源更新版本的ChatGLM和相关模型。

欢迎下载ChatGLM-6B,基于它进行研究和(非商用)应用开发。GLM团队希望能和开源社区研究者和开发者一起,推动大模型研究和应用在中国的发展。

请复制下方网址在浏览器打开,获取ChatGLM-6B模型开源及ChatGLM线上模型的更多具体信息。

  • ChatGLM-6B模型开源信息网址:https://github.com/THUDM/ChatGLM-6B

  • ChatGLM线上模型内测申请网址:chatglm.cn

  • ChatGLM博客网址:https://chatglm.cn/blog