输入“/”快速插入内容

GLM-4-Flash模型免费使用攻略

2024年9月5日修改
本文讨论了智谱 AI 旗下大模型开放平台宣布 GLM-4-Flash 全面免费及微调限时免费的情况,并介绍其使用攻略。关键要点包括:
1.
GLM-4-Flash 免费情况:智谱 AI 大模型开放平台宣布 GLM-4-Flash 全面免费,模型微调开启限时免费活动。
2.
GLM-4-Flash 介绍:是智谱 AI 首个免费大模型 API,速度快,可用于文章创作等多场景,具备多轮对话等功能,支持 26 种语言。
3.
模型优势:有强大推理能力,支持 128K 上下文推理和多语言处理;生成速度约 72.14 token/s(约 115 字符/s);函数调用能力与 GPT-4 相当;支持网页检索。
4.
模型实测:模型界面支持多轮对话、自定义系统指令构建及工具调用功能,用户可自由调整对话窗口最大 tokens 数量等参数。
5.
接入 COW 方法:先完成 COW 初级使用教程部署,接着修改 [const.py](const.py) 文件增加 glm-4-flash 模型,再修改 config.json 文件中的 model 等 4 个部分,最后重新扫码登录 。
王炸!智谱 AI 旗下的大模型开放平台宣布 GLM-4-Flash 全面免费,并且该模型微调也开启了限时免费活动。
体验地址:https://open.bigmodel.cn/
一、GLM-4-Flash 介绍
GLM-4-Flash 模型是智谱 AI 第一个免费的大模型 API,速度极快,可以用在文章创作、代码调试、代码生成、知识库问答、PPT 助手、思维导图生成等场景。
GLM-4-Flash 模型的优势在于:
强大的推理能力:支持 128K 上下文推理和多语言处理;
极快的生成速度:生成速度大约在 72.14 token/s,约等于 115 字符/s;
支持函数调用:其函数调用能力与 GPT-4 相当;
支持网页检索:能够实时访问天气、新闻等信息。
具备多轮对话、网页浏览、Function Call(函数调用)和长文本推理(支持最大 128K 上下文)等功能,同时支持包括中文、英语、日语、韩语、德语等在内的 26 种语言。
二、GLM-4-Flash 模型实测
GLM-4-Flash 模型已经在大量测试中展现了能力。
从模型界面来看,GLM-4-Flash 支持多轮对话、自定义系统指令构建(比如设定模型身份、任务目标)以及网页搜索、知识库搜索和函数调用等工具调用功能。
此外,用户也可以自由调整 GLM-4-Flash 对话窗口的最大 tokens 数量(输入上下文长度)、模型温度(控制生成的随机性和创造性)、top_p(控制回答风格,保证输出结果正确性的同时增加多样性)。
三、接入COW
我的读者最关心的来了,怎么接入COW白嫖这个强大的模型呢?操作很简单,小白无脑一步一步跟着做就行。
首先,你要确保完成部署了COW初级使用教程
然后修改2个部分:
1.
增加glm-4-flash模型
路径/root/chatgpt-on-wechat/common文件夹下,打开 const.py 文件