输入“/”快速插入内容

大模型 API 配置

2024年11月25日修改
📌
本节中,我们将学习如何配置大模型 API,为智能体注入灵魂
OpenAI API
我们以 OpenAI API 为例说明配置过程,其他大模型的 API 配置过程是相同的。
使用config2.yaml
📢
如果您按照安装中的git clone方法,config/config2.yaml 文件已存在。
只需编辑它或创建一个名为~/.metagpt/config2.yaml的副本进行编辑。这样您就不会意外地使用 git 提交和共享您的 API 密钥。
MetaGPT 将按照以下优先顺序读取您的配置:
~/.metagpt/config2.yaml > config/config2.yaml
1.
(如果没有)在当前工作目录中创建一个名为config的文件夹,并在其中添加一个名为config2.yaml的新文件。
2.
将示例 config2.yaml 文件的内容复制到您的新文件中。
3.
在 yaml 文件中填入:
代码块
llm:
api_type: 'openai' # or azure / ollama / groq etc. Check LLMType for more options
model: 'gpt-4-turbo' # or gpt-3.5-turbo
base_url: 'https://api.openai.com/v1' # or forward url / other llm url
api_key: 'YOUR_API_KEY'
# proxy: 'YOUR_LLM_PROXY_IF_NEEDED' # Optional. If you want to use a proxy, set it here.
# pricing_plan: 'YOUR_PRICING_PLAN' # Optional. If your pricing plan uses a different name than the `model`.
结果将类似如下:
OpenAI o1 模型配置
代码块
llm:
api_type: 'openai'
api_key: 'sk-...'
model: 'o1-mini'
use_system_prompt: false
stream: false
测试效果
可以创建一个文件并运行如下代码,若终端中打印出回复,则说明配置成功:
代码块
from metagpt.llm import LLM
import asyncio
llm = LLM()
asyncio.run(llm.aask("你是什么模型"))
MetaGPT 还支持各种 LLM 模型,可以根据您的需求配置模型 API 的密钥。
Anthropic / Claude API
支持模型名列表在 token_counter.py claude-*
代码块
llm:
api_type: 'claude' # 或 anthropic
base_url: 'https://api.anthropic.com'
api_key: 'YOUR_API_KEY'
model: 'claude-3-opus-20240229'
智谱 API
访问 llm_config.py 获得更新详情。
代码块
llm:
api_type: 'zhipuai'
api_key: 'YOUR_API_KEY'
model: 'MODEL_NAME'