模型设置总览
模型设置是 Agently 开发的起点。先把模型连接方式理顺,后面的 Prompt、输出控制和工作流才有稳定基础。
适合什么时候读
- 你已经看完 快速开始,准备接自己的模型
- 你要在多个 provider 之间切换
- 你想把配置写进设置文件或环境变量,而不是写死在代码里
你会学到什么
- Agently 为什么把常见模型统一到
OpenAICompatible - 基础配置应该放在哪里
- 常见 provider 和本地模型应该从哪一页开始看
最小示例
python
from agently import Agently
Agently.set_settings(
"OpenAICompatible",
{
"base_url": "https://api.deepseek.com/v1",
"api_key": "YOUR_DEEPSEEK_API_KEY",
"model": "deepseek-chat",
},
)如果你希望把配置从代码移到文件中:
python
from agently import Agently
Agently.load_settings("yaml_file", "./SETTINGS.yaml", auto_load_env=True)推荐阅读顺序
- 先看本页,理解统一配置思路
- 再进入具体 provider 页面
- 需要更细的请求体差异时,再看 OpenAI 接口格式(兼容)
Provider 索引
- 海外: OpenAI / Claude / Gemini / Groq
- 国内: DeepSeek / Qwen / ERNIE / Kimi / Doubao / SiliconFlow / MiniMax / GLM
- 本地部署: Ollama
常见误区
- 还没确定配置边界,就把
base_url、api_key、model散落到多个脚本里。 - 只追着 provider 文档走,却忽略了 Agently 自己的统一设置层。
- 一开始就写很多 provider wrapper,而不是先利用
OpenAICompatible。
下一步去哪
- 要组织 Prompt:看 Prompt 管理概览
- 要让输出更稳定:看 输出控制概览
- 要理解设置项继承和日志:看 设置项说明
相关案例
Related Skills(可选)
agently-model-setupagently-playbook