🚀 模型列表
Chaterm 支持多种模型提供商,为您提供灵活的 AI 编程体验。从内置模型到自定义集成,满足不同场景的需求。
✨ 内置模型
Chaterm 内置了多个优质的代码模型,开箱即用,无需额外配置:
🧠 思维链模型
这些模型具备深度推理能力,能够逐步分析问题并给出详细的解决方案:
| 模型 | 特点 | 适用场景 | 推理能力 |
|---|---|---|---|
| DeepSeek-R1 (thinking) | 🎯 具备深度推理能力的先进模型 | 复杂算法设计、架构分析 | ⭐⭐⭐⭐⭐ |
| DeepSeek-V3.1 (thinking) | 💡 支持复杂代码分析 | 大型项目重构、性能优化 | ⭐⭐⭐⭐⭐ |
| GLM-4.5 (thinking) | 🔍 强大的逻辑推理能力 | 代码审查、问题诊断 | ⭐⭐⭐⭐ |
| Qwen-Plus (thinking) | 🚀 阿里云通义千问思维链模型 | 多语言开发、跨平台项目 | ⭐⭐⭐⭐ |
⚡ 标准模型
快速响应的标准模型,适合日常编程任务:
| 模型 | 特点 | 适用场景 | 响应速度 |
|---|---|---|---|
| GLM-4.5 | 🎨 优秀的代码生成能力 | 快速原型开发、功能实现 | ⚡⚡⚡⚡ |
| Qwen-Plus | 🏆 高性能代码生成模型 | 企业级应用开发 | ⚡⚡⚡ |
| Qwen-Turbo | ⚡ 快速响应的轻量级模型 | 实时编程辅助、快速迭代 | ⚡⚡⚡⚡⚡ |
🔧 添加自定义模型
您可以在设置中添加更多模型提供商,扩展 Chaterm 的功能。支持多种集成方式,满足不同需求:
🌐 云端模型集成
1. 🔗 LiteLLM 集成
通过 LiteLLM 可以连接多种模型提供商,支持统一的 API 接口:
| 配置项 | 说明 | 是否必需 |
|---|---|---|
| URL 地址 | LiteLLM 服务端点 | ✅ 必需 |
| API Key | 访问密钥 | ✅ 必需 |
| 模型名称 | 要使用的具体模型 | ✅ 必需 |
优势: 统一接口,支持多种模型提供商
2. 🤖 OpenAI 集成
直接连接 OpenAI 服务,享受官方支持:
| 配置项 | 说明 | 是否必需 |
|---|---|---|
| OpenAI URL 地址 | OpenAI API 端点 | ✅ 必需 |
| OpenAI API Key | OpenAI 访问密钥 | ✅ 必需 |
| 模型名称 | GPT-4、GPT-3.5 等 | ✅ 必需 |
优势: 官方支持,稳定可靠
3. ☁️ Amazon Bedrock
使用 AWS Bedrock 服务,企业级解决方案:
| 配置项 | 说明 | 是否必需 |
|---|---|---|
| AWS Access Key | AWS 访问密钥 | ✅ 必需 |
| AWS Secret Key | AWS 秘密密钥 | ✅ 必需 |
| AWS Session Token | 会话令牌 | 🔶 可选 |
| AWS 区域 | 服务区域 | ✅ 必需 |
| 自定义 VPC 端点 | 私有网络端点 | 🔶 可选 |
| 跨区域推理 | 多区域部署 | 🔶 可选 |
| 模型名称 | Bedrock 模型 | ✅ 必需 |
优势: 企业级安全,高可用性
4. 🚀 DeepSeek 集成
连接 DeepSeek 官方 API,享受先进模型:
| 配置项 | 说明 | 是否必需 |
|---|---|---|
| DeepSeek API Key | DeepSeek 访问密钥 | ✅ 必需 |
| 模型名称 | DeepSeek 模型 | ✅ 必需 |
优势: 先进模型,推理能力强
🏠 本地模型部署
5. 🦙 Ollama 本地部署
使用本地部署的 Ollama 模型,保护数据隐私:
| 配置项 | 说明 | 是否必需 |
|---|---|---|
| Ollama URL 地址 | 本地 Ollama 服务地址 | ✅ 必需 |
| 模型名称 | 本地模型名称 | ✅ 必需 |
优势: 数据隐私,离线可用
📋 使用说明
快速开始
- 进入设置页面 - 点击右上角设置图标
- 选择"模型"选项卡 - 在左侧菜单中找到模型设置
- 点击"添加模型"按钮 - 开始添加新的模型配置
- 选择相应的提供商 - 根据需求选择合适的模型提供商
- 填写必要的配置信息 - 按照表格要求填写配置项
- 保存并测试连接 - 验证配置是否正确
🔧 配置技巧
- API Key 安全:使用环境变量存储敏感信息
- 连接测试:配置完成后务必进行连接测试
- 模型切换:可以配置多个模型,根据需要切换使用
- 性能监控:关注模型响应时间和使用成本
🎯 模型选择建议
按使用场景选择
| 使用场景 | 推荐模型 | 理由 |
|---|---|---|
| 日常编程 | Qwen-Turbo | ⚡ 响应快速,成本低 |
| 复杂任务 | DeepSeek-R1 (thinking) | 🧠 推理能力强,分析深入 |
| 本地部署 | Ollama | 🔒 数据隐私,离线可用 |
| 企业级应用 | Amazon Bedrock | 🏢 稳定可靠,安全合规 |
| 多语言开发 | Qwen-Plus (thinking) | 🌍 支持多语言,理解能力强 |
| 快速原型 | GLM-4.5 | 🚀 生成速度快,适合迭代 |
按性能需求选择
🚀 追求速度
- Qwen-Turbo - 最快响应
- GLM-4.5 - 平衡性能与质量
🧠 追求质量
- DeepSeek-R1 (thinking) - 最强推理
- DeepSeek-V3.1 (thinking) - 复杂分析
💰 追求成本效益
- Qwen-Turbo - 成本最低
- Ollama 本地 - 无使用费用
🔒 追求隐私
- Ollama 本地 - 完全本地化
- Amazon Bedrock - 企业级安全