模型命令
📋 概述
模型命令用于管理 OpenCode 支持的 AI 模型,包括查看可用模型、切换模型、测试模型连接等。
📋 查看可用模型
列出所有可用的 AI 模型
输出信息:
- 模型名称
- 模型提供商
- 模型类型
- 支持的功能
- 推荐使用场景
支持的提供商:
- OpenAI (GPT 系列)
- Anthropic (Claude 系列)
- Google (Gemini 系列)
- 其他兼容 OpenAI API 的提供商
🔄 切换模型
切换当前使用的 AI 模型
用法:
opencode model use <model-name>
常用模型:
gpt-4o: OpenAI 最新的高性能模型gpt-4-turbo: OpenAI 高性能模型claude-3-5-sonnet: Anthropic 高性能模型claude-3-haiku: Anthropic 快速模型gemini-pro: Google 旗舰模型
切换场景:
- 追求性能:使用 GPT-4o 或 Claude-3.5-Sonnet
- 追求速度:使用 GPT-3.5 或 Claude-Haiku
- 特定任务:根据任务特点选择合适的模型
🧪 测试模型
测试模型的连接和响应
测试内容:
- API 连接状态
- 响应时间
- 配额剩余情况
- 模型可用性
测试结果:
- ✅ 连接成功:显示响应时间
- ❌ 连接失败:显示错误原因
- ⚠️ 限额警告:提示配额不足
🎯 模型选择指南
按任务类型选择
代码编写:
- 推荐:Claude-3.5-Sonnet、GPT-4o
- 特点:代码理解能力强
文本写作:
- 推荐:Claude-3.5-Sonnet、GPT-4o
- 特点:语言表达自然
快速问答:
- 推荐:GPT-3.5-Turbo、Claude-Haiku
- 特点:响应速度快
复杂推理:
- 推荐:GPT-4o、Claude-3.5-Sonnet
- 特点:逻辑推理能力强
按成本选择
高性价比:
- GPT-3.5-Turbo
- Claude-Haiku
均衡选择:
- GPT-4o-mini
- Claude-3-Sonnet
最佳性能:
- GPT-4o
- Claude-3.5-Sonnet
🔍 模型详细信息
查看模型的详细配置
输出信息:
- 模型参数
- 上下文长度限制
- 函数调用支持
- Token 价格
- 速率限制
⚙️ 模型配置
设置默认模型
opencode config set model.default gpt-4o
配置模型参数
opencode config set model.temperature 0.7
opencode config set model.max_tokens 4096
opencode config set model.top_p 0.9
参数说明:
-
Temperature (0-2): 控制输出的随机性
- 低值 (0-0.3): 更确定性、更专注
- 高值 (0.7-1.0): 更创造性、更多样化
-
Max Tokens: 控制输出长度
- 短对话: 1024-2048
- 长对话: 4096-8192
-
Top P (0-1): 控制核采样
- 推荐值: 0.9-1.0
🌐 多模型切换
会话级切换
在当前会话中临时切换模型
使用场景:
- 需要使用特定模型的某些功能
- 对比不同模型的表现
- 测试新模型
全局切换
设置全局默认模型
使用场景:
- 长期使用特定模型
- 团队统一模型选择
- 成本控制
📊 模型使用统计
查看模型使用情况
统计信息:
- 调用次数
- Token 使用量
- 成本估算
- 响应时间统计
💰 成本优化建议
减少 Token 使用
- 精简提示词:使用简洁明确的表达
- 使用系统提示词:避免重复说明
- 合理设置上下文:只包含相关信息
- 使用流式输出:提前终止不需要的输出
选择合适的模型
- 简单任务:使用快速、便宜的模型
- 复杂任务:使用高性能模型
- 批量处理:统一使用高性价比模型
📝 常见问题
Q: 如何添加自定义模型?
A: 在配置文件中添加模型提供商的 API 地址和密钥即可。
Q: 模型切换后历史对话会丢失吗?
A: 不会,对话历史独立于模型,可以随时切换。
Q: 如何监控模型使用成本?
A: 使用 model stats 命令查看使用统计和成本估算。