概述


一、成本构成分析

使用 AI 的成本主要由以下部分构成:

成本项说明占比
输入 Token你发给 AI 的文字、图片等约 30%
输出 TokenAI 回复的文字约 60%
API 调用次数请求次数约 10%
优化重点:减少不必要的输出 Token


二、实用优化技巧

技巧一:设置回复长度限制

让 AI 回复简洁一些,减少输出 Token:

设置回复风格:简洁明了,不超过100字

效果:单次对话节省 30-50% Token

技巧二:利用历史摘要

配置对话摘要,减少每次请求的输入 Token:

"memory": {
  "useSummaries": true,
  "summaryThreshold": 10,
  "summaryMaxTokens": 500
}

效果:长对话可节省 50%+ Token

技巧三:批量处理任务

❌ 错误做法:

帮我查5个数据,分别查:
1. 今天销售额
2. 昨天销售额
3. 本周销售额
4. ...

✅ 正确做法:

请一次性汇总以下数据:今日/昨日/本周销售额,并给出简短分析

效果:减少 API 调用次数,节省 20% Token


三、智能路由节省成本

简单问题用便宜模型

"modelRouting": {
  "rules": [
    {
      "condition": "length < 50 AND keywords IN [你好,天气,时间]",
      "model": "deepseek-chat"
    },
    {
      "condition": "length > 500 OR keywords CONTAINS [分析,推理]",
      "model": "deepseek-reasoner"
    }
  ],
  "default": "MiniMax-M2.7-highspeed"
}

四、成本监控与预警

4.1 设置预算上限

"costControl": {
  "dailyBudget": 100,
  "monthlyBudget": 2000,
  "warnAtPercent": 80,
  "notifyWhenExceeded": true,
  "notificationChannel": "飞书群"
}

4.2 查看用量

平台查看地址
MiniMaxplatform.minimaxi.com → 用量
DeepSeekplatform.deepseek.com → 用量

4.3 成本异常预警

设置 Token 消耗异常告警:

"costAlert": {
  "enabled": true,
  "singleRequestThreshold": 5000,
  "dailyRequestCountThreshold": 500,
  "alertChannels": ["飞书群"]
}

五、各模型性价比对比

模型适合场景性价比
DeepSeek-chat简单对话⭐⭐⭐⭐⭐
DeepSeek-reasoner深度分析⭐⭐⭐⭐
MiniMax-M2.1简单任务⭐⭐⭐⭐
MiniMax-M2.7-highspeed日常对话⭐⭐⭐
MiniMax-M2.7复杂任务⭐⭐
GPT-4o全能型
推荐:用 DeepSeek 处理简单任务,MiniMax 处理日常对话,特殊情况才用 GPT-4。


六、实际省钱案例

案例:每日日报分析

优化前:

  • 每次分析调用 MiniMax-M2.7
  • 每次约 5000 Token
  • 每天分析 3 次
  • 月成本:5000 × 3 × 30 × 0.002 = 900 元

优化后:

  • 简单数据汇总用 DeepSeek-chat
  • 深度分析才用 DeepSeek-reasoner
  • 月成本:约 200 元

节省:约 75%


七、成本优化检查清单

□ 简单对话是否切换到便宜模型
□ 是否设置了回复长度限制
□ 是否启用了对话摘要
□ 是否配置了每日预算上限
□ 是否有成本预警机制
□ 定期检查用量报告

八、下一步学什么

  • 4.6 模型切换命令详解 → 所有模型相关命令
  • 4.7 国内常用模型汇总 → 其他可用的国内模型
  • 4.8 模型效果评估方法 → 如何判断模型是否适合你

省钱的核心是:用对的模型做对的事,而不是一味用最贵的模型。

常见问题

Q: Token 怎么计算?
A: 中文约 1-2 个字符 = 1 Token,英文约 4 个字符 = 1 Token。