详细分析 ▾
运行时依赖
安装命令
点击复制技能文档
DeepSeek V4 直接在终端使用 DeepSeek V4 Flash 与 Pro:单轮提问、深度推理(思考模式)、多轮对话。无需专用 CLI,一行 Python 脚本调用 OpenAI 兼容 API。
设置
- 获取 API key:https://platform.deepseek.com/api_keys
- 设置环境变量:
模型 Model ID | 适用场景 | 价格(input/output) V4 Flash ⚡ deepseek-v4-flash | 问答、写作、编码、摘要 | $0.014 / $0.028 per 1M V4 Pro 🚀 deepseek-v4-pro | 复杂推理、数学、深度分析 | $0.174 / $0.348 per 1M 均支持 1M token 上下文,缓存命中价 1/10。 旧别名(deepseek-chat→flash,deepseek-reasoner→pro)将于 2026-07-24 停用。
命令 单轮提问(Flash 快速省钱) uv run {baseDir}/scripts/ask.py "Explain the difference between V4 Flash and V4 Pro"
单轮 Pro uv run {baseDir}/scripts/ask.py "Write a merge sort in Rust" --model pro
思考模式(Pro 显示推理过程) uv run {baseDir}/scripts/ask.py "Prove that there are infinitely many primes" --think
多轮对话 uv run {baseDir}/scripts/chat.py --model flash uv run {baseDir}/scripts/chat.py --model pro --think
查看模型与价格 uv run {baseDir}/scripts/models.py
模型选择指南 用 Flash:日常问答、写作翻译、代码生成/评审、摘要分类、追求低成本。 用 Pro:多步数学/逻辑、复杂调试与架构决策、深度研究分析、想看推理过程(--think)。
技巧 --think 先流式输出内部推理,再给出答案,适合难题与验证。 系统提示:--system "You are a concise assistant" 控制语气。 关闭流式:--no-stream 脚本输出更整洁。 DeepSeek API 兼容 OpenAI,任意 OpenAI SDK 设置 base_url="https://api.deepseek.com/v1" 即可。