厂商: qwen · 定价: budget
Qwen-MT-Plus — 翻译Plus模型通义千问Plus低成本Qwen3
通义千问翻译专用Plus模型,针对多语言翻译任务深度优化,提供高质量翻译输出,适合专业翻译和本地化场景。
131.1K文本对话低成本国产
Qwen3-Coder-Flash — 代码Flash模型通义千问Code低成本Qwen3
通义千问代码专用Flash模型,1M超长上下文,高速低价代码生成,输入起步¥1/百万token,适合日常编程和代码补全。
1M文本对话低成本国产
Qwen3-Coder-Plus — 代码Plus模型通义千问Code低成本Qwen3
通义千问代码专用Plus模型,1M超长上下文,针对代码生成、补全和分析任务深度优化,四段阶梯定价适合不同规模的编程场景。
1M文本对话低成本国产
Qwen3-VL-Flash — 视觉Flash模型通义千问Flash低成本Qwen3 思考
通义千问视觉语言Flash模型,256K上下文,支持图像和视频理解,输入价格低至¥0.15/百万token,高速低价视觉处理。
256K文本 图片 视频视觉理解低成本国产
Qwen3-VL-Plus — 视觉Plus模型通义千问Vision低成本Qwen3 思考
通义千问视觉语言Plus模型,256K上下文,支持图像和视频理解,具备深度思考模式,阶梯定价适合多种视觉任务。
256K文本 图片 视频视觉理解低成本国产
Qwen-Long — 超长文本模型通义千问Long低成本Qwen3
通义千问超长文本模型,专为文档分析、摘要和长上下文任务优化,输入仅¥0.5/百万token,适合大规模文本处理。
1M文本对话低成本国产
QwQ-Plus — 推理模型通义千问Thinking低成本QwQ 思考
通义千问QwQ推理模型,专注深度链式推理,在数学、逻辑和复杂问题求解上表现优异,适合需要深度思考的任务场景。
131.1K文本对话低成本国产
Qwen-Turbo — Turbo极速版通义千问Turbo低成本Qwen3 思考
通义千问Turbo极速版,输入仅¥0.3/百万token,支持深度思考模式(思考输出¥3/百万token),适合对速度和成本敏感的场景。
131.1K文本对话低成本国产
Qwen3.5-Flash — Flash快速版通义千问Flash低成本Qwen3.5 思考
通义千问3.5 Flash快速版,1M超长上下文,支持深度思考模式,输入价格低至¥0.2/百万token,适合大批量高速推理场景。
1M文本对话低成本国产
Qwen3.5-Plus — Plus版通义千问Plus低成本Qwen3.5 思考
通义千问3.5 Plus版,1M超长上下文窗口,支持深度思考模式,三段阶梯定价起步仅¥0.8/百万token,性价比优秀。
1M文本对话低成本国产
Qwen3.6-Plus — Plus增强版通义千问Plus低成本Qwen3.6 思考
通义千问3.6 Plus增强版,1M超长上下文窗口,支持深度思考模式,在能力与成本之间取得优秀平衡,适合复杂任务处理。
1M文本对话低成本国产
OpenClaw 技能定制 / 插件定制 / 私有工作流定制
免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制