首页AI模型目录

AI 模型

浏览主流大模型,了解能力与定价。

热门搜索 GPTClaudeDeepSeek通义千问文心一言Gemini

搜索: "通义千问" · 类型: text

Qwen3-Coder-30B-A3B — 轻量代码模型通义千问30b-a3b低成本Qwen3-Coder开源
通义千问3 Coder 30B轻量代码模型,MoE架构仅激活3B,200K上下文
200K 30B(3B激活)文本对话低成本国产
Qwen3-Coder-480B-A35B — 超大代码模型通义千问480b-a35b低成本Qwen3-Coder开源
通义千问3 Coder 480B超大代码模型,MoE架构仅激活35B,200K上下文
200K 480B(35B激活)文本对话低成本国产
Qwen3-Coder-Next — 最新代码模型通义千问next低成本Qwen3-Coder开源
通义千问3 Coder Next最新代码模型,256K上下文,阶梯定价
256K文本对话低成本国产
Qwen3.5-27B — 开源中型模型通义千问27b低成本Qwen3.5 思考开源
通义千问3.5开源27B中型模型,256K上下文,支持思考模式,性价比极高
256K 27B文本对话低成本国产
Qwen3.5-122B-A10B — 开源MoE大模型通义千问122b-a10b低成本Qwen3.5 思考开源
通义千问3.5开源122B MoE模型,仅激活10B参数,256K上下文,支持思考模式
256K 122B(10B激活)文本对话低成本国产
Qwen3.6-Plus — Plus增强版通义千问Plus低成本Qwen3.6 思考
通义千问3.6 Plus增强版,1M超长上下文窗口,支持深度思考模式,在能力与成本之间取得优秀平衡,适合复杂任务处理。
1M文本对话低成本国产
Qwen3.5-Plus — Plus版通义千问Plus低成本Qwen3.5 思考
通义千问3.5 Plus版,1M超长上下文窗口,支持深度思考模式,三段阶梯定价起步仅¥0.8/百万token,性价比优秀。
1M文本对话低成本国产
Qwen3.5-Flash — Flash快速版通义千问Flash低成本Qwen3.5 思考
通义千问3.5 Flash快速版,1M超长上下文,支持深度思考模式,输入价格低至¥0.2/百万token,适合大批量高速推理场景。
1M文本对话低成本国产
Qwen-Turbo — Turbo极速版通义千问Turbo低成本Qwen3 思考
通义千问Turbo极速版,输入仅¥0.3/百万token,支持深度思考模式(思考输出¥3/百万token),适合对速度和成本敏感的场景。
131.1K文本对话低成本国产
QwQ-Plus — 推理模型通义千问Thinking低成本QwQ 思考
通义千问QwQ推理模型,专注深度链式推理,在数学、逻辑和复杂问题求解上表现优异,适合需要深度思考的任务场景。
131.1K文本对话低成本国产
Qwen-Long — 超长文本模型通义千问Long低成本Qwen3
通义千问超长文本模型,专为文档分析、摘要和长上下文任务优化,输入仅¥0.5/百万token,适合大规模文本处理。
1M文本对话低成本国产
Qwen3-Coder-Plus — 代码Plus模型通义千问Code低成本Qwen3
通义千问代码专用Plus模型,1M超长上下文,针对代码生成、补全和分析任务深度优化,四段阶梯定价适合不同规模的编程场景。
1M文本对话低成本国产
Qwen3-Coder-Flash — 代码Flash模型通义千问Code低成本Qwen3
通义千问代码专用Flash模型,1M超长上下文,高速低价代码生成,输入起步¥1/百万token,适合日常编程和代码补全。
1M文本对话低成本国产
Qwen-MT-Plus — 翻译Plus模型通义千问Plus低成本Qwen3
通义千问翻译专用Plus模型,针对多语言翻译任务深度优化,提供高质量翻译输出,适合专业翻译和本地化场景。
131.1K文本对话低成本国产
Qwen3-Max — 旗舰模型通义千问低成本Qwen3 思考
通义千问旗舰大模型,252K上下文窗口,支持深度思考模式,在推理、编程和创意任务上表现最优。阶梯定价,新用户享100万token免费额度。
252K文本对话低成本国产
Qwen-Plus-Character — 角色扮演通义千问plus-character低成本Qwen
通义千问角色扮演模型,基于Plus模型优化的角色扮演专用版
文本对话低成本国产
Qwen-Doc-Turbo — 数据挖掘通义千问doc-turbo低成本Qwen
通义千问数据挖掘Turbo模型,适合文档分析和数据提取
文本对话低成本国产
Qwen-MT-Lite — 翻译Lite通义千问Lite低成本Qwen-MT
通义千问翻译Lite轻量模型,最低价格翻译
文本对话低成本国产
Qwen-MT-Flash — 翻译Flash通义千问Flash低成本Qwen-MT
通义千问翻译Flash模型,快速多语言翻译
文本对话低成本国产
Qwen-Math-Turbo — 数学推理快速通义千问Turbo低成本Qwen-Math 思考
通义千问数学推理Turbo模型,快速数学问题求解
文本对话低成本国产
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务