首页AI模型目录

AI 模型

浏览主流大模型,了解能力与定价。

热门搜索 GPTClaudeDeepSeek通义千问文心一言Gemini

定价: budget

Qwen3-VL-Plus — 视觉Plus模型通义千问Vision低成本Qwen3 思考
通义千问视觉语言Plus模型,256K上下文,支持图像和视频理解,具备深度思考模式,阶梯定价适合多种视觉任务。
256K文本 图片 视频视觉理解低成本国产
Qwen3-VL-Flash — 视觉Flash模型通义千问Flash低成本Qwen3 思考
通义千问视觉语言Flash模型,256K上下文,支持图像和视频理解,输入价格低至¥0.15/百万token,高速低价视觉处理。
256K文本 图片 视频视觉理解低成本国产
Qwen3-Coder-Plus — 代码Plus模型通义千问Code低成本Qwen3
通义千问代码专用Plus模型,1M超长上下文,针对代码生成、补全和分析任务深度优化,四段阶梯定价适合不同规模的编程场景。
1M文本对话低成本国产
Qwen3-Coder-Flash — 代码Flash模型通义千问Code低成本Qwen3
通义千问代码专用Flash模型,1M超长上下文,高速低价代码生成,输入起步¥1/百万token,适合日常编程和代码补全。
1M文本对话低成本国产
Qwen-MT-Plus — 翻译Plus模型通义千问Plus低成本Qwen3
通义千问翻译专用Plus模型,针对多语言翻译任务深度优化,提供高质量翻译输出,适合专业翻译和本地化场景。
131.1K文本对话低成本国产
Qwen3.5-Omni-Flash — 全模态Flash模型通义千问Flash低成本Qwen3.5
通义千问全模态Flash模型,支持文本、图像、视频和音频输入输出,价格实惠,适合大规模多模态应用场景。
131.1K文本 图片 视频 音频低成本国产视觉
Doubao-Seed-1.6 — 深度思考旗舰豆包低成本Doubao-Seed
豆包深度思考旗舰模型,支持256K上下文窗口,具备强大的推理和编程能力,支持阶梯定价和缓存优化,适合复杂任务场景。
256K文本对话低成本国产
Doubao-Seed-1.6-Lite — 轻量版豆包Lite低成本Doubao-Seed
豆包Seed系列轻量版模型,256K上下文,价格更低,适合日常对话和轻量级文本生成任务。
256K文本对话低成本国产
Doubao-Seed-1.6-Flash — 极速版豆包Flash低成本Doubao-Seed
豆包Seed系列极速版模型,256K上下文,输入仅¥0.15/百万token,适合大规模低延迟场景。
256K文本对话低成本国产
Doubao-Seed-Code — 代码专用模型豆包Code低成本Doubao-Seed
豆包代码专用模型,针对编程任务专项优化,支持256K上下文,适合代码生成、补全和调试场景。
256K文本对话低成本国产
Doubao-Seed-1.6-Vision — 视觉理解模型豆包Vision低成本Doubao-Seed
豆包视觉理解模型,支持图像和文本多模态输入,256K上下文,适合图像分析、文档理解等视觉任务。
256K文本 图片视觉理解低成本国产
Doubao-Seed-1.6-Thinking — 深度思考模型豆包Thinking低成本Doubao-Seed 思考
豆包深度思考模型,具备增强的推理和逻辑分析能力,256K上下文,适合数学推理、复杂问题求解等场景。
256K文本对话低成本国产
Doubao-1.5-Pro-32K — Pro版均衡模型豆包Pro低成本Doubao
豆包Pro版模型,32K上下文,性能与成本均衡,支持缓存优化,适合通用对话和文本生成任务。
32K文本对话低成本国产
Doubao-1.5-Lite-32K — Lite版低成本模型豆包Lite低成本Doubao
豆包Lite版模型,32K上下文,输入仅¥0.3/百万token,适合大规模调用和成本敏感场景。
32K文本对话低成本国产
kimi-k2-0905-preview — 最新旗舰模型Kimi低成本Kimi-K2开源
kimi-k2-0905-preview是Kimi提供的AI模型,MoE混合专家架构,擅长代码生成。
262.1K 1T (32B active)文本对话低成本国产
kimi-k2-thinking — 深度思考版KimiThinking低成本Kimi-K2 思考开源
kimi-k2-thinking是Kimi提供的AI模型,提供高质量AI推理能力。
262.1K 1T (32B active)文本对话低成本国产
kimi-k2-0711-preview — K2早期预览版Kimi低成本Kimi-K2开源
kimi-k2-0711-preview是Kimi提供的AI模型,131K上下文,MoE混合专家架构。
131.1K 1T (32B active)文本对话低成本国产
Hunyuan-T1 — 深度思考模型腾讯混元Thinking低成本Hunyuan 思考
腾讯混元深度思考模型,具备强大的推理和思维链能力,适合复杂逻辑分析和多步推理任务。
32K文本对话低成本国产
Hunyuan-TurboS — 快速版模型腾讯混元Turbo低成本Hunyuan
腾讯混元快速版模型,优化推理速度和效率,适合对延迟敏感的在线对话和实时交互场景。
32K文本对话低成本国产
Hunyuan-Turbo — 标准版模型腾讯混元Turbo低成本Hunyuan
腾讯混元标准版Turbo模型,性能与成本均衡,适合通用对话、内容生成和函数调用场景。
32K文本对话低成本国产
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务