标签: 国产
Doubao-1.5-Pro-32K — Pro版均衡模型豆包Pro低成本Doubao
豆包Pro版模型,32K上下文,性能与成本均衡,支持缓存优化,适合通用对话和文本生成任务。
32K文本对话低成本国产
Doubao-1.5-Lite-32K — Lite版低成本模型豆包Lite低成本Doubao
豆包Lite版模型,32K上下文,输入仅¥0.3/百万token,适合大规模调用和成本敏感场景。
32K文本对话低成本国产
kimi-k2-0905-preview — 最新旗舰模型Kimi低成本Kimi-K2开源
kimi-k2-0905-preview是Kimi提供的AI模型,MoE混合专家架构,擅长代码生成。
262.1K 1T (32B active)文本对话低成本国产
kimi-k2-turbo-preview — 极速推理版KimiTurbo中等Kimi-K2开源
kimi-k2-turbo-preview是Kimi提供的AI模型,高速推理。
262.1K 60~100 t/s 1T (32B active)文本对话标准国产
kimi-k2-thinking — 深度思考版KimiThinking低成本Kimi-K2 思考开源
kimi-k2-thinking是Kimi提供的AI模型,提供高质量AI推理能力。
262.1K 1T (32B active)文本对话低成本国产
kimi-k2-thinking-turbo — 思考极速版KimiThinking中等Kimi-K2 思考开源
kimi-k2-thinking-turbo是Kimi提供的AI模型,高速推理。
262.1K 60~100 t/s 1T (32B active)文本对话标准国产
kimi-k2-0711-preview — K2早期预览版Kimi低成本Kimi-K2开源
kimi-k2-0711-preview是Kimi提供的AI模型,131K上下文,MoE混合专家架构。
131.1K 1T (32B active)文本对话低成本国产
Hunyuan-T1 — 深度思考模型腾讯混元Thinking低成本Hunyuan 思考
腾讯混元深度思考模型,具备强大的推理和思维链能力,适合复杂逻辑分析和多步推理任务。
32K文本对话低成本国产
Hunyuan-TurboS — 快速版模型腾讯混元Turbo低成本Hunyuan
腾讯混元快速版模型,优化推理速度和效率,适合对延迟敏感的在线对话和实时交互场景。
32K文本对话低成本国产
Hunyuan-Turbo — 标准版模型腾讯混元Turbo低成本Hunyuan
腾讯混元标准版Turbo模型,性能与成本均衡,适合通用对话、内容生成和函数调用场景。
32K文本对话低成本国产
Hunyuan-Large — 大参数模型腾讯混元低成本Hunyuan
腾讯混元大参数模型,具备更强的复杂任务处理能力,适合高质量内容生成和深度分析。
32K文本对话低成本国产
Hunyuan-Large-LongContext — 长文本大模型腾讯混元Long低成本Hunyuan
腾讯混元长文本大模型,支持128K上下文窗口,适合长文档分析、多轮对话和知识密集型任务。
128K文本对话低成本国产
Hunyuan-Standard — 标准版模型腾讯混元低成本Hunyuan
腾讯混元标准版模型,质量与成本均衡,适合日常对话、内容生成等通用场景。
32K文本对话低成本国产
Hunyuan-Standard-256K — 256K长文本模型腾讯混元Long低成本Hunyuan
腾讯混元256K标准版模型,支持256K超长上下文窗口,适合超长文档分析和大规模文本处理。
256K文本对话低成本国产
GLM-5.1 — 最新旗舰模型智谱 AI中等GLM-5
智谱AI最新旗舰大模型,编程能力对齐Claude Opus 4.6,长程任务能力显著提升,支持200K上下文和128K输出。
200K文本对话标准国产
GLM-5 — 高智能基座模型智谱 AI中等GLM-5
智谱AI高智能基座大模型,编程能力对齐Claude Opus 4.5,具备强大的Agentic长程规划能力。
200K文本对话标准国产
GLM-5-Turbo — 增强基座模型智谱 AITurbo低成本GLM-5
智谱AI增强基座模型,针对核心任务需求专项优化,支持200K上下文和128K输出。
200K文本对话低成本国产
GLM-4.7 — 高智能模型智谱 AI低成本GLM-4
智谱AI高智能模型,通用对话、推理和智能体能力全面升级,支持200K上下文。
200K文本对话低成本国产
GLM-4.7-FlashX — 轻量高速模型智谱 AIFlash低成本GLM-4
智谱AI轻量高速模型,小尺寸强能力,中文写作和翻译表现优秀,支持200K上下文。
200K文本对话低成本国产
GLM-4.6 — 超强性能模型智谱 AI低成本GLM-4
智谱AI超强性能模型,支持阶梯定价和缓存优化,解码速度30-50 t/s,200K上下文。
200K 30~50 t/s文本对话低成本国产
OpenClaw 技能定制 / 插件定制 / 私有工作流定制
免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制