定价: budget · 标签: 函数调用
Llama-4-Scout-17B-16E-Instruct — 多模态视觉模型SiliconFlow低成本Llama-4开源
Llama-4-Scout-17B-16E-Instruct是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Meta Llama 4 Scout MoE model with 16 experts,上下文窗口328K tokens,支持流式输出和API调用。
327.7K 17B x 16E文本 图片视觉理解低成本国产
Qwen3-30B-A3B — 开源对话模型SiliconFlow低成本Qwen3开源
Qwen3-30B-A3B是通过SiliconFlow(硅基流动)平台提供的开源AI模型,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 30B (3B active)文本对话低成本国产
GLM-5-0805 — 开源对话模型SiliconFlow低成本GLM-5开源
GLM-5-0805是通过SiliconFlow(硅基流动)平台提供的开源AI模型,上下文窗口80K tokens,支持流式输出和API调用。
80K文本对话低成本国产
Llama-3.3-70B-Instruct — 开源对话模型SiliconFlow低成本Llama-3.3开源
Llama-3.3-70B-Instruct是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Meta Llama 3,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 70B文本对话低成本国产
Qwen3-Coder-480B-A35B — 开源对话模型SiliconFlowCode低成本Qwen3开源
Qwen3-Coder-480B-A35B是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Qwen3 Coder 480B A35B large code-focused MoE model,上下文窗口262K tokens,支持流式输出和API调用。
262.1K 480B (35B active)文本对话低成本国产
Qwen3 32B — 超高速推理模型Groq低成本Qwen3开源
Qwen3 32B是通过Groq LPU极速推理平台提供的开源AI模型,Qwen3 32B dense model with strong multilingual and reasoning capabilities,推理速度可达662 tokens/sec,上下文窗口131K tokens,支持
131.1K 662~662 t/s文本对话低成本函数调用
GLM-5V-Turbo — 多模态视觉模型SiliconFlowTurbo低成本GLM-5开源
GLM-5V-Turbo是通过SiliconFlow(硅基流动)平台提供的开源AI模型,GLM-5V-Turbo is Z,上下文窗口203K tokens,支持流式输出和API调用。
202.8K文本 图片视觉理解低成本国产
Qwen3-235B-A22B-Thinking-2507 — 开源对话模型SiliconFlowThinking低成本Qwen3 思考开源
Qwen3-235B-A22B-Thinking-2507是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Qwen3 235B reasoning model optimized for complex multi-step thinking,上下文窗口131K tokens,支持流
131.1K 235B (22B active)文本对话低成本国产
Qwen3-VL-235B-A22B-Instruct — 多模态视觉模型SiliconFlow低成本Qwen3开源
Qwen3-VL-235B-A22B-Instruct是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Qwen3 VL 235B multimodal vision-language model,上下文窗口131K tokens,支持流式输出和API调用。
131.1K文本 图片视觉理解低成本国产
Llama-4-Maverick-17B-128E-Instruct — 多模态视觉模型SiliconFlow低成本Llama-4开源
Llama-4-Maverick-17B-128E-Instruct是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Meta Llama 4 Maverick large MoE model with 128 experts,上下文窗口1.0M tokens,支持流式输出和API调用
1.0M 17B x 128E文本 图片视觉理解低成本国产
GLM-5.1 — 开源对话模型SiliconFlow低成本GLM-5开源
GLM-5.1是通过SiliconFlow(硅基流动)平台提供的开源AI模型,GLM-5,上下文窗口205K tokens,支持流式输出和API调用。
205K文本对话低成本国产
Meta-Llama-3.1-8B-Instruct-Turbo — 开源对话模型Together AI低成本Llama-3.1开源
Meta-Llama-3.1-8B-Instruct-Turbo是通过Together AI平台提供的开源AI模型,Meta Llama 3,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 8B文本对话低成本函数调用
Meta-Llama-3.1-70B-Instruct-Turbo — 开源对话模型Together AI低成本Llama-3.1开源
Meta-Llama-3.1-70B-Instruct-Turbo是通过Together AI平台提供的开源AI模型,Meta Llama 3,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 70B文本对话低成本函数调用
Llama-3.3-70B-Instruct-Turbo — 开源对话模型Together AI低成本Llama-3.3开源
Llama-3.3-70B-Instruct-Turbo是通过Together AI平台提供的开源AI模型,Meta Llama 3,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 70B文本对话低成本函数调用
Mistral-Small-3.1-24B-Instruct-2503 — 开源对话模型Together AI低成本Mistral开源
Mistral-Small-3.1-24B-Instruct-2503是通过Together AI平台提供的开源AI模型,Mistral Small 3,上下文窗口128K tokens,支持流式输出和API调用。
128K 24B文本对话低成本函数调用
GLM-5-0805 — 开源对话模型Together AI低成本GLM-5开源
GLM-5-0805是通过Together AI平台提供的开源AI模型,GLM-5 is a powerful open-source language model from Zhipu AI,上下文窗口80K tokens,支持流式输出和API调用。
80K文本对话低成本函数调用
Llama-4-Scout-17B-16E-Instruct — 开源对话模型Together AI低成本Llama-4开源
Llama-4-Scout-17B-16E-Instruct是通过Together AI平台提供的开源AI模型,上下文窗口328K tokens,支持流式输出和API调用。
327.7K 17B x 16E文本对话低成本函数调用
Llama 3.1 70B Versatile — 极速推理模型Groq低成本Llama-3.1开源
Llama 3.1 70B Versatile是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3,推理速度可达250 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 250~250 t/s文本对话低成本函数调用
Llama-4-Maverick-17B-128E-Instruct — 开源对话模型Together AI低成本Llama-4开源
Llama-4-Maverick-17B-128E-Instruct是通过Together AI平台提供的开源AI模型,上下文窗口1.0M tokens,支持流式输出和API调用。
1.0M 17B x 128E文本对话低成本函数调用
Qwen3-30B-A3B — 开源对话模型Together AI低成本Qwen3开源
Qwen3-30B-A3B是通过Together AI平台提供的开源AI模型,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 30B (3B active)文本对话低成本函数调用
OpenClaw 技能定制 / 插件定制 / 私有工作流定制
免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制