MiMo-V2-Flash — 开源对话模型SiliconFlowFlash低成本MiMo开源
MiMo-V2-Flash是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Xiaomi MiMo V2 Flash open-source MoE model with 309B total, 15B active,上下文窗口262K tokens,支持流式输出和API调用。
262.1K 309B (15B active)文本对话低成本国产
Qwen3-30B-A3B — 开源对话模型SiliconFlow低成本Qwen3开源
Qwen3-30B-A3B是通过SiliconFlow(硅基流动)平台提供的开源AI模型,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 30B (3B active)文本对话低成本国产
Qwen3-8B — 免费对话模型SiliconFlow免费Qwen3开源
Qwen3-8B是通过SiliconFlow(硅基流动)平台提供的开源AI模型,完全免费使用,Qwen3 8B compact model, free on SiliconFlow,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 8B文本对话免费国产
GLM-5-0805 — 开源对话模型SiliconFlow低成本GLM-5开源
GLM-5-0805是通过SiliconFlow(硅基流动)平台提供的开源AI模型,上下文窗口80K tokens,支持流式输出和API调用。
80K文本对话低成本国产
GLM-4.7-Flash — 免费对话模型SiliconFlowFlash免费GLM-4开源
GLM-4.7-Flash是通过SiliconFlow(硅基流动)平台提供的开源AI模型,完全免费使用,GLM-4,上下文窗口203K tokens,支持流式输出和API调用。
202.8K文本对话免费国产
DeepSeek-V3.1 — 开源对话模型SiliconFlow低成本DeepSeek-V3.1开源
DeepSeek-V3.1是通过SiliconFlow(硅基流动)平台提供的开源AI模型,DeepSeek V3,上下文窗口164K tokens,支持流式输出和API调用。
163.8K文本对话低成本国产
DeepSeek-R1 — 开源对话模型SiliconFlow低成本DeepSeek 思考开源
DeepSeek-R1是通过SiliconFlow(硅基流动)平台提供的开源AI模型,DeepSeek R1 reasoning model with chain-of-thought capabilities,上下文窗口164K tokens,支持流式输出和API调用。
163.8K文本对话低成本国产
Llama-3.3-70B-Instruct — 开源对话模型SiliconFlow低成本Llama-3.3开源
Llama-3.3-70B-Instruct是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Meta Llama 3,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 70B文本对话低成本国产
Llama-3.1-8B-Instruct — 免费对话模型SiliconFlow免费Llama-3.1开源
Llama-3.1-8B-Instruct是通过SiliconFlow(硅基流动)平台提供的开源AI模型,完全免费使用,Meta Llama 3,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 8B文本对话免费国产
MiniMax-M2.5 — 开源对话模型SiliconFlow低成本MiniMax开源
MiniMax-M2.5是通过SiliconFlow(硅基流动)平台提供的开源AI模型,MiniMax M2,上下文窗口197K tokens,支持流式输出和API调用。
196.6K文本对话低成本国产
Kimi-K2-Instruct — 开源对话模型SiliconFlow低成本Kimi-K2开源
Kimi-K2-Instruct是通过SiliconFlow(硅基流动)平台提供的开源AI模型,上下文窗口131K tokens,支持流式输出和API调用。
131.1K文本对话低成本国产
Qwen3-Coder-480B-A35B — 开源对话模型SiliconFlowCode低成本Qwen3开源
Qwen3-Coder-480B-A35B是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Qwen3 Coder 480B A35B large code-focused MoE model,上下文窗口262K tokens,支持流式输出和API调用。
262.1K 480B (35B active)文本对话低成本国产
bge-m3 — 免费嵌入模型SiliconFlow免费BGE开源
bge-m3是通过SiliconFlow(硅基流动)平台提供的开源AI模型,完全免费使用,BGE-M3 multilingual embedding model, free on SiliconFlow,上下文窗口8K tokens,支持流式输出和API调用。
8.2K文本向量化免费国产
FLUX.1-schnell — 免费图像生成SiliconFlow免费FLUX.1开源
FLUX.1-schnell是通过SiliconFlow(硅基流动)平台提供的开源AI模型,完全免费使用,FLUX,支持流式输出和API调用。
文本图像生成免费国产
GPT OSS 20B — 超高速推理模型Groq低成本GPT开源
GPT OSS 20B是通过Groq LPU极速推理平台提供的开源AI模型,OpenAI open-weight 21B MoE model with 3,推理速度可达1000 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 1000~1000 t/s文本对话低成本大语言模型
GPT OSS Safeguard 20B — 超高速推理模型Groq低成本GPT开源
GPT OSS Safeguard 20B是通过Groq LPU极速推理平台提供的开源AI模型,Safety reasoning model from OpenAI for content classification and LLM filtering,推理速度可达1000 tokens/sec,
131.1K 1000~1000 t/s文本对话低成本大语言模型
Qwen3 32B — 超高速推理模型Groq低成本Qwen3开源
Qwen3 32B是通过Groq LPU极速推理平台提供的开源AI模型,Qwen3 32B dense model with strong multilingual and reasoning capabilities,推理速度可达662 tokens/sec,上下文窗口131K tokens,支持
131.1K 662~662 t/s文本对话低成本函数调用
Llama 3 70B — 极速推理模型Groq低成本Llama-3开源
Llama 3 70B是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3 70B instruction-tuned model with 8K context,推理速度可达330 tokens/sec,上下文窗口8K tokens,支持流式输出和API调用。
8.2K 330~330 t/s文本对话低成本大语言模型
Llama 3 8B — 超高速推理模型Groq低成本Llama-3开源
Llama 3 8B是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3 8B compact model for fast inference,推理速度可达1250 tokens/sec,上下文窗口8K tokens,支持流式输出和API调用。
8.2K 1250~1250 t/s文本对话低成本大语言模型
Llama-4-Maverick-17B-128E-Instruct — 多模态视觉模型SiliconFlow低成本Llama-4开源
Llama-4-Maverick-17B-128E-Instruct是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Meta Llama 4 Maverick large MoE model with 128 experts,上下文窗口1.0M tokens,支持流式输出和API调用
1.0M 17B x 128E文本 图片视觉理解低成本国产
OpenClaw 技能定制 / 插件定制 / 私有工作流定制
免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制