首页AI模型目录

AI 模型

浏览主流大模型,了解能力与定价。

热门搜索 GPTClaudeDeepSeek通义千问文心一言Gemini

定价: budget · 标签: 对话

MiMo-V2-Flash — 开源对话模型SiliconFlowFlash低成本MiMo开源
MiMo-V2-Flash是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Xiaomi MiMo V2 Flash open-source MoE model with 309B total, 15B active,上下文窗口262K tokens,支持流式输出和API调用。
262.1K 309B (15B active)文本对话低成本国产
Qwen3-30B-A3B — 开源对话模型SiliconFlow低成本Qwen3开源
Qwen3-30B-A3B是通过SiliconFlow(硅基流动)平台提供的开源AI模型,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 30B (3B active)文本对话低成本国产
GLM-5-0805 — 开源对话模型SiliconFlow低成本GLM-5开源
GLM-5-0805是通过SiliconFlow(硅基流动)平台提供的开源AI模型,上下文窗口80K tokens,支持流式输出和API调用。
80K文本对话低成本国产
DeepSeek-V3.1 — 开源对话模型SiliconFlow低成本DeepSeek-V3.1开源
DeepSeek-V3.1是通过SiliconFlow(硅基流动)平台提供的开源AI模型,DeepSeek V3,上下文窗口164K tokens,支持流式输出和API调用。
163.8K文本对话低成本国产
DeepSeek-R1 — 开源对话模型SiliconFlow低成本DeepSeek 思考开源
DeepSeek-R1是通过SiliconFlow(硅基流动)平台提供的开源AI模型,DeepSeek R1 reasoning model with chain-of-thought capabilities,上下文窗口164K tokens,支持流式输出和API调用。
163.8K文本对话低成本国产
Llama-3.3-70B-Instruct — 开源对话模型SiliconFlow低成本Llama-3.3开源
Llama-3.3-70B-Instruct是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Meta Llama 3,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 70B文本对话低成本国产
MiniMax-M2.5 — 开源对话模型SiliconFlow低成本MiniMax开源
MiniMax-M2.5是通过SiliconFlow(硅基流动)平台提供的开源AI模型,MiniMax M2,上下文窗口197K tokens,支持流式输出和API调用。
196.6K文本对话低成本国产
Kimi-K2-Instruct — 开源对话模型SiliconFlow低成本Kimi-K2开源
Kimi-K2-Instruct是通过SiliconFlow(硅基流动)平台提供的开源AI模型,上下文窗口131K tokens,支持流式输出和API调用。
131.1K文本对话低成本国产
Qwen3-Coder-480B-A35B — 开源对话模型SiliconFlowCode低成本Qwen3开源
Qwen3-Coder-480B-A35B是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Qwen3 Coder 480B A35B large code-focused MoE model,上下文窗口262K tokens,支持流式输出和API调用。
262.1K 480B (35B active)文本对话低成本国产
GPT OSS 20B — 超高速推理模型Groq低成本GPT开源
GPT OSS 20B是通过Groq LPU极速推理平台提供的开源AI模型,OpenAI open-weight 21B MoE model with 3,推理速度可达1000 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 1000~1000 t/s文本对话低成本大语言模型
GPT OSS Safeguard 20B — 超高速推理模型Groq低成本GPT开源
GPT OSS Safeguard 20B是通过Groq LPU极速推理平台提供的开源AI模型,Safety reasoning model from OpenAI for content classification and LLM filtering,推理速度可达1000 tokens/sec,
131.1K 1000~1000 t/s文本对话低成本大语言模型
Qwen3 32B — 超高速推理模型Groq低成本Qwen3开源
Qwen3 32B是通过Groq LPU极速推理平台提供的开源AI模型,Qwen3 32B dense model with strong multilingual and reasoning capabilities,推理速度可达662 tokens/sec,上下文窗口131K tokens,支持
131.1K 662~662 t/s文本对话低成本函数调用
Llama 3 8B — 超高速推理模型Groq低成本Llama-3开源
Llama 3 8B是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3 8B compact model for fast inference,推理速度可达1250 tokens/sec,上下文窗口8K tokens,支持流式输出和API调用。
8.2K 1250~1250 t/s文本对话低成本大语言模型
Llama 3 70B — 极速推理模型Groq低成本Llama-3开源
Llama 3 70B是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3 70B instruction-tuned model with 8K context,推理速度可达330 tokens/sec,上下文窗口8K tokens,支持流式输出和API调用。
8.2K 330~330 t/s文本对话低成本大语言模型
Seed-2.0-Lite — 开源对话模型SiliconFlowLite低成本Seed开源
Seed-2.0-Lite是通过SiliconFlow(硅基流动)平台提供的开源AI模型,ByteDance Seed 2,上下文窗口262K tokens,支持流式输出和API调用。
262.1K文本对话低成本国产
Step-3.5-Flash — 开源对话模型SiliconFlowFlash低成本Step开源
Step-3.5-Flash是通过SiliconFlow(硅基流动)平台提供的开源AI模型,StepFun Step 3,上下文窗口262K tokens,支持流式输出和API调用。
262.1K 196B (11B active)文本对话低成本国产
DeepSeek-V3.2 — 开源对话模型SiliconFlow低成本DeepSeek-V3.2开源
DeepSeek-V3.2是通过SiliconFlow(硅基流动)平台提供的开源AI模型,DeepSeek V3,上下文窗口164K tokens,支持流式输出和API调用。
163.8K文本对话低成本国产
Qwen3-235B-A22B-Thinking-2507 — 开源对话模型SiliconFlowThinking低成本Qwen3 思考开源
Qwen3-235B-A22B-Thinking-2507是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Qwen3 235B reasoning model optimized for complex multi-step thinking,上下文窗口131K tokens,支持流
131.1K 235B (22B active)文本对话低成本国产
GLM-5.1 — 开源对话模型SiliconFlow低成本GLM-5开源
GLM-5.1是通过SiliconFlow(硅基流动)平台提供的开源AI模型,GLM-5,上下文窗口205K tokens,支持流式输出和API调用。
205K文本对话低成本国产
GLM-4.7 — 开源对话模型SiliconFlow低成本GLM-4开源
GLM-4.7是通过SiliconFlow(硅基流动)平台提供的开源AI模型,GLM-4,上下文窗口203K tokens,支持流式输出和API调用。
202.8K文本对话低成本国产
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务