标签: 对话
GPT OSS 20B — 超高速推理模型Groq低成本GPT开源
GPT OSS 20B是通过Groq LPU极速推理平台提供的开源AI模型,OpenAI open-weight 21B MoE model with 3,推理速度可达1000 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 1000~1000 t/s文本对话低成本大语言模型
GPT OSS Safeguard 20B — 超高速推理模型Groq低成本GPT开源
GPT OSS Safeguard 20B是通过Groq LPU极速推理平台提供的开源AI模型,Safety reasoning model from OpenAI for content classification and LLM filtering,推理速度可达1000 tokens/sec,
131.1K 1000~1000 t/s文本对话低成本大语言模型
Qwen3 32B — 超高速推理模型Groq低成本Qwen3开源
Qwen3 32B是通过Groq LPU极速推理平台提供的开源AI模型,Qwen3 32B dense model with strong multilingual and reasoning capabilities,推理速度可达662 tokens/sec,上下文窗口131K tokens,支持
131.1K 662~662 t/s文本对话低成本函数调用
Llama 3 70B — 极速推理模型Groq低成本Llama-3开源
Llama 3 70B是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3 70B instruction-tuned model with 8K context,推理速度可达330 tokens/sec,上下文窗口8K tokens,支持流式输出和API调用。
8.2K 330~330 t/s文本对话低成本大语言模型
Llama Guard 3 8B — 超高速推理模型Groq低成本Llama开源
Llama Guard 3 8B是通过Groq LPU极速推理平台提供的开源AI模型,Llama Guard 3 8B content safety classification model,推理速度可达765 tokens/sec,上下文窗口8K tokens,支持流式输出和API调用。
8.2K 765~765 t/s文本对话低成本大语言模型
MiMo-V2-Flash — 开源对话模型SiliconFlowFlash低成本MiMo开源
MiMo-V2-Flash是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Xiaomi MiMo V2 Flash open-source MoE model with 309B total, 15B active,上下文窗口262K tokens,支持流式输出和API调用。
262.1K 309B (15B active)文本对话低成本国产
Seed-2.0-Lite — 开源对话模型SiliconFlowLite低成本Seed开源
Seed-2.0-Lite是通过SiliconFlow(硅基流动)平台提供的开源AI模型,ByteDance Seed 2,上下文窗口262K tokens,支持流式输出和API调用。
262.1K文本对话低成本国产
Qwen3-14B — 免费对话模型SiliconFlow免费Qwen3开源
Qwen3-14B是通过SiliconFlow(硅基流动)平台提供的开源AI模型,完全免费使用,Qwen3 14B dense model, free on SiliconFlow,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 14B文本对话免费国产
Step-3.5-Flash — 开源对话模型SiliconFlowFlash低成本Step开源
Step-3.5-Flash是通过SiliconFlow(硅基流动)平台提供的开源AI模型,StepFun Step 3,上下文窗口262K tokens,支持流式输出和API调用。
262.1K 196B (11B active)文本对话低成本国产
DeepSeek-V3.2 — 开源对话模型SiliconFlow低成本DeepSeek-V3.2开源
DeepSeek-V3.2是通过SiliconFlow(硅基流动)平台提供的开源AI模型,DeepSeek V3,上下文窗口164K tokens,支持流式输出和API调用。
163.8K文本对话低成本国产
Qwen3-235B-A22B-Thinking-2507 — 开源对话模型SiliconFlowThinking低成本Qwen3 思考开源
Qwen3-235B-A22B-Thinking-2507是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Qwen3 235B reasoning model optimized for complex multi-step thinking,上下文窗口131K tokens,支持流
131.1K 235B (22B active)文本对话低成本国产
GLM-4.7-Flash — 免费对话模型SiliconFlowFlash免费GLM-4开源
GLM-4.7-Flash是通过SiliconFlow(硅基流动)平台提供的开源AI模型,完全免费使用,GLM-4,上下文窗口203K tokens,支持流式输出和API调用。
202.8K文本对话免费国产
GLM-5.1 — 开源对话模型SiliconFlow低成本GLM-5开源
GLM-5.1是通过SiliconFlow(硅基流动)平台提供的开源AI模型,GLM-5,上下文窗口205K tokens,支持流式输出和API调用。
205K文本对话低成本国产
GLM-4.7 — 开源对话模型SiliconFlow低成本GLM-4开源
GLM-4.7是通过SiliconFlow(硅基流动)平台提供的开源AI模型,GLM-4,上下文窗口203K tokens,支持流式输出和API调用。
202.8K文本对话低成本国产
Kimi K2 0905 — 极速推理模型Groq中等Kimi-K2开源
Kimi K2 0905是通过Groq LPU极速推理平台提供的开源AI模型,推理速度可达200 tokens/sec,上下文窗口262K tokens,支持流式输出和API调用。
262.1K 200~200 t/s文本对话标准大语言模型
Whisper Large V3 — 极速推理模型Groq低成本Whisper开源
Whisper Large V3是通过Groq LPU极速推理平台提供的开源AI模型,OpenAI Whisper Large V3 speech recognition model with 217x speed factor,支持流式输出和API调用。
文本对话低成本大语言模型
Whisper Large V3 Turbo — 极速推理模型GroqTurbo低成本Whisper开源
Whisper Large V3 Turbo是通过Groq LPU极速推理平台提供的开源AI模型,OpenAI Whisper Large V3 Turbo with 228x speed factor for faster transcription,支持流式输出和API调用。
文本对话低成本大语言模型
Llama 3 8B — 超高速推理模型Groq低成本Llama-3开源
Llama 3 8B是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3 8B compact model for fast inference,推理速度可达1250 tokens/sec,上下文窗口8K tokens,支持流式输出和API调用。
8.2K 1250~1250 t/s文本对话低成本大语言模型
Mistral-Large-2411 — 开源对话模型Together AI中等Mistral开源
Mistral-Large-2411是通过Together AI平台提供的开源AI模型,上下文窗口128K tokens,支持流式输出和API调用。
128K文本对话标准函数调用
GLM-5-0805 — 开源对话模型Together AI低成本GLM-5开源
GLM-5-0805是通过Together AI平台提供的开源AI模型,GLM-5 is a powerful open-source language model from Zhipu AI,上下文窗口80K tokens,支持流式输出和API调用。
80K文本对话低成本函数调用
OpenClaw 技能定制 / 插件定制 / 私有工作流定制
免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制