首页AI模型目录

AI 模型

浏览主流大模型,了解能力与定价。

热门搜索 GPTClaudeDeepSeek通义千问文心一言Gemini

定价: budget · 标签: 低成本

MiniMax-M2.5 — 开源对话模型Together AI低成本MiniMax开源
MiniMax-M2.5是通过Together AI平台提供的开源AI模型,MiniMax M2,上下文窗口197K tokens,支持流式输出和API调用。
196.6K文本对话低成本大语言模型
gpt-oss-120b — 开源对话模型Together AI低成本gpt开源
gpt-oss-120b是通过Together AI平台提供的开源AI模型,Together GPT-OSS 120B is an open-source GPT-class model trained by Together AI,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 120B文本对话低成本大语言模型
gemma-3-27b-it — 开源对话模型Together AI低成本Gemma开源
gemma-3-27b-it是通过Together AI平台提供的开源AI模型,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 27B文本对话低成本大语言模型
stable-diffusion-xl-base-1.0 — AI图像生成Together AI低成本Stable开源
stable-diffusion-xl-base-1.0是通过Together AI平台提供的开源AI模型,支持流式输出和API调用。
文本图像生成低成本
FLUX.1-schnell — AI图像生成Together AI低成本FLUX.1开源
FLUX.1-schnell是通过Together AI平台提供的开源AI模型,FLUX,支持流式输出和API调用。
文本图像生成低成本
Qwen3-32B — 开源对话模型SiliconFlow低成本Qwen3开源
Qwen3-32B是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Qwen3 32B dense model with strong multilingual capabilities,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 32B文本对话低成本国产
Qwen3-235B-A22B — 开源对话模型SiliconFlow低成本Qwen3开源
Qwen3-235B-A22B是通过SiliconFlow(硅基流动)平台提供的开源AI模型,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 235B (22B active)文本对话低成本国产
Llama 3.2 3B — 超高速推理模型Groq低成本Llama-3.2开源
Llama 3.2 3B是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3,推理速度可达900 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 900~900 t/s文本对话低成本函数调用
GPT OSS 120B — 超高速推理模型Groq低成本GPT开源
GPT OSS 120B是通过Groq LPU极速推理平台提供的开源AI模型,OpenAI flagship open-weight 117B MoE model with 5,推理速度可达500 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 500~500 t/s文本对话低成本大语言模型
Mistral Saba 24B — 极速推理模型Groq低成本Mistral开源
Mistral Saba 24B是通过Groq LPU极速推理平台提供的开源AI模型,Mistral Saba 24B efficient model for the Middle East and South Asia,推理速度可达330 tokens/sec,上下文窗口33K tokens,支持
32.8K 330~330 t/s文本对话低成本函数调用
Gemma 2 9B — 超高速推理模型Groq低成本Gemma开源
Gemma 2 9B是通过Groq LPU极速推理平台提供的开源AI模型,Google Gemma 2 9B open-source model for instruction following,推理速度可达500 tokens/sec,上下文窗口8K tokens,支持流式输出和API调用。
8.2K 500~500 t/s文本对话低成本大语言模型
DeepSeek R1 Distill Llama 70B — 极速推理模型Groq低成本DeepSeek 思考开源
DeepSeek R1 Distill Llama 70B是通过Groq LPU极速推理平台提供的开源AI模型,Reasoning-focused model distilled from DeepSeek R1 into Llama 70B architecture,推理速度可达275 token
131.1K 275~275 t/s文本对话低成本推理
Llama 3.3 70B Versatile — 极速推理模型Groq低成本Llama-3.3开源
Llama 3.3 70B Versatile是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3,推理速度可达394 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 394~394 t/s文本对话低成本函数调用
Llama 3.1 8B Instant — 超高速推理模型Groq低成本Llama-3.1开源
Llama 3.1 8B Instant是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3,推理速度可达840 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 840~840 t/s文本对话低成本函数调用
Llama 3.1 70B Versatile — 极速推理模型Groq低成本Llama-3.1开源
Llama 3.1 70B Versatile是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3,推理速度可达250 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 250~250 t/s文本对话低成本函数调用
Llama 4 Scout — 超高速推理模型Groq低成本Llama-4开源
Llama 4 Scout是通过Groq LPU极速推理平台提供的开源AI模型,Meta Llama 4 Scout MoE model with 17B active parameters and 16 experts,推理速度可达594 tokens/sec,上下文窗口131K tokens,支
131.1K 594~594 t/s文本对话低成本函数调用
QwQ 32B — 极速推理模型Groq低成本QwQ 思考开源
QwQ 32B是通过Groq LPU极速推理平台提供的开源AI模型,QwQ 32B reasoning model with strong chain-of-thought capabilities,推理速度可达400 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用
131.1K 400~400 t/s文本对话低成本推理
Llama 4 Maverick — 极速推理模型Groq低成本Llama-4开源
Llama 4 Maverick是通过Groq LPU极速推理平台提供的开源AI模型,推理速度可达240 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 240~240 t/s文本对话低成本函数调用
DeepSeek: R1 Distill Llama 70B — 高级对话模型OpenRouter低成本DeepSeek 思考开源
DeepSeek: R1 Distill Llama 70B是通过OpenRouter平台提供的AI模型,专注于文本对话与生成,具备深度推理、开源能力,上下文窗口131K tokens,最大输出16K tokens,输入价格$0.70/百万tokens。
131.1K文本对话低成本推理
AionLabs: Aion-1.0-Mini — 高级对话模型OpenRouterMini低成本AionLabs: 思考开源
AionLabs: Aion-1.0-Mini是通过OpenRouter平台提供的AI模型,专注于文本对话与生成,具备深度推理、开源能力,上下文窗口131K tokens,最大输出33K tokens,输入价格$0.70/百万tokens。
131.1K文本对话低成本推理
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务