Ollama Integration — 本地 Ollama AI 模型集成
v1.0.0集成和运行本地 Ollama AI 模型,支持自定义提示用于 AI 助理和自动模型管理。
1· 629·6 当前·6 累计
安全扫描
OpenClaw
安全
high confidence该技能的代码、指令和声明的要求与本地 Ollama 模型集成一致;没有请求无关的凭据或执行意外的网络/文件访问。
评估建议
该技能看起来像它声称的那样:一个围绕 'ollama' 客户端的薄包装,用于本地模型使用。安装前:1) 确认您本地运行 Ollama 服务并对暴露提示感到舒适。2) 确保您的平台将安装 npm 依赖项或预安装 'ollama' 包;注意 package.json 看起来有缺陷,可能需要修复。3) 如果您需要非常谨慎,审查第三方 'ollama' npm 包源(及其网络行为)。4) 除非您信任本地环境和模型对数据的处理,否则不要向模型提供机密或敏感数据。...详细分析 ▾
✓ 用途与能力
名称/描述与代码匹配:该技能需要 'ollama' 库,并为本地 Ollama 模型公开了列出和生成/运行函数,这正是描述所承诺的。
✓ 指令范围
SKILL.md 最小化并专注于本地模型集成;实现仅调用 ollama.list() 和 ollama.generate(),不读取任意文件系统路径、环境变量或直接联系外部端点。
ℹ 安装机制
没有明确的安装规格。package.json 声明对 npm 包 'ollama' 的依赖,这对于该功能是合适的,但 package.json 以非 JSON 样式编写,可能会在平台预期有效 JSON 或安装步骤时引起安装/运行时问题。该技能不从任意 URL 或其他高风险源拉取代码。
✓ 凭证需求
没有请求环境变量、凭据或配置路径。该技能的需求(本地 Ollama 客户端库)与其声明的目的成比例。
✓ 持久化与权限
该技能不请求 always:true 或其他高级持久性,并且不修改其他技能或系统范围的配置。默认启用自主调用(平台默认),这对于技能来说是预期的。
安全有层次,运行前请审查代码。
运行时依赖
无特殊依赖
版本
latestv1.0.02026/2/26
Ollama 本地模型集成的初始发布
● 无害
安装命令 点击复制
官方npx clawhub@latest install ollama-integration
镜像加速npx clawhub@latest install ollama-integration --registry https://cn.clawhub-mirror.com
技能文档
name: ollama-integration description: Ollama local model integration for AI assistance type: skill version: 1.0.0 author: OpenClaw license: MIT
# Ollama Integration
该技能提供与本地 Ollama 模型的集成用于 AI 助理。
功能
- 列出可用的 Ollama 模型
- 使用自定义提示运行模型
- 自动模型发现
- 本地 AI 处理
用法
数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制
免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制