首页龙虾技能列表 › Ollama Integration — 本地 Ollama AI 模型集成

Ollama Integration — 本地 Ollama AI 模型集成

v1.0.0

集成和运行本地 Ollama AI 模型,支持自定义提示用于 AI 助理和自动模型管理。

1· 629·6 当前·6 累计
by @yrtrya5790343 (yrtryA5790343)·MIT-0
下载技能包
License
MIT-0
最后更新
2026/2/26
安全扫描
VirusTotal
无害
查看报告
OpenClaw
安全
high confidence
该技能的代码、指令和声明的要求与本地 Ollama 模型集成一致;没有请求无关的凭据或执行意外的网络/文件访问。
评估建议
该技能看起来像它声称的那样:一个围绕 'ollama' 客户端的薄包装,用于本地模型使用。安装前:1) 确认您本地运行 Ollama 服务并对暴露提示感到舒适。2) 确保您的平台将安装 npm 依赖项或预安装 'ollama' 包;注意 package.json 看起来有缺陷,可能需要修复。3) 如果您需要非常谨慎,审查第三方 'ollama' npm 包源(及其网络行为)。4) 除非您信任本地环境和模型对数据的处理,否则不要向模型提供机密或敏感数据。...
详细分析 ▾
用途与能力
名称/描述与代码匹配:该技能需要 'ollama' 库,并为本地 Ollama 模型公开了列出和生成/运行函数,这正是描述所承诺的。
指令范围
SKILL.md 最小化并专注于本地模型集成;实现仅调用 ollama.list() 和 ollama.generate(),不读取任意文件系统路径、环境变量或直接联系外部端点。
安装机制
没有明确的安装规格。package.json 声明对 npm 包 'ollama' 的依赖,这对于该功能是合适的,但 package.json 以非 JSON 样式编写,可能会在平台预期有效 JSON 或安装步骤时引起安装/运行时问题。该技能不从任意 URL 或其他高风险源拉取代码。
凭证需求
没有请求环境变量、凭据或配置路径。该技能的需求(本地 Ollama 客户端库)与其声明的目的成比例。
持久化与权限
该技能不请求 always:true 或其他高级持久性,并且不修改其他技能或系统范围的配置。默认启用自主调用(平台默认),这对于技能来说是预期的。
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

无特殊依赖

版本

latestv1.0.02026/2/26

Ollama 本地模型集成的初始发布

● 无害

安装命令 点击复制

官方npx clawhub@latest install ollama-integration
镜像加速npx clawhub@latest install ollama-integration --registry https://cn.clawhub-mirror.com

技能文档


name: ollama-integration description: Ollama local model integration for AI assistance type: skill version: 1.0.0 author: OpenClaw license: MIT

# Ollama Integration

该技能提供与本地 Ollama 模型的集成用于 AI 助理。

功能

  • 列出可用的 Ollama 模型
  • 使用自定义提示运行模型
  • 自动模型发现
  • 本地 AI 处理

用法

数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务