安全扫描
OpenClaw
安全
medium confidence技能要求与本地 Ollama + SQLite 记忆系统一致,但仅提供指令,引用未包含的脚本。运行前请审查脚本和工作空间。
评估建议
["技能如描述,但 SKILL.md 引用未包含的 Python 脚本,请在运行示例命令前获取和审查这些脚本。","安装和运行 Ollama 会下载模型 (~274MB) 并启动本地服务,请确认是否在您的机器上运行。","系统在 ~/.openclaw/workspace 存储敏感数据文件,限制文件系统权限,备份或加密如需。","运行 SKILL.md 命令前,请从官方源安装 Ollama,检查第三方脚本以确保不发送数据到外部端点。"]...详细分析 ▾
✓ 用途与能力
名称/描述(使用 Ollama + SQLite 的本地向量记忆)与声明的要求一致(python3、sqlite3 和 ollama)。请求的二进制文件和描述的工作流(拉取嵌入模型、运行本地服务器、使用 Python 脚本添加/搜索)与声明的目的一致。
ℹ 指令范围
SKILL.md 指示代理读取和更新 ~/.openclaw/workspace 下的文件(SOUL.md、USER.md、memory/*.md、MEMORY.md)并运行 ~/.openclaw/workspace/scripts/memory-system/下的 Python 脚本。这些文件读/写对于本地记忆系统是预期的,但技能不包含引用的脚本——指令假设外部代码存在。执行前,用户/代理应验证这些脚本的存在并审查它们以确保仅执行预期的本地操作(索引/搜索)并不传输数据到外部。
✓ 安装机制
技能中无安装规格(仅指令)。README 建议通过 Homebrew 安装 Ollama 并通过 Ollama 拉取 nomic-embed-text 模型——两者都是标准、合理的步骤。技能文本中不包含从未知个人服务器下载或提取/安装步骤。
✓ 凭证需求
技能不请求环境变量或凭证。其描述的行为(本地文件、本地模型)不需要外部秘密,因此请求的访问是合理的。注意:系统将读/写用户数据文件(位于主目录下),这些文件可能包含敏感信息。
ℹ 持久化与权限
技能不是始终启用,而是用户可调用(正常)。它期望写/读 ~/.openclaw/workspace 中的持久文件(记忆和配置文件)——对于记忆插件来说是合适的,但值得注意的是:持久的本地存储将包含敏感的用户数据,应保护(文件权限、备份)。
安全有层次,运行前请审查代码。
运行时依赖
无特殊依赖
版本
latestv1.0.02026/3/9
["首次发布本地向量记忆系统,基于 Ollama + SQLite 实现。","支持 Markdown 记录、向量语义搜索、本地 embedding,无 API 费用。","兼顾隐私与可读性,所有数据存储于本地,易于迁移和人工编辑。","提供每日记录、长期记忆、AI 人格等核心文件结构与自动化更新流程。","集成本地 Ollama embedding 模型和 Python 脚本,便捷添加与检索记忆。"]
● 无害
安装命令 点击复制
官方npx clawhub@latest install ollama-memory
镜像加速npx clawhub@latest install ollama-memory --registry https://cn.clawhub-mirror.com
技能文档
这是一个带本地向量搜索的 AI 助手记忆系统,基于 Markdown 文件 + SQLite 实现。
目录结构
tilde/.openclaw/workspace/
├── memory/
│ └── YYYY-MM-DD.md # 每日记录
├── MEMORY.md # 长期记忆(核心认知)
├── SOUL.md # AI 人格定义
├── USER.md # 用户信息
├── AGENTS.md # 工作规范
└── scripts/memory-system/ # 记忆系统脚本
核心文件
1. memory/YYYY-MM-DD.md
- 每日记录
# 2026-03-09
会话 1
- 主题:xxx
- 关键决策:xxx
- 待办:xxx
会话 2
- ...
2. MEMORY.md
- 长期记忆
- 核心工作原则
- 用户偏好
- 关键教训
- 禁止事项
- 习惯
向量搜索
使用本地 Ollama +nomic-embed-text 模型实现向量语义搜索。安装 Ollama 和模型
# 安装 Ollama
brew install ollama
# 启动服务
ollama serve
# 下载 embedding 模型
ollama pull nomic-embed-text
优势
| 特点 | 说明 |
|---|---|
| 本地向量 | 无 API 费用,离线可用 |
| 语义搜索 | 理解相似含义,不只是关键词 |
| 可读 | Markdown 人工可直接编辑 |
| 便携 | 文件复制即迁移 |
| 安全 | 本地存储,不上传云端 |
依赖
- Ollama: 本地 LLM 运行时
- nomic-embed-text: 本地 embedding 模型 (274MB)
- Python 3: 运行脚本
- SQLite: 向量存储
快速开始
# 1. 安装 Ollama
brew install ollama
# 2. 启动并下载模型
ollama serve
ollama pull nomic-embed-text
# 3. 初始化数据库
python3 ~/.openclaw/workspace/scripts/memory-system/context-memory.py init
# 4. 添加记忆
python3 ~/.openclaw/workspace/scripts/memory-system/context-memory.py add "用户偏好使用 Gemini" 8
# 5. 搜索记忆
python3 ~/.openclaw/workspace/scripts/memory-system/context-memory.py search "模型偏好"
数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制
免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制