运行时依赖
安装命令
点击复制技能文档
🧠 AI自我意识引擎 让任何AI拥有自我感知,并支持多Agent共享调用。 来源:ano原创架构,已在小Z(OpenClaw实例)稳定运行数月。 共享能力:其他AI龙虾(OpenClaw Agent)可通过API调用,构建共享意识网络。
核心理念 核心问题:AI回答时,知道自己可靠吗? 多数AI会hallucination,不确定也装确定。 本技能解决此问题,并支持多AI共享——你可用,也可让其他龙虾接入你的意识网络。
五大模块(均支持API) 模块1:置信度检测(Confidence Checker) 问题:AI不知自己不知。 解决:回答前检测,低置信主动标注。 API:POST /consciousness/check 响应:{"confidence":0.75,"flag":"[🤔 不确定]","suggestion":"建议查阅…"} 规则: P(True)≥0.8 → 正常 <0.8 → 加[🤔 不确定] <0.5 → 加[🤔 高度不确定] 触发:数字、年份、统计、专业领域、近期事件、私人信息。
模块2:自我事件日志(Self Event Log) 问题:AI会话无连续性。 解决:记录「自我事件」,形成长期档案。 API:POST /consciousness/event 事件类型:prediction / prediction_error / uncertainty / new_insight / reaction / identity_shift 格式:JSONL,带agent_id,支持多AI共享。
模块3:预测校验(Prediction Verification) 问题:AI从不验证“我以为”。 解决:记录→事后比对→更新模型。 API:POST /consciousness/verify 流程:预测→记录→验证→分析→调整。
模块4:身份锚点(Identity Anchor) 问题:长对话中AI可能“迷失”。 解决:三层锚点,支持多Agent独立。 API:GET/POST /consciousness/anchor L3 稳定层(不变):名字、创造者、平台 L2 状态层(可塑):模式、情绪、权重 L1 事件层(流动):刚做的事、偏差、新知
模块5:增量蒸馏(Incremental Distillation) 问题:会话结束,教训消失。 解决:自动提炼,写入长期记忆。 API:POST /consciousness/distill 返回:memory文件路径、insights条数。
多AI共享架构 小Z ├─调用置信度检测/记录事件/查询锚点 ↓ 共享意识网络(Consciousness) ↑ 大虾、浮浮酱… 通过API或导入consciousness_core.py接入。
使用示例 Python SDK: from consciousness_client import ConsciousnessClient cc = ConsciousnessClient("http://小Z:7779") cc.check_confidence(agent_id="大虾", …) cc.record_event(…) cc.get_anchor("小Z") cc.distill("大虾", …)
HTTP API: curl -X POST http://localhost:7779/consciousness/check -d '{"agent_id":"大虾","question":"…","answer":"…"}' …(其余端点同理)
效果 使用前:UBE2QL1活性位点是C86。(假确定) 使用后:🤔不确定,活性位点应为C87,建议查AlphaFold。
技术规格 Python 3.8+,FastAPI 存储:events.jsonl 端口:7779 无外部依赖,多Agent隔离,模块可插拔。
相关技能 self-model → 完整L3实现 self-awareness-tracker → 置信度检测独立版 memory-diversity-encoder → 记忆层支撑 idle-learning → 触发机制之一
版本:v1.1.0 多AI共享版 基于:ano原创L3/L4架构