Context-Keeper Logo

# Context-Keeper **基于LLM驱动的智能记忆与上下文管理系统** *重新定义AI助手的记忆边界,让每一次对话都有意义*

GitHub Stars License Go Version MCP Protocol

English | 简体中文

--- ## 📋 **目录导航** - [🎯 为什么选择Context-Keeper?](#1-ai时代的开发困境当智能工具遇到记忆断层) - [🎯 核心特性](#2-核心特性) - [🏗️ 架构设计](#3-架构设计) - [📖 部署与集成](#4-部署与集成) - [🗺️ 产品发展路线图](#5-产品发展路线图) - [🤝 贡献指南](#6-贡献指南) --- ## 1. AI时代的开发困境:当智能工具遇到记忆断层 > **"还记得昨天讨论的微服务架构方案吗?"** → "抱歉,我不记得..." → 😤 ### 📊 **四维痛点:你是哪一种?**
| | 👤 **个人开发者** | 👥 **团队Leader** | 🏗️ **项目经理** | 🏢 **企业高管** | |------|-----------------|----------------|----------------|----------------| | **💔 核心痛点** | 🔄 **每天重复解释**项目背景给AI
🧠 **上下文丢失**:AI无法理解开发意图
🌀 **重复劳动**:相似问题反复解决 | 📚 **知识断层**:老员工经验无法传承
💬 **沟通成本高**:反复解释相同问题
🚫 **决策延迟**:缺乏历史上下文参考 | 🔧 **技术债务**:历史决策原因不明
⏱️ **项目延期**:新人上手周期长
📋 **文档滞后**:代码与文档不同步 | 💸 **人才流失**:核心知识随人员离职
📈 **ROI下降**:跨项目最佳实践难复用
🎯 **竞争劣势**:创新速度被拖慢 | | **⚡ 直接影响** | **🔥30%开发时间浪费** | **📉团队效率下降40%** | **💰项目成本超预算2x** | **⏰人才培养成本6-12个月** |
### 🔥 **行业现状数据** - 📊 **50%开发者**每天重复解释项目背景给AI助手 - 💰 **平均成本**:替换一个资深工程师需要6-12个月 - ⏱️ **时间损失**:新人完全熟悉复杂项目需要3-6个月 - 🔄 **重复工作**:团队中30-40%的技术问题是重复性的 **核心问题**:AI工具缺乏持续记忆能力,无法形成智能的知识积累和传承体系。面对这些困境,我们需要的不是另一个记忆工具,而是一个真正理解开发者意图的智能大脑。🚀 **Context-Keeper:突破传统边界的智能解决方案** --- ## 2. 核心特性 ```mermaid %%{init: {'theme':'base', 'themeVariables': {'fontSize':'16px', 'fontFamily':'Arial, sans-serif'}}}%% graph LR subgraph Stage1["🔍 多维宽召回
(高覆盖率)"] A1("语义检索
TOP-50") A2("时间线检索
TOP-30") A3("知识图谱
TOP-20") A1 --> A4("候选集
~100条") A2 --> A4 A3 --> A4 end subgraph Stage2["🧠 LLM精排序
(高准确率)"] A4 --> B1("LLM智能分析") B1 --> B2("质量评估") B2 --> B3("相关性排序") B3 --> B4("TOP-N
精准结果") end subgraph Stage3["🎯 多维融合
(个性化输出)"] B4 --> C1("语义维度") B4 --> C2("时间维度") B4 --> C3("知识维度") C1 --> C4("智能融合引擎") C2 --> C4 C3 --> C4 C4 --> C5("个性化方案") end style Stage1 fill:#e3f2fd,stroke:#e2e8f0,stroke-width:1px,rx:8,ry:8 style Stage2 fill:#fff3e0,stroke:#e2e8f0,stroke-width:1px,rx:8,ry:8 style Stage3 fill:#e8f5e9,stroke:#e2e8f0,stroke-width:1px,rx:8,ry:8 ``` ### 🚀 **三大核心突破** | 突破点 | 传统方案痛点 | **Context-Keeper解决方案** | 核心优势 | |-------|------------|-------------------------|---------| | **🧠 智能推理** | 机械匹配,无法理解意图 | **LLM深度推理**:理解开发场景和项目上下文 | 准确率75%+ | | **⚡ 宽召回+精排序** | 召回率与准确率矛盾 | **两阶段架构**:宽召回(100条) → 精排序(TOP-N) | 覆盖率80%+ | | **🎯 多维融合** | 单一语义检索,信息孤立 | **三维记忆空间**:语义+时间+**知识图谱**深度融合 | 关联发现率3倍提升 | ### 🎯 **业务价值** #### **对开发团队的价值** | 应用场景 | 开发者问题 | Context-Keeper智能响应 | 价值体现 | |---------|-----------|----------------------|---------| | **架构决策回顾** | "为什么选择微服务而非单体?" | 基于3月15日技术评审记录的详细分析 | 🧠 **历史智慧复用** | | **Bug修复复用** | "类似性能问题怎么解决?" | 发现2个相关案例并提供解决方案 | ⚡ **经验快速复用** | | **技术选型参考** | "Redis集群配置最佳实践?" | 项目历史配置+业界最佳实践对比 | 🎯 **决策支持优化** | #### **对企业的价值** - 📈 **开发效率提升**: 减少重复性解释和讨论 - 💰 **人力成本节省**: 新员工培训时间大幅度缩短 - 🎯 **决策质量提升**: 基于历史经验的智能建议 - 🔄 **知识资产积累**: 团队智慧的系统性沉淀 --- ## 3. 架构设计 Context-Keeper目前经历了两个版本的迭代: #### **🧠 一期核心设计** **📚 长短期记忆分层设计** - **短期记忆**:存储完整的近期对话,使用本地文件系统,保证高速访问 - **长期记忆**:存储关键信息摘要,使用向量数据库永久保存 - **渐进式压缩**:信息从短期记忆的详细记录逐步转化为长期记忆的语义摘要 **👤 用户隔离与个性化** - **会话隔离**:每个用户拥有独立的会话空间,确保数据安全和隐私保护 - **工作空间隔离**:不同项目/工作空间的上下文完全隔离,避免信息串扰 - **个性化记忆策略**:根据用户工作风格自动调整记忆阈值和摘要策略 - **跨会话知识传递**:在同一用户的不同会话间建立智能关联 **🔄 记忆与批次管理机制** - **记忆ID (memoryID)**:用户视角的"完整记忆",对应一个工作任务或主题 - **批次ID (batchID)**:系统视角的"存储单元",对应连续对话片段 - **智能重要性评估**:自动识别关键决策点,确保核心内容永久保存 #### **🚀 二期LLM驱动升级** Context-Keeper基于**LLM驱动的智能上下文记忆管理系统**,在一期基础上实现了两个关键突破: 🧠 **LLM驱动的宽召回+精排序架构** - 构建"意图理解 → 宽召回 → 精排序 → 智能合成"的LLM驱动架构 ⭐️ **智能上下文管理** - 四维统一上下文模型+LLM驱动的全生命周期智能管理 --- ### 🧠 **3.1 LLM驱动的宽召回+精排序架构** #### **🏗️ 架构图**
LLM驱动的宽召回+精排序架构图
#### **⏱️ 时序图** ```mermaid sequenceDiagram participant User as 👤 用户 participant LLM1 as 🧠 LLM阶段一 participant MDRE as 🔍 多维检索引擎 participant LLM2 as 🧠 LLM阶段二 participant Context as 🌟 上下文管理 User->>LLM1: "回忆项目架构设计" LLM1->>LLM1: 🎯 意图分析
核心意图+领域上下文+应用场景 LLM1->>MDRE: 检索策略+查询改写 par 宽召回阶段 MDRE->>MDRE: 向量检索:架构语义 MDRE->>MDRE: 时间线检索:设计讨论 MDRE->>MDRE: 知识图谱:架构关联 end MDRE->>LLM2: 候选集 (~100条) LLM2->>LLM2: 🧠 精排序
质量评估+相关性排序 LLM2->>Context: 结构化合成 Context->>User: ✅ 个性化架构方案 ``` #### **📋 架构核心特性** | 层级 | 核心能力 | 技术实现 | 性能优势 | |------|---------|---------|---------| | **🧠 智能层** | 两阶段LLM协同推理 | 意图分析+智能合成分工 | **准确率75%** | | **🔍 检索层** | 多维宽召回+精排序 | 语义+时间+**图谱混合检索** | **召回率80%+** | | **⭐️ 管理层** | 智能上下文管理 | 四维协同+实时同步 | **响应<500ms** | ### 📋 **3.2 智能上下文管理** Context-Keeper构建了**四维统一上下文模型**作为上下文信息的载体,通过LLM驱动的智能管理机制,实现上下文从初始构建→填充完善→智能分析&更新上下文(循环往复)的全生命周期管理 **核心设计**: - 🏗️ **统一上下文模型**:四维协同的数据存储基石 - 🔄 **智能管理过程**:LLM驱动的全生命周期管理机制 - ⚡️ **实时变更感知**:语义级别的上下文变化检测与更新 #### **🏗️ 智能上下文管理分层架构**
LLM驱动的宽召回+精排序架构图
#### **⏱️ 智能上下文管理时序** ```mermaid sequenceDiagram participant User as 👤 用户 participant SessionMgmt as 🚀 会话管理工具 participant RetrieveCtx as 🔍 上下文检索工具 participant StoreConv as 💾 对话存储工具 participant AssocFile as 📝 文件关联工具 participant Context as ⭐️ 上下文管理 participant LLM1 as 🧠 LLM阶段一 participant MDRE as 🔍 多维检索 participant LLM2 as 🧠 LLM阶段二 participant Storage as 💾 存储层 Note over User,Storage: 🆕 初始构建(首次会话) User->>SessionMgmt: session_management(get_or_create) SessionMgmt->>SessionMgmt: 工程感知分析
技术栈·架构·依赖识别 SessionMgmt->>Context: 触发初始构建管理 Context->>Context: 创建ProjectContext
构建统一上下文模型基础 Context->>Storage: 持久化ProjectContext Note over User,Storage: 🔍 填充完善(首次检索) User->>RetrieveCtx: retrieve_context(query, sessionId) RetrieveCtx->>Context: 获取当前上下文 Context-->>RetrieveCtx: 返回ProjectContext RetrieveCtx->>LLM1: 用户查询+上下文 LLM1->>LLM1: 意图理解+查询改写 LLM1->>MDRE: 宽召回指令 par 宽召回并行检索 MDRE->>MDRE: 向量检索 MDRE->>MDRE: 时间线检索 MDRE->>MDRE: 知识图谱检索 end MDRE->>LLM2: 候选集数据 LLM2->>Context: 获取当前上下文进行比对 Context-->>LLM2: ProjectContext(其他维度待填充) LLM2->>LLM2: 🧠 语义比对+精排序合成 LLM2->>Context: 触发填充完善管理 Context->>Context: 完整构建TopicCtx+ConvCtx
(CodeCtx由代码变更触发) Context->>Storage: 持久化完整上下文模型 RetrieveCtx->>User: 返回智能合成结果 Note over User,Storage: 🔄 变更管理(后续所有交互) loop 标准SOP循环:每次MCP工具调用 alt 检索触发 User->>RetrieveCtx: retrieve_context(query, sessionId) RetrieveCtx->>Context: 获取当前上下文 Context-->>RetrieveCtx: 完整四维上下文 RetrieveCtx->>LLM1: 查询+上下文 LLM1->>MDRE: 宽召回 MDRE->>LLM2: 候选集 LLM2->>Context: 语义比对+变更检测 else 存储触发 User->>StoreConv: store_conversation(messages, sessionId) StoreConv->>Context: 获取当前上下文 Context->>Context: 基于当前上下文进行变更检测 else 代码变更触发 User->>AssocFile: associate_file(filePath, sessionId) AssocFile->>Context: 获取当前上下文 Context->>Context: 结合主题上下文更新CodeContext end Context->>Context: 🎯 变更检测管理
当前上下文 vs 新数据 alt 检测到语义变更 Context->>Context: ⚡️ 智能更新管理
增量变更+冲突解决 Context->>Storage: 持久化变更 else 无变更 Context->>Context: 保持当前状态 end alt 检索触发 RetrieveCtx->>User: 返回检索结果 else 存储触发 StoreConv->>User: 返回存储确认 else 代码变更触发 AssocFile->>User: 返回关联确认 end end ``` **🔥 管理机制核心优势**: - ✅ **统一存储基石**:四维统一上下文模型作为所有管理操作的数据基础 - ✅ **全生命周期覆盖**:从初始构建→填充完善→循环变更的完整管理链路 - ✅ **LLM智能驱动**:每个管理环节都有LLM参与决策,非传统规则引擎 - ✅ **实时变更感知**:基于语义分析的上下文变化检测 - ✅ **无冲突合并**:LLM驱动的智能冲突解决和优先级仲裁 --- ## 4. 部署与集成 ### 🛠️ **前置准备** 在部署Context-Keeper之前,需要准备以下基础设施: #### **📊 多维存储基础设施** **1. 向量数据库(必需)** 我们设计了统一的向量存储接口,**可按照开发者/企业需要自行扩展**,支持多种向量数据库: - **阿里云DashVector**:可在阿里云控制台快速申请 - **京东云Vearch**:可在京东云快速申请 - **自定义实现扩展**:基于统一接口可扩展实现其他向量存储(如Milvus、Weaviate等) ```bash # 配置示例(二选一) # 选项1:使用阿里云DashVector VECTOR_STORE_TYPE=aliyun VECTOR_DB_URL=https://your-instance.dashvector.cn-hangzhou.aliyuncs.com VECTOR_DB_API_KEY=your-dashvector-api-key # 选项2:使用京东云Vearch VECTOR_STORE_TYPE=vearch VEARCH_URL=http://your-vearch-instance.jd.local VEARCH_USERNAME=your-username VEARCH_PASSWORD=your-password ``` **2. 时序数据库(必须)** 自行安装:**TimescaleDB/PostgreSQL**(用于时间线存储) **3. 图数据库(必须)** 自行安装:**Neo4j**(用于知识图谱和关联分析) **4. LLM模型配置(必须)** 我们支持本地和云端大模型配置,**灵活满足不同场景需求**: **🏠 本地模型(推荐)** - 基于**Ollama**框架,响应快、成本低、数据安全 - 安装Ollama:`curl -fsSL https://ollama.ai/install.sh | sh` - 按需安装模型:`ollama pull deepseek-coder-v2:16b` - 支持模型:CodeQwen、DeepSeek Coder、Llama等 **☁️ 云端模型(备用)** - 申请对应LLM厂商的API密钥即可 - 支持:OpenAI、DeepSeek、Claude、通义千问等 - 配置简单,按需调用 ### **5分钟快速开始** #### **环境要求** - Go 1.21+ - 4GB+ 内存 - 支持Docker环境(可选) #### **一键本地部署** ```bash # 1. 获取Context-Keeper git clone https://github.com/redleaves/context-keeper.git cd context-keeper # 2. 环境配置(重要!) cp config/env.template config/.env # 编辑配置文件,填入必要参数 vim config/.env ``` ### ⚙️ **详细参数配置** #### **真实配置文件说明** 基于项目实际的 `config/.env` 配置文件: ```bash # ================================= # 基础服务配置 # ================================= SERVICE_NAME=context-keeper # 服务名称 PORT=8088 # HTTP服务端口 DEBUG=false # 调试模式 STORAGE_PATH=./data # 数据存储路径 # ================================= # 向量存储配置(必需) # ================================= # 向量存储类型: aliyun | vearch VECTOR_STORE_TYPE=aliyun # 支持阿里云DashVector和京东云Vearch # 阿里云DashVector配置 VECTOR_DB_URL=https://your-instance.dashvector.cn-hangzhou.aliyuncs.com VECTOR_DB_API_KEY=your-dashvector-api-key VECTOR_DB_COLLECTION=context_keeper VECTOR_DB_DIMENSION=1536 SIMILARITY_THRESHOLD=0.4 # 京东云Vearch配置(可选替代) VEARCH_URL=http://your-vearch-instance.jd.local VEARCH_USERNAME=root VEARCH_PASSWORD=your-password VEARCH_DATABASE=db VEARCH_REQUIRED_SPACES=context_keeper_vector,context_keeper_users # ================================= # Embedding服务配置(必需) # ================================= EMBEDDING_API_URL=https://dashscope.aliyuncs.com/compatible-mode/v1/embeddings EMBEDDING_API_KEY=your-dashscope-api-key # 批量Embedding配置 BATCH_EMBEDDING_API_URL=https://dashscope.aliyuncs.com/api/v1/services/embeddings/text-embedding/text-embedding BATCH_QUEUE_SIZE=100 BATCH_WORKER_POLL_INTERVAL=5s # ================================= # LLM配置(重点:支持本地和云端模型) # ================================= # 🌟 支持本地和云端模型,本地模型响应快、灵活,适合语义分析和识别 LLM_PROVIDER=ollama_local # 默认使用本地模型 LLM_MODEL=deepseek-coder-v2:16b # 本地代码理解模型 LLM_MAX_TOKENS=80000 # 最大Token数 LLM_TEMPERATURE=0.1 # 温度参数(精确分析) LLM_TIMEOUT_SECONDS=600 # 超时时间 # 云端模型API Keys(备用) DEEPSEEK_API_KEY=your-deepseek-key # DeepSeek云端API OPENAI_API_KEY=your-openai-key # OpenAI API CLAUDE_API_KEY=your-claude-key # Claude API # 时间线存储(TimescaleDB/PostgreSQL) TIMELINE_STORAGE_ENABLED=true TIMESCALEDB_HOST=localhost TIMESCALEDB_PORT=5432 TIMESCALEDB_DATABASE=context_keeper_timeline TIMESCALEDB_USERNAME=your-username TIMESCALEDB_PASSWORD=your-password # 知识图谱存储(Neo4j) KNOWLEDGE_GRAPH_ENABLED=true NEO4J_URI=bolt://localhost:7687 NEO4J_USERNAME=neo4j NEO4J_PASSWORD=your-neo4j-password NEO4J_DATABASE=neo4j # ================================= # 会话管理配置 # ================================= SESSION_TIMEOUT=120m # 会话超时时间(分钟) CLEANUP_INTERVAL=30m # 清理任务间隔 SHORT_MEMORY_MAX_AGE=3 # 短期记忆保留天数 ``` #### **LLM模型选择配置** 基于项目实际的 `config/llm_config.yaml` 配置文件: **🌟 重点特性:支持本地和云端模型,本地模型响应快、灵活,特别适合语义分析和识别任务** ```yaml llm: default: primary_provider: "ollama_local" # 🔥 优先使用本地模型 fallback_provider: "deepseek" # 云端模型作为备用 providers: # 🏠 本地模型配置(推荐) ollama_local: base_url: "http://localhost:11434" model: "deepseek-coder-v2:16b" # 默认本地模型 timeout: "60s" # 本地响应更快 rate_limit: 0 # 无限流限制 available_models: # 支持多种本地模型 - "codeqwen:7b" # 代码生成专用 - "deepseek-coder:33b" # 高性能代码模型 - "deepseek-coder-v2:16b" # 新一代代码模型 # ☁️ 云端模型配置(备用) deepseek: api_key: "${DEEPSEEK_API_KEY}" model: "deepseek-chat" timeout: "120s" rate_limit: 6000 openai: api_key: "${OPENAI_API_KEY}" model: "gpt-3.5-turbo" claude: api_key: "${CLAUDE_API_KEY}" model: "claude-3-sonnet-20240229" ``` #### **配置参数详解** | 参数分类 | 参数名 | 必需 | 说明 | 默认值 | |---------|--------|------|------|--------| | **基础服务** | `SERVICE_NAME` | ✅ | 服务名称 | `context-keeper` | | | `PORT` | ✅ | HTTP服务监听端口 | `8088` | | | `STORAGE_PATH` | ✅ | 数据存储目录 | `./data` | | **向量存储** | `VECTOR_STORE_TYPE` | ✅ | 向量数据库类型:aliyun/vearch | `aliyun` | | | `VECTOR_DB_URL` | ✅ | 阿里云DashVector地址 | - | | | `VECTOR_DB_API_KEY` | ✅ | DashVector API密钥 | - | | | `VEARCH_URL` | ❌ | 京东云Vearch地址 | - | | | `VEARCH_USERNAME` | ❌ | Vearch用户名 | `root` | | **Embedding** | `EMBEDDING_API_URL` | ✅ | 阿里云嵌入服务地址 | DashScope API | | | `EMBEDDING_API_KEY` | ✅ | DashScope API密钥 | - | | **LLM模型** | `LLM_PROVIDER` | ✅ | LLM提供商:ollama_local/deepseek/openai | `ollama_local` | | | `LLM_MODEL` | ✅ | 使用的模型名称 | `deepseek-coder-v2:16b` | | | `LLM_MAX_TOKENS` | ❌ | 最大Token数 | `80000` | | **时序存储** | `TIMELINE_STORAGE_ENABLED` | ✅ | 是否启用TimescaleDB | `true` | | | `TIMESCALEDB_HOST` | ✅ | PostgreSQL主机地址 | `localhost` | | | `TIMESCALEDB_DATABASE` | ✅ | 数据库名称 | `context_keeper_timeline` | | **图数据库** | `KNOWLEDGE_GRAPH_ENABLED` | ✅ | 是否启用Neo4j | `true` | | | `NEO4J_URI` | ✅ | Neo4j连接地址 | `bolt://localhost:7687` | | | `NEO4J_USERNAME` | ✅ | Neo4j用户名 | `neo4j` | | **会话管理** | `SESSION_TIMEOUT` | ❌ | 会话超时时间 | `120m` | | | `SHORT_MEMORY_MAX_AGE` | ❌ | 短期记忆保留天数 | `7` | #### **启动服务** ```bash # 3. 一键启动 ./scripts/manage.sh deploy http --port 8088 # 4. 验证部署 curl http://localhost:8088/health # 预期输出: {"status":"healthy","version":"v2.0.0"} ``` #### **验证功能完整性** ```bash # 测试MCP协议连接 curl -X POST http://localhost:8088/mcp \ -H "Content-Type: application/json" \ -d '{"jsonrpc":"2.0","id":1,"method":"tools/list"}' # 测试智能记忆功能 curl -X POST http://localhost:8088/mcp \ -H "Content-Type: application/json" \ -d '{ "jsonrpc":"2.0","id":2,"method":"tools/call", "params":{ "name":"memorize_context", "arguments":{ "sessionId":"test_session", "content":"这是一个架构设计讨论,采用微服务模式" } } }' # 测试智能检索功能 curl -X POST http://localhost:8088/mcp \ -H "Content-Type: application/json" \ -d '{ "jsonrpc":"2.0","id":3,"method":"tools/call", "params":{ "name":"retrieve_context", "arguments":{ "sessionId":"test_session", "query":"架构设计" } } }' ``` ### 💻 **IDE深度集成** #### **Cursor/Qoder集成** **步骤1:配置MCP连接** ```json { "mcpServers": { "context-keeper": { "url": "http://localhost:8088/mcp" } } } ``` **步骤2:安装智能记忆规则** ```bash # 复制预置的记忆管理规则(或者根据IDE实际情况拷贝复制) cp .cursor/rules/memory-rules.md ~/.cursor/rules/context-keeper.md # 规则内容预览 cat ~/.cursor/rules/context-keeper.md # 包含:自动代码关联、实时记忆同步、智能检索提示等 ``` **步骤3:验证集成效果** ```typescript // 在Cursor中测试 你: "帮我回忆一下这个项目的Redis缓存策略" AI: [自动触发Context-Keeper检索] "根据8月15日的架构讨论,你们选择了Redis集群模式, 主要考虑了以下因素:[显示历史讨论详情]" ``` #### **VSCode集成** ```bash # 安装扩展 code --install-extension context-keeper.cursor-integration ``` ### ☁️ **生产环境部署** #### **Docker部署(推荐)** ```bash # 1. 构建镜像 docker build -t context-keeper:latest . # 2. 使用Docker Compose部署 cat > docker-compose.yml << 'EOF' version: '3.8' services: context-keeper: image: context-keeper:latest ports: - "8088:8088" environment: - PORT=8088 - LLM_PROVIDER=openai - OPENAI_API_KEY=${OPENAI_API_KEY} - VECTOR_PROVIDER=dashvector - DASHVECTOR_API_KEY=${DASHVECTOR_API_KEY} volumes: - ./data:/app/data - ./config:/app/config restart: unless-stopped healthcheck: test: ["CMD", "curl", "-f", "http://localhost:8088/health"] interval: 30s timeout: 10s retries: 3 EOF # 3. 启动服务 docker-compose up -d # 4. 查看服务状态 docker-compose ps docker-compose logs -f context-keeper ``` ### 🐳 **Docker部署** #### **使用项目Dockerfile** ```bash # 1. 构建镜像(使用项目提供的Dockerfile) docker build -t context-keeper:latest . # 2. 运行容器 docker run -d \ --name context-keeper \ -p 8088:8088 \ -v $(pwd)/data:/app/data \ -v $(pwd)/config:/app/config \ --env-file config/.env \ context-keeper:latest # 3. 查看运行状态 docker ps docker logs context-keeper ``` #### **Docker Compose部署(推荐)** ```bash # 使用项目提供的docker-compose.yml docker-compose up -d # 查看服务状态 docker-compose ps docker-compose logs -f context-keeper # 停止服务 docker-compose down ``` --- ## 5. 产品发展路线图 ### 🎯 **技术演进战略** Context-Keeper采用**阶梯式演进策略**,从基础记忆能力逐步升级为企业级AI大脑: ```mermaid gantt title Context-Keeper 产品发展路线图 dateFormat YYYY-MM-DD section 🏗️ 基础架构 双层记忆系统 :done, basic1, 2025-04-01, 2025-06-30 MCP协议集成 :done, basic2, 2025-04-01, 2025-06-30 多向量引擎支持 :done, basic3, 2025-04-01, 2025-06-30 section 🧠 智能大脑 用户/工作空间隔离 :done, brain0, 2025-07-01, 2025-09-30 LLM两阶段分析 :done, brain1, 2025-07-01, 2025-09-30 三要素智能识别 :done, brain2, 2025-07-01, 2025-09-30 多维检索融合 :done, brain3, 2025-07-01, 2025-09-30 section 🕸️ 知识图谱 知识图谱存储引擎 :done, kg1, 2025-10-01, 2025-12-31 图谱向量混合检索 :done, kg2, 2025-10-01, 2026-01-15 跨项目知识复用 :active, kg3, 2026-01-01, 2026-03-31 section 🏢 企业级 多租户SaaS架构 :enterprise1, 2026-01-01, 2026-03-31 安全合规体系 :enterprise2, 2026-01-01, 2026-03-31 全球化部署 :enterprise3, 2026-01-01, 2026-03-31 ``` ### 🔥 **第三阶段:知识图谱能力**(核心已完成 ✅) **📅 时间窗口**: 2025年Q4 → 2026年Q1 **🎯 核心目标**: 知识图谱与向量语义的深度融合检索 #### **核心特性开发** 1. **🕸️ 企业知识图谱构建** ```typescript interface KnowledgeGraph { entities: ProjectEntity[]; relationships: EntityRelationship[]; concepts: ConceptNode[]; contextClusters: ContextCluster[]; } interface ProjectEntity { id: string; type: "function" | "module" | "concept" | "decision"; properties: Record; connections: EntityConnection[]; } ``` - **技术突破**: 自动从代码和对话中提取实体关系 - **预期效果**: 构建项目的完整知识网络 2. **🧠 关系推理引擎** ```typescript interface ReasoningEngine { findRelatedConcepts(entity: string): ConceptPath[]; inferMissingLinks(context: Context): InferredRelation[]; explainDecisionPath(decision: Decision): ReasoningChain; } ``` - **技术突破**: 多跳路径查询与智能推理 - **预期效果**: 发现隐藏的知识关联 3. **🔄 跨项目知识复用** ```typescript interface CrossProjectKnowledge { patternMatching: PatternMatcher; bestPracticeExtraction: BestPracticeEngine; knowledgeTransfer: TransferLearning; } ``` - **技术突破**: 跨项目的最佳实践自动识别和迁移 - **预期效果**: 加速新项目的知识积累 **📊 预期量化目标**: - 🎯 知识图谱覆盖率: 90%+ - ⚡ 关系推理准确率: 85%+ - 🔧 跨项目知识复用率: 70%+ ### 🏢 **第四阶段:企业级部署**(2026年Q1) **🎯 核心目标**: 构建企业级SaaS服务和全球化部署能力 #### **企业级特性** 1. **🏗️ 多租户SaaS架构** - 租户数据完全隔离 - 弹性资源分配 - 企业级性能保障 2. **🔒 安全合规体系** - 数据加密和权限管理 - 审计日志和合规报告 - 企业级安全认证 3. **🌍 全球化部署** - 多区域部署支持 - 国际化和本地化 - 全球数据同步 --- ## 6. 贡献指南 ### 🌟 **开源社区愿景** Context-Keeper致力于构建一个**开放、创新、共赢**的AI编程工具社区,让每一位开发者都能享受到智能记忆带来的效率提升。 #### **📈 社区发展目标** ```mermaid %%{init: {'theme':'base', 'themeVariables': {'fontSize':'16px', 'fontFamily':'Arial, sans-serif'}}}%% graph LR A[开源项目] -->|开发者贡献| B[技术创新] B -->|产品优化| C[用户体验提升] C -->|社区壮大| D[生态繁荣] D -->|反哺开源| A style A fill:#e8f5e9,stroke:#e2e8f0,stroke-width:0.5px,rx:8,ry:8 style B fill:#e3f2fd,stroke:#e2e8f0,stroke-width:0.5px,rx:8,ry:8 style C fill:#fff3e0,stroke:#e2e8f0,stroke-width:0.5px,rx:8,ry:8 style D fill:#f3e5f5,stroke:#e2e8f0,stroke-width:0.5px,rx:8,ry:8 ``` ### 🚀 **快速参与贡献** #### **🔧 开发环境搭建** ```bash # 1. Fork并克隆项目 git clone https://github.com/YOUR_USERNAME/context-keeper.git cd context-keeper # 2. 环境准备 go version # 确保Go 1.21+ node --version # 确保Node.js 16+ # 3. 依赖安装 go mod download npm install # 4. 本地开发启动 cp config/.env.example config/.env go run main.go --dev # 5. 运行测试套件 go test ./... npm test # 6. 代码质量检查 golangci-lint run npm run lint ``` #### **📝 贡献流程** ```bash # 1. 创建功能分支 git checkout -b feature/amazing-new-feature # 2. 开发与测试 # ... 进行开发工作 ... go test ./... # 3. 提交代码(遵循Conventional Commits) git add . git commit -m "feat: add intelligent query rewriting engine - Implement semantic query expansion - Add multi-language support for query analysis - Integrate with LLM providers for intent recognition - Add comprehensive test coverage Closes #123" # 4. 推送并创建PR git push origin feature/amazing-new-feature # 在GitHub上创建Pull Request ``` ### 📋 **贡献方式与认可体系** #### **🎯 多样化贡献途径** | 贡献类型 | 技能要求 | 认可方式 | 影响力 | |---------|----------|----------|--------| | **🐛 Bug修复** | Go/TypeScript基础 | Contributor徽章 | 直接提升产品稳定性 | | **✨ 功能开发** | 中高级编程技能 | Core Contributor | 推动产品能力演进 | | **📚 文档完善** | 技术写作能力 | Documentation Expert | 降低新用户使用门槛 | | **🧪 测试用例** | 测试思维与技能 | Quality Assurance | 保障产品质量 | | **🌍 国际化** | 多语言能力 | Localization Champion | 扩大全球用户覆盖 | | **🎨 UI/UX设计** | 设计与前端技能 | Design Contributor | 提升用户体验 | --- ## 🎊 **立即开始您的智能记忆之旅**
**🧠 Context-Keeper - 重新定义AI助手的记忆边界** *让每一次对话都有意义,让每一个决策都有传承* ### 🚀 **三步开启智能记忆时代** ```bash # 1️⃣ 获取Context-Keeper git clone https://github.com/redleaves/context-keeper.git # 2️⃣ 一键启动服务 ./scripts/manage.sh deploy http --port 8088 # 3️⃣ 集成到您的IDE # Cursor用户:配置MCP连接 # VSCode用户:安装官方扩展 ``` ### 🎯 **选择最适合您的方案** [![🏠 个人开发者](https://img.shields.io/badge/个人开发者-免费使用-4CAF50?style=for-the-badge&logo=home&logoColor=white)](https://github.com/redleaves/context-keeper/releases) [![🏢 企业团队](https://img.shields.io/badge/企业团队-专业服务-2196F3?style=for-the-badge&logo=business&logoColor=white)](mailto:enterprise@context-keeper.com) [![🤝 开源贡献](https://img.shields.io/badge/开源贡献-共建生态-FF9800?style=for-the-badge&logo=github&logoColor=white)](https://github.com/redleaves/context-keeper/blob/main/CONTRIBUTING.md) --- ### 🔗 **快速链接** | 🎯 场景 | 🔗 链接 | 📝 描述 | |---------|--------|---------| | **⚡ 快速体验** | [5分钟快速开始](#5分钟快速开始) | 最快速度上手体验 | | **🏗️ 技术深入** | [系统架构设计](#3-架构设计) | 了解技术原理与创新 | | **📖 部署指南** | [部署与集成](#4-部署与集成) | 生产环境部署方案 | | **🗺️ 产品规划** | [发展路线图](#5-产品发展路线图) | 未来发展方向 | | **🤝 参与贡献** | [贡献指南](#6-贡献指南) | 加入开源社区 | --- **⭐ 如果Context-Keeper对您有帮助,请给我们一个Star!** **📢 分享给更多需要智能记忆的开发者:** [![Twitter分享](https://img.shields.io/badge/Twitter-1DA1F2?style=for-the-badge&logo=twitter&logoColor=white)](https://twitter.com/intent/tweet?text=Context-Keeper%3A%20%E5%85%A8%E7%90%83%E9%A6%96%E4%B8%AALLM%E9%A9%B1%E5%8A%A8%E7%9A%84%E6%99%BA%E8%83%BD%E8%AE%B0%E5%BF%86%E7%B3%BB%E7%BB%9F%EF%BC%81&url=https://github.com/context-keeper/context-keeper) [![LinkedIn分享](https://img.shields.io/badge/LinkedIn-0077B5?style=for-the-badge&logo=linkedin&logoColor=white)](https://www.linkedin.com/sharing/share-offsite/?url=https://github.com/context-keeper/context-keeper)
--- ## 📄 **许可证与致谢** ### 📜 **开源许可** 本项目基于 [MIT License](LICENSE) 开源许可证,欢迎自由使用、修改和分发。 ### 🙏 **特别致谢** **🏆 核心贡献者**: - [@weixiaofeng](https://github.com/weixiaofeng) - 项目发起人&首席架构师 - [@lixiao](https://github.com/lixiao) - LLM架构师 **🌍 社区支持**: - [Model Context Protocol](https://github.com/modelcontextprotocol) - 协议标准支持 - [Go语言社区](https://golang.org/) - 技术生态与工具链 - [OpenAI开发者社区](https://platform.openai.com/) - AI技术生态支持 --- *Copyright © 2025 Context-Keeper Team. All rights reserved.*