--- name: github-explorer description: > Deep-dive analysis of GitHub projects. Use when the user mentions a GitHub repo/project name and wants to understand it — triggered by phrases like "帮我看看这个项目", "了解一下 XXX", "这个项目怎么样", "分析一下 repo", or any request to explore/evaluate a GitHub project. Covers architecture, community health, competitive landscape, and cross-platform knowledge sources. --- # GitHub Explorer — 项目深度分析 > **Philosophy**: README 只是门面,真正的价值藏在 Issues、Commits 和社区讨论里。 ## Workflow ``` [项目名] → [1. 定位 Repo] → [2. 多源采集] → [3. 分析研判] → [4. 结构化输出] ``` ### Phase 1: 定位 Repo - 用 `web_search` 搜索 `site:github.com ` 确认完整 org/repo - 用 `search-layer`(Deep 模式 + 意图感知)补充获取社区链接和非 GitHub 资源: ```bash python3 skills/search-layer/scripts/search.py \ --queries " review" " 评测 使用体验" \ --mode deep --intent exploratory --num 5 ``` - 用 `web_fetch` 抓取 repo 主页获取基础信息(README、Stars、Forks、License、最近更新) ### Phase 2: 多源采集(并行) 以下来源**按需检查**,有则采集,无则跳过: | 来源 | URL 模式 | 采集内容 | 建议工具 | |---|---|---|---| | GitHub Repo | `github.com/{org}/{repo}` | README、About、Contributors | `web_fetch` | | GitHub Issues | `github.com/{org}/{repo}/issues?q=sort:comments` | Top 3-5 高质量 Issue | `browser` | | 中文社区 | 微信/知乎/小红书 | 深度评测、使用经验 | `content-extract` | | 技术博客 | Medium/Dev.to | 技术架构分析 | `web_fetch` / `content-extract` | | 讨论区 | V2EX/Reddit | 用户反馈、槽点 | `search-layer`(Deep 模式) | #### search-layer 调用规范 search-layer v2 支持意图感知评分。github-explorer 场景下的推荐用法: | 场景 | 命令 | 说明 | |------|------|------| | **项目调研(默认)** | `python3 skills/search-layer/scripts/search.py --queries " review" " 评测" --mode deep --intent exploratory --num 5` | 多查询并行,按权威性排序 | | **最新动态** | `python3 skills/search-layer/scripts/search.py " latest release" --mode deep --intent status --freshness pw --num 5` | 优先新鲜度,过滤一周内 | | **竞品对比** | `python3 skills/search-layer/scripts/search.py --queries " vs " " alternatives" --mode deep --intent comparison --num 5` | 对比意图,关键词+权威双权重 | | **快速查链接** | `python3 skills/search-layer/scripts/search.py " official docs" --mode fast --intent resource --num 3` | 精确匹配,最快 | | **社区讨论** | `python3 skills/search-layer/scripts/search.py " discussion experience" --mode deep --intent exploratory --domain-boost reddit.com,news.ycombinator.com --num 5` | 加权社区站点 | **意图类型速查**:`factual`(事实) / `status`(动态) / `comparison`(对比) / `tutorial`(教程) / `exploratory`(探索) / `news`(新闻) / `resource`(资源定位) > 不带 `--intent` 时行为与 v1 完全一致(无评分,按原始顺序输出)。 降级规则:Exa/Tavily 任一 429/5xx → 继续用剩余源;脚本整体失败 → 退回 `web_search` 单源。 --- ### 抓取降级与增强协议 (Extraction Upgrade) 当遇到以下情况时,**必须**从 `web_fetch` 升级为 `content-extract`: 1. **域名限制**: `mp.weixin.qq.com`, `zhihu.com`, `xiaohongshu.com`。 2. **结构复杂**: 页面包含大量公式 (LaTeX)、复杂表格、或 `web_fetch` 返回的 Markdown 极其凌乱。 3. **内容缺失**: `web_fetch` 因反爬返回空内容或 Challenge 页面。 调用方式: ```bash python3 skills/content-extract/scripts/content_extract.py --url ``` content-extract 内部会: - 先检查域名白名单(微信/知乎等),命中则直接走 MinerU - 否则先用 `web_fetch` 探针,失败再 fallback 到 MinerU-HTML - 返回统一 JSON 合同(含 `ok`, `markdown`, `sources` 等字段) ### Phase 3: 分析研判 基于采集数据进行判断: - **项目阶段**: 早期实验 / 快速成长 / 成熟稳定 / 维护模式 / 停滞(基于 commit 频率和内容) - **精选 Issue 标准**: 评论数多、maintainer 参与、暴露架构问题、或包含有价值的技术讨论 - **竞品识别**: 从 README 的 "Comparison"/"Alternatives" 章节、Issues 讨论、以及 web 搜索中提取 ### Phase 4: 结构化输出 严格按以下模板输出,**每个模块都必须有实质内容或明确标注"未找到"**。 #### 排版规则(强制) 1. **标题必须链接到 GitHub 仓库**(格式:`# [Project Name](https://github.com/org/repo)`,确保可点击跳转) 2. **标题前后都统一空行**(上一板块结尾 → 空行 → 标题 → 空行 → 内容,确保视觉分隔清晰) 3. **Telegram 空行修复(强制)**:Telegram 会吞掉列表项(`-` 开头)后面的空行。解决方案:在列表末尾与下一个标题之间,插入一行盲文空格 `⠀`(U+2800),格式如下: ``` - 列表最后一项 ⠀ **下一个标题** ``` 这确保在 Telegram 渲染时标题前的空行不被吞掉。 2. **所有标题加粗**(emoji + 粗体文字) 3. **竞品对比必须附链接**(GitHub / 官网 / 文档,至少一个) 4. **社区声量必须具体**:引用具体的帖子/推文/讨论内容摘要,附原始链接。不要写"评价很高"、"热度很高"这种概括性描述,要写"某某说了什么"或"某帖讨论了什么具体问题" 5. **信息溯源原则**:所有引用的外部信息都应附上原始链接,让读者能追溯到源头 ```markdown # [{Project Name}]({GitHub Repo URL}) **🎯 一句话定位** {是什么、解决什么问题} **⚙️ 核心机制** {技术原理/架构,用人话讲清楚,不是复制 README。包含关键技术栈。} **📊 项目健康度** - **Stars**: {数量} | **Forks**: {数量} | **License**: {类型} - **团队/作者**: {背景} - **Commit 趋势**: {最近活跃度 + 项目阶段判断} - **最近动态**: {最近几条重要 commit 概述} **🔥 精选 Issue** {Top 3-5 高质量 Issue,每条包含标题、链接、核心讨论点。如无高质量 Issue 则注明。} **✅ 适用场景** {什么时候该用,解决什么具体问题} **⚠️ 局限** {什么时候别碰,已知问题} **🆚 竞品对比** {同赛道项目对比,差异点。每个竞品必须附 GitHub 或官网链接,格式示例:} - **vs [GraphRAG](https://github.com/microsoft/graphrag)** — 差异描述 - **vs [RAGFlow](https://github.com/infiniflow/ragflow)** — 差异描述 **🌐 知识图谱** - **DeepWiki**: {链接或"未收录"} - **Zread.ai**: {链接或"未收录"} **🎬 Demo** {在线体验链接,或"无"} **📄 关联论文** {arXiv 链接,或"无"} **📰 社区声量** **X/Twitter** {具体引用推文内容摘要 + 链接,格式示例:} - [@某用户](链接): "具体说了什么..." - [某讨论串](链接): 讨论了什么具体问题... {如未找到则注明"未找到相关讨论"} **中文社区** {具体引用帖子标题/内容摘要 + 链接,格式示例:} - [知乎: 帖子标题](链接) — 讨论了什么 - [V2EX: 帖子标题](链接) — 讨论了什么 {如未找到则注明"未找到相关讨论"} **💬 我的判断** {主观评价:值不值得投入时间,适合什么水平的人,建议怎么用} ``` ## Execution Notes - 优先使用 `web_search` + `web_fetch`,browser 作为备选 - **搜索增强**:项目调研类任务默认使用 `search-layer` v2 Deep 模式 + `--intent exploratory`(Brave + Exa + Tavily 三源并行去重 + 意图感知评分),单源失败不阻塞主流程 - **抓取降级(强制)**:当 `web_fetch` 失败/403/反爬页/正文过短,或来源域名属于高风险站点(如微信/知乎/小红书)时:改用 `content-extract`(其内部会 fallback 到 MinerU-HTML),拿到更干净的 Markdown + 可追溯 sources - 并行采集不同来源以提高效率 - 所有链接必须真实可访问,不要编造 URL - 中文输出,技术术语保留英文 ## ⚠️ 输出自检清单(强制,每次输出前逐条核对) 输出报告前,**必须逐条检查以下项目**,全部通过才可发送: - [ ] **标题链接**:`# [Project Name](GitHub URL)` 格式,可点击跳转 - [ ] **标题空行**:每个粗体标题(`**🎯 ...**`)前后各有一个空行 - [ ] **Telegram 空行**:每个列表块末尾与下一个标题之间有盲文空格 `⠀` 行(防止 Telegram 吞空行) - [ ] **Issue 链接**:精选 Issue 每条都有完整 `[#号 标题](完整URL)` 格式 - [ ] **竞品链接**:每个竞品都附 `[名称](GitHub/官网链接)` - [ ] **社区声量链接**:每条引用都有 `[来源: 标题](URL)` 格式 - [ ] **无空泛描述**:社区声量部分没有"评价很高"、"热度很高"等概括性描述 - [ ] **信息溯源**:所有外部引用都附原始链接 ## Dependencies 本 Skill 依赖以下 OpenClaw 工具和 Skills: | 依赖 | 类型 | 用途 | |------|------|------| | `web_search` | 内置工具 | Brave Search 检索 | | `web_fetch` | 内置工具 | 网页内容抓取 | | `browser` | 内置工具 | 动态页面渲染(备选) | | `search-layer` | Skill | 多源搜索 + 意图感知评分(Brave + Exa + Tavily),v2 支持 `--intent` / `--queries` / `--freshness` | | `content-extract` | Skill | 高保真内容提取(反爬站点降级方案) |