--- name: chinese-de-aigc description: 面向中文学术论文的降 AIGC 检测率 Skill。针对知网、万方、维普、Turnitin 中文版的检测机制,识别并消除中文大语言模型的 17 类结构化写作痕迹。采用"定位 → 诊断 → 改写 → 自评 → 复查"五步闭环工作流,分章节差异化策略(摘要/引言/文献综述/方法/结果/讨论/结论),保持学术严谨性前提下通过检测。 triggers: - 降 AIGC 检测率 - 降低 AIGC - 中文论文去 AI 味 - 知网 AIGC 检测 - 万方 AIGC - 维普检测 - 论文查重 AI - 人工化重写 - 去 AI 痕迹 - chinese de-aigc - chinese humanize --- # 中文学术降 AIGC Skill > 中文学术实证论文的 AI 痕迹消除器。不是"改同义词",不是"打乱语序",而是**系统性地重构中文 AI 文本的统计学特征**,让它回归到真实研究者写作的语言分布上。 ## 适用场景 - 中文期刊投稿前的 AIGC 率自查与修改 - 学位论文(本/硕/博)应对知网 AMLC 检测 - 基金申请书、开题报告、研究报告去 AI 化 - 已完成英文投稿、需要中文摘要/中文版本的场景 - CoPaper.AI 等工具生成初稿后的人工化处理 ## 核心理念 **三个错误的做法**(很多教程都在做但无效): 1. ❌ **同义词替换**:把"关键"改成"核心",把"重要"改成"显著"——检测器看的是 n-gram 统计分布,不是单词替换 2. ❌ **句式倒装**:简单把"由于 A,所以 B"改成"B,这是因为 A"——句法模板没变 3. ❌ **全文重写交给 AI**:换另一个 AI 改写,只是从一种 AI 痕迹换成另一种 **本 Skill 的正确路径**:针对**中文 AI 的五大结构性特征**做定点破坏,而非字词层面的表面修改。 ## 中文 AI 文本的五大结构性特征 与英文 AI 不同,中文大模型的痕迹主要表现在: 1. **四字套话密度过高**:每 200 字出现 3+ 个"综上所述/不可否认/毋庸置疑/显而易见"之类 2. **虚词与关联词冗余**:过度使用"然而/因此/此外/而且/并且/以及/等等" 3. **主语回避与隐藏被动**:大量"本文认为/本研究发现/相关研究表明"式的模糊主语 4. **句长方差低**:句子长度集中在 20-35 字,缺乏人类写作的节奏跳跃 5. **结论绝对化**:倾向使用"证明了/确立了/充分说明/必然导致"等过强断言 本 Skill 针对上述 5 大特征,提供 **17 类细分诊断规则**(详见 `references/patterns.md`)。 ## 五步闭环工作流 ``` ┌─────────────┐ ┌─────────────┐ ┌─────────────┐ │ 1. 定位扫描 │ → │ 2. 诊断分类 │ → │ 3. 差异化改写 │ └─────────────┘ └─────────────┘ └─────────────┘ │ ┌─────────────┐ ┌─────────────┐ │ │ 5. 二次复查 │ ← │ 4. 五维自评 │ ←────────┘ └─────────────┘ └─────────────┘ ``` ### Step 1 · 定位扫描 接收用户提交的文本,按 `references/patterns.md` 的 17 类规则做全文扫描,**输出结构化问题清单**: ```markdown ## AI 痕迹定位报告 | 段落 | 原文片段 | 命中规则 | 严重度 | |------|---------|---------|--------| | ¶2 | "毋庸置疑,数字化转型..." | P01 四字套话 | 高 | | ¶3 | "...此外,该研究还..." | P04 显性连接词 | 中 | | ¶5 | "本文认为该机制充分证明了..." | P12 绝对化断言 | 高 | ``` ⚠️ **不要**此时就开始改写,先让用户/作者看到问题全貌。 ### Step 2 · 诊断分类 按**段落功能**分类: - **事实陈述段**(方法/数据/结果)→ 低调改写,保留学术精确度 - **论证段**(文献综述/讨论/机制分析)→ 重点改写,注入学者的"认识论谨慎" - **过渡段**(章节衔接、段落承上启下)→ 大幅改写,消除机械连接词 参考 `references/academic-sections.md` 的**分章节策略表**决定每段的改写力度。 ### Step 3 · 差异化改写 针对 Step 1 清单里的每一条,按以下四条原则逐一修复: 1. **还原研究者视角**:把"本研究发现"改成具体的"我们用 2015-2023 年 CFPS 面板数据发现"——加入**可验证的颗粒度** 2. **制造句长方差**:在一段 200 字内,强制包含至少 1 个 ≤15 字的短句 + 1 个 ≥50 字的长句 3. **消灭显性连接词**:去掉"此外/而且/因此/从而"这类段首连接词,改用**语义接力**(下一句主语呼应上一句宾语的关键概念) 4. **绝对→谨慎**:所有"证明/确立/必然/充分说明"降级为"为...提供了证据/与...的预期一致/可能意味着" ⚠️ **禁止事项**: - 禁止为了"显得人类"而刻意制造错别字或不规范表达 - 禁止使用生僻词、文言化词汇强行降困惑度——这会损害学术性 - 禁止篡改数据、结论或研究主张——只改表达,不改实质 ### Step 4 · 五维自评 对改写后的文本做**中文学术版 5 维评分**(每维 1-10 分,详见 `references/scoring.md`): | 维度 | 检查点 | 权重 | |------|--------|------| | **具体性** | 是否用具体数据/案例/作者替代了模糊表达 | 1.5× | | **节奏性** | 句长方差是否 ≥ 150(50 字长句 + 15 字短句混排) | 1.2× | | **谨慎性** | 绝对化断言是否已降级为条件化表述 | 1.3× | | **隐衔接** | 段落之间是否消除了显性关联词(此外/因此等) | 1.0× | | **研究者语气** | 是否出现"我们/本团队/我"等第一人称研究立场 | 1.0× | **加权总分 < 35 → 返回 Step 3 再改一轮。加权总分 ≥ 42 → 通过。** ### Step 5 · 二次复查 用"冷读者"视角重新审视全文,执行三项终审: 1. **通顺性复查**:改写后的逻辑链是否依然连贯?有没有为了降 AIGC 伤到学术表达? 2. **事实性复查**:数据、引用、作者名、年份有没有被误改? 3. **风格一致性复查**:全文语气是否统一,有没有出现"改过的段落 vs 没改的段落"断层? **输出终稿 + 改动摘要**(哪些段落改了多少、为什么改)。 ## 调用接口 用户可以用以下任意触发词调用: - `请对这段文本降 AIGC 检测率` - `把这篇论文改得不像 AI 写的` - `走 chinese-de-aigc 五步闭环` - `诊断这段文字的 AI 痕迹,给出修改建议` ## 与其他 Skill 的配合 - **先用 revision-guard** 防止过度修改(本 Skill 改写完后交给它把关) - **与 humanizer_academic 互补**:那个针对英文,这个针对中文,一篇双语论文需要两个都用 - **写完初稿再用本 Skill**:不要一边写一边降 AIGC,会干扰创作思路 ## 参考资料 - `references/patterns.md` — 17 类中文 AI 痕迹模式库(每类含识别规则 + 典型样本) - `references/examples.md` — 12 组原文/改写前后对比(覆盖实证论文七个主要章节) - `references/academic-sections.md` — 按章节差异化的改写策略表(摘要/引言/文献综述/方法/结果/讨论/结论) - `references/scoring.md` — 五维评分量表细则 ## 重要声明 本 Skill 的目标是**让人工写作和 AI 辅助写作的文本回归到真实研究者的语言分布**,而不是"帮 AI 生成内容骗过检测"。 - ✅ 适用:研究者自己写的初稿,被 AIGC 检测误判为高 AI 率 - ✅ 适用:AI 辅助起草 + 研究者人工修改定稿的混合场景 - ❌ 不适用:完全 AI 生成的论文,希望零改动通过检测 - ❌ 不适用:学术不端场景,如代写、抄袭的掩盖 **学术诚信优先于检测率**。任何改写都不应触及研究结论、数据真实性、引用准确性。