Free SKILL.md scraped from GitHub. Clone the repo or copy the file directly into your Claude Code skills directory.
npx versuz@latest install cnki-aigc-rewritegit clone https://github.com/qingshanliuci/cnki-aigc---skill.gitcp cnki-aigc---skill/SKILL.md ~/.claude/skills/cnki-aigc-rewrite/SKILL.md--- name: cnki-aigc-rewrite description: 改写中文学术论文中被知网AIGC检测器标为"红色显著"的段落,目标是将AI率落出红色区间且不改变事实/数字/术语/引用。基于实战将20.6%降至10.1%(净降10.5个百分点)的工作流提炼。使用场景:用户提到"知网AIGC""降AI率""红色显著""降重"或贴出AIGC检测报告片段时触发。 --- ## When to use 用户做以下任一动作时触发: - 提到"知网AIGC检测""AI率""红色显著""降AIGC""降AI率" - 上传AIGC检测报告(PDF/截图) - 贴出一段被标为红色或疑似的论文文本 - 询问"怎么改这段不像AI写的" 仅适用于**中文学术论文**(学位论文、期刊投稿、学术报告)。不适用于: - 摘要/Abstract(结构化文本天然像AI,但通常不计入AI字符数) - 文献引用密集段("X等(2020)发现……"难以脱模板) - 研究方法固定描述句("采用双向固定效应模型"是规范表达) - 非学术文本(自媒体、营销文案、小说) ## 核心认知:检测器抓的是什么 知网AIGC检测器**不是抓"AI写的",而是抓5种语言模式**。理解这5种模式比记规则更重要: **模式1:句法节奏的可预测性** — LLM输出句长集中在20-35字(正态分布),人类写作是齐夫分布(少数特别长、少数特别短、多数中等)。改写要刻意打破均匀。 **模式2:信息密度的均匀性** — LLM每段密度都差不多,人类写作有"高密度论证段"和"低密度铺陈段"。检测器跟踪段级特征值方差。 **模式3:术语的句法位置固定** — LLM倾向把术语放在主语位置("逆向技术溢出转化为创新能力"),人类更常放在话题或宾语位置("企业把外部技术转化为创新能力")。**不动术语本身,但挪动它在句子里的角色**。 **模式4:连接词功能重叠** — LLM爱用"因此""从而""进而""由此",功能高度重叠都在做因果推进。人类的连接词承担多种功能:补充(也就是说)、转述(换句话说)、强调(——)、对照(同向)。 **模式5:模板段功能全等性** — 三/四项工整排比、抽象名词链、段尾元话语收束、模板化报告句、平行铺陈+末尾收束。这5个具体特征是上面5种模式的表层呈现。 ## 工作流:根据输入长度自动切换 ### 路线A:交互式精修(输入<800字) 用户贴一段红色显著文本进来,按以下步骤处理: **步骤1:识别高危特征** 扫描这段文本,列出它命中了下面哪几个具体特征(不必全列,列最关键2-3条): - 三/四项工整排比("从X看……从Y看……从Z看……" / "对A……对B……对C……" / "一方面……另一方面……" / "A以a为主;B以b为主;C以c为主") - 抽象名词链("传导机制""调控变量""动态监测体系""未被纳入检验的路径仍是传导重要环节") - 段尾元话语("这一结论""上述发现表明""为后续……提供了实证依据") - 模板化报告句("X的研究表明""在统计推断意义上获得支持""与预期方向一致""下降至/上升至") - 平行铺陈+末尾收束 **步骤2:执行改写动作** 按下列动作改写。**保留所有数字、变量名、文献编号[N]、年份、作者姓名、专业术语**: 1. **拆三/四项排比**:每一项换不同句式起头(描述句/判断句/动宾句/转折句各一) - ❌ "从产业基础来看……从人力资本来看……从投资动机来看……" - ✅ "中部处于工业化中期;高校与高职供给的工程技术劳动力够用;OFDI动机上又以战略资产寻求型为主" 2. **抽象名词链 → 动词短语**: - "传导机制较为契合" → "跟……同向" - "在统计推断意义上获得支持" → "被样本较为充分地支持" - "动态监测体系" → "看看是不是还走在一起" 3. **删段尾元话语**:让段落自然结束。 4. **替换LLM典型语套**: - "研究表明" → "看到的是"/"读出的是" - "进一步揭示" → "再往下看是" - "下降至" → "跳到" - "一致" → "对得上"/"同向" - "释放/呈现" → 用具体动作替换 5. **打乱句长方差**:长短句穿插,用"——""换句话说""问题是""也就是说"让节奏不均匀。**不要写成短句串+连接词**,那是另一种AI腔。 6. **挪动术语句法角色**:原文术语在主语位置的,改写时换到宾语或话题位置。 **步骤3:自检5项** 输出前必须过一遍: 1. 数字、变量名、引用[N]是不是一字未动? 2. 段落里还有没有任何"X的Y的Z"三层名词嵌套? 3. 有没有两组以上"A,B,C"并列结构? 4. 段尾有没有"这一……""上述……"元话语收束? 5. 全段是否倒向口语化(找不到任何学术连接词)?保留至少2-3个学术连接词("鉴于""因此""二者"),否则会从AI腔倒向博客腔。 任一项不通过,重写。 **Done when:** 输出包含改写版 + 改了哪些高危特征(1-3条最关键的)+ 未动的部分(数字/术语/引用列表)。 ### 路线B:批量处理(输入>800字或整节) 用户贴整节文字进来,按以下步骤: **步骤1:标定高危段落** 通读全节,按红色密度排序输出一个清单: ``` 段[起始词]…:高危特征 [排比/抽象名词链/元话语/模板报告/铺陈收束] ``` 让用户确认要改哪几段(可能用户只想改密度最高的1-2段)。 **Done when:** 给出排序清单等用户选择。 **步骤2:批量改写选定段落** 按路线A的步骤2/3对每一段改写。每段输出格式: ``` 【段N原文】 (节选首15字...) 【改写版】 (完整改写后段落) 【改了哪些】 - (1-2条最关键改动) ``` **Done when:** 所有选定段落改写完,每段都通过自检5项。 ## 硬约束(不可违反) 1. 数字、变量名(ln_X / β / R²)、统计量、p值、t值、系数、年份、文献编号[N]、作者姓名、模型名一字不动 2. 专业术语不替换("互补效应""逆向技术溢出""中介效应""固定效应""稳健性检验"——这些是学科共识词) 3. 不增减事实陈述——原段说什么,改写后必须仍说同样的事 4. 段落长度与原文相差不超过±15% ## 不要做的事 - 不要换同义词("显著"→"明显")。检测器抓句法,词汇替换无效。 - 不要全面口语化。论文是学术文体,要保留至少2-3个学术连接词,否则评阅老师观感差。 - 不要把所有"较为""一定程度上""显著"删光——这些"有保留余地的学术语"反而是人写的特征。 - 不要给术语加引号造距离感("所谓……","二分法")——这是LLM典型动作。 - 不要把长句拆成短句串+大量连接词——这只是另一种AI腔。 ## 实测降幅参考 按这套方法实战处理一篇本科毕业论文: | 指标 | 首检 | 复检 | 变化 | |------|------|------|------| | 总AI率 | 20.6% | 10.1% | -10.5个点 | | 第1部分 | 4.2% | 0.0% | 全部归零 | | 第2部分 | 26.0% | 15.8% | -10.2个点 | | 第3部分 | 22.6% | 13.7% | -8.9个点 | 最关键变化:**全文红色显著片段全部降为疑似**——这是质变而不只是量变。10%左右是中文学术语体本身的下限,再降会损失学术性。 ## 边界提醒 - 如果用户改完一轮还想继续降到5%以下:劝退。低于10%通常意味着语体已经不像学术论文。 - 如果用户的论文本来就不是LLM生成、是自己写的却被误判:仍按本流程处理,特征是相同的。 - 如果用户给的不是中文论文:拒绝并说明skill仅适用于中文学术论文。