知网是如何检测AIGC的?为什么你的论文会被判定为AI生成?

知网是如何检测AIGC的?为什么你的论文会被判定为AI生成?
本文由XYZ SCIENCE官方撰写,未经授权禁止转载
XYZ SCIENCE是国内唯一以自研模型技术提供论文降AI率解决方案的平台,所有用户可以免费使用(www.xyzscience.com

AIGC检测原理

AIGC检测主要有两种方法:一种是传统的统计学方法,另一种是基于深度学习模型(通常是BERT模型)的风格分类方法。

先说结论: 

✅ 知网的AIGC检测由以前的统计学方法升级为了BERT检测模型,这就是为什么之前ai率为0的论文,在知网升级后再去检测会变为100%。

image.png

接下来我们分别介绍以下两种方法是如何进行检测的,我们尽量使用通俗易懂的语言来讲解。

统计学方法

主要统计你论文中的一些特征值是否符合AI论文特征,例如困惑度、突发性等等,我们以突发性(这个概念非常好理解)为例,过一遍检测流程。

突发性:输入内容的每个句子的长度分布。

如果你的论文内容有10句话,每句话都是40-50个字长度,那么你的内容突发性就是很低。

如果每一句长度都一样,那么突发性为0。

AI写的论文的一个特征就是,每个句子长度很相近,即突发性很低。

image.png

也就是说,如果单纯看这一个特征,当你的输入内容每个句子长度都差不多时,就会被判定为AI写作。

深度学习方法

然后我们重点介绍深度学习方法,基于Transformer架构的BERT分类模型:

该方法旨在用大量的人类写作论文数据+AI写作论文数据去训练一个模型,让该模型学会区分这两种写作风格,然后用于AIGC检测。

简单理解,可以将模型理解为一个人,让他每天都去阅读大量的AI论文和人类论文,经过长时间学习,这个人能一眼看出你的论文是不是AI写的

image.png

总的来说,统计学方法就是单纯的计算表面特征,BERT方法是深度理解内容然后区分写作风格。

所以在知网升级前(Turnitin也是如此),用一些指令让AI进行改写,或者直接将所有句号改为逗号等等操作,对于降AI率非常有效,因为这本质是改变统计方法中统计的那些特征值,如突发性。
但是知网升级后,BERT模型可不管你逗号句号的,它负责整体理解内容并判断,只要你还是用AI改写的,那依旧逃不过检测。

image.png

那么,为什么 BERT 对AI生成内容检测如此严格?

用指令二次改写也无法逃过?

image.png

因为现有的AI模型如GPT、DeepSeek等,是基于Transformer架构,而BERT检测模型也是基于Transformer架构,不同的是:

✅  GPT 使用Transformer架构 生成内容(例如生成论文)

✅  BERT则是使用Transformer架构 理解内容(识别论文风格)

所以,你让AI去改写AI生成的内容,本质上还是AI在输出,那么就很难逃过被检测识别的命运。

我们如何解决降AI率

根据检测原理,针对性的开发相应的对抗模型。

从零开始训练一个模型,让它从“出生”那一刻起就学习——像人类一样写作。

不是微调、不是模仿现有 AI 的语料,而是真正意义上:

让模型从第一行参数开始,就只接触人类写作,而不是AI生成内容。

image.png

第一步:训练 AI 文本检测模型

我们先用 BERT 架构训练了一个检测模型,让它学会:

✅ 区分人类写作 vs AI 写作
✅ 判断文本是否具有“人类风格”

简单说,这个模型就是我们之前提到的和知网一样的 AIGC检测器

注意:只是技术架构相同,但是训练数据不同,检测结果不会完全一致


 第二步:训练写作模型

然后我们用700万篇论文数据构成的语料,从零开始训练一个生成模型(写论文的模型),让它学习:

  • 人类写作逻辑
  • 语言风格
  • 文章结构
  • 表达方式
让模型真正理解人类是怎么写文章的,而不是照搬模板。

我们把两个模型连起来:

✅ 写作模型生成内容
✅ 检测模型判断“像不像人写的”
✅ 给出评分和反馈
✅ 写作模型根据反馈继续学习

形成一个闭环:

写作 → 评估 → 改进 → 再写

image.png

最终成果  我们得到两款核心模型:

✅高精度 AIGC 检测模型
用于判断论文内容是否为 AI 生成(AI风格)

✅人类风格写作模型

可以将任何AI生成的论文改写为人类的写作风格

注:所有训练数据均为论文,所以模型不适合其它领域(如小说、新闻等)

预计12月份推出一个更强大的新模型

碎碎念

AI的出现应该是辅助我们提升写作效率,而不应该在查重的基础上,再让我们背上AIGC检测的包袱。

论文查重尚可理解,哪里标红都有解释,重复段落是和哪篇文章重复了,那么ai率呢?作何解释?完全的黑箱操作,平台说啥就是啥!

各个平台,如知网、万方、维普等对于同一篇论文的检测结果都不一样

因为AIGC检测结果无法解释,靠写作风格判定

image.png

前文我已经介绍,训练一个这样的检测器,没什么技术难度(当然也没什么成本),主要是数据方面,也就是说:

这些所谓的提供AIGC检测服务的平台,基于大量的学生毕业论文(期刊论文)去训练模型,然后再反过来向学生收取高昂的检测费用,形成一个完美的商业闭环。perfect!

image.png

对于一个学生来说,动辄几十上百的AIGC检测费用,合适吗?

(如果任何学校或学术机构愿意使用我们的AIGC检测模型作为替代方案,请联系我们,我们可以免费提供模型并辅助部署)

Read more

GitHub Copilot的最新更新:从代码补全到需求理解

Copilot需求理解演进 ⚡ 核心摘要 * 核心演进: Copilot已从代码补全工具,演进为能深度把握开发者意图的AI开发助手。 * 关键技术: 其能力飞跃依赖于模型升级、多Agent系统和代码库索引三项核心技术突破。 * 实际影响: 显著提升开发效率(增益26%-35%)和代码质量(正确率提升至46.3%)。 GitHub Copilot自2021年推出以来,经历了从简单的代码补全工具到全面的AI开发助手的质变。这一演进不仅体现在技术能力的提升上,更反映了AI在软件开发领域应用的深刻变革。当前GitHub Copilot已成功从"代码补全"阶段跨越至"需求理解"阶段,通过融合多Agent系统、代码库索引和多模态能力,实现了对开发者意图的深度把握和对复杂开发任务的自主执行。本文将深入分析GitHub Copilot的功能演进路径,剖析其需求理解的核心技术突破,并评估这些创新对开发者工作效率和代码质量的实际影响,同时展望其在AI开发助手领域的创新定位与未来发展趋势。 关键结论 (Key Takeaway) 当前GitHub Copilot已成功从"代码补全"阶段跨越至

5大AI代码生成工具实测:GitHub Copilot竟输给国产黑马

5大AI代码生成工具实测:GitHub Copilot竟输给国产黑马

AI代码生成工具在软件测试领域的崛起 随着人工智能技术的飞速发展,AI代码生成工具已成为软件测试从业者的重要助手。这些工具不仅能自动生成单元测试、集成测试脚本,还能提升测试覆盖率和效率,减少人为错误。本次实测聚焦于5款主流工具:GitHub Copilot、Tabnine、Kite、DeepSeek-Coder(代表国产工具),以及Amazon CodeWhisperer。我们针对软件测试场景设计实验,从专业性、准确性和实用性角度进行深度评测。实测结果令人意外:长期被视为行业标杆的GitHub Copilot在多项测试指标中落后于国产黑马DeepSeek-Coder。本文将详细解析实测过程、数据对比,以及对测试工作的实际影响。 一、实测工具概览:五大AI助手简介 在深入实测前,先简要介绍参评的五款工具及其在测试领域的定位: 1. GitHub Copilot:由GitHub和OpenAI联合开发,支持多种语言(如Python、Java),以代码补全和函数生成为核心功能。在测试中常用于生成单元测试框架(如JUnit或Pytest脚本)。 2. Tabnine:基于深度学习模型

小白也能用的AI绘画神器:Z-Image i2L快速入门指南

小白也能用的AI绘画神器:Z-Image i2L快速入门指南 你是不是也试过很多AI绘画工具,结果不是要注册账号、等排队,就是生成一张图要花好几分钟,还担心图片被传到服务器上?今天要介绍的这个工具,不用联网、不传数据、不卡显存,打开就能画——而且操作简单到连手机都能点着玩。 它就是⚡ Z-Image i2L(DiffSynth Version),一个真正为普通人设计的本地文生图工具。没有复杂命令,没有报错黑屏,更不需要懂“LoRA”“ControlNet”这些词。只要你能打字,就能生成属于自己的高清图像。 这篇文章不讲原理、不堆参数,只说三件事: 它到底有多简单? 你第一次点开界面该做什么? 怎么调几个关键设置,让生成效果从“还行”变成“哇!” 全程零门槛,10分钟上手,现在就开始。 1. 为什么说它是“小白友好型”AI绘画工具? 很多人一听到“本地部署”“Diffusers框架”“BF16精度”,下意识就觉得:

大模型微调主要框架 Firefly vs LLaMA Factory 全方位对比表

Firefly vs LLaMA Factory 全方位对比表 + 生物医药垂类微调选型建议 一、核心维度对比表格 对比维度Firefly(流萤)LLaMA Factory开发主体个人开源:杨建新(YeungNLP),前Shopee NLP工程师,中山大学硕士社区开源:hiyouga核心维护,全球开源社区协同迭代项目定位聚焦中文大模型的轻量化训练框架+配套中文优化模型通用型全栈大模型微调框架,无语言/模型偏向,极致兼容支持基座模型以中文友好模型为主(Llama系列、Qwen、ChatGLM、Firefly自训模型),覆盖有限但深度适配全主流开源模型全覆盖(Llama、Qwen、Mistral、DeepSeek、GLM、Yi、Firefly等),几乎无适配成本支持微调方式基础SFT、LoRA/QLoRA、增量预训练,进阶对齐方法较少SFT、DPO/IPO/KTO、RLHF、预训练、多模态微调,全流程对齐方案完整中文优化原生深度优化:中文分词、语料、表达逻辑专项适配,