AI网文/小说创作平台:AI-Writer、InkOS、MuMuAINovel

AI网文/小说创作平台:AI-Writer、InkOS、MuMuAINovel

AI和LLM已经侵入目之所及的各个角落。本文汇总几款基于AI/LLM的小说创作工具。

AI-Writer

BlinkDL开源(GitHub,3.6K Star,564 Fork)的AI写中文小说工具。使用基于RNN/语言模型(RWKV‑LM)的预训练模型,专注于生成中文网文(如玄幻、言情、网络小说)。

将“根据开头+设定→自动续写/生成后续内容”的流程自动化,能够快速生成连贯(或半连贯)的小说段落/章节。

实战

git clone https://github.com/BlinkDL/AI-Writer.git cd AI-Writer python run.py python server.py 

流程:

  • 打开后,在界面 (或命令行) 中输入文章 / 小说的开头 (几句话或者一个段落)
  • 设置续写长度、采样参数 (如 temperature / 随机度 /生成字数)
  • 执行续写 → 等待 AI 输出生成内容
  • AI 自动生成后,你可以手动编辑、删改、组合输出内容
  • 满意则可保存或导出为纯文本、Markdown、其他格式

局限性:

  • 内容质量参差:由于模型训练语料主要是网络小说(网文),逻辑可能混乱、背景、角色、情节会出现“不合常识 /荒诞 /跳跃”,特别是当生成很长文本时;
  • 语义/常识不可靠:模型欠缺现实世界的常识与约束,生成内容不适合严肃/现实主义写作(尤其是当你希望内容逻辑严谨、人物行为合理时)
  • 可能重复 / 填充 /无意义文字 — 如果采样随机度太高或续写太长,有可能出现重复、无意义或格式混乱的段落。多数用户建议生成后手工修订。
  • 仅供娱乐 /灵感参考 — 官方及社区多处强调:生成内容仅供娱乐 /灵感 /实践参考,不适合当作严肃创作或发表用途。
  • 硬件 /性能限制 — 如果没有 GPU,使用 CPU 生成会比较慢;大模型、长文本、频繁续写,可能需要较多显存 /计算资源。

InkOS

用Gemini/GPT/Claude直接生成长篇小说时,存在问题诸如:角色记忆崩坏、伏笔断裂、战力数值飘忽、文风疲劳。开源(GitHub,1.9K Star,402 Fork)InkOS 试图用“真相文件 + 33维度审计 + 审计-修订闭环”来系统性解决这些痛点。

多智能体CLI系统,由Radar(市场雷达)、Architect(架构师)、Writer(写手)、Auditor(审计官)、Reviser(修订者)等多个Agent组成,目标是把长篇小说创作当成一个“工程项目”来管理。

图片

小说创作拆解为流水线:

  • 长期记忆机制:每本书自动维护7个真相文件(truth files),包括:current_state.md(世界当前状态)、particle_ledger.md(资源账本)、pending_hooks.md(待处理伏笔池)、chapter_summaries.md(章节摘要)、subplot_board.md(支线进度板)、emotional_arcs.md(情感弧线)、character_matrix.md(角色矩阵)。这些文件确保全书范围内角色记忆、数值、伏笔、时间线绝对一致,避免了“上一章主角有剑,下一章突然没了”的经典AI翻车。
  • 33 维度连续性审计:审计官会检查 OOC(角色出戏)、战力崩坏、节奏单调、信息泄露、词汇疲劳、视角跳跃等 33 个维度,甚至还有针对番外的 4 个专属维度(正传事件冲突、未来信息泄露等)。
  • 写后验证器 + 反 AIGC 检测:内置 11 条确定性规则(禁止句式、禁止连续“了”字、套话密度等),违规自动触发 spot-fix(定点修复)模式。同时支持 GPTZero 等外部 API 检测,并提供反检测改写管线。
  • 文风仿写与题材自定义:可分析参考小说生成 style_profile.json,一键注入写手 Prompt;内置玄幻、仙侠、都市、恐怖等 5 个题材规则,还支持每本书独立自定义 book_rules.md。

多智能体系统

Agent职责
雷达Radar扫描平台趋势和读者偏好,指导故事方向(可插拔,可跳过)
建筑师Architect规划章节结构:大纲、场景节拍、节奏控制
写手Writer根据大纲+当前世界状态生成正文
连续性审计员Auditor对照长期记忆验证章稿
修订者Reviser修复审计发现的问题—关键问题自动修复,其他标记给人工审核

优点

  • 连贯性大幅提升:实测31章、45万字小说,审计通过率100%,角色记忆、数值、伏笔几乎无崩坏。
  • 高度可自定义:题材规则、单本书规则、文风指纹,让不同作者能打造专属“创作系统”。
  • 开源透明+扩展性强:支持多模型路由、OpenClaw外部Agent调用、Webhook通知,适合极客二次开发。
  • 反检测与去AI味机制:在网文平台敏感环境下有实际意义。

局限

  • 成本依赖:每章消耗Token不低(尤其是守护模式),长期运行API费用不可忽视。免费模型效果会明显打折
  • 学习曲线:初次配置+理解7个真相文件需要30-60分钟;完全自动化仍需人工干预审核关键章节。
  • 不是零人工:开发者明确强调 human review gates,审计通过 ≠ 出版级质量。爽点设计、情感深度仍需人类把关。
  • 平台适配:目前是纯CLI,后续计划有Web UI(studio),但暂时无图形界面
  • 社区反馈:在Linux.Do等论坛,开发者普遍认可创新性,但也提到“数值系统对都市/恐怖题材用处不大”“守护模式需监控Token消耗

实战

npm i -g @actalk/inkos # 配置 inkos config set-global \--provider openai \ --base-url https://api.openai.com/v1 \ --api-key sk-xxx \--model gpt-5.4 

配置会保存在 ~/.inkos/.env,项目级配置也支持(inkos init)。

官方示例:inkos book create --title "吞天魔帝" --genre xuanhuan

genre支持:xuanhuan、xianxia、urban、horror、general;会在当前目录生成书籍文件夹,包含.envbook_rules.md等。

命令行示例:

inkos write next 吞天魔帝 # 写1章 inkos write next 吞天魔帝 --count5# 连续写5章 inkos up # 后台循环写章,审计失败自动重试 inkos down # 停止 inkos import canon "烈焰前传"--from 吞天魔帝 inkos write next "烈焰前传" inkos style analyze 参考小说.txt # 生成风格指纹 inkos style import 参考小说.txt 吞天魔帝 --name"某作者" inkos status # 查看书籍状态 inkos radar scan # 市场趋势扫描 inkos detect 吞天魔帝 --all# 全书AIGC检测 inkos review list # 列出待人工审核章节 inkos export# 导出起点/番茄格式

生成失败会暂停,推送通知(支持 Telegram、飞书、企业微信、Webhook)。

使用建议:

  • 模型选择:优先 Claude或 GPT(逻辑与连贯性更强)。多模型路由可为 Auditor 设置更强的模型,为 Writer 设置性价比高的。
  • 成本控制:
    • 开启--count批量写章前,先单章测试
    • 守护模式下设置合理重试次数,避免无限循环烧钱
    • 定期inkos detect检查AIGC痕迹,必要时手动polish
  • 人工介入时机:
    • 每5-10章强制inkos review人工审阅一次
    • 重大转折、支线收束时暂停守护进程,手动调整book_rules.md
  • 进阶玩法:
    • 结合OpenClaw等Agent实现自然语言指挥模式
    • 用文风仿写功能批量生成系列作品(前传/后传)
    • 自定义新题材规则(inkos genre copy),打造专属流派系统

MuMuAINovel

在线体验,基于AI的开源(GitHub,2K Star,404 Fork)小说创作助手。

特性

  • 多AI模型:支持OpenAI、Gemini、Claude等主流模型
  • 智能向导:AI自动生成大纲、角色和世界观
  • 角色管理:人物关系、组织架构可视化管理
  • 章节编辑:支持创建、编辑、重新生成和润色
  • 世界观设定:构建完整的故事背景
  • 多种登录:LinuxDO OAuth或本地账户登录
  • PG:生产级数据库,多用户数据隔离
  • Docker部署:一键启动,开箱即用

实战

基于官方提供的docker-compose.yml部署:

git clone https://github.com/xiamuceer-j/MuMuAINovel.git cd MuMuAINovel cp backend/.env.example .env vim .env docker-compose up -d

浏览器打开http://localhost:8000开始体验。

.env文件:

APP_NAME=MuMuAINovel APP_VERSION=1.4.4 APP_HOST=0.0.0.0 APP_PORT=8000DEBUG=false TZ=Asia/Shanghai # PG连接信息POSTGRES_DB=mumuai_novel POSTGRES_USER=johnny POSTGRES_PASSWORD=root POSTGRES_PORT=5432# 日志配置LOG_LEVEL=INFO LOG_TO_FILE=true LOG_FILE_PATH=logs/app.log LOG_MAX_BYTES=10485760LOG_BACKUP_COUNT=30CORS_ORIGINS=["http://localhost:8000","http://127.0.0.1:8000"]# OpenAI 配置OPENAI_API_KEY=your_openai_api_key_here(需要替换)OPENAI_BASE_URL=https://api.openai.com/v1(需要替换)# 默认 AI 配置DEFAULT_AI_PROVIDER=openai DEFAULT_MODEL=gpt-4o-mini(需要替换)DEFAULT_TEMPERATURE=0.7DEFAULT_MAX_TOKENS=32000# LinuxDO OAuth 配置(可选)LINUXDO_CLIENT_ID=11111LINUXDO_CLIENT_SECRET=11111LINUXDO_REDIRECT_URI=http://localhost:8000/api/auth/callback FRONTEND_URL=http://localhost:8000 # 初始管理员(LinuxDO user_id)# INITIAL_ADMIN_LINUXDO_ID=your_linuxdo_user_id# 本地账户登录配置LOCAL_AUTH_ENABLED=true LOCAL_AUTH_USERNAME=admin LOCAL_AUTH_PASSWORD=admin123 LOCAL_AUTH_DISPLAY_NAME=本地管理员 # 会话配置SESSION_EXPIRE_MINUTES=120SESSION_REFRESH_THRESHOLD_MINUTES=30# SMTP默认配置,可在系统设置中被管理员覆盖SMTP_PROVIDER=qq SMTP_HOST=smtp.qq.com [email protected] SMTP_PASSWORD=your-qq-smtp-auth-code SMTP_USE_TLS=false SMTP_USE_SSL=true [email protected] SMTP_FROM_NAME=MuMuAINovel EMAIL_AUTH_ENABLED=true EMAIL_REGISTER_ENABLED=true EMAIL_VERIFICATION_CODE_TTL_MINUTES=10EMAIL_VERIFICATION_RESEND_INTERVAL_SECONDS=60WORKSHOP_MODE=client # 云端服务地址(client模式使用WORKSHOP_CLOUD_URL=https://mumuverse.space:1566 # 云端API请求超时时间(秒)WORKSHOP_API_TIMEOUT=30

Read more

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程 在数字化办公日益普及的今天,企业微信作为国内领先的企业级通讯工具,其群机器人功能为团队协作带来了极大的便利。本文将手把手教你如何从零开始配置企业微信群机器人Webhook,实现自动化消息推送,提升团队沟通效率。 1. 准备工作与环境配置 在开始创建机器人之前,需要确保满足以下基本条件: * 企业微信账号:拥有有效的企业微信管理员或成员账号 * 群聊条件:至少包含3名成员的群聊(这是创建机器人的最低人数要求) * 网络环境:能够正常访问企业微信服务器 提示:如果是企业管理员,建议先在"企业微信管理后台"确认机器人功能是否已对企业开放。某些企业可能出于安全考虑会限制此功能。 2. 创建群机器人 2.1 添加机器人到群聊 1. 打开企业微信客户端,进入目标群聊 2. 点击右上角的群菜单按钮(通常显示为"..."或"⋮") 3. 选择"添加群机器人"选项 4.

深度解析英伟达最新“瓦力”机器人:物理AI时代的开发者红利与技术突破

深度解析英伟达最新“瓦力”机器人:物理AI时代的开发者红利与技术突破

2026年CES展会上,黄仁勋牵着那款酷似《机器人总动员》“瓦力”的Reachy Mini机器人完成流畅互动时,全场的欢呼不仅是对萌系设计的认可,更是对一个新时代的致敬——英伟达用这套全新机器人系统,正式宣告物理AI从实验室走向产业化。对于咱们ZEEKLOG的开发者而言,这波技术浪潮带来的不只是视觉震撼,更是可落地的开发工具、开源生态和商业机遇。今天就从技术内核、开发价值、行业对比三个维度,深度拆解英伟达最新机器人的核心竞争力,帮大家找准入局切入点。 一、不止“萌出圈”:英伟达新机器人的技术内核拆解 很多人被“瓦力”的外形圈粉,但真正让行业震动的是其背后的全栈技术体系。不同于传统机器人“硬件堆砌+单一功能编程”的模式,英伟达这套系统是“大脑-身体-训练场”的全链路协同,每一个环节都为开发者预留了创新空间。 1. 核心大脑:GR00T N1.6模型的双系统突破 作为全球首个开源人形机器人基础模型,最新的Isaac GR00T N1.6堪称“机器人界的GPT-4o”,其最核心的创新是双系统架构设计,完美复刻了人类“本能反应+深度思考”

Retinaface+CurricularFace部署教程:镜像内Python 3.11.14环境安全补丁升级方法

Retinaface+CurricularFace部署教程:镜像内Python 3.11.14环境安全补丁升级方法 你是不是也遇到过这样的问题:刚拉取一个功能齐全的人脸识别镜像,准备直接上手测试,结果发现Python版本存在已知安全漏洞?或者在企业级部署中,安全审计要求必须打上最新补丁,但又担心升级后破坏原有推理环境的稳定性?别急,这篇教程就是为你量身定制的——我们不讲抽象理论,不堆砌参数配置,而是手把手带你完成RetinaFace+CurricularFace镜像中Python 3.11.14的安全补丁升级,全程零兼容性风险,所有操作均可逆、可验证。 本教程面向真实工程场景:你拿到的是一个开箱即用的AI镜像,目标不是从头编译Python,而是以最小改动、最高安全性完成升级。我们会避开常见的“重装conda环境”陷阱,绕过PyTorch与CUDA的脆弱依赖链,用官方推荐的增量补丁方式,让Python版本号不变(仍是3.11.14),但底层安全漏洞全部修复。整个过程5分钟内完成,不影响任何已有推理脚本运行。 1. 镜像环境现状与升级必要性 1.1 当前镜像核心组件一览 Ret

OpenClaw配置Bot接入飞书机器人+Kimi2.5

OpenClaw配置Bot接入飞书机器人+Kimi2.5

上一篇文章写了Ubuntu_24.04下安装OpenClaw的过程,这篇文档记录一下接入飞书机器+Kimi2.5。 准备工作 飞书 创建飞书机器人 访问飞书开放平台:https://open.feishu.cn/app,点击创建应用: 填写应用名称和描述后就直接创建: 复制App ID 和 App Secret 创建成功后,在“凭证与基础信息”中找到 App ID 和 App Secret,把这2个信息复制记录下来,后面需要配置到openclaw中 配置权限 点击【权限管理】→【开通权限】 或使用【批量导入/导出权限】,选择导入,输入以下内容,如下图 点击【下一步,确认新增权限】即可开通所需要的权限。 配置事件与回调 说明:这一步的配置需要先讲AppId和AppSecret配置到openclaw成功之后再设置订阅方式,