【保姆级教程】小白也能搞定!手把手教你部署AI小说生成器

【保姆级教程】小白也能搞定!手把手教你部署AI小说生成器

目录

一、 磨刀不误砍柴工:环境准备

二、 第一次安装:给代码安个家

第一步:把项目“搬”回家

第二步:造一个专属“房间”

第三步:安装依赖

第四步:点火启动

三、 关机重启后:如何再次开启?

四、 关键一步:配置“大脑”(API接口)

五、开始你的创作

六、写在最后:为什么推荐用蓝耘做“大脑”?


在这个AI辅助创作爆发的时代,拥有一款属于自己的本地AI写作工具,无疑是许多文字工作者的梦想。最近拿到一份AI小说生成器的部署文档,虽然功能强大,但对于非技术出身的朋友来说,那些代码和命令行多少有些“劝退”。

别担心,今天我们就把这份“天书”翻译成“人话”,手把手带你从零开始,搭建属于你的AI创作助手。无论你是第一次安装,还是关机后不知道怎么重启,这篇教程都能帮你搞定。

一、 磨刀不误砍柴工:环境准备

在开始之前,你的电脑需要一点点“基础设施”。这就像你要做饭,得先有厨房一样。

硬性指标:

  • Python 3.10+:这是程序运行的语言环境,版本不能太低。
  • Conda(推荐)或 pip:这相当于你的“包工头”,帮你管理各种代码库。强烈建议使用 Conda,它能帮你把项目环境隔离起来,避免和其他软件冲突。

二、 第一次安装:给代码安个家

如果你是第一次拿到这个项目,请按顺序操作。不用担心,只需要复制粘贴命令即可。

第一步:把项目“搬”回家

打开你的终端(Windows用户推荐用Anaconda Prompt),输入以下命令,将项目代码克隆到本地:

git clone https://github.com/yourusername/ai-novel-generator-4.0.git cd ai-novel-generator-4.0

注:这步做完,你就已经进入了项目文件夹。

第二步:造一个专属“房间”

为了不弄乱电脑里的其他环境,我们要用Conda创建一个专属的虚拟空间,名字就叫ai-novel-generator,指定Python版本为3.10。

conda create -n ai-novel-generator python=3.10 conda activate ai-novel-generator

第三步:安装依赖

这就好比给你的软件安装各种零件,运行以下命令,等待进度条走完即可:

pip install -r requirements.txt

第四步:点火启动

一切就绪,输入最后一行命令:

python run.py

当看到终端不再跳动,出现网址提示时,恭喜你,服务已经跑起来了!

三、 关机重启后:如何再次开启?

这是很多新手最容易卡住的地方:第一次安装好了,电脑关机第二天想用,却发现不知道怎么进去了。其实,你不需要重复上面的安装步骤,只需要简单的“三步走”。

假设你的项目放在了C盘的用户目录下,具体操作如下:

1.切换位置: 你得先告诉电脑你的文件在哪。输入 cd 命令进入项目目录。

cd C:\Users\LING\ai-novel-generator-4.5

注意:这里的路径要根据你实际存放的位置修改,版本号也要对应(比如你是4.0就写4.0)。

2.激活环境: 看一下你的命令行提示符前面有没有 (ai-novel) 这几个字?如果没有,说明“房间”没开门,输入:

conda activate ai-novel

3.此时,你的提示符应该变成类似这样的状态:

(ai-novel) C:\Users\LING\ai-novel-generator-4.5>

4.运行程序: 最后,老规矩,输入启动命令:

python run.py

访问界面: 无论你是新安装还是重启,只要程序跑起来,打开浏览器,输入地址 http://127.0.0.1:7860,你就能看到AI写作的界面了 。

四、 关键一步:配置“大脑”(API接口)

界面出来了,但此刻它还只是个空壳,我们需要给它接上“大脑”。根据文档推荐,我们使用蓝耘平台作为接口提供商,性价比和稳定性都不错。

操作流程详解:

获取密钥:进入蓝耘的“模型广场”,找到创建API密钥的选项,创建并复制好你的API Key。这相当于你的通行证。

界面配置:

  1. 回到本地AI写作界面,找到 “API配置与负载均衡” 区域。
  2. 供应商:下拉选择 “openAI兼容接口”。
  3. API Key:把刚才从蓝耘复制的密钥粘贴进去。

高级设置(重点!): 这里有个坑要注意,必须选择“高级设置”。

  1. 自定义URL:填写蓝耘提供的地址 https://api.lanyun.net/v1
  2. 模型名称:回到蓝耘模型广场,你想用哪个模型(比如deepseek或其他),就把它的名字复制过来填进去。

配置好后,点击 “保存配置”。至此,你的AI写作助手才算真正“活”了过来。

五、开始你的创作

一切准备就绪,接下来的事情就简单了。在界面上填写你想要的素材、大纲或者简单的构思,创建项目并等待生成。

填写自己想要的素材与内容

创建项目并等待生成

虽然看起来步骤不少,但只要你第一次跑通了,后面日常使用其实就只有“进目录 -> 激活环境 -> 运行”这三步。技术的门槛虽然存在,但只要跨过去,等待你的就是无限的生产力。快去试试吧!

六、写在最后:为什么推荐用蓝耘做“大脑”?

既然工具已经跑起来了,为什么API接口要特意选蓝耘?

理由很简单:省钱、省心、模型多。作为国内专业的MaaS平台,蓝耘集成了DeepSeek等主流大模型,且完美兼容OpenAI接口格式,你不需要到处找梯子或折腾复杂的接入代码,填个地址就能用。最关键的是,相比官方渠道,它在保障生成速度和稳定性的同时,价格对个人创作者非常友好,新用户往往还有体验额度,作为本地小说生成器的“云端发动机”再合适不过了。

Read more

OpenClaw最强Agent Skills推荐:从“会聊“到“会干“,你的AI只差一个插件(附完整安装教程)

文章目录 * 📌 引言 * 第一部分:Skills到底是什么? * 🤔 概念解析 * 🧩 Skill的组成 * 📦 Skills的获取渠道 * 第二部分:为什么你的OpenClaw必须装Skills? * 理由1:原生能力极其有限 * 理由2:Skills让AI"学会用工具" * 理由3:生态是OpenClaw的最大优势 * 第三部分:2026年十大热门Skills推荐 * 🥇 第1名:agent-browser —— 浏览器自动化工具 * 🥈 第2名:tavily-search —— 实时联网搜索 * 🥉 第3名:self-improving-agent —— "会成长的AI" * 第4名:find-skills —— 技能发现与管理神器 * 第5名:email-management —— 邮件管理助手 * 第6名:messaging-integration —— 通讯工具集成 * 第7名:database-query —— 自然语言数据库查询 * 第8名:n8n-workfl

告别手动改配置!CC-Switch:你的AI编码助手“万能遥控器”

告别手动改配置!CC-Switch:你的AI编码助手“万能遥控器”

作为一名天天和代码打交道的开发者,你一定没少用 Claude Code、Codex 或 Gemini CLI 这些 AI 编码助手。它们确实能让你效率飞起,但有一个问题,简直让人抓狂——配置管理。 想象一下这个场景:你在 A 项目用 Anthropic 官方接口,B 项目用代理中转,C 项目想试试某家“神秘”供应商……于是你开始了“手艺人”日常:打开 settings.json,小心翼翼地改 BASE_URL,粘贴新的 API_KEY,生怕一个多余的空格让整个 CLI 崩掉。 烦不烦?太烦了! 今天,我就来给你安利一个能让你彻底告别手动配置的“神器”——CC-Switch。它就像 AI

【AI】trae Skills使用方法

【AI】trae Skills使用方法

一、Skills是什么? Skill可以理解为agent的技能,Claude官方的解释是,使用 Skills 可以提升执行特定任务的能力。比如,可以在本地就能调用 Skills 玩转图片、Excel、Word、PDF 等处理操作,它和agent、mcp对比: 特性对比表格 特性SkillsSub-AgentsMCP (Model Context Protocol)目的用专业知识、工作流程、资源扩展 Claude生成自主代理处理复杂子任务连接外部工具和数据源调用方式模型自动发现(基于上下文)父代理显式生成MCP 服务器工具调用持久性触发时加载到上下文独立运行,返回结果无状态工具执行最适合领域专业知识、工作流程、模板并行任务、研究、探索外部 API、数据库、第三方服务上下文使用渐进式披露(元数据→指令→资源)每个子代理有独立上下文最小上下文(仅工具定义)复杂度低(只需 SKILL.md + 可选文件)中等(需要编排)中-高(

Qwen3.5 四款小尺寸模型开源:昇腾适配已到位,AtomGit AI 开放体验

Qwen3.5 四款小尺寸模型开源:昇腾适配已到位,AtomGit AI 开放体验

近日,千问(Qwen)正式开源 Qwen3.5 小尺寸模型系列,包括:Qwen3.5-0.8B、Qwen3.5-2B、Qwen3.5-4B、Qwen3.5-9B。目前,昇腾生态已完成对 Qwen3.5 小尺寸系列四款模型的适配支持,相关模型文件与权重已同步上线 AtomGit AI,开发者们可直接获取并进行部署测试啦~ 🔗 vLLM Ascend 部署: 0.8B ➡️ https://ai.atomgit.com/vLLM_Ascend/Qwen3.5-0.8B 2B ➡️ https://ai.atomgit.com/vLLM_Ascend/Qwen3.5-2B 4B