从0到1打造专业职配助手:基于openJiuwen记忆库新特性的AI职业规划实战

从0到1打造专业职配助手:基于openJiuwen记忆库新特性的AI职业规划实战

前言

最近基于openJiuwen框架,用它最新推出的独立记忆库功能,搭建了一个“专业职配助手”智能体。它不仅能依托行业知识库给出专业-岗位匹配建议,更能通过记忆库记住用户的专业背景、职业偏好,实现跨智能体的个性化推荐。今天就把从模型配置到智能体测试的全流程拆解给你,重点聊聊记忆库如何让AI真正“懂你”。

一、核心思路:知识库+记忆库,让AI从“会回答”到“懂你”

这次搭建的核心,是openJiuwen的记忆库新特性

  • 知识库:作为“公共知识底座”,存储全行业职业数据、专业与岗位对应表,解决“专业能做什么”的问题;
  • 记忆库:作为“用户专属档案”,存储用户的专业背景、职业偏好、咨询历史,解决“你适合做什么”的问题;
  • 大模型:负责理解用户需求,同时调用知识库和记忆库,生成精准、个性化的职业建议。

一句话概括:用知识库提供行业广度,用记忆库赋予用户温度,让这两者的结合更高效、更灵活。

二、第一步:模型配置——打好智能体基础

openJiuwen支持独立配置LLM和Embedding模型,这让我可以根据场景选择最适合的工具:

1. LLM模型(对话与记忆理解)

我选择了 DeepSeek-V3.2,通过 SiliconFlow 平台接入:

  • 模型友好名称Pro/deepseek-ai/DeepSeek-V3.2
  • API协议SiliconFlow
  • 基础服务地址https://api.siliconflow.cn/v1/chat/completions
  • API密钥:从 SiliconFlow 控制台获取

这个模型负责理解用户对话、解析记忆库中的用户信息,是实现个性化推荐的核心。

接下来测试模型是否配置成功

2. Embedding模型(文本向量化,支撑记忆检索)

为了让知识库和记忆库能被高效检索,我配置了 text-embedding-v4

  • 模型友好名称text-embedding-v4
  • API协议OpenAI
  • 基础服务地址https://dashscope.aliyuncs.com/compatible-mode/v1
  • API密钥:从阿里云百炼控制台获取

它负责将用户的对话和记忆数据转换成向量,是记忆库能快速定位用户信息的关键,同时检索上传的知识库。

三、第二步:知识库搭建——全行业职业数据

知识库是智能体的“公共大脑”,我上传了两份核心文档:

  1. 《2025年全行业职业数据知识库(含传统+第七批新职业完整版).md》:包含各行业岗位名称、能力要求、薪资范围和发展趋势;
  2. 《专业与就业岗位核心对应表.md》:明确了不同专业(如计算机、金融、机械)对应的典型岗位和适配方向。

上传后,系统自动对文档进行了索引和增强,确保后续检索时能快速定位到相关信息。

四、第三步:记忆库创建——openJiuwen新特性的核心应用

这是本次搭建的重点,我充分利用了openJiuwen的独立记忆库功能

1. 记忆库核心配置

  • 记忆库名称职业记忆分析
  • 描述:存储用户专业背景、职业兴趣及各专业对应的职业图谱,包括岗位名称、能力要求、晋升路径等,用于辅助生成个性化职业建议、专业转岗方案及职业发展规划。
  • 关联模型
    • Embedding 模型:text-embedding-v4(负责记忆数据向量化)
    • LLM 模型:Pro/deepseek-ai/DeepSeek-V3.2(负责记忆理解与生成)

2. 记忆库新特性优势

  • 独立配置:可以为记忆库单独选择最适合的LLM和Embedding模型,不依赖智能体本身的模型配置,灵活性更高;
  • 跨Agent共享:记忆库中的用户数据可以被多个智能体调用,比如我可以在“职业规划”和“简历优化”两个智能体中,共享同一个用户的专业背景和职业偏好;
  • 上下文增强:通过记忆库,智能体能理解用户的历史对话,比如用户之前说过“想留在成都发展”,后续推荐岗位时就会优先标注成都地区的机会,上下文理解能力大幅提升。

五、第四步:智能体创建与配置

我给智能体起名为 “专业职配助手”,描述:联动职业知识库与用户专属记忆库,快速匹配专业对应的适配岗位,解答行业选择、岗位要求、晋升路径等核心问题,为用户提供精准、高效的职业匹配与咨询服务。

接下来进行提示词配置,可以使用自动优化功能进行配置。

同时,我在系统提示词中明确了记忆库的调用逻辑:

每次回复前,必须调取用户记忆库中的历史信息,确保回答贴合用户个性化需求;若记忆库中无相关信息,主动引导用户补充专业背景、职业偏好等内容,丰富记忆库;支持跨智能体共享记忆数据,让用户在不同场景下都能获得一致的个性化体验。

进行记忆库添加以及变量配置,方便智能体中的记忆库进行分类存储。

知识库添加和开场白介绍

你好,我是专业职配助手。依托职业知识库和你的专属记忆,我能快速为你匹配岗位、分析路径。请直接告诉我你的专业或目标,我会给出精准建议。

六、第五步:测试验证——记忆库让AI更懂你

创建完成后,我重点测试了记忆库的效果:

金融专业的学生,有没有对口职业推荐

  1. 输入“我专业是计算机科学技术,掌握C++,python,Linux,会AI编程”,智能体快速返回了软件开发、数据分析、网络安全等岗位,并标注了能力要求和薪资范围;回答的内容我们发现按照变量保存到了记忆库中。

  1. 清空聊天记录,重新进入智能体测试。

测试结果显示,openJiuwen的记忆库新特性,让智能体从“通用回答机器”变成了“懂你的职业伙伴”,成功保存了用户的对话信息,不用担心对话内容消失。

七、总结:记忆库是AI从“工具”到“伙伴”的关键

这次基于openJiuwen搭建专业职配助手的过程,让我深刻体会到:

  • 知识库是广度:没有高质量的行业数据,智能体就会泛泛而谈,精确的知识库,内容更加规范,具有可信度;
  • 记忆库是温度:没有用户记忆,智能体就只能给出通用答案,缺乏个性化;
  • openJiuwen的新特性是效率:独立配置、跨Agent共享的记忆库功能,让AI应用的开发和迭代更高效,也让用户体验更流畅。

如果你也想让自己的AI应用更懂用户,不妨试试openJiuwen的记忆库新特性,从一个小场景入手,比如“考研专业推荐”“留学选校”,让AI真正记住用户的需求。

部署使用参考链接:

openJiuwen项目地址:https://gitcode.com/openJiuwen?utm_source=ZEEKLOG

openJiuwen:https://openJiuwen.com?utm_source=ZEEKLOG

Read more

使用LLaMA-Factory对GLM-4-9B-Chat进行LoRA微调

使用LLaMA-Factory对GLM-4-9B-Chat进行LoRA微调 在大模型应用日益普及的今天,如何快速、低成本地定制一个符合特定场景需求的语言模型,已经成为开发者和企业关注的核心问题。直接全参数微调动辄数十GB显存消耗,对大多数团队而言并不现实。而像 LoRA(Low-Rank Adaptation) 这样的高效微调技术,配合如 LLaMA-Factory 这类开箱即用的框架,正让“平民化”大模型定制成为可能。 本文将以 GLM-4-9B-Chat 为例,带你从零开始完成一次完整的 LoRA 微调流程——从环境配置、数据清洗到训练部署,最终得到一个可独立运行的专属模型。整个过程无需深入理解底层原理,也能在单卡 A10/A100 上顺利完成。 环境准备:搭建可编辑的开发环境 首先确保你的系统已安装 Python ≥ 3.10 和支持 CUDA 的 PyTorch 版本(推荐 torch==2.1.0+cu118 或更高)

By Ne0inhk
蓝耘 × 通义万相 2.1,AIGC 双雄合璧,点燃数字艺术新引擎

蓝耘 × 通义万相 2.1,AIGC 双雄合璧,点燃数字艺术新引擎

目录 一、本篇背景: 二、蓝耘与通义万相 2.1 概述: 2.1蓝耘简介: 2.2通义万相 2.1 简介: 注册并使用蓝耘元生代智算平台: 完成通义万相 2.1部署并调用:  个人代码调用过程及感受: 环境准备: 代码实现: 保存生成的图像: 三、蓝耘与通义万相 2.1 结合的优势: 3.1强大的计算力支撑: 3.2高效的数据处理与传输: 3.3定制化与优化: 四、蓝耘调用通义万相 2.1 API 的实际代码演示: 4.1环境搭建: 4.2图像生成代码示例: 4.3文本生成代码示例: 五、蓝耘与通义万相 2.1

By Ne0inhk
当Copilot动辄推荐awk:AI的“Linux思维”,是进化还是执念?

当Copilot动辄推荐awk:AI的“Linux思维”,是进化还是执念?

当Copilot动辄推荐awk:AI的“Linux思维”,是进化还是执念? “用awk处理这个文本吧”——最近,不少程序员在使用GitHub Copilot时,都会被这句突如其来的建议“刷屏”。原本只是用来补全代码、生成函数的AI助手,如今却频频跳出代码编辑器的范畴,主动推荐awk、sed、grep这些Linux命令行工具,甚至能生成一套完整的Shell命令流水线,帮你完成数据清洗、日志分析等复杂操作。 这一现象迅速在技术圈引发热议:有人惊叹AI已经具备了“Linux思维”,能像资深运维工程师一样用底层工具高效解决问题;也有人调侃,Copilot怕不是被“老派”程序员的代码喂偏了,动辄就awk,仿佛图形界面在它眼里就是“不够极客”的代名词;更有人担忧,当AI都能熟练运用这些经典Unix工具时,程序员的核心技能会不会被颠覆,我们是不是真的要重新捡起尘封的man手册? 今天,我们就从Copilot的awk执念说起,聊聊AI与Linux底层工具的碰撞,拆解这场“AI Linux思维”热潮背后的真相、价值与争议,顺便解答每个开发者都关心的问题:当AI开始用命令行思考,我们该顺势而为,还是保

By Ne0inhk
OpenCode 踩坑记:GitHub Copilot 按次计费?我的账单为何暴涨 3 倍!

OpenCode 踩坑记:GitHub Copilot 按次计费?我的账单为何暴涨 3 倍!

从发现问题到深度分析,一篇文章搞懂 OpenCode + GitHub Copilot 的正确打开方式 🌟 前言:一个意外的"惊喜" 进入2026年,朋友圈和技术群里都在讨论一个新的AI开发工具 —— OpenCode,号称是 AI 编程助手的"终极形态",支持 GitHub Copilot、Claude、GPT-4 等多种模型,还能自动执行多步任务。 作为一个爱折腾的程序员,我立马下载试用。我有 GitHub Copilot 企业订阅,而且OpenCode还支持,用起来应该不花钱吧? 结果一周后,我收到了公司 IT 部门的"温馨提醒" 📧: “您的 Copilot 使用量是团队平均水平的 3 倍,请注意合理使用…” 什么情况??我明明只是让

By Ne0inhk