(Coze-AI)智能体介绍 coze知识库和数据库资源

(Coze-AI)智能体介绍 coze知识库和数据库资源

目录

概述

什么是coze?

扣子罗盘

Eino框架

扣子空间

智能体开发

创建智能体

智能体模式选择

大模型原理与设置

参数配置

编写提示词

智能体的发布

用户体验优化

Coze 资源

插件资源

插件的分类和使用

知识库资源

什么是知识库

什么是RAG

数据库资源

什么是数据库

coze数据库的使用


coze开发平台官方网址: https://www.coze.cn/  

概述

什么是coze?

coze又称扣子,是字节跳动开发的新一代Al Agent 开发平台。无论你是否有编程基础,都可以在扣子上快速搭建基于大模型的各类 Al应用,并将 Al 应用发布到各个社交平台、通讯软件,也可以通过APl或SDK将Al应用集成到你的业务系统中。



扣子平台是字节跳动做的一个“AI机器人搭建工具箱”。它最大的特点就是不用写代码或者只写很少的代码,让不懂技术的人也能像搭积木一样,轻松地创造一个能对话、会办事的AI助手。一句话总结:扣子就是一个让你能轻松亲手制作自己专属AI助手的傻瓜式平台。

扣子罗盘

访问链接:https://loop.coze.cn/console/enterprise/personal/space/7487806534651887643/pe/prompts

Coze罗盘是字节跳动免费开放给大家用的一个“AI机器人工厂管理系统”。你可以把它想象成-个超级智能的控制中心和质检车间。从你开始造一个AI机器人(开发)、到反复训练它(调试)、给它考试看它水平如何(评测)、再到把它上线工作并且时刻盯着别出问题(运维),整个生命周期都可以在这个系统里完成。

Eino框架

Eino 是基于Go 语言的 AlAgent 开源开发框架,提供了丰富的辅助 Al Agent 开发的原子组件、集成组件、组件编排、切面扩展等能力,可以帮助开发者更加简单便捷地开发出架构清晰、易维护、高可用的 AlAgent 和各类AI 应用。

扣子空间

https://www.coze.cn/space-preview访问链接:

https://www.coze.cn/space-preview

Coze空间是字节跳动做的一个“AI同事办公室”。在这个“办公室”里,你不用下复杂的命令就像跟真人同事说话一样,直接告诉AI你的需求就行。比如你说“做个下半年旅游计划的PPT”,它就能自己琢磨步骤、去找资料、调用工具,然后把做好的PPT直接交给你。

智能体开发

智能体是基于大语言模型构建的,具备自主感知环境、分析数据并执行目标任务的能力。与传统自动化工具不同,其核心差异在于主动适应能力--可通过用户反馈和数据迭代持续优化策略,而非仅执行预设规则。

https://www.coze.cn/customers智能体应用场景与案例:

https://www.coze.cn/customers

创建智能体

进入官网:https://www.coze.cn/home



创建:



创建后的界面:

智能体模式选择

智能体模式选择:一共有三种选择,单Agent(自主规划模式)、单Agent(对话流模式)和多Agents模式



agent:一个可以执行独立任务的小模块/一块独立的CPU

三种模式的区别:

(1)单Agent(自主规划模式):

你只管下最终指令,它自己会思考、会决策、会调用各种工具来完成任务

(2)单Agent(对话流模式):

引导你一步步提供信息,最后给出结果。适合流程标准化、需要引导用户的场景

是一种属于一问一答的模式,相比于自主规划模式,多了一种交互的过程。

(3)多Agents模式:
专家组 每个人agent各管一摊,专业性要求高 场景复杂


大模型原理与设置

人工智能核心依赖:大模型

可以在具体的场景中,选择对应的模型








大模型工作原理:


第一步:数据准备预处理
相当于“给学霸准备海量的复习资料”在训练之前,模型需要数据。但这些数据不能是原的、杂乱无章的。

第二步:模型训练-相当于“学霸疯狂阅读并做完形填空练习”这是最核心、最耗计算资源和时间的一步。其核心是自监督学习。

第三步:模型推理(ModelInference)-相当于“你们向学霸提问,他现场作答训练好的模型就可以用来为用户服务。这个过程就叫推理。

第四步:对齐与微调,相当于“告诉学霸,不能光炫技,要好好说话、有帮助、无害

一个只知道预测下一个词的模型,可能会生成无用、有害或不准确的回答。因此需要一个“打磨”过程,让它更符合人类的价值观和偏好。
参数配置
在使用大模型的时候,不同的参数配置会导致不同的输出结果,下面我们来逐一分析一下大模型的参数。



携带上下文轮数指的是要不要记忆之前的对话

编写提示词

提示词是与大模型交流的载体,一般情况下,提示词可以分为系统提示词和用户提示词。

优质提示词需清晰定义角色、目标、约束、流程、示例,推荐使用CO-STAR框架:




在实际中提示词,有多种框架。可以根据具体的使用场景去灵活调整。

AI人设:


智能体的发布

发布:





点击发布:



发布完成之后的智能体可以被别人通过链接访问到:

用户体验优化

AI生成开场白,设计符合一般沟通习惯的欢迎话术,快速建立亲切感并引导用户表达需求,同时自然融入品牌服务特色。



编辑的开场白可以在下面首页刚打开显示出来

Coze 资源

Coze 资源是支撑智能体功能实现的模块化基础组件,通过整合外部能力、数据存储与自动化规则,使智能体具备信息处理、功能扩展与场景化服务能力。资源系统是 Coze 平台低代码开发模式的核开发者可通过组合不同资源快速构建复杂智能体,无需从零开发底层功能。 

扣子资源有以下分类:插件、知识库、数据库、音色、提示词


插件资源

在Coze中,插件是扩展智能体功能的模块化工具,通过调用外部服务、数据接口或预设逻辑,使智能体具备实时交互、动态决策和场景化服务能力。


这里的插件,其实就是第三方接口:



调用插件:



调用方法:使用{}







写到左边:



会调用插件:


调用天气插件:


使用插件,就提升了智能体的能力,以及回答的准确性

插件的分类和使用

按照功能场景分类:


AI帮忙画图片:



调用:

 

知识库资源

什么是知识库

知识库是一个用于存储和管理外部数据的核心功能模块。

这个是允许开发者上传自己的内容

添加文本内容:



已上传文本内容,调用的是文本中的信息:



都可以在知识库中找到对应的内容:



这些内部性比较高的内容,在AI不出来的时候,通过知识库的方式,传递给AI

丰富智能体的能力

什么是RAG

RAG:检索增强生成

RAG是一种将"信息检索"与"文本生成"相结合的技术框架。

它的核心心思想很简单:在让大模型生成答案之前,先让它去一个指定的知识库(比如公司文档、数据库、网网页等)里查找相关的信息,然后根据查找到的这些准确、最新的信息来组织和生成答案。

没有RAG的普通大模型:像一个在做闭卷考试的学生,只能依靠自己记忆(训练数据)中的知识来答题。如果问题超出了它的记忆范围,或者记忆是错的,它就会答错或"编造答案案"(幻觉)


有RAG的大模型:像一个在做开卷考试的学生。遇到问题时,无跑去翻阅指定的参考书(知识库),找到最相关的段落和证据,然后结合自己的理解(生成能力),组织成一个准确的答案。

数据库资源

什么是数据库

Coze数据库是字节跳动扣子平台提供的结构化数据存储服务,采用类NoSQL的文档模型,支持通过自然语言或SQL语句进行数据的增删改查操作。

作为智能体的"长期记忆"组件,它能够持久化存储用户交互数据、业务配置信息和应用状态,是构建复杂AI应用的的核心基础设施。

之前聊到的知识库资源,插件资源,和现在的数据库资源,都是为了丰富智能体的能力。




新建:


在左边的智能体当中,添加要求将数据写入到data表当中:



记录到data目录当中:



这样将所需的数据记录到了表当中 



因为我们把数据写到了数据库中,就保证了数据的长期记忆。避免轮数带来的限制。

coze数据库的使用

 记录用户的问题,创建缓存,避免coze资源的浪费。

在人设逻辑中描述:



用户再次询问的问题,直接从data表中读取,避免消耗coze资源



询问问题,数据库data表中已记录

Read more

AI大模型微调(三)------Qwen3模型Lora微调(使用Llamafactory)

AI大模型微调(三)------Qwen3模型Lora微调(使用Llamafactory)

AI大模型微调(三)------Qwen3模型Lora微调(使用Llamafactory) 文章目录 * AI大模型微调(三)------Qwen3模型Lora微调(使用Llamafactory) * 一、安装LLaMA-Factory&开发环境 * 二、数据集 * 1.Alpaca * 2.ShareGPT * 3.自定义数据集 * 三、LoRA指令微调 * 四、可视化/零代码微调 * 1.模型下载源 * 2.微调方法 * 3.Train-数据集 * 4.Train-计算类型 * 5.模型名称 * 6.导出微调过的模型 * 五、可能出现的问题 * 1.CUDA未找到 * 2.ValueError: Your setup doesn't support bf16/

DAMODEL平台|Llama 3.1 开源模型快速部署:从零到上线

DAMODEL平台|Llama 3.1 开源模型快速部署:从零到上线

文章目录 * 一、Llama 3.1 系列的演进与发展历程 * 二、大型语言模型的力量:Llama 3.1 405B * 三、Llama 3.1 405B 部署教程 * 四、Llama 3.1在客户服务中的运用 一、Llama 3.1 系列的演进与发展历程 自开源LLM(大语言模型)兴起以来,Meta公司凭借其Llama系列逐步在全球AI领域占据重要地位。2024年7月23日,Meta发布了Llama 3.1系列,标志着该系列在技术上的一次重要飞跃。 Llama 3.1的发布不仅在算法优化和性能提升方面做出了突破,还在数据处理和模型架构上进行了革新。随着版本的不断迭代,Llama系列逐步从最初的研究原型发展为一个功能强大、易于扩展的工具,深刻影响了开源AI生态的进步。 本篇文章将详细回顾Llama 3.1系列的演进历程,探讨其在开源领域的重要贡献以及未来发展的潜力。 这一成就的背后,是超过15万亿的Tokens和超过1.

ComfyUI-Manager实战指南:4个核心价值解决AI绘画插件管理痛点

ComfyUI-Manager实战指南:4个核心价值解决AI绘画插件管理痛点 【免费下载链接】ComfyUI-Manager 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-Manager 在AI绘画创作中,插件管理的效率直接决定工作流质量。ComfyUI效率提升的关键在于能否快速构建稳定的插件生态,而ComfyUI-Manager正是为此打造的专业工具。本文将通过场景化解决方案,帮助你彻底摆脱插件安装繁琐、版本冲突频发、环境配置耗时的困境,让AI绘画创作更加流畅高效。 🔍 当插件冲突导致工作流崩溃时,你需要怎样的解决方案? 插件生态就像一幅复杂的拼图,每个插件都是不可或缺的拼块。但当拼块之间无法兼容时,整个创作流程就会陷入停滞。传统解决方式往往需要手动排查冲突源、卸载重装插件,整个过程平均耗时3小时,且成功率不足50%。 核心价值:智能兼容性守护 ComfyUI-Manager的安全验证模块会在插件安装前进行全面扫描,自动识别潜在的"插件打架问题"。该模块通过分析插件依赖关系和版本兼容性,提前规避90%以上的冲突风险。当

Llama-3.2-3B部署优化:Ollama配置context window与token限制详解

Llama-3.2-3B部署优化:Ollama配置context window与token限制详解 如果你正在使用Ollama运行Llama-3.2-3B,可能会遇到这样的问题:对话聊着聊着,模型好像“失忆”了,不记得之前说了什么;或者当你输入一段稍长的文本时,直接被截断,只处理了前面一小部分。 这通常不是模型本身的问题,而是默认的上下文长度(context window)和token限制设置不够用。今天,我就来手把手教你如何调整这些关键参数,让你的Llama-3.2-3B真正“火力全开”,处理更长的对话和文档。 1. 核心概念:为什么需要调整Context Window和Token限制? 在深入操作之前,我们先花两分钟搞懂两个关键名词,这能帮你更好地理解为什么要调整,以及调整到什么程度合适。 1.1 什么是Context Window(上下文窗口)? 你可以把Context Window想象成模型的工作记忆区或“短期记忆”。它决定了模型在生成下一个词时,能“看到”并参考之前多长的文本。 * 默认情况:很多模型,包括Ollama默认拉取的Llama-3.2-3B,