AI 大模型落地系列|Eino 组件核心篇:Embedding 到底解决了什么

AI 大模型落地系列|Eino 组件核心篇:Embedding 到底解决了什么

Embedding 使用说明

说到 embedding 组件,本质上就是把文本变成一串数字向量,让程序能“按语义理解文本”,而不只是按字符串匹配。

你可以把它理解成:

  • 原始文本:"今天天气不错"
  • 转成向量后:[0.12, -0.87, 0.44, ...]

这串向量人是看不懂的,因为他是拿个程序看的。
机器可以拿它来算“两个文本像不像”。

有啥用?!

他能干嘛?

平时大家会用到的地方

最常见就是这几类:

1. 文本相似度计算
比如:

  • “怎么退款”
  • “我要申请退钱”

虽然字不一样,但意思接近。
Embedding 后,这两句话的向量距离会比较近,所以系统知道它们语义相似。
这个我在之前的博客<ai基础知识>中提到过

2. 语义搜索
这也是最常见的用途。
比如你有很多文档、知识库、FAQ,用户问:

  • “怎么修改收货地址”

系统不是只搜关键词“修改”“地址”,而是把这个问题也做成向量,然后去找语义最接近的文档片段。
这样即使文档里写的是“变更配送地址”,也能搜出来。

3. RAG / 知识库问答
这类项目里 embedding 基本是核心组件之一了。流程通常是:

  • 先把知识库里的文本切块
  • 然后为每个文本块生成 embedding
  • 存到向量库里
  • 用户提问时,也生成一个 embedding
  • 去向量库里找最相关的内容
  • 再把找到的内容喂给大模型回答

也就是说,它是“先找资料”这一步的关键。

4. 文本聚类 / 分类 / 去重
这个是生活中其他方面的应用,非AI
比如你有很多评论、工单、反馈,可以用 embedding 做:

  • 相似工单归类
  • 重复问题合并
  • 用户反馈主题聚类

它不能直接干嘛?

不是直接拿来生成回答的
它更像一个“文本编码器”或者“语义检索工具”。

也就是:

  • LLM:负责生成、总结、对话
  • Embedding:负责把文本映射到语义空间,方便检索、匹配、聚类

总结:

这个组件的核心用途就一句话:

把文字转换成可计算的语义特征,方便程序判断哪些文本意思接近。

浅用之法

接下来,我先说下基础语法。

EmbedStrings(ctx, texts []string, opts ...Option)([][]float64,error)

意思就是:

  • 输入:多段文本
  • 输出:每段文本对应的一个向量

例如:

texts :=[]string{"hello","how are you",} vectors, err := embedder.EmbedStrings(ctx, texts)

返回的 vectors 就是两段文本的向量表示。
后面你可以拿这些向量去做:

  • 相似度比较
  • 存入向量数据库
  • 召回相关知识片段
  • 聚类分析

食用之法

它的使用可以分成两层来看:

  1. 最直接的用法:给几段文本生成向量也就是我在浅用之法中提到的
  2. 真正落地的用法:配合检索 / 向量库 / RAG 一起用

我直接教你 “你上手怎么写”。


一、最基本用法:直接调用 EmbedStrings

本质核心就这几步:

1. 创建 embedder
import"github.com/cloudwego/eino-ext/components/embedding/openai"// 这个导入的包,是兼容openai的。// 如果你要用豆包,可以专门调用embedding/ark 这个包。 embedder, err := openai.NewEmbedder(ctx,&openai.EmbeddingConfig{ APIKey: accessKey, Model:"text-embedding-3-large", Dimensions:&defaultDim, Timeout:0,})if err !=nil{panic(err)}

这里的作用是初始化一个“文本转向量”的对象。

几个关键参数:

  • APIKey:调用模型服务的密钥
  • Model:选哪个 embedding 模型
  • Dimensions:向量维度
  • Timeout:超时时间

2. 调用 EmbedStrings
texts :=[]string{"hello","how are you",} vectors, err := embedder.EmbedStrings(ctx, texts)if err !=nil{panic(err)}

这一步做完后:

  • texts[0] 对应 vectors[0]
  • texts[1] 对应 vectors[1]

也就是说,输入几段文本,输出几组向量。


3. 向量拿来干嘛

生成出来的 vectors 一般不会直接打印给用户看,而是继续做下面这些事:

  • 存到向量数据库
  • 跟别的向量算相似度
  • 做召回
  • 做聚类
  • 做去重

二、完整demo

你可以把它理解成一个普通组件,哪里需要文本转向量,哪里调用。

例如:

package main import("context""fmt""log""github.com/cloudwego/eino-ext/components/embedding/openai")funcmain(){ ctx := context.Background() defaultDim :=3072 accessKey :="your-api-key" embedder, err := openai.NewEmbedder(ctx,&openai.EmbeddingConfig{ APIKey: accessKey, Model:"text-embedding-3-large", Dimensions:&defaultDim, Timeout:0,})if err !=nil{ log.Fatal(err)} texts :=[]string{"退款怎么申请","如何进行退钱操作","今天天气不错",} vectors, err := embedder.EmbedStrings(ctx, texts)if err !=nil{ log.Fatal(err)} fmt.Println("文本数量:",len(vectors)) fmt.Println("第一条文本向量维度:",len(vectors[0]))}

这就是最标准的“用”了!


三、带 Option 怎么用

公共 option 其实也挺有用的,比如 WithModel

这表示你在调用时,可以临时覆盖模型参数。

vectors, err := embedder.EmbedStrings(ctx, texts, embedding.WithModel("text-embedding-3-small"),)

大致意思就是:

  • embedder 初始化时有一个默认模型
  • 这次调用时,临时改成另一个模型

这个适合:

  • 平时默认用大模型
  • 某些场景为了省钱/提速,改用小模型

但是我在此,不得点明一下,虽然向量在不同模型之前还是有一定的兼容,但是尽量不切换,就不要切换,影响效果


四、在编排中怎么用

如果你不是手动一行一行写,而是用 Eino 的 ChainGraph,就可以把 embedding 当成节点塞进去。

在 Chain 中使用

初次接触chain的话,你可以将其当成一条流水线

chain := compose.NewChain[[]string,[][]float64]() chain.AppendEmbedding(embedder)

意思是:

  • 输入:[]string
  • 输出:[][]float64

也就是整条链专门做“文本 -> 向量”。


在 Graph 中使用
graph := compose.NewGraph[[]string,[][]float64]() graph.AddEmbeddingNode("embedding_node", embedder)

意思是把 embedding 作为图里的一个节点,后面可以接别的节点一起跑。


五、带 Callback 怎么用

这个一般用于:

  • 记录日志
  • 统计 token
  • 监控调用过程
  • 调试输入输出

Callback有点像 给整个链路,外挂了一层“生命周期 中间件 / 钩子机制"

通常是:定义 handler,然后通过 compose.WithCallbacks 传进去。

例如:

handler :=&callbacksHelper.EmbeddingCallbackHandler{ OnStart:func(ctx context.Context, runInfo *callbacks.RunInfo, input *embedding.CallbackInput) context.Context { log.Printf("开始 embedding,文本数: %d, 内容: %v\n",len(input.Texts), input.Texts)return ctx }, OnEnd:func(ctx context.Context, runInfo *callbacks.RunInfo, output *embedding.CallbackOutput) context.Context { log.Printf("embedding 完成,生成向量数: %d\n",len(output.Embeddings))return ctx },}

然后运行时:

callbackHandler := callbacksHelper.NewHandlerHelper().Embedding(handler).Handler() runnable,_:= chain.Compile(ctx) vectors, err := runnable.Invoke(ctx,[]string{"hello","how are you"}, compose.WithCallbacks(callbackHandler),)

这样你就能看到:

  • 输入了什么
  • 什么时候开始
  • 什么时候结束
  • 输出了多少向量
  • token 消耗多少

六、真实场景

真正业务里,embedding 很少是“调一下就结束”,
我拿知识库问答,给大家描绘一下整体流程。

场景:做知识库问答
第一步:把知识库切块

比如一篇文档切成很多段:

chunks :=[]string{"退款申请需要在订单完成后7天内提交","修改收货地址请在发货前联系人工客服","发票可在订单详情页申请",}
第二步:给每个 chunk 生成向量
chunkVectors, err := embedder.EmbedStrings(ctx, chunks)
第三步:存起来

通常会存到向量数据库里,同时保存原文:

  • 文本内容
  • 对应向量
  • 文档来源
  • chunk id
第四步:用户提问时,也生成向量
query :=[]string{"订单下完以后地址还能改吗"} queryVector, err := embedder.EmbedStrings(ctx, query)
第五步:拿 query 的向量去检索最相近的 chunk

找出最相似的几段知识。

第六步:把召回结果交给大模型回答

这才变成完整的 RAG。


七、语法总结

最小步骤
  1. 初始化 embedder
  2. EmbedStrings
  3. 拿到 [][]float64
常见增强
  1. Option 临时覆盖参数
  2. Callback 打日志和监控
  3. 放进 Chain / Graph 编排

八、模板总结

package main import("context""fmt""log""github.com/cloudwego/eino/components/embedding" embeddingOpenAI "github.com/cloudwego/eino-ext/components/embedding/openai")funcmain(){ ctx := context.Background() defaultDim :=3072// 通常是定死的 accessKey :="your-api-key" embedder, err := embeddingOpenAI.NewEmbedder(ctx,&embeddingOpenAI.EmbeddingConfig{ APIKey: accessKey, Model:"text-embedding-3-large", Dimensions:&defaultDim, Timeout:0,})if err !=nil{ log.Fatal(err)} texts :=[]string{"退款怎么申请","如何退钱","修改收货地址的方法",} vectors, err := embedder.EmbedStrings( ctx, texts, embedding.WithModel("text-embedding-3-small"),)if err !=nil{ log.Fatal(err)} fmt.Printf("生成了 %d 个向量\n",len(vectors)) fmt.Printf("每个向量维度: %d\n",len(vectors[0]))}

九、尾声

大家可以把它记成:

Embedding 的“用法”就是:先把文本喂进去生成向量,再把这个向量用于检索、匹配、聚类等后续处理。

相信大家看到这里,应该也明白了:
“会调用 embedding”“会用 embedding 做业务” 是两回事。

前者很简单,就是:

  • NewEmbedder
  • EmbedStrings

后者才是完整链路,比如:

  • 文本切块
  • 向量生成
  • 向量存储
  • 相似检索
  • 大模型回答

1、OpenAI开发者(向量嵌入)
2、官方文档 CloudWeGo(Embedding 使用说明)

Read more

前端八股文面经大全:腾讯前端AI面试(2026-02-28)·面经深度解析

前端八股文面经大全:腾讯前端AI面试(2026-02-28)·面经深度解析

前言 大家好,我是木斯佳。 在这个春节假期,当大家都在谈论返乡、团圆与休息时,作为一名技术人,我的思考却不由自主地转向了行业的「冬」与「春」。 相信很多人都感受到了,在AI浪潮的席卷之下,前端领域的门槛在变高,纯粹的“增删改查”岗位正在肉眼可见地减少。曾经热闹非凡的面经分享,如今也沉寂了许多。但我们都知道,市场的潮水退去,留下的才是真正在踏实准备、努力沉淀的人。学习的需求,从未消失,只是变得更加务实和深入。 这个专栏的初衷很简单:拒绝过时的、流水线式的PDF引流贴,专注于收集和整理当下最新、最真实的前端面试资料。我会在每一份面经和八股文的基础上,尝试从面试官的角度去拆解问题背后的逻辑,而不仅仅是提供一份静态的背诵答案。无论你是校招还是社招,目标是中大厂还是新兴团队,只要是真实发生、有价值的面试经历,我都会在这个专栏里为你沉淀下来。 温馨提示:市面上的面经鱼龙混杂,甄别真伪、把握时效,是我们对抗内卷最有效的武器。 让我们一起充电,为下一个技术春天做好准备。 面经原文内容 📍面试公司:腾讯 🕐面试时间:

唤醒80年代记忆:基于百度地图的一次老式天气预报的WebGIS构建之旅

唤醒80年代记忆:基于百度地图的一次老式天气预报的WebGIS构建之旅

目录 一、省会城市信息构建 1、省会城市空间查询 2、Java后台查询 二、Java省会城市天气查询 1、与百度开放平台集成天气 2、响应对象属性介绍 3、省会天气实况展示 三、WebGIS应用构建 1、背景音乐集成 2、城市标记及天气展示 3、城市轮播 4、成果展示 四、总结 前言         在数字技术飞速发展的今天,我们常常沉浸于各种高科技带来的便捷与震撼之中,却容易忽视那些曾经陪伴我们成长、承载着时代记忆的旧事物。80年代的天气预报,便是这样一份珍贵的文化遗产。它以简洁而质朴的方式,传递着天气信息,也传递着那个时代的气息。那种对自然的敬畏、对信息的渴望,以及一家人共同分享的温馨氛围,都深深烙印在我们的记忆中。然而,随着时间的推移,天气预报的形式已经发生了翻天覆地的变化。高清的画面、精准的数据、个性化的推送……这些现代技术带来的便利固然令人欣喜,但也在一定程度上让我们失去了那份对天气预报本身的纯粹情感。于是,

深入解析WebView的概念、功能、应用场景以及使用过程中的优势与挑战

深入解析WebView的概念、功能、应用场景以及使用过程中的优势与挑战

🤍 前端开发工程师、技术日更博主、已过CET6 🍨 阿珊和她的猫_ZEEKLOG博客专家、23年度博客之星前端领域TOP1 🕠 牛客高级专题作者、打造专栏《前端面试必备》 、《2024面试高频手撕题》、《前端求职突破计划》 🍚 蓝桥云课签约作者、上架课程《Vue.js 和 Egg.js 开发企业级健康管理项目》、《带你从入门到实战全面掌握 uni-app》 文章目录 * * 一、引言 * 二、WebView概述 * 三、WebView的功能与应用场景 * 四、WebView的优势与挑战 * 五、WebView的使用示例 * 六、总结 摘要: 本文详细介绍了App中WebView的概念、功能、应用场景以及使用过程中的优势与挑战。通过对WebView的深入剖析,帮助开发者更好地理解和运用这一技术,在App开发中实现更丰富的功能和更好的用户体验。 一、引言 在移动应用开发领域,为了在App中展示网页内容、集成Web应用或实现与网页的交互功能,WebView是一种常用的技术手段。它为开发者提供了一种在原生App中嵌入Web内容的

【Vibe Coding】因为不想付10块钱,我花3小时用AI写了个羽毛球助手小程序

【Vibe Coding】因为不想付10块钱,我花3小时用AI写了个羽毛球助手小程序

因为不想付10块钱,我花3小时用AI写了个羽毛球助手小程序 “国人最受不了收费了”——这句话道出了多少开发者的心声。当组织羽毛球"转转"活动都要被第三方平台薅羊毛时,我选择了一条更硬核的路:自己造一个。 一、导火索:10块钱引发的"技术觉醒" 事情是这样的。 我们有个羽毛球群,每周组织"双打多人转"活动——4片场地、十几号人、轮换搭档,用小程序来排赛程、记比分、算排名,本来挺方便的。 直到某天,群里有人发了张截图: 10块钱。不多,但够膈应人的。 更膈应的是,这个工具的功能其实很简单: * 录入人员名单,自动生成轮换对阵 * 支持21分制记分,最高30分封顶 * 实时积分榜,按胜率排名 就这点功能,要收10块? 群里瞬间炸锅: * “这钱够买个羽毛球了” * “下次我Excel手写轮次表” * “有没有免费的替代方案?