低门槛实现 AI 文档解析 | TextIn xParse Dify插件使用教程

低门槛实现 AI 文档解析 | TextIn xParse Dify插件使用教程

TextIn xParse Dify插件简介

Dify是一个开源的大语言模型(LLM)应用开发平台,旨在简化和加速生成式AI应用的创建和部署。它结合了后端即服务(BaaS)和LLMOps的理念,为开发者提供了用户友好的界面和强大的工具,有效降低了AI应用开发的门槛。

TextIn xParse是一个端到端文档处理AI基础设施,致力于将非结构化文档高效转化为可查询、可分析的数据资产。

目前TextIn xParse插件已在Dify市场上架,帮助用户搭建工作流,提供强大的文档解析和处理能力。

xParse在Dify中的使用方法

一、xParse Dify插件亮点

  • 多种解析引擎支持:支持TextIn自研高性能解析引擎(推荐)、MinerU、PaddleOCR等多种行业内先进的解析引擎,可根据文档类型灵活选择。
  • 强大的文档处理能力:支持PDF、Word、Excel、PPT、图片等多种格式,准确提取标题、公式、图表、表格等元素,保留文档的语义结构。
  • 赋能工作流:让Dify的Agent拥有强大的文档"读写"能力,轻松处理复杂任务,支持RAG、知识库构建、信息提取等场景。
  • 灵活的配置选项:支持自定义解析引擎、去水印、切边增强等参数,满足不同业务需求。

二、实战演练:两个案例带你快速上手

空谈不如实战。下面我们通过两个典型场景,向你展示xParse插件的强大之处。

准备

  1. 在Dify插件页面安装xParse插件(私有化部署的Dify同理)
  2. 填写API配置信息

在插件配置页面,需要填写以下信息:

  • x-ti-app-id:xParse的应用 ID,必填
  • x-ti-secret-code:xParse的密钥,必填
提示:请前往TextIn工作台(https://www.textin.com/console/dashboard/setting)获取API Key,详细获取方式请参考API Key文档(https://docs.textin.com/pipeline/api-key

案例一:解析单文件,搭建Chat Document应用

想借助AI与你的文档对话吗?跟着下面几步,轻松实现。

第一步:创建空白应用,选择“Chatflow”

输入应用名称与描述

第二步:创建的初始模板中,选择“开始”节点

点击右侧“+”按钮添加变量,选择字段类型选为单文件,填写变量名称(此处填为input_file),支持文档类型选为文档与图片,上传文件类型选为本地上传。

第三步:添加工具节点——xParse插件来解析上一步开始节点上传的文件
第四步:设置xParse的输入变量,选择上一步开始节点添加的input_file

xParse插件支持以下配置选项:

  • 文件输入:选择要解析的文件(必填)
  • 解析引擎:可选择Textin(推荐)、Textin LiteMineruPaddleOCR等(陆续接入中)
  • 预处理:可选择切边矫正去水印

其他参数详情可参考插件说明文档(https://marketplace.dify.ai/plugin/intsig-textin/xparse)。

第五步:配置LLM模型

选择“LLM”节点后,如果没有模型可用,需要单独在插件市场安装(这里使用gpt-5作为示例)

“上下文”选择xParse的输出变量text(xParse解析文档后的markdown格式)

在“SYSTEM”区域根据实际需求填写提示词,可如图填写“在文档解析text中提取用户的问题答案”

第六步:预览,上传文件并提问机器人关于文档的内容

至此一个简单的文档问答应用Chat PDF搭建完成,点击“预览”,查看效果如何:

结果如下:

第七步:发布与测试

保存并发布你的应用。现在,上传一份PDF或图片,你就可以和它自由对话了!

案例二:自动化批量处理文档,并上传至云端S3

需要处理大量文档并归档?xParse插件同样能胜任。

第一步:安装S3插件
第二步:配置S3 bucket
第三步:创建工作流

选择字段类型为“文件列表”,填写变量名称(此处填为upload_files),支持的文档类型选为文档与图片

第四步:添加“迭代”

在“开始”节点后添加“迭代”,并配置迭代内的xParse节点,设置迭代的输入为上一步开始节点的upload_files,输出节点暂时不填写,在整个迭代配置完成后选择xParse节点文档解析的files

将xParse的输入参数文件(file)选择为迭代器的item

第五步:增加中间节点“代码执行”来转换xParse的解析结果

输入变量(变量名称需与代码定义一致)

  • text:选择xParse文档解析的输出变量text
  • fileName:选择“迭代”节点的itemname

输出变量(变量名称需与代码定义一致)

  • fileName:String
  • base64:String

代码选择JavaScript,编写转换代码:

function main({text, fileName}) { const fileContent = Buffer.from(text, 'utf-8').toString('base64'); return { fileName, base64: fileContent }; }

以下为Python版本:

import base64 def main(text: str, fileName: str): base64_content = base64.b64encode(text.encode('utf-8')).decode('utf-8') return { 'fileName': fileName, 'base64': base64_content }
第六步:配置S3插件来上传内容

添加工具节点S3,选择“通过S3上传base64”

文件base64选择代码执行(图中为转换xParse MD文本)输出的base64字段

S3对象key填写文件存储的路径,在botos3插件配置界面已经填写了bucket名称,这里只需要填写在 bucket下存储的目录即可。选择代码执行(图中为转换xParse MD文本)的fileName

第七步:预览效果

连接结束节点,至此,一个简单的上传到s3的工作流配置完成,点击“运行”看看效果:

第八步:查看文档

运行结束,可在云存储服务后台查看S3桶内是否已上传解析后的md文件。

三、更多应用场景

xParse Dify插件还支持以下应用场景:

RAG应用构建

使用xParse解析文档后,结合Dify的知识库功能,构建智能问答系统。xParse的智能分块功能可以确保文档被合理切分,保留语义完整性,提升检索效果。

信息提取Agent

结合xParse的信息抽取能力,构建自动化的信息提取Agent,从合同、发票、订单等文档中提取结构化信息,自动完成数据录入和验证。

批量文档处理

使用迭代节点批量处理文档,结合xParse的多种解析引擎,根据文档类型自动选择最适合的解析方案,提升处理效率和准确性。

四、常见问题

Q: 如何选择合适的解析引擎?

A:

  • textin:适合大多数场景,速度和准确性俱佳(推荐)
  • textin-lite:适合纯文本、表格图片、电子档PDF等场景,速度更快,价格更低
  • mineru:适合学术论文等场景,表现优异
  • paddle:适合多语言和复杂文档场景(如PPT),表现优异

Q: xParse支持哪些文件格式?

A: xParse支持PDF、Word、Excel、PPT、图片(JPG、PNG等)等多种格式。

Q: 如何获取API Key?

A: 请前往TextIn工作台(https://www.textin.com/console/dashboard/setting)获取x-ti-app-idx-ti-secret-code,详细获取方式请参考API Key文档(https://docs.textin.com/pipeline/api-key

Q: 解析后的结果格式是什么?

A: xParse默认返回Markdown格式的文本,同时支持返回JSON格式的结构化数据,包含文档元素、坐标信息等详细信息。

Read more

前端SSE(Server-Sent Events)实现详解:从原理到前端AI对话应用

一、什么是SSE? SSE(Server-Sent Events)是一种服务器向客户端推送数据的技术,它允许服务器主动向客户端发送数据,而不需要客户端频繁轮询。SSE特别适合实时通信场景,比如AI聊天的流式输出、实时通知、股票行情更新等。 SSE的核心特点: * 单向通信 :服务器向客户端单向推送数据 * 基于HTTP :使用标准的HTTP协议,不需要特殊的服务器支持 * 自动重连 :连接断开时会自动尝试重连 * 文本格式 :使用简单的文本格式传输数据 * 轻量级 :实现简单,开销小 二、SSE的工作原理 1. 连接建立 客户端通过向服务器发送一个HTTP请求来建立SSE连接。服务器返回一个特殊的响应,设置 Content-Type: text/event-stream 头,告诉客户端这是一个SSE流。 2. 数据传输 服务器以流的形式持续发送数据,每个数据块都是一个SSE格式的消息。SSE消息格式如下: data: 消息内容\n\n 其中: * data: 是固定前缀 * 消息内容可以是任意文本,

PowerShell中Invoke-WebRequest的正确使用:避免参数匹配错误

1. 从一次报错说起:为什么我的curl命令在PowerShell里不灵了? 那天我正在调试一个本地API接口,很自然地就在PowerShell里敲下了 curl -X POST http://127.0.0.1:8199/api/post。这命令在Linux的Bash终端里我用了无数次,闭着眼睛都能敲对。结果,PowerShell毫不留情地甩给我一个红字报错:Invoke-WebRequest : 找不到与参数名称“X”匹配的参数。 我当时就愣住了,心想:“-X POST”这不是curl的标准写法吗?怎么到你这儿就不认了?相信很多从Linux/macOS转战Windows,或者刚开始接触PowerShell的朋友,都踩过这个坑。这个错误看似简单,背后却藏着PowerShell设计哲学和命令别名的“小心思”。简单来说,在PowerShell里,curl 并不是你熟悉的那个cURL工具,而是 Invoke-WebRequest 这个PowerShell原生Cmdlet的一个别名。这就好比你在北京叫“师傅”可能是在打招呼,在别的地方可能就是在称呼真正的老师傅,语境完全不同。Invoke-

AI Ping 上新限免:GLM-4.7 与 MiniMax-M2.1 实测对比

AI Ping 上新限免:GLM-4.7 与 MiniMax-M2.1 实测对比

引言:AI Ping上新双旗舰,一站式免费解锁国产大模型核心能力 在大语言模型(LLM)的落地应用中,“AI Ping”已成为衡量模型实用价值的核心指标——它并非传统网络的连通性检测,而是针对LLM的响应效率、内容质量、资源消耗的综合探测体系。当前,AI Ping平台重磅上新两款国产旗舰模型并开放免费体验:智谱AI GLM-4.7与MiniMax-M2.1,无需跨平台注册,仅需在AI Ping注册获取1个API Key,指定对应模型名即可直接调用,零门槛解锁两款模型核心能力。 (注册登录立享30元算力金,专属通道:https://aiping.cn/#?channel_partner_code=GQCOZLGJ) 一、两款免费上新模型概述 两款模型均已入驻AI Ping平台,统一提供免费调用服务,基础属性清晰适配不同业务场景: 1. GLM-4.7:智谱AI GLM-4系列核心模型,基于自回归预训练框架,支持8k上下文窗口,主打“

【保姆级教程】从零到一:在飞书中接入 OpenClaw,打造你的专属 AI 助手

摘要:本文将手把手带你从零开始,完成 OpenClaw 的安装部署,并将其接入飞书,让你在飞书聊天窗口中直接与 AI 助手对话、下达指令。全文覆盖环境准备、一键安装、AI 模型配置、飞书机器人创建与对接、首次使用以及常见问题排查,适合所有技术水平的读者。 一、OpenClaw 是什么? OpenClaw(前身为 ClawdBot / Moltbot)是 2026 年迅速崛起的一个开源 AI 智能体项目。与 ChatGPT 等云端 AI 不同,OpenClaw 运行在你自己的本地环境(个人电脑或云服务器)中,核心理念是"将控制权交还给用户"。 简单来说,OpenClaw 是一个 AI 网关——它连接了你日常使用的通信工具(如飞书、钉钉、