RAGFlow Python API 中文文档
档为 RAGFlow Python API 的中文参考手册,涵盖安装 SDK、错误码说明、OpenAI 兼容接口调用、数据集 CRUD、文档上传解析与删除、Chunk 增删改查、聊天助手及会话管理、智能体管理等核心功能。提供详细参数说明与代码示例,帮助开发者快速集成 RAGFlow 大模型应用服务。

档为 RAGFlow Python API 的中文参考手册,涵盖安装 SDK、错误码说明、OpenAI 兼容接口调用、数据集 CRUD、文档上传解析与删除、Chunk 增删改查、聊天助手及会话管理、智能体管理等核心功能。提供详细参数说明与代码示例,帮助开发者快速集成 RAGFlow 大模型应用服务。

RAGFlow Python API 完整参考文档。在开始之前,请确保您已准备好 RAGFlow API 密钥用于身份验证。
注意
运行以下命令下载 Python SDK:
pip install ragflow-sdk
| 代码 | 消息 | 描述 |
|---|---|---|
| 400 | Bad Request | 无效的请求参数 |
| 401 | Unauthorized | 未经授权的访问 |
| 403 | Forbidden | 访问被拒绝 |
| 404 | Not Found | 资源未找到 |
| 500 | Internal Server Error | 服务器内部错误 |
| 1001 | Invalid Chunk ID | 无效的 Chunk ID |
| 1002 | Chunk Update Failed | Chunk 更新失败 |
通过 OpenAI 的 API 为给定的历史聊天对话创建模型响应。
用于生成响应的模型。服务器将自动解析此参数,因此您现在可以将其设置为任何值。
用于生成响应的历史聊天消息列表。必须至少包含一条用户角色的消息。
是否以流的方式接收响应。如果您希望一次性接收完整响应而不是流式接收,请明确将此参数设置为 false。
from openai import OpenAI
model = "model"
client = OpenAI(api_key="ragflow-api-key", base_url=f"http://ragflow_address/api/v1/chats_openai/<chat_id>")
stream = True
reference = True
completion = client.chat.completions.create(
model=model,
messages=[{"role":"system","content":"You are a helpful assistant."},{"role":"user","content":"Who are you?"},{"role":"assistant","content":"I am an AI assistant named..."},{"role":"user","content":"Can you tell me how to install neovim"}],
stream=stream,
extra_body={"reference": reference}
)
if stream:
for chunk in completion:
print(chunk)
if reference and chunk.choices[0].finish_reason == "stop":
print(f"Reference:\n{chunk.choices[0].delta.reference}")
print(f"Final content:\n{chunk.choices[0].delta.final_content}")
else:
print(completion.choices[0].message.content)
if reference:
print(completion.choices[0].message.reference)
RAGFlow.create_dataset(
name:str,
avatar: Optional[str]=None,
description: Optional[str]=None,
embedding_model: Optional[str]="BAAI/bge-large-zh-v1.5@BAAI",
permission:str="me",
chunk_method:str="naive",
parser_config: DataSet.ParserConfig=None
)-> DataSet
创建一个数据集。
要创建的数据集的唯一名称。必须符合以下要求:
头像的 Base64 编码。默认为 None。
要创建的数据集的简要描述。默认为 None。
指定谁可以访问要创建的数据集。可用选项:
要创建的数据集的分块方法。可用选项:
数据集的解析器配置。ParserConfig 对象的属性根据所选的 chunk_method 而有所不同:
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
dataset = rag_object.create_dataset(name="kb_1")
RAGFlow.delete_datasets(ids:list[str]|None=None)
按 ID 删除数据集。
要删除的数据集的 ID。默认为 None。
rag_object.delete_datasets(ids=["d94a8dc02c9711f0930f7fbc369eab6d","e94a8dc02c9711f0930f7fbc369eab6e"])
RAGFlow.list_datasets(page:int=1, page_size:int=30, orderby:str="create_time", desc:bool=True,id:str=None, name:str=None)->list[DataSet]
列出数据集。
指定显示数据集的页码。默认为 1。
每页的数据集数量。默认为 30。
数据集应按哪个字段排序。可用选项:
指示检索到的数据集是否应按降序排序。默认为 True。
要检索的数据集的 ID。默认为 None。
要检索的数据集的名称。默认为 None。
for dataset in rag_object.list_datasets():
print(dataset)
dataset = rag_object.list_datasets(id="id_1")
print(dataset[0])
DataSet.update(update_message:dict)
更新当前数据集的配置。
表示要更新的属性的字典,具有以下键:
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
dataset = rag_object.list_datasets(name="kb_name")
dataset = dataset[0]
dataset.update({"embedding_model":"BAAI/bge-zh-v1.5","chunk_method":"manual"})
DataSet.upload_documents(document_list:list[dict])
将文档上传到当前数据集。
表示要上传的文档的字典列表,每个字典包含以下键:
dataset = rag_object.create_dataset(name="kb_name")
dataset.upload_documents([{"display_name":"1.txt","blob":"<BINARY_CONTENT_OF_THE_DOC>"},{"display_name":"2.pdf","blob":"<BINARY_CONTENT_OF_THE_DOC>"}])
Document.update(update_message:dict)
更新当前文档的配置。
表示要更新的属性的字典,具有以下键:
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
dataset = rag_object.list_datasets(id='id')
dataset = dataset[0]
doc = dataset.list_documents(id="wdfxb5t547d")
doc = doc[0]
doc.update([{"parser_config":{"chunk_token_num":256}},{"chunk_method":"manual"}])
Document.download()->bytes
下载当前文档。
以字节形式返回下载的文档。
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
dataset = rag_object.list_datasets(id="id")
dataset = dataset[0]
doc = dataset.list_documents(id="wdfxb5t547d")
doc = doc[0]
open("~/ragflow.txt","wb+").write(doc.download())
print(doc)
Dataset.list_documents(id:str=None, keywords:str=None, page:int=1, page_size:int=30, order_by:str="create_time", desc:bool=True, create_time_from:int=0, create_time_to:int=0)->list[Document]
列出当前数据集中的文档。
要检索的文档的 ID。默认为 None。
用于匹配文档标题的关键词。默认为 None。
指定显示文档的页码。默认为 1。
每页的最大文档数量。默认为 30。
文档应按哪个字段排序。可用选项:
指示检索到的文档是否应按降序排序。默认为 True。
用于过滤在此时间之后创建的文档的 Unix 时间戳。0 表示无过滤。默认为 0。
用于过滤在此时间之前创建的文档的 Unix 时间戳。0 表示无过滤。默认为 0。
Document 对象包含以下属性:
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
dataset = rag_object.create_dataset(name="kb_1")
filename1 = "~/ragflow.txt"
blob = open(filename1 ,"rb").read()
dataset.upload_documents([{"name":filename1,"blob":blob}])
for doc in dataset.list_documents(keywords="rag", page=0, page_size=12):
print(doc)
DataSet.delete_documents(ids:list[str]=None)
按 ID 删除文档。
要删除的文档的 ID。默认为 None。如果未指定,数据集中的所有文档都将被删除。
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
dataset = rag_object.list_datasets(name="kb_1")
dataset = dataset[0]
dataset.delete_documents(ids=["id_1","id_2"])
DataSet.async_parse_documents(document_ids:list[str])->None
解析当前数据集中的文档。
要解析的文档的 ID。
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
dataset = rag_object.create_dataset(name="dataset_name")
documents = [{'display_name':'test1.txt','blob':open('./test_data/test1.txt',"rb").read()},{'display_name':'test2.txt','blob':open('./test_data/test2.txt',"rb").read()},{'display_name':'test3.txt','blob':open('./test_data/test3.txt',"rb").read()}]
dataset.upload_documents(documents)
documents = dataset.list_documents(keywords="test")
ids = []
for document in documents:
ids.append(document.id)
dataset.async_parse_documents(ids)
print("Async bulk parsing initiated.")
DataSet.parse_documents(document_ids:list[str])->list[tuple[str,str,int,int]]
异步解析当前数据集中的文档。
此方法封装了 async_parse_documents()。它等待所有解析任务完成后再返回详细结果,包括每个文档的解析状态和统计信息。如果发生键盘中断 (例如 Ctrl+C),所有待处理的解析任务将被优雅地取消。
要解析的文档的 ID。
包含详细解析结果的元组列表:
[(document_id:str, status:str, chunk_count:int, token_count:int),...]
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
dataset = rag_object.create_dataset(name="dataset_name")
documents = dataset.list_documents(keywords="test")
ids = [doc.id for doc in documents]
try:
finished = dataset.parse_documents(ids)
for doc_id, status, chunk_count, token_count in finished:
print(f"Document {doc_id} parsing finished with status: {status}, chunks: {chunk_count}, tokens: {token_count}")
except KeyboardInterrupt:
print("\nParsing interrupted by user. All pending tasks have been cancelled.")
except Exception as e:
print(f"Parsing failed: {e}")
DataSet.async_cancel_parse_documents(document_ids:list[str])->None
停止解析指定的文档。
应停止解析的文档的 ID。
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
dataset = rag_object.create_dataset(name="dataset_name")
documents = [{'display_name':'test1.txt','blob':open('./test_data/test1.txt',"rb").read()},{'display_name':'test2.txt','blob':open('./test_data/test2.txt',"rb").read()},{'display_name':'test3.txt','blob':open('./test_data/test3.txt',"rb").read()}]
dataset.upload_documents(documents)
documents = dataset.list_documents(keywords="test")
ids = []
for document in documents:
ids.append(document.id)
dataset.async_parse_documents(ids)
print("Async bulk parsing initiated.")
dataset.async_cancel_parse_documents(ids)
print("Async bulk parsing cancelled.")
Document.add_chunk(content:str, important_keywords:list[str]=[])-> Chunk
向当前文档添加一个 chunk。
chunk 的文本内容。
要标记到 chunk 的关键术语或短语。
Chunk 对象包含以下属性:
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
datasets = rag_object.list_datasets(id="123")
dataset = datasets[0]
doc = dataset.list_documents(id="wdfxb5t547d")
doc = doc[0]
chunk = doc.add_chunk(content="xxxxxxx")
Document.list_chunks(keywords:str=None, page:int=1, page_size:int=30,id:str=None)->list[Chunk]
列出当前文档中的 chunks。
用于匹配 chunk 内容的关键词。默认为 None。
指定显示 chunks 的页码。默认为 1。
每页的最大 chunk 数量。默认为 30。
要检索的 chunk 的 ID。默认:None。
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
dataset = rag_object.list_datasets("123")
dataset = dataset[0]
docs = dataset.list_documents(keywords="test", page=1, page_size=12)
for chunk in docs[0].list_chunks(keywords="rag", page=0, page_size=12):
print(chunk)
Document.delete_chunks(chunk_ids:list[str])
按 ID 删除 chunks。
要删除的 chunks 的 ID。默认为 None。如果未指定,当前文档的所有 chunks 都将被删除。
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
dataset = rag_object.list_datasets(id="123")
dataset = dataset[0]
doc = dataset.list_documents(id="wdfxb5t547d")
doc = doc[0]
chunk = doc.add_chunk(content="xxxxxxx")
doc.delete_chunks(["id_1","id_2"])
Chunk.update(update_message:dict)
更新当前 chunk 的内容或配置。
表示要更新的属性的字典,具有以下键:
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
dataset = rag_object.list_datasets(id="123")
dataset = dataset[0]
doc = dataset.list_documents(id="wdfxb5t547d")
doc = doc[0]
chunk = doc.add_chunk(content="xxxxxxx")
chunk.update({"content":"sdfx..."})
RAGFlow.retrieve(question:str="", dataset_ids:list[str]=None, document_ids=list[str]=None, page:int=1, page_size:int=30, similarity_threshold:float=0.2, vector_similarity_weight:float=0.3, top_k:int=1024,rerank_id:str=None,keyword:bool=False,cross_languages:list[str]=None,metadata_condition:dict=None)->list[Chunk]
从指定的数据集中检索 chunks。
用户查询或查询关键词。默认为 ""。
要搜索的数据集的 ID。默认为 None。
要搜索的文档的 ID。默认为 None。您必须确保所有选定的文档使用相同的嵌入模型。否则,将发生错误。
要检索的文档的起始索引。默认为 1。
要检索的最大 chunk 数量。默认为 30。
最小相似度分数。默认为 0.2。
向量余弦相似度的权重。默认为 0.3。如果 x 表示向量余弦相似度,则 (1 - x) 是术语相似度权重。
参与向量余弦计算的 chunk 数量。默认为 1024。
重排序模型的 ID。默认为 None。
指示是否启用基于关键词的匹配:
应该翻译成的语言,以便在不同语言中实现关键词检索。
meta_fields 的过滤条件。
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
dataset = rag_object.list_datasets(name="ragflow")
dataset = dataset[0]
name ='ragflow_test.txt'
path ='./test_data/ragflow_test.txt'
documents = [{"display_name":"test_retrieve_chunks.txt","blob":open(path,"rb").read()}]
docs = dataset.upload_documents(documents)
doc = docs[0]
doc.add_chunk(content="This is a chunk addition test")
for c in rag_object.retrieve(dataset_ids=[dataset.id],document_ids=[doc.id]):
print(c)
RAGFlow.create_chat( name:str, avatar:str="", dataset_ids:list[str]=[], llm: Chat.LLM =None, prompt: Chat.Prompt =None)-> Chat
创建一个聊天助手。
聊天助手的名称。
头像的 Base64 编码。默认为 ""。
关联数据集的 ID。默认为 [""]。
要创建的聊天助手的 LLM 设置。默认为 None。当值为 None 时,将生成具有以下值的字典作为默认值。LLM 对象包含以下属性:
LLM 要遵循的指令。Prompt 对象包含以下属性:
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
datasets = rag_object.list_datasets(name="kb_1")
dataset_ids = []
for dataset in datasets:
dataset_ids.append(dataset.id)
assistant = rag_object.create_chat("Miss R", dataset_ids=dataset_ids)
Chat.update(update_message:dict)
更新当前聊天助手的配置。
表示要更新的属性的字典,具有以下键:
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
datasets = rag_object.list_datasets(name="kb_1")
dataset_id = datasets[0].id
assistant = rag_object.create_chat("Miss R", dataset_ids=[dataset_id])
assistant.update({"name":"Stefan","llm":{"temperature":0.8},"prompt":{"top_n":8}})
RAGFlow.delete_chats(ids:list[str]=None)
按 ID 删除聊天助手。
要删除的聊天助手的 ID。默认为 None。如果为空或未指定,系统中的所有聊天助手都将被删除。
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
rag_object.delete_chats(ids=["id_1","id_2"])
RAGFlow.list_chats( page:int=1, page_size:int=30, orderby:str="create_time", desc:bool=True,id:str=None, name:str=None)->list[Chat]
列出聊天助手。
指定显示聊天助手的页码。默认为 1。
每页的聊天助手数量。默认为 30。
结果排序的属性。可用选项:
指示检索到的聊天助手是否应按降序排序。默认为 True。
要检索的聊天助手的 ID。默认为 None。
要检索的聊天助手的名称。默认为 None。
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
for assistant in rag_object.list_chats():
print(assistant)
Chat.create_session(name:str="New session")-> Session
使用当前聊天助手创建一个会话。
要创建的聊天会话的名称。
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
assistant = rag_object.list_chats(name="Miss R")
assistant = assistant[0]
session = assistant.create_session()
Session.update(update_message:dict)
更新当前聊天助手的当前会话。
表示要更新的属性的字典,只有一个键:
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
assistant = rag_object.list_chats(name="Miss R")
assistant = assistant[0]
session = assistant.create_session("session_name")
session.update({"name":"updated_name"})
Chat.list_sessions( page:int=1, page_size:int=30, orderby:str="create_time", desc:bool=True,id:str=None, name:str=None)->list[Session]
列出与当前聊天助手关联的会话。
指定显示会话的页码。默认为 1。
每页的会话数量。默认为 30。
会话应按哪个字段排序。可用选项:
指示检索到的会话是否应按降序排序。默认为 True。
要检索的聊天会话的 ID。默认为 None。
要检索的聊天会话的名称。默认为 None。
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
assistant = rag_object.list_chats(name="Miss R")
assistant = assistant[0]
for session in assistant.list_sessions():
print(session)
Chat.delete_sessions(ids:list[str]=None)
按 ID 删除当前聊天助手的会话。
要删除的会话的 ID。默认为 None。如果未指定,与当前聊天助手关联的所有会话都将被删除。
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
assistant = rag_object.list_chats(name="Miss R")
assistant = assistant[0]
assistant.delete_sessions(ids=["id_1","id_2"])
Session.ask(question:str="", stream:bool=False,**kwargs)-> Optional[Message,iter[Message]]
向指定的聊天助手提问以开始 AI 驱动的对话。
注意
在流式模式下,并非所有响应都包含引用,因为这取决于系统的判断。
开始 AI 驱动对话的问题。默认为 ""。
指示是否以流式方式输出响应:
prompt(system) 中的参数。
以下显示了 Message 对象的属性:
自动生成的消息 ID。
消息的内容。默认为 "Hi! I am your assistant, can I help you?"。
表示消息引用的 Chunk 对象列表,每个对象包含以下属性:
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
assistant = rag_object.list_chats(name="Miss R")
assistant = assistant[0]
session = assistant.create_session()
print("\n==================== Miss R =====================\n")
print("Hello. What can I do for you?")
while True:
question = input("\n==================== User =====================\n> ")
print("\n==================== Miss R =====================\n")
cont = ""
for ans in session.ask(question, stream=True):
print(ans.content[len(cont):], end='', flush=True)
cont = ans.content
Agent.create_session(**kwargs)-> Session
使用当前智能体创建一个会话。
begin 组件中的参数。
from ragflow_sdk import RAGFlow, Agent
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
agent_id = "AGENT_ID"
agent = rag_object.list_agents(id= agent_id)[0]
session = agent.create_session()
Session.ask(question:str="", stream:bool=False)-> Optional[Message,iter[Message]]
向指定的智能体提问以开始 AI 驱动的对话。
注意
在流式模式下,并非所有响应都包含引用,因为这取决于系统的判断。
开始 AI 驱动对话的问题。如果 Begin 组件接受参数,则不需要问题。
指示是否以流式方式输出响应:
以下显示了 Message 对象的属性:
自动生成的消息 ID。
消息的内容。默认为 "Hi! I am your assistant, can I help you?"。
表示消息引用的 Chunk 对象列表,每个对象包含以下属性:
from ragflow_sdk import RAGFlow, Agent
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
AGENT_id = "AGENT_ID"
agent = rag_object.list_agents(id= AGENT_id)[0]
session = agent.create_session()
print("\n===== Miss R ====")
print("Hello. What can I do for you?")
while True:
question = input("\n===== User ====")
print("\n==== Miss R ====")
cont = ""
for ans in session.ask(question, stream=True):
print(ans.content[len(cont):], end='', flush=True)
cont = ans.content
Agent.list_sessions( page:int=1, page_size:int=30, orderby:str="update_time", desc:bool=True,id:str=None)-> List[Session]
列出与当前智能体关联的会话。
指定显示会话的页码。默认为 1。
每页的会话数量。默认为 30。
会话应按哪个字段排序。可用选项:
指示检索到的会话是否应按降序排序。默认为 True。
要检索的智能体会话的 ID。默认为 None。
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
AGENT_id = "AGENT_ID"
agent = rag_object.list_agents(id= AGENT_id)[0]
sessions = agent.list_sessions()
for session in sessions:
print(session)
Agent.delete_sessions(ids:list[str]=None)
按 ID 删除智能体的会话。
要删除的会话的 ID。默认为 None。如果未指定,与智能体关联的所有会话都将被删除。
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
AGENT_id = "AGENT_ID"
agent = rag_object.list_agents(id= AGENT_id)[0]
agent.delete_sessions(ids=["id_1","id_2"])
RAGFlow.list_agents( page:int=1, page_size:int=30, orderby:str="create_time", desc:bool=True,id:str=None, title:str=None)-> List[Agent]
列出智能体。
指定显示智能体的页码。默认为 1。
每页的智能体数量。默认为 30。
结果排序的属性。可用选项:
指示检索到的智能体是否应按降序排序。默认为 True。
要检索的智能体的 ID。默认为 None。
要检索的智能体的名称。默认为 None。
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
for agent in rag_object.list_agents():
print(agent)
RAGFlow.create_agent( title:str, dsl:dict, description:str|None=None)->None
创建一个智能体。
指定智能体的标题。
指定智能体的画布 DSL。
智能体的描述。默认为 None。
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
rag_object.create_agent(
title="Test Agent",
description="A test agent",
dsl={# ... canvas DSL here ...}
)
RAGFlow.update_agent( agent_id:str, title:str|None=None, description:str|None=None, dsl:dict|None=None)->None
更新一个智能体。
指定要更新的智能体的 ID。
指定智能体的新标题。如果您不想更新此项,则为 None。
指定智能体的新画布 DSL。如果您不想更新此项,则为 None。
智能体的新描述。如果您不想更新此项,则为 None。
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
rag_object.update_agent(
agent_id="58af890a2a8911f0a71a11b922ed82d6",
title="Test Agent",
description="A test agent",
dsl={# ... canvas DSL here ...}
)
RAGFlow.delete_agent( agent_id:str)->None
删除一个智能体。
指定要删除的智能体的 ID。
from ragflow_sdk import RAGFlow
rag_object = RAGFlow(api_key="<YOUR_API_KEY>", base_url="http://<YOUR_BASE_URL>:9380")
rag_object.delete_agent("58af890a2a8911f0a71a11b922ed82d6")
--- 正文 Markdown 结束 ---

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online