【人工智能agent】--docker本地部署dify教程

【人工智能agent】--docker本地部署dify教程

目录

1.dify介绍

2.准备工作

3.安装docker

3.1.默认安装

3.2.自定义路径安装(推荐)

3.3.验证docker

3.4.切换镜像源

4.下载git

5.下载dify源码

6.启动dify

7.打开dify


1.dify介绍

        Dify 是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。

        非技术人员:不懂编程、对大模型不太懂,也可以使用DIFY

2、功能介绍
        由于 Dify 内置了构建 LLM 应用所需的关键技术栈,包括对数百个模型的支持、直观的 Prompt 编排界面、高质量的 RAG 引擎、稳健的 Agent 框架、灵活的流程编排,并同时提供了一套易用的界面和 API。这为开发者节省了许多重复造轮子的时间,使其可以专注在创新和业务需求上。

3、相关网站

dify官网:Dify.AI · 生成式 AI 应用创新引擎

部署dify首先下载dokcer docker官网:Docker: Accelerated Container Application Development

使用文档链接:Deploy with Docker Compose | Dify

 2.准备工作

本地化部署dify所需要的安装包

  1. git安装包:用来拉取dify的代码
  2. docker desktop 安装包:用来docker compose部署
  3. dify源代码

这些在官网都可以下载到,这里再提供网盘资源:

链接: https://pan.baidu.com/s/1RHgSbVsTtn57TN4ZhTH1gA?pwd=v2sw 提取码: v2sw 

dify源码还是自己去官网下载吧,网盘里面的版本不是最新的:

https://github.com/langgenius/dify/issues

3.安装docker

3.1.默认安装

双击Docker Desktop Installer.exe,默认安装到c盘

3.2.自定义路径安装(推荐)

& ".\Docker Desktop Installer.exe"  install --installation-dir="D:\Docker"

3.3.验证docker

docker -v docker-compose -v 

3.4.切换镜像源

{ "builder": { "gc": { "defaultKeepStorage": "20GB", "enabled": true } }, "experimental": false, "registry-mirrors": [ "https://docker.feng.cx", "https://docker.m.daocloud.io", "https://docker.imgdb.de", "https://docker-0.unsee.tech", "https://docker.hlmirror.com", "https://docker.1ms.run", "https://func.ink", "https://lispy.org", "https://docker.xiaogenban1993.com", "https://docker.xuanyuan.me", "https://docker.rainbond.cc", "https://do.nark.eu.org", "https://dc.j8.work", "https://docker.hpcloud.cloud", "https://docker.unsee.tech", "https://docker.1panel.live", "http://mirrors.ustc.edu.cn", "https://docker.chenby.cn", "http://mirror.azure.cn", "https://dockerpull.org", "https://dockerhub.icu", "https://hub.rat.dev" ] }

4.下载git

windows安装git(全网最详细,保姆教程)-ZEEKLOG博客

5. 下载dify源码

在git安装目录下执行下面的命令

git.exe clone --progress -v "https://github.com/langgenius/dify.git" "D:\dify"

·当然如果通过资源下载了源码,那就可以跳过此步骤

6.启动dify

在git bash窗口下依次执行下面的命令

cd dify/docker cp .env.example .env docker compose -p dify up -d 

安装完成过后,验证一下

docker compose ps 

7.打开dify

进入dify

http://127.0.0.1/install 

先注册一个账号,

Read more

OpenClaw 多智能体设置,包含多个 AI 助手

OpenClaw 支持在一个 Gateway 进程内运行多个代理,每个代理都可以像自己的助手一样运行,拥有自己的文件、内存、身份验证和工具。 本指南从实际角度介绍多智能体设置。您将看到两种容易混淆的模式: * 持久代理程序会“永久”存在,通常映射到某个频道、机器人帐户或家庭成员。 * 在后台运行执行特定任务并自动归档的子代理 您可以同时运行这两个代理。常见的设置是:一个主“协调器”代理负责处理主要聊天,并生成子代理来执行并行任务。同时,您还可以将其他持久代理绑定到不同的频道,使它们能够独立运行。 OpenClaw 中的“多智能体”是什么意思? OpenClaw 可以在单个 Gateway 进程内运行多个完全隔离的代理。“隔离”并非营销噱头。每个代理都可以拥有自己的: * 工作区目录和本地文件,例如 SOUL.md 和 AGENTS.md * 内存存储 * 会话历史记录 * 模型提供者和技能的身份验证配置文件 * 技能列表和技能覆盖 * 模型选择和默认值 * 可选的 Docker

AI的思考:从代码生成看人工智能的边界

当AI学会写代码,我们该如何重新定义“理解”? 引言 过去一年,以ChatGPT、GitHub Copilot为代表的大语言模型(LLM)席卷全球,它们不仅能聊天、写诗,还能编写代码、调试程序。许多程序员惊呼:AI要取代我们了吗?然而,当我们冷静下来审视这些生成的代码时,一个更深层的问题浮现出来:AI真的理解它写出的代码吗?它的“思考”方式与人类有何不同?本文将通过几个简单的代码生成示例,探讨AI编程背后的原理、能力边界,以及对人类程序员的启示。 一、AI写代码:一次直观的体验 让我们从一个经典的编程任务开始:写一个Python函数,计算斐波那契数列的第n项。我们将使用Hugging Face的Transformers库加载一个专门为代码生成训练的小型模型(microsoft/CodeGPT-small-py),看看它会输出什么。 python from transformers import pipeline # 加载代码生成模型(首次运行会自动下载) generator = pipeline('text-generation'

昇腾AI CANN训练营〔开源基础系列〕:从语法基础到算子实操,一站式构建 Ascend C 全链路编程能力

昇腾AI CANN训练营〔开源基础系列〕:从语法基础到算子实操,一站式构建 Ascend C 全链路编程能力

昇腾AI CANN训练营〔开源基础系列〕:从语法基础到算子实操,一站式构建 Ascend C 全链路编程能力 Ascend C 算子是什么 Ascend C 算子是基于 CANN 推出的支持 C/C++ 标准规范的编程语言 Ascend C 所开发的算子,编写的算子程序经编译器编译和运行时调度可在昇腾硬件上运行,助力开发者高效实现自定义创新算法;使用它开发自定义算子具有遵循 C/C++ 编程规范、自动并行调度获得最优执行性能、结构化核函数简化算子开发逻辑、CPU/NPU 孪生调试提升算子调试效率等优势。 Ascend C 编程模型 1、Ascend C 的核函数是算子在设备侧 AI Core 的执行入口,也是连接 CPU 与 NPU 的桥梁,编写核函数定义设备端计算逻辑,编译后可在昇腾硬件并行执行,

OpenClaw 接入 QQ Bot 完整指南:让你的 AI 助手入驻 QQ

OpenClaw 接入 QQ Bot 完整指南:让你的 AI 助手入驻 QQ TL;DR: OpenClaw 2026.3.31 正式支持 QQ Bot,可以接入 QQ 私聊、群聊,支持图片、语音、视频、文件等富媒体消息,还支持语音识别、日程提醒、Markdown 格式化等功能。 背景 QQ 是国内最主流的即时通讯工具之一,拥有大量技术社区用户。在此之前,OpenClaw 已经支持了钉钉、Slack、Telegram、飞书等渠道,这次更新终于把 QQ 也纳入了版图。 这次 QQ Bot 支持是由腾讯官方团队贡献的(@sliverp),直接对接 QQ