本地部署智能家居集成解决方案 ESPHome 并实现外部访问( Linux 版本)

本地部署智能家居集成解决方案 ESPHome 并实现外部访问( Linux 版本)

ESPHome 是一款用于 ESP8266 和 ESP32 芯片设备的开源系统,它允许用户通过定义简单的 YAML 配置文件来创建复杂的物联网( IoT )设备应用,而无需直接编写底层代码,特别适合于智能家居解决方案,可以与 Home Assistant 完美集成,但也可以独立使用。本文将详细介绍如何在 Linux 系统局域网内部署 ESPHome 并结合路由侠实现外网访问局域网内部署的 ESPHome 。

第一步,本地部署 ESPHome

1,本教程使用 Linux Ubuntu 系统进行演示,首先输入以下命令更新软件包列表并安装一些必要的依赖项。

sudo apt-get update && sudo apt-get install -y python3-pip python3-dev git

2,安装虚拟环境 venv 模块。

sudo apt install -y python3-venv

创建一个虚拟环境(例如在 ~/venv_esphome )。

python3 -m venv ~/venv_esphome

激活虚拟环境。

source ~/venv_esphome/bin/activate

3,使用清华源加速下载安装 esphome 。

pip install esphome -i https://pypi.tuna.tsinghua.edu.cn/simple

验证是否安装成功。

esphome --version

4,创建并进入一个空的 ESPHome 项目目录。

mkdir ~/esphome-dashboard cd ~/esphome-dashboard

使用向导创建配置文件,按照提示完成。

esphome wizard your_device.yaml

5,在项目目录中运行以下命令启动 ESPHome Dashboard 。

esphome dashboard .

6,打开浏览器访问地址 http://你的服务器 IP:6052 ,就能看到你部署的 ESPHome 界面了。

第二步,外网访问本地 ESPHome

安装路由侠内网穿透。

1,当前未提供网页管理,需要先在任意一台 Windows 机器安装路由侠 Windows 版本,用作跨机器管理。点此下载

2,在路由侠客户端主界面,进入“ 设备管理 ”,点击右下角的“ 添加设备 ”,此时可查看到对应的安装码,此安装码用于将设备添加到对应账号下,可选中后复制。

3,直接下载后导入:

wget https://dl.luyouxia.com:8443/v2/lyx-docker-x86_64.tar docker load -i lyx-docker-x86_64.tar

4,然后使用该镜像启动容器。

docker run --name lyx -it --restart=always --net=host -e code=这里填写安装码 luyouxia/lyx

5,此时,需要等待下载和安装的过程,如果一切正常,最终可以看到一些输出,并且可以看到如下提示:

[Device] Logged in. Token: ....

这就表示安装成功了。

当前 Linux 终端这边,如果是使用的上面的命令,Docker 是运行在前台,此时可以按住 Ctrl + C ,退出路由侠,容器也将退出。现在可以使用以下命令将其放入后台持续运行:

docker start lyx

注意如果容器删除,重新 docker run , 将创建为新的设备。

需要注意的是,因为容器参数已经添加了 --restart=always ,这样开机就会自动启动,不需要再手动启动路由侠了。

6,现在回到 Windows 这边设备列表,点击右上角的 × 返回主界面,再次进入,就可以找到这个设备,可以修改名称。

7,回到主界面,点击【内网映射】。

8,注意右上角的设备名称下拉框,这里选中刚刚添加的设备名称,此时在这个界面上添加的映射,就属于刚刚这个设备。添加或修改一般需要等待 30 秒,容器中的路由侠进程就会更新并加载。切换好设备后,点击【添加映射】。

9,选择【原生端口】。

10,在内网地址填写你的服务器 IP 和 ESPHome 端口 6052 后点击【创建】按钮,如下图。

11,创建好后,就可以看到一条映射的公网地址,鼠标右键点击【复制地址】。

12,在外网电脑上,打开浏览器,在地址栏输入从路由侠生成的外网地址,就可以看到内网部署的 ESPHome 界面了。

Read more

OpenClaw(龙虾)开源AI智能体科普解析:核心原理、功能特性与本地部署教程

OpenClaw(龙虾)开源AI智能体科普解析:核心原理、功能特性与本地部署教程

近期开源AI领域,OpenClaw(俗称“龙虾”)凭借其本地优先、可定制的特性,受到开发者社区的广泛关注,其项目保活程度与社区活跃度可通过GitHub数据直观体现:目前该项目已获得222k stars、1.2k watching、42.3k forks,各项数据均处于开源AI智能体领域前列,足以证明其社区认可度与持续更新能力。作为一款开源AI智能体工具,它在办公自动化、系统辅助等场景具有实用价值,适合开发者了解和落地实践。 OpenClaw是一款开源的个人AI助手编排平台,采用TypeScript开发,目前在GitHub上拥有较高的关注度,其核心价值在于将大模型的推理能力与本地系统操作相结合,打破了传统AI助手“仅能交互、无法执行”的局限。本文将从技术科普角度,围绕OpenClaw的核心定义、功能特性、技术细节及本地部署步骤展开,帮助开发者全面了解这款工具的原理与使用方法。 对于ZEEKLOG的开发者群体而言,了解OpenClaw的技术架构与应用场景,既能拓展AI智能体的认知边界,也能将其应用于日常开发、办公场景,提升工作效率。 本文将从「核心定义、功能特性、技术细节、本地部署」

OpenClaw能同时连接多个AI模型(如DeepSeek、Kimi)吗?深度解析

OpenClaw能同时连接多个AI模型(如DeepSeek、Kimi)吗?深度解析

## 关于OpenClaw能否同时连接多个AI模型的一些观察 最近在一些技术社群里,看到不少人在讨论OpenClaw这个工具,特别是关于它能不能同时连接多个AI模型的问题。这个话题挺有意思的,值得花点时间聊聊。 它到底是什么 OpenClaw本质上是一个AI应用开发框架,或者说是一个工具集。它的核心设计理念是让开发者能够更方便地集成和使用不同的AI模型。你可以把它想象成一个智能的“接线板”——不是那种简单的物理转接头,而是能够理解不同设备协议、自动适配的智能中转站。 这个工具的设计初衷挺明确的:现在的AI模型太多了,每个模型都有自己的接口规范、调用方式、返回格式。如果每次想换一个模型,就得重新写一套调用代码,那开发效率就太低了。OpenClaw试图解决的就是这个问题。 它能做什么 说到同时连接多个AI模型,OpenClaw确实有这个能力。不过这里需要区分两个概念:并行连接和串行调用。 并行连接指的是同时向多个模型发送请求,然后汇总结果。比如你想比较DeepSeek和Kimi对同一个问题的回答差异,可以一次性把问题发给两个模型,然后同时收到两个回复。这种场景下,OpenCl