Browser-Use 本地部署及远程访问自动化方案
介绍在 Windows 系统本地部署 Browser-Use WebUI 并结合内网穿透技术实现远程访问的方案。通过安装 Ollama 运行本地大模型(如 Gemma),配置 Python 虚拟环境,克隆项目并安装依赖。演示了如何启动 WebUI 界面,设置 Agent 与 LLM 参数,利用自然语言指令控制浏览器执行自动任务。最后说明如何通过端口映射工具实现公网访问,打造个人全自动 AI 助理,提升运营效率。

介绍在 Windows 系统本地部署 Browser-Use WebUI 并结合内网穿透技术实现远程访问的方案。通过安装 Ollama 运行本地大模型(如 Gemma),配置 Python 虚拟环境,克隆项目并安装依赖。演示了如何启动 WebUI 界面,设置 Agent 与 LLM 参数,利用自然语言指令控制浏览器执行自动任务。最后说明如何通过端口映射工具实现公网访问,打造个人全自动 AI 助理,提升运营效率。

企业还在手动处理重复性网页任务?Browser-Use 通过 AI 驱动模拟真人操作,自动完成数据抓取、表单填写、价格监控等任务,支持本地大模型(如 Gemma)分析结果。但本地部署仅限内网使用,异地任务管理困难——通过内网穿透技术实现公网控制,让自动化机器人 24 小时运行。
Browser-Use 核心功能:视觉识别(模拟鼠标点击/输入)、流程录制(一键生成自动化脚本)、抗反爬机制(随机 User-Agent、操作间隔)。适用场景:电商运营(竞品价格监控)、市场调研(问卷自动填写)、客服支持(故障诊断自动提交)。其优点在于零代码(纯自然语言指令)、多浏览器支持(Chrome/Edge/Firefox),且可集成 Ollama 本地模型,数据不上云更安全。
部署需先安装 Ollama(ollama run gemma3:27b),再启动 Browser-Use:python webui.py --port 7788。关键步骤:在'Agent Settings'中关闭'视觉识别'(非多模态模型需关闭);'LLM Settings'选择 Ollama,模型名填'gemma3:27b'。实用技巧:复杂任务拆分为多步指令(如'先登录→再搜索→最后截图');用'断言'验证操作结果(如'确认按钮是否出现')。
本地部署时,异地无法启动/暂停任务,只能让同事远程协助,响应滞后;客户演示自动化流程需投屏,无法让对方亲自操作。某运营团队反馈:'国外竞品的价格波动快,等我们上班看到数据,已经错过调价时机。'
通过创建 HTTP 隧道映射 7788 端口,生成公网地址,管理者即可下发指令。安全配置:启用'操作日志',追溯所有自动化行为;设置'指令白名单',仅允许预定义任务(如'仅允许监控京东价格')。
本文主要介绍如何在本地 Windows 系统部署 Browser-Use WebUI,并结合内网穿透工具实现远程使用 Browser-Use 操作浏览器智能抓取数据并通过本地 AI 大模型进行分析,执行任务,打造个人全自动 AI 助理。
在部署 Browser-Use 之前,我们首先需要先准备好 Ollama 和你要使用的本地大模型以及虚拟环境配置。
本例中使用的是 Windows 11 系统专业版,通过 Ollama 运行本地大模型。访问 Ollama 的官网下载对应版本的安装程序并安装。
本例中我打算使用的本地模型是 Gemma3:27b,因为它有多模态能力,可以识别图片,稍后测试一下实际效果。
在 Ollama 的官网点击 Models,就能找到安装命令:
ollama run gemma3:27b
PS:默认会下载模型到 C 盘,如果想修改下载位置,可以在终端中执行下方命令来指定模型文件的存放目录,这里以 d:\ollama 为例,大家可以提前自定义位置:
如果你之前安装过 Ollama,在执行命令后出现提示,那么关闭终端,请先升级 ollama 到最新版本才能正常下载 gemma3 模型。
模型下载完成之后,安装成功后会提示 success。
本例使用 Windows 11 专业版系统进行演示:
首先需要安装 python 3.12。下载地址:Python Release Python 3.12.0 | Python.org
安装时需要注意,勾选下边两个选项,不然后续有可能报错:
安装结束后,如出现提示更改您的机器配置,以允许程序 (包括 Python) 绕过 260 字符的'最大路径'限制,同意即可。
确认后,点击 close 关闭即可完成 Python 环境安装。
这里我使用的是本地已有的 conda 环境,大家也可以通过 UV 来创建虚拟环境:
conda 下载地址:Anaconda Installers and Packages
安装时需要注意的是在这一步,需要勾选第三个选项,自动加载刚才安装的 Python3.12 环境:
安装完成后,点击 Finish 即可。
接下来开始在 Windows 系统使用 conda 本地部署 Browser-Use WebUI。
首先在 Windows 中打开 cmd,执行下方命令创建虚拟环境:
conda create -n browseruse python=3.12
输入 y 确认。
创建成功:
如果提示'conda'不是内部或外部命令,也不是可运行的程序,我们需要配置一下环境变量,具体操作可以查看相关文章。
环境创建好之后,执行下方命令激活这个新的 conda 环境:
conda activate browseruse
如上图所示,这个 conda 环境就激活成功了。
接下来,执行下方命令,将 Browser-use WebUI 拉取到本地:
git clone https://github.com/browser-use/web-ui.git
进入 Browser-use WebUI 项目路径:
cd web-ui
执行下方命令安装依赖环境:
pip install -r requirements.txt
现在就安装好了。
执行下方命令,安装浏览器自动化工具:
playwright install
然后执行下方命令,复制一份配置示例文件并改为.env 格式文件:
copy .env.example .env
复制后在 webui 安装的电脑路径中也能看到这两个文件。
打开配置文件后可以修改你想要使用的模型路径,API KEY,使用自己哪个已有的浏览器路径等,本地中使用 ollama 调用本地大模型,就暂时不用修改了,稍后在 web-ui 界面中配置即可。
修改完成后,保存退出即可。
执行下方命令:
python webui.py --ip 127.0.0.1 --port 7788
即可在浏览器中打开 browser-use 的 web-ui 界面了。
关闭服务后想再次启动服务,可以打开 cmd,执行
conda activate browseruse激活环境,然后cd web-ui进入 web-ui 路径,执行python webui.py --ip 127.0.0.1 --port 7788启动服务即可.
在主界面,上方的设置导航中选择 Agent Settings,如果你本地部署的大模型不支持视觉识别,可以把这个使用视觉取消勾选,不然后续让 AI 执行任务时会报错。
然后点击 LLM Settings,对本地大模型进行设置:
LLM Provider 在下拉中选择 ollama
Model Name 需要手动输入你要调用的本地大模型名称,我这里使用的是 gemma3:27b
这个模型名称可以在 cmd 终端中输入 ollama list 来进行查看:
然后就可以点击顶部导航中的 Run Agent 来输入指令让 AI 自动来执行任务了:
点击执行后,底部的结果和报错框中会显示运行时间:
在 cmd 终端中也能看到刚才我们提的要求,与执行操作的步骤:
执行任务同时 AI 会打开浏览器,自动进行搜索与后续操作:
任务结束后,能看到 AI 成功执行了指令,帮我在 B 站搜索 cpolar 并打开搜索结果中的第一个视频:
美中不足的是使用其自带的浏览器在播放视频时,会提示浏览器不支持 html5 播放器,想要解决这个问题只需要在上边提到的.env 配置文件中修改一下调用你自己电脑上的浏览器就可以了,而且登录视频网站后,在使用 AI 访问该网站时也无需二次登录了。
除了让它自动使用浏览器访问网站搜索并播放视频,我们也可以让它自动访问指定的网站查询某个账号发布的文章,并统计其账号发布的文章标题,发布时间,阅读量和点击量等信息。大家也可以根据自己的情况来提出要求让这个全自动的 AI 助力来为你提升工作效率,节省大量时间。
现在我们已经成功在本地部署了 Browser-Use WebUI 并使用 AI 使用浏览器自动执行任务,但如果想实现不在同一网络环境下,也能随时随地在网页中远程使用本地部署的 Browser-Use 处理问题,那就需要借助内网穿透工具来实现公网访问了!接下来介绍一下如何配置内网穿透,过程同样非常简单:
首先进入内网穿透工具的官网注册一个账号,并下载最新版本的工具到本地并安装。
安装成功后,在浏览器上访问 http://localhost:9200,使用账号登录,登录后即可看到配置界面,接下来在 WebUI 管理界面配置即可。
接下来配置一下 Browser-Use WebUI 的公网地址:
登录后,点击左侧仪表盘的隧道管理——创建隧道,
隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网访问地址,有两种访问方式,一种是 http 和 https:
使用上面的任意一个公网地址,在平板或其他电脑的浏览器进行登录访问,即可成功看到 Browser-Use WebUI 界面,这样一个公网地址且可以远程访问就创建好了,使用了内网穿透的公网域名,无需自己购买云服务器,即可随时在线访问了!
同样可以使用 AI 在浏览器中自动执行任务:
小结
为了方便演示,我们在上边的操作过程中使用内网穿透生成的 HTTP 公网地址隧道,其公网地址是随机生成的。这种随机地址的优势在于建立速度快,可以立即使用。然而,它的缺点是网址是随机生成,这个地址在 24 小时内会发生随机变化,更适合于临时使用。
如果有长期远程访问 Browser-use WebUI 让 AI 使用浏览器自动处理问题,或者异地访问与使用其他本地部署的服务的需求,但又不想每天重新配置公网地址,还想让公网地址好看又好记并体验更多功能与更快的带宽,那我推荐大家选择使用固定的二级子域名方式来为 WebUI 配置一个公网地址。
接下来演示如何为其配置固定的 HTTP 公网地址,该地址不会变化,方便分享给别人长期查看你部署的项目,而无需每天重复修改服务器地址。
配置固定 http 端口地址需要将内网穿透工具升级到专业版套餐或以上。
登录内网穿透官网,点击左侧的预留,选择保留二级子域名,设置一个二级子域名名称,点击保留:
保留成功后复制保留成功的二级子域名的名称:mybuse,大家也可以设置自己喜欢的名称。
返回内网穿透 Web UI 管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道:buse,点击右侧的编辑:
修改隧道信息,将保留成功的二级子域名配置到隧道中
mybuse点击更新 (注意,点击一次更新即可,不需要重复提交)
更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址名称也变成了固定的二级子域名名称的域名:
最后,我们使用上边任意一个固定的公网地址访问,可以看到访问成功,这样一个固定且永久不变的公网地址就设置好了,可以随时随地在公网环境异地在线访问本地部署的 Browser-use WebUI 来让 AI 帮你全自动处理问题了!
通过以上步骤,我们实现了在 Windows 系统电脑本地部署 Browser-use WebUI,并结合内网穿透工具轻松实现在公网环境中使用浏览器远程使用 AI 自主处理问题,并为其配置固定不变的二级子域名公网地址的全部流程,经过简单测试,效果确实不错,同时降低了使用门槛,非常期待它后续的发展。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online