2025最新 WSL(Windows Subsystem for Linux)安装教程 (保姆级,图文讲解,带安装包)

2025最新 WSL(Windows Subsystem for Linux)安装教程 (保姆级,图文讲解,带安装包)
WSL 是微软官方推出的“Windows 下的 Linux 子系统”,允许用户在 Windows 10/11 中直接运行原生 Linux 命令行工具、程序和服务,无需虚拟机或双系统。本教程面向零基础用户,提供完整安装流程、常见问题及解决方案,并附赠离线安装包,确保在无网络或网络受限环境下也能顺利完成部署。

一、下载 WSL

(一)网盘下载(推荐)

为了方便大家不用去官网下载,现提供网盘下载
网盘链接 【最后更新时间 2025/06/17】

(二)在线商店下载

下载完成后得到 wsl-install.msi 安装包。

在这里插入图片描述

Microsoft Store,直接搜索wsl,然后选择Linux发行版本进行下载即可

在这里插入图片描述

二、安装 WSL

步骤 1:启用 WSL 功能

以管理员身份打开 PowerShell(快捷键win+x)

在这里插入图片描述


执行:

wsl --install 
在这里插入图片描述

若提示“找不到命令”,

在这里插入图片描述


请手动启用功能:

dism.exe /online /enable-feature/featurename:Microsoft-Windows-Subsystem-Linux /all /norestart 
  1. 重启电脑。

步骤 2:安装 Linux 发行版

  1. 安装完成后,首次启动会提示创建用户名和密码,按提示完成即可。

选择发行版并安装,例如:

wsl --install -d Ubuntu 

重启后再次打开 PowerShell,执行:

wsl --list --online 

查看可安装的发行版列表(如 Ubuntu、Debian 等)。

在这里插入图片描述

步骤 3:验证安装

在 PowerShell 中输入:

wsl -l -v 

若返回发行版状态为“Running”,说明安装成功。


三、常见问题

  1. 启动 WSL 报错“0x80070057”
    检查 Windows 版本是否为 19041 或更高;若版本过低,请先升级系统。
  2. 网络无法访问
    确保 Windows 防火墙允许 WSL 出站连接,或尝试关闭代理/VPN 后重试。

安装失败,提示“WSL 2 需要启用虚拟机平台”
在 PowerShell 中执行:

dism.exe /online /enable-feature/featurename:VirtualMachinePlatform /all /norestart 

重启后再次尝试安装。

Read more

可以在命令行通过大模型使用上下文协议(MCP)与外部工具交互的软件:小巧的MCPHost

可以在命令行通过大模型使用上下文协议(MCP)与外部工具交互的软件:小巧的MCPHost

小巧的MCPHost MCPHost 可以在命令行下使用,使大型语言模型(LLM)能够通过模型上下文协议(MCP)与外部工具进行交互。目前支持Claude 3.5 Sonnet和Ollama等。本次实践使用自己架设的Deepseek v3模型,跑通了Time MCP服务。  官网:GitHub - mark3labs/mcphost: A CLI host application that enables Large Language Models (LLMs) to interact with external tools through the Model Context Protocol (MCP). 下载安装 使用非常方便,直接下载解压即可使用。官网提供Windows、Linux和MacOS三个系统的压缩包: https://github.com/

By Ne0inhk
实战篇:Python开发monogod数据库mcp server看完你就会了

实战篇:Python开发monogod数据库mcp server看完你就会了

原创不易,请关注公众号:【爬虫与大模型开发】,大模型的应用开发之路,整理了大模型在现在的企业级应用的实操及大家需要注意的一些AI开发的知识点!持续输出爬虫与大模型的相关文章。 前言 目前mcp协议是给deepseek大模型插上工具链的翅膀,让大模型不仅拥有超高的推理和文本生成能力,还能具备执行大脑意识的工具能力! 如何开发一个mcp? mcp是一种协议,指的是模型上下文协议 (Model Context Protocol)。 官方结成的mcp https://github.com/modelcontextprotocol/python-sdk mcp库 pip install mcp from mcp.server.fastmcp import FastMCP 我们先来做一个简单的案例 from mcp.server.fastmcp import FastMCP import requests mcp = FastMCP("spider") @mcp.tool() def crawl(

By Ne0inhk
AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 作者:高瑞冬 本文目录 * AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 * 一、MCP协议简介 * 二、创建MCP工具集 * 1. 获取MCP服务地址 * 2. 在FastGPT中创建MCP工具集 * 三、测试MCP工具 * 四、AI模型调用MCP工具 * 1. 调用单个工具 * 2. 调用整个工具集 * 五、私有化部署支持 * 1. 环境准备 * 2. 修改docker-compose.yml文件 * 3. 修改FastGPT配置 * 4. 重启服务 * 六、使用MCP-Proxy集成多个MCP服务 * 1. MCP-Proxy简介 * 2. 安装MCP-Proxy * 3. 配置MCP-Proxy * 4. 将MCP-Proxy与FastGPT集成 * 5. 高级配置

By Ne0inhk
【大模型实战篇】基于Claude MCP协议的智能体落地示例

【大模型实战篇】基于Claude MCP协议的智能体落地示例

1. 背景         之前我们在《MCP(Model Context Protocol) 大模型智能体第一个开源标准协议》一文中,介绍了MCP的概念,虽然了解了其概念、架构、解决的问题,但还缺少具体的示例,来帮助进一步理解整套MCP框架如何落地。         今天我们基于claude的官方例子--获取天气预报【1】,来理解MCP落地的整条链路。 2. MCP示例         该案例是构建一个简单的MCP天气预报服务器,并将其连接到主机,即Claude for Desktop。从基本设置开始,然后逐步发展到更复杂的使用场景。         大模型虽然能力非常强,但其弊端就是内容是过时的,这里的过时不是说内容很旧,只是表达内容具有非实时性。比如没有获取天气预报和严重天气警报的能力。因此我们将使用MCP来解决这一问题。         构建一个服务器,该服务器提供两个工具:获取警报(get-alerts)和获取预报(get-forecast)。然后,将该服务器连接到MCP主机(在本例中为Claude for Desktop)。         首先我们配置下环

By Ne0inhk