如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

它是免费的——社区驱动的人工智能💪。

        当 OpenAI 第一次推出定制 GPT 时,我就明白会有越来越多的人为人工智能做出贡献,并且迟早它会完全由社区驱动。

        但从来没有想过它会如此接近😂让我们看看如何在 Windows 机器上完全免费使用第一个开源推理模型! 

步骤 0:安装 Docker 桌面

        我确信很多人已经安装了它,所以可以跳过,但如果没有 — — 这很简单,只需访问Docker 的官方网站,下载并运行安装 👍

        如果您需要一些特定的设置,例如使用 WSL,那么有很多指导视频,请查看!我将继续下一步。

步骤 1:安装 CUDA 以获得 GPU 支持

        如果您想使用 Nvidia 显卡运行 LLM,则必须安装 CUDA 驱动程序。(嗯……是的,它们需要大量的计算能力)

        打开CUDA 下载页面,根据需要点击“Windows”和其他选项,然后选择“本地”作为安装程序类型:

下载并完成安装即可👍,此处需要重新启动。 

第 2 步:安装 Ollama 并下载模型

前往Ollama 网站并点击下载按钮 😆

        Ollama是一款开源 AI 工具,使用户能够在其设备上本地运行大型语言模型,为自然语言处理任务提供定制化、高效和离线功能。

安装后,打开“Windows PowerShell”

并通过运行来验证您的安装ollama -v

再次打开ollama网站并选择您的型号:

        有几种选择,我建议从 7b 开始,并检查它如何与您的机器配合使用。例如,我运行 i7-11 系列处理器和 NVIDIA GeForce RTX 2080 SUPER 以及 8GB GPU,我可以在正常(可以说是“可接受的”)速度下使用 14b 型号。

正如我所说,它需要大量的计算能力 

选择后,点击复制按钮: 

并在 PowerShell 中运行:

它将像上面一样下载并打开 shell,您可以在这里直接与它聊天,但是让我们/bye对它说,并继续设置一个实际的 UI,而不是从 PowerShell 提示 💪

步骤3:安装Open-WebUI

打开github 页面,找到“ Open WebUI with Nvidia GPU support”

复制该命令并再次在 PowerShell 中运行它。它将下载所有需要的 docker 镜像并运行容器,您可以通过http://localhost:3000/访问该容器

对于任何 LLM 用户来说,这都是一个熟悉的用户界面,左侧边栏用于聊天,左上角可用于选择已安装的模型等。

Open-WebUI 具有大量功能,例如 RAG、图像生成、网页浏览等。您可以在此处查看完整列表 

社区驱动的人工智能← 获取有关人工智能的更多内容 👍

所有信息和观点均仅代表我个人的见解。

如果您喜欢此文章,请收藏、点赞、评论,谢谢,祝您快乐每一天。  

Read more

C++ map 全面解析:从基础用法到实战技巧

C++ map 全面解析:从基础用法到实战技巧

🔥个人主页:Cx330🌸 ❄️个人专栏:《C语言》《LeetCode刷题集》《数据结构-初阶》《C++知识分享》 《优选算法指南-必刷经典100题》《Linux操作系统》:从入门到入魔 🌟心向往之行必能至 🎥Cx330🌸的简介: 目录 前言: 一、map 核心概念与特性 1. 什么是 map? 2. 头文件与命名空间 3. map模板参数与内部类型 4. 常见初始化方式: 二、map 基础用法(必备知识点) 2.1 构造与初始化 2.2 遍历 1. 迭代器遍历(三种方式): 2. 范围for遍历 3. 结构化绑定(C++17支持): 2.3 插入操作(

By Ne0inhk
【C++仿Muduo库#3】Server 服务器模块实现上

【C++仿Muduo库#3】Server 服务器模块实现上

📃个人主页:island1314 ⛺️ 欢迎关注:👍点赞 👂🏽留言 😍收藏 💞 💞 💞 * 生活总是不会一帆风顺,前进的道路也不会永远一马平川,如何面对挫折影响人生走向 – 《人民日报》 🔥 目录 * 一、Buffer 模块 * 二、日志模块 * 三、套接字 Socket 设计 * 1. 代码实现 * 2. 代码检测 * 3. 细节处理 * 细节1:处理 Recv 函数时, errno 的来源以及 为啥不用 `EWOULDBLOCK` * 细节2:MSG_DONWAIT 的概述 * 细节3:关于 ReuseAddr() * 📌 为什么默认不允许端口复用? * 🧠 举个例子:服务重启时的 `TIME_WAIT` 问题 * 🧾小结 * 细节4:宏污染

By Ne0inhk
RPC魔法揭秘:从原理到BRPC实战,用C++玩转分布式通信

RPC魔法揭秘:从原理到BRPC实战,用C++玩转分布式通信

文章目录 * 本篇摘要 * 一.什么是rpc * 简单理解 * 核心特点 * RPC 工作原理 * 常见 RPC 框架 * 典型使用场景 * 二.BRPC介绍 * 是什么? * 比gRPC强在哪? * 三.基于brpc实现简单的服务调用 * brpc安装教程 * 简单实现客户端向brpc服务端口请求服务完成应答过程(以echo回显为例) * 测试效果 * 代码汇总 * 四.封装每个服务的channels及所有服务管理者 * 五.基于etcd实现服务上下线监控来完成brpc服务调用 * 测试效果 * 代码汇总 * 六.本篇小结 本篇摘要 本文从RPC核心概念出发,阐释其“透明远程调用”的本质与工作原理,对比主流框架后聚焦百度开源的C++高性能RPC框架BRPC,详解其安装、Echo服务示例代码(含客户端/服务端实现),并延伸介绍基于ETCD的服务注册发现与信道管理封装,完整呈现分布式通信方案落地过程。 一.什么是rpc 简单理解 RPC(远程过程调用)就是让程序调用

By Ne0inhk
《C/C+++ Boost 轻量级搜索引擎实战:架构流程、技术栈与工程落地指南——构造正/倒排索引(中篇)》

《C/C+++ Boost 轻量级搜索引擎实战:架构流程、技术栈与工程落地指南——构造正/倒排索引(中篇)》

前引:这是一个聚焦基础搜索引擎核心工作流的实操项目,基于 C/C++ 技术生态落地:从全网爬虫抓取网页资源,到服务器端完成 “去标签 - 数据清洗 - 索引构建” 的预处理,再通过 HTTP 服务接收客户端请求、检索索引并拼接结果页返回 —— 完整覆盖了轻量级搜索引擎的端到端逻辑。项目采用 C++11、STL、Boost 等核心技术栈,搭配 CentOS 7 云服务器 + GCC 编译环境(或 VS 系列开发工具)部署,既适配后端工程的性能需求,也能通过可选的前端技术(HTML5/JS 等)优化用户交互,是理解搜索引擎底层原理与 C++ 工程实践的典型案例 目录 【一】Jieba分词工具 【二】正/倒排索引结构设计

By Ne0inhk