在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

        本文将分步向您展示如何在本地安装和运行 DeepSeek、使用 CodeGPT 对其进行配置以及开始利用 AI 来增强您的软件开发工作流程,所有这些都无需依赖基于云的服务。 

步骤 1:在 VSCode 中安装 Ollama 和 CodeGPT

        要在本地运行 DeepSeek,我们首先需要安装Ollama,它允许我们在我们的机器上运行 LLM,以及CodeGPT,它是集成这些模型以提供编码辅助的 VSCode 扩展。

安装 Ollama

Ollama 是一个轻量级平台,可以轻松运行本地 LLM。

下载Ollama

访问官方网站:https://ollama.com

  • 下载适合您的操作系统(Windows、macOS 或 Linux)的安装程序。
  • 验证安装
    安装后,打开终端并运行:

ollama --version 

如果 Ollama 安装正确,它将显示已安装的版本。

在 Visual Studio Code 中安装 CodeGPT

打开 VSCode并导航到扩展市场(Ctrl + Shift + X 或 macOS 上为 Cmd + Shift + X)。

搜索“CodeGPT”并点击安装。

或者您可以在此处创建一个免费帐户:https://codegpt.co

安装 Ollama 和 CodeGPT 后,我们现在可以下载并配置 DeepSeek 以开始在本地使用 AI 进行编码。 

第 2 步:下载并设置模型

现在您已经成功安装了 Ollama 和 CodeGPT,现在是时候下载您将在本地使用的模型了。

  • 聊天模型:deepseek-r1:1.5b,针对较小的环境进行了优化,可以在大多数计算机上顺利运行。
  • 自动补全模型:deepseek-coder:1.3b。该模型利用中间填充 (FIM)技术,可以在您编写代码时提供智能自动补全建议。它可以预测并建议函数或方法的中间部分,而不仅仅是开头或结尾。

下载聊天模型 (deepseek-r1:1.5b)

要开始使用聊天模型:

  • VSCode中打开CodeGPT
  • 导航到侧边栏中的“本地 LLM”部分。
  • 从可用选项中,选择Ollama作为本地 LLM 提供商。
  • 选择模型deepseek-r1:1.5b
  • 点击下载按钮。模型将自动开始下载。

下载完成后,CodeGPT 将自动安装模型。安装完成后,您就可以开始与模型进行交互了。

现在,您可以轻松地查询有关代码的模型。只需在编辑器中突出显示任何代码,使用#符号将额外文件添加到查询中,然后利用强大的命令快捷方式,例如: 

/fix — 用于修复错误或建议改进代码。
/refactor — 用于清理和改进代码结构。
/Explain — 获取任何一段代码的详细解释。
这种聊天模型非常适合帮助解决特定问题或获取有关代码的建议。

下载自动完成模型 (deepseek-coder:base)

为了增强代码自动完成功能:

在 VSCode 中打开终端。
运行以下命令来提取deepseek-coder:base模型:

ollama pull deepseek-coder:base

此命令将自动完成模型下载到您的本地机器。
下载完成后,返回CodeGPT并导航到自动完成模型部分。
从可用模型列表中选择deepseek-coder:base 。

选择后,您就可以开始编码。在您输入时,模型将开始提供实时代码建议,帮助您轻松完成函数、方法甚至整个代码块。 

步骤 3:享受无缝本地和私人人工智能编码

        设置模型后,您现在可以享受使用这些强大工具的全部好处,而无需依赖外部 API。通过在您的机器上本地运行所有内容,您可以确保完全的隐私和对编码环境的控制。无需担心数据离开您的计算机,一切都保持安全和私密。

如果您喜欢此文章,请收藏、点赞、评论,谢谢,祝您快乐每一天。   

Read more

腾讯云轻量服务器一键部署 OpenClaw:国内外模型秒切 + 企业微信7×24私人AI助理(保姆级)

腾讯云轻量服务器一键部署 OpenClaw:国内外模型秒切 + 企业微信7×24私人AI助理(保姆级)

2026年最火的开源AI Agent——OpenClaw(前身 Clawdbot / Moltbot),让你拥有一个真正能“动手”的7×24小时私人AI助理! 它不仅能聊天,还能帮你发邮件、管日程、整理文件、执行脚本、浏览网页……关键是数据全在你自己服务器上,隐私0泄露。 腾讯云轻量应用服务器(Lighthouse)已官方推出OpenClaw一键部署模板,新手5–10分钟就能跑起来,支持一键切换国内外大模型(Claude、Gemini、DeepSeek、通义千问、豆包等),再接入企业微信后,手机随时发指令,AI秒执行。 本次实测配置: * CPU:2核 * 内存:4GB * 系统盘:70GB SSD * 流量:600GB/月(带宽6Mbps) 性能够用,月均成本低至几块钱! * @我更多福利大放送 步骤1:购买并一键部署OpenClaw服务器(3–

By Ne0inhk
深入详解人工智能数学基础——概率论中的KL散度在变分自编码器中的应用

深入详解人工智能数学基础——概率论中的KL散度在变分自编码器中的应用

🧑 博主简介:ZEEKLOG博客专家、ZEEKLOG平台优质创作者,高级开发工程师,数学专业,10年以上C/C++, C#, Java等多种编程语言开发经验,拥有高级工程师证书;擅长C/C++、C#等开发语言,熟悉Java常用开发技术,能熟练应用常用数据库SQL server,Oracle,mysql,postgresql等进行开发应用,熟悉DICOM医学影像及DICOM协议,业余时间自学JavaScript,Vue,qt,python等,具备多种混合语言开发能力。撰写博客分享知识,致力于帮助编程爱好者共同进步。欢迎关注、交流及合作,提供技术支持与解决方案。 技术合作请加本人wx(注明来自ZEEKLOG):xt20160813 深入详解人工智能数学基础——概率论中的KL散度在变分自编码器中的应用 在人工智能,尤其是深度学习领域,**变分自编码器(Variational Autoencoders, VAE)**因其出色的生成能力而备受关注。VAE的核心在于其对潜在变量分布的建模,而这一过程离不开概率论中的一个关键概念——Kullback-Leibler散度(KL散度)。本文将以浅

By Ne0inhk
AI测试:自动化测试框架、智能缺陷检测、A/B测试优化

AI测试:自动化测试框架、智能缺陷检测、A/B测试优化

1. 自动化测试框架 1.1 概述 基于AI的自动化测试框架通过机器学习和自然语言处理技术,实现了测试用例的自动生成、执行和优化,显著提升了测试效率和覆盖率。这类框架能够理解需求文档、识别UI元素、预测测试路径,并持续优化测试策略。 1.2 核心组件 1. 需求解析引擎:使用NLP技术分析需求文档 2. 测试用例生成器:基于需求自动生成测试用例 3. 智能执行引擎:动态调整测试执行顺序 4. 结果分析器:使用ML模型分析测试结果 5. 自优化模块:根据历史数据持续改进测试策略 1.3 代码实现 import numpy as np import pandas as pd from sklearn.feature_extraction.text import TfidfVectorizer from

By Ne0inhk

【AI实战】硅基流动:免费获取大模型API密钥全攻略(含DeepSeek)

1. 为什么你需要一个免费的大模型API密钥? 如果你刚开始接触AI,可能会觉得在网页上直接和ChatGPT或者DeepSeek聊天就足够了。确实,对于简单的问答、写个邮件、改个文案,网页版非常方便。但我想说的是,这就像你只用了智能手机的打电话功能,却错过了它拍照、导航、移动支付的巨大潜力。 我自己在写代码、处理文档、分析数据时,就经常遇到一些重复性的、需要“智力”辅助的工作。比如,我有200多份技术文档,需要快速提取核心观点并生成摘要;再比如,我想给我的小工具加一个智能客服功能,让它能自动回答用户关于产品使用的问题。这些场景,如果每次都手动打开网页、复制粘贴、等待回复,效率就太低了,而且根本无法集成到自动化流程里。 这时候,大模型的API(应用程序编程接口)就派上用场了。简单来说,API就是大模型厂商给你开的一个“后门”,让你可以用程序(比如Python脚本)直接和模型的大脑对话。你不再需要打开浏览器,只需要几行代码,就能把问题丢给AI,并把答案拿回来,无缝嵌入到你自己的软件、网站或者工作流中。这个过程的“

By Ne0inhk