Neo4j-Desktop2.0安装教程(更改安装路径)

Neo4j-Desktop2.0安装教程(更改安装路径)

引言

       由于neo4j-desktop2.0版本是不提供安装页面(默认安装在C盘),从而让你选择安装路径的,这对于C盘内存来说是灾难性的。因此,需要手动设置安装路径。

参考文献:

  1. https://zhuanlan.zhihu.com/p/1935104156433121644https://zhuanlan.zhihu.com/p/1935104156433121644
  2. https://blog.ZEEKLOG.net/WMXJY/article/details/150649084

安装包下载:https://neo4j.com/deployment-center/?desktop-gdbhttps://neo4j.com/deployment-center/?desktop-gdb

1文件夹创建及环境变量设置

    首先需要在C盘以外的位置先创建一个Neo4j2文件夹,再在下面创建两个文件夹:App,PROData来存放软件本体和相关数据

然后打开“高级系统设置”——“环境变量”——系统变量下方的“新建”

然后添加如下内容:

变量名:NEO4J_DESKTOP_DATA_PATH

变量值:想要移动的位置

(例如我的是:D:\Neo4J2\PROData)

然后一路点击确定,最后重启电脑,确保设置生效。

2安装

把安装包复制到刚刚创建的Neo4j2文件夹——右键单机——选择“在终端中打开”

然后执行以下命令:(此处应注意运行的安装包的版本,我的是2.0.5)

然后执行以下命令:(此处应注意运行的安装包的版本,我的是2.0.5) .\neo4j-desktop-2.0.5-x64.exe /S /D=D:\Neo4J2\App /S表示静默安装(无界面)。 /D=后面是你想安装到的路径,必须是绝对路径,且不含空格或引号。 /D=参数必须放在命令最后,否则无效。 

注意:安装后,C盘中可能仍会存在   .Neo4j2   的文件夹空壳,可以保留也可以删去。

这里是傻瓜式安装不需要进行什么点击,它会在后台自动安装

3测试是否安装及修改成功

如果桌面出现neo4j2.0的快捷方式,并且App文件夹里存放了安装好的文件就证明安装成功了。

Read more

服务器上 VsCode 的 Github Copilot:加载超时?优化与修复方案

服务器上 VS Code 的 GitHub Copilot 加载超时问题:优化与修复方案 当在服务器环境使用 VS Code 的 GitHub Copilot 时,加载超时通常由网络配置或资源限制引起。以下是结构化解决方案: 1. 网络层优化 配置代理(若需跨墙) 在 VS Code 的 settings.json 添加: "http.proxy": "http://your-proxy-ip:port", "https.proxy": "http://your-proxy-ip:port", "http.proxyStrictSSL"

Jetson 上 OpenClaw + Ollama + llama.cpp 的联动配置模板部署大模型

Jetson 上我建议的联动方式是:OpenClaw -> Ollama(主模型,原生 API)+ llama.cpp(备用/低资源模型,OpenAI 兼容 API)+ Ollama embeddings(memorySearch)。 这样做的原因是,OpenClaw 官方把 Ollama + openclaw onboard 作为最低冲突的本地方案;同时它也支持把 vLLM / LiteLLM / 自定义 OpenAI-compatible 本地代理 作为额外 provider 接进来。Ollama 这边,OpenClaw 明确推荐走原生 http://host:11434,不要给它配 /v1,否则工具调用会变差;而 llama.cpp 的 llama-server

Llama 3-8B-Instruct 在昇腾 NPU 上的 SGLang 性能实测

Llama 3-8B-Instruct 在昇腾 NPU 上的 SGLang 性能实测

1.引言 随着大模型在各类智能应用中的广泛应用,高效的推理硬件成为关键瓶颈。昇腾 NPU(Ascend Neural Processing Unit)凭借其高算力、低能耗以及对 SGLang 的深度优化,能够显著提升大模型推理性能。本文以 Llama 3-8B-Instruct 为例,通过在昇腾 NPU 上的实测,展示其在吞吐量、延迟和资源利用方面的优势,并探索可行的优化策略,为开发者在今后的开发中提供可参考的案例。 在本篇文章中我们会使用到Gitcode的Notebook来进行实战,GitCode Notebook 提供了开箱即用的云端开发环境,支持 Python、SGLang 及昇腾 NPU 相关依赖,无需本地复杂环境配置即可直接运行代码和进行实验。对于没有硬件平台的小伙伴来说是非常便利的。 GitCode Notebook使用链接:https://gitcode.com/user/m0_49476241/notebook。 2.实验环境与准备 2.

GitHub Copilot:Python开发者的AI助手

GitHub Copilot:Python开发者的AI助手 前言 大家好,我是第一程序员(名字大,人很菜)。作为一个非科班转码、正在学习Rust和Python的萌新,最近我开始使用GitHub Copilot。今天我想分享一下GitHub Copilot如何成为Python开发者的AI助手。 一、GitHub Copilot简介 1.1 什么是GitHub Copilot * AI编程助手:由GitHub和OpenAI合作开发的AI编程助手 * 代码生成:根据上下文自动生成代码 * 智能建议:提供智能的代码建议 * 多语言支持:支持多种编程语言,包括Python 1.2 GitHub Copilot的工作原理 * 基于GPT模型:使用OpenAI的GPT模型 * 代码训练:在大量开源代码上训练 * 上下文理解:理解代码的上下文和意图 * 实时建议:在编写代码时实时提供建议 二、GitHub Copilot在Python开发中的应用 2.1 代码生成 示例1:生成函数