Neo4j-Desktop2.0安装教程(更改安装路径)

Neo4j-Desktop2.0安装教程(更改安装路径)

引言

       由于neo4j-desktop2.0版本是不提供安装页面(默认安装在C盘),从而让你选择安装路径的,这对于C盘内存来说是灾难性的。因此,需要手动设置安装路径。

参考文献:

  1. https://zhuanlan.zhihu.com/p/1935104156433121644https://zhuanlan.zhihu.com/p/1935104156433121644
  2. https://blog.ZEEKLOG.net/WMXJY/article/details/150649084

安装包下载:https://neo4j.com/deployment-center/?desktop-gdbhttps://neo4j.com/deployment-center/?desktop-gdb

1文件夹创建及环境变量设置

    首先需要在C盘以外的位置先创建一个Neo4j2文件夹,再在下面创建两个文件夹:App,PROData来存放软件本体和相关数据

然后打开“高级系统设置”——“环境变量”——系统变量下方的“新建”

然后添加如下内容:

变量名:NEO4J_DESKTOP_DATA_PATH

变量值:想要移动的位置

(例如我的是:D:\Neo4J2\PROData)

然后一路点击确定,最后重启电脑,确保设置生效。

2安装

把安装包复制到刚刚创建的Neo4j2文件夹——右键单机——选择“在终端中打开”

然后执行以下命令:(此处应注意运行的安装包的版本,我的是2.0.5)

然后执行以下命令:(此处应注意运行的安装包的版本,我的是2.0.5) .\neo4j-desktop-2.0.5-x64.exe /S /D=D:\Neo4J2\App /S表示静默安装(无界面)。 /D=后面是你想安装到的路径,必须是绝对路径,且不含空格或引号。 /D=参数必须放在命令最后,否则无效。 

注意:安装后,C盘中可能仍会存在   .Neo4j2   的文件夹空壳,可以保留也可以删去。

这里是傻瓜式安装不需要进行什么点击,它会在后台自动安装

3测试是否安装及修改成功

如果桌面出现neo4j2.0的快捷方式,并且App文件夹里存放了安装好的文件就证明安装成功了。

Read more

Claude Code Web:它是什么以及如何使用

Claude Code Web:它是什么以及如何使用

Claude Code Web: 它是什么以及如何使用 如果你也想尝试 claude code 可以 试试 -> aicoding.sh 2025年10月,Anthropic 推出了 Claude Code 的网页版和移动端支持,将其定位为云端编码代理的直接竞争对手,让 Pro 和 Max 订阅用户无需使用终端即可访问智能体工作流。这个智能编码助手从终端走向浏览器内体验,可以克隆你的代码仓库、运行隔离任务,并让你并行操控多个编码代理。 什么是 Claude Code? Claude Code 是 Anthropic 的智能编码助手:一个能够阅读代码库、运行任务、创建和修改文件、打开 Pull Request,并且通常可以作为自主(或半自主)编码伙伴的对话式 AI。 开始使用 Claude Code

【DeepSeek R1部署至RK3588】RKLLM转换→板端部署→局域网web浏览

【DeepSeek R1部署至RK3588】RKLLM转换→板端部署→局域网web浏览

本文为DeepSeek R1 7B 以qwen为底座的LLM在瑞芯微RK3588 SoC上的完整部署流程,记录从开发板驱动适配烧录开始,到最终的开发板终端访问模型和局域网web访问模型的完整流程,有不足之处希望大家共同讨论。 文章目录 * 一、项目背景介绍 * 二、所需工具介绍 * 1.硬件工具 * 1.X86 PC虚拟机Ubuntu20.04 * 2. 准备NPU驱动为0.9.8的RK3588开发板 * 2.软件工具 * 三、获取.safetensors模型权重 * 四、safetensors转RKLLM * 1.转换环境搭建 * 2.模型转换 * 五、RKLLM模型板端部署及推理 * 六、集成开源gradio工具实现web访问 一、项目背景介绍 先来介绍下项目背景吧,目前有一个空闲的firefly出厂的搭载瑞芯微RK3588 SoC的arm64开发板,样式如图所示: 博主之前主要进行CV领域的模型的RK开发板部署,对于LLM和VLM的接触并不算多,但现在大模型是趋势所向,并且瑞芯微及时的完成了针对各开源

【AI】——结合Ollama、Open WebUI和Docker本地部署可视化AI大语言模型

【AI】——结合Ollama、Open WebUI和Docker本地部署可视化AI大语言模型

🎼个人主页:【Y小夜】 😎作者简介:一位双非学校的大三学生,编程爱好者, 专注于基础和实战分享,欢迎私信咨询! 🎆入门专栏:🎇【MySQL,Javaweb,Rust,python】 🎈热门专栏:🎊【Springboot,Redis,Springsecurity,Docker,AI】  感谢您的点赞、关注、评论、收藏、是对我最大的认可和支持!❤️ 目录 🎈本地部署模型 🎉安装Ollama 🎉安装 Open WebUI 🎊安装Docker 🥞启动 Hyper-v 🥞 安装 WSL(适用于Linux的Windows的子系统): 🥞安装Docker  🎊Docker 部署 Open WebUI 🎈本地部署模型 🎉安装Ollama 官网: Ollama 然后进行一下下载 安装完成之后是没有提示的,然后我们需要去测试一下。(这里我是以QWen为例子,大家可以尝试其他的模型) 打开一个终端,

《C++ Web 自动化测试实战:常用函数全解析与场景化应用指南》

《C++ Web 自动化测试实战:常用函数全解析与场景化应用指南》

🔥草莓熊Lotso:个人主页 ❄️个人专栏: 《C++知识分享》《Linux 入门到实践:零基础也能懂》 ✨生活是默默的坚持,毅力是永久的享受! 🎬 博主简介: 文章目录 * 前言: * 一. 元素定位:自动化测试的 “精准导航” * 1.1 cssSelector:简洁高效的选择器 * 1.2 xpath:灵活强大的路径语言 * 二. 测试对象操作:定位后的 “核心动作” * 2.1 点击与提交:触发页面交互 * 2.2 文本输入与清除:模拟用户输入 * 2.3 文本与属性获取:验证测试结果 * 三. 窗口与弹窗控制:解决 “多窗口与弹窗干扰” * 3.1 窗口控制:句柄是关键 * 3.