Neo4j Windows桌面版安装及更改默认数据存储位置

Windows桌面版

下载地址:https://neo4j.com/deployment-center/

在这里插入图片描述

直接点击.exe文件进行安装默认目录在C盘且无法修改,如果需要装到其他盘需要下载好.exe之后使用管理员身份打开cmd或者powershell,进入到.exe文件所在位置,输入下列命令

neo4j-desktop-2.0.5-x64.exe /S /D=D:\software\neo4j_desktop # /S 表示静默安装(无界面)# /D= 后面是你想安装到的路径,必须是绝对路径,且不含空格或引号

这样安装后虽然安装位置改变了,但是neo4j图数据库的相关数据存储位置依然默认在C盘,需要进一步配置环境变量来修改数据存储位置。在系统变量中增加NEO4J_DESKTOP_DATA_PATH的配置。

在这里插入图片描述

社区版

windows系统社区版下载选中以下几个选项进行下载,如果是其他系统对应选择其他系统版本的进行下载。

在这里插入图片描述


下载解压后无需安装,直接配置环境变量就可以使用。

在用户变量的Path中新增%NEO4J_HOME%\bin

在这里插入图片描述


安装配置完成之后在命令行中通过neo4j.bat启动

添加系统环境变量NEO4J_HOME

在这里插入图片描述

注意事项

  1. 在安装neo4j之前需要先安装JVM,如果安装最新版的neo4j最好同时安装最新版JVM。

Read more

文心一言 4.5 开源深度剖析:性能中文双项碾压,开源引擎驱动行业变革,解锁大模型新范式

文心一言 4.5 开源深度剖析:性能中文双项碾压,开源引擎驱动行业变革,解锁大模型新范式

引言 不知道大家关注到没?文心大模型 ERNIE 4.5 已开源并首发于 GitCode 平台!不同于以往的开源模型,百度这次一口气开源了 10 款模型,覆盖基础、对话、多模态、思考等多个方向,甚至将核心训练框架、分布式策略完全开放。在基准测试中,文心开源即刷榜,性能大幅超越 Qwen3 、 DeepSeek-V3 等模型;下面跟随博主一起从模型架构特性、技术分析、部署难度等来对文心模型全面解析一下! 文章目录 * 引言 * 一、文心大模型 ERNIE 4.5 开源简介 * 1.1 开源模型版本介绍 * 1.2 基准测试表现 * 1.3 全面的工具生态链 * 二、文心大模型 ERNIE 4.5技术分析

AI模型大揭秘:豆包、文心一言、DeepSeek、元宝四大模型特点与选择指南!

AI模型大揭秘:豆包、文心一言、DeepSeek、元宝四大模型特点与选择指南!

简介 在生成式AI逐渐普及的今天,你是否遇到过这样的场景:同一个问题,向不同的AI提问,得到的答案质量参差不齐?这背后,其实是不同AI模型因技术基因、训练数据和应用场景的差异,形成了独特的“内容偏好”和“思维模式”。本文将结合最新行业实践,深度解析豆包、文心一言、DeepSeek、元宝四大模型的特点,并教你如何根据自身需求选择最适合的AI工具,拥抱智能时代的变革。 一、四大AI模型的“个性”与底层逻辑 01 豆包(字节系):实用至上的“生活助手” * 偏好:深度绑定字节生态(如抖音、今日头条),青睐结构化内容(如清单、表格、数据图表)和实用技巧类信息。 * 底层逻辑:依托字节的短视频和用户行为数据,擅长处理场景化、轻量级任务,例如生活技巧、产品对比、热点解读。 * 典型场景:查询“如何挑选高性价比手机”,豆包会快速给出参数对比表和购买建议。 02

工具篇-如何在Github Copilot中使用MCP服务?

工具篇-如何在Github Copilot中使用MCP服务?

Model Context Protocol (MCP) 是由 Anthropic 公司于 2024 年 11 月推出的一种开放协议标准,目的在于标准化 LLM 与外部数据源、工具及服务之间的交互方式。MCP 被广泛类比为“AI 领域的 USB-C 接口”。 一、vscode的安装 下载vscodeVisual Studio Code - Code Editing. Redefined安装完成打开 选择copilot,这个是AI助手,帮助你编程  然后注册登录,可以使用GitHub的账号登录,很多工具都可以通过GitHub帐号登录,所以注册一个GitHub帐号是很有必要的。 二、使用MCP 2.1 准备好MCP 先按这篇文章准备好高德地图的MCP:工具篇-Cherry Studio之MCP使用-ZEEKLOG博客 2.2 在Github Copilot中配置 MCP服务

AI绘画工作流优化:将Z-Image-Turbo集成到Photoshop插件

AI绘画工作流优化:将Z-Image-Turbo集成到Photoshop插件 作为一名平面设计师,你是否厌倦了在Photoshop和AI绘画工具之间反复切换?Z-Image-Turbo作为一款高性能文生图模型,现在可以通过插件形式直接嵌入Photoshop工作环境,实现AI生成与专业设计的无缝衔接。本文将手把手教你如何搭建这套集成方案,让你在熟悉的PS界面中直接调用AI能力。 这类任务通常需要GPU环境支持,目前ZEEKLOG算力平台提供了包含Z-Image-Turbo的预置镜像,可快速部署验证。下面我将分享从环境准备到插件调用的完整流程,实测下来这套方案能显著提升设计效率,特别适合需要快速迭代创意的场景。 环境准备与镜像部署 基础环境要求 * 操作系统:Linux(推荐Ubuntu 20.04+) * GPU:NVIDIA显卡(显存≥16GB) * 驱动:CUDA 11.7+ / cuDNN 8.5+ * 框架:PyTorch 2.0+ 快速部署步骤 1. 拉取预装环境镜像(已包含Z-Image-Turbo和插件SDK): docker pull ZEEK