neo4j desktop2 安装与使用

1. Neo4j Desktop 2 简介

1.1 Neo4j Desktop 2 的核心功能与优势

Neo4j Desktop 2 是 Neo4j 官方推出的图形化数据库管理工具,专为开发者和数据科学家设计。

其主要优势包括:

一体化开发环境:集成了数据库实例管理、查询编辑、数据可视化和扩展管理

本地开发友好:支持在本地机器上快速创建和测试图数据库实例

多版本管理:可同时管理多个 Neo4j 数据库版本

插件生态系统:内置插件市场,轻松安装常用扩展 

项目管理:以项目为单位组织数据库、查询和配置  

1.2 适用场景

图数据库开发:为应用程序开发提供本地图数据库环境

本地测试:在部署到生产环境前进行数据模型测试和查询验证

项目管理:管理多个图数据库项目,保持环境隔离

教育与学习:学习 Cypher 查询语言和图数据库概念

2.安装neo4j desktop2

需要装JAVA (注意桌面版和社区版对Java都有要求)

桌面版版本不能过低,建议SE14以上,不需要配置环境和路径;社区版版本不能太高,SE15

下,需要自己手动配置环境和路径。可以去java官网下载历史版本

历史版本下载需要官网注册,注册成功后,可以免费下载。

方法一与方法二下载的结果安装包一样,但是方法一只能下载最新版2.0.5

方法一、通过https://neo4j.com/download下载或者使用网页版

点击桌面版下载

跳转到以下页面

填写信息就会自动下载安装包

方法二、通过https://neo4j.com/下载

点击后跳转到以下页面

往下划找到以下页面即可,可以按自己的需求安装在相应的操作系统。可以下载最新版本2.0.5,也可以下载旧版本1.6,网络上1.6版本教程较多,使用方法也比较简单,本人下载的是2.0.5,网络上教程有点少,所以在使用时也有踩一些坑,比例说不知道怎么创建项目,不知道如何运行项目创建知识图谱,不知道用户名是Instance name还是database user。

3.创建并管理本地图数据库

3.1新建数据库实例:

点击创建一个项目

填写项目名称与密码后点击创建,这里可以看到dstabase user默认为neo4j。

3.2启动与停止数据库:

这里可以看到项目默认为关闭的(STOPPED),点击①标注的即可运行。

此时会弹出一个弹窗,关闭弹窗项目就会结束运行,需要启动时可以先隐藏。

此时可以点开database中查看数据库,默认只有neo4j一个,可以点击create database创建多个知识图谱。然后点击connect可以查看query和explore。

4.构造知识图谱的方法

4.1在查询编辑器中输入代码

4.1.1基础操作

(1)创建节点
// 创建人物节点
CREATE (p:Person {name: 'Alice', age: 30, occupation: 'Engineer'})

// 创建多个节点
CREATE 
  (p1:Person {name: 'Bob', age: 25}),
  (p2:Person {name: 'Charlie', age: 35}),
  (c:Company {name: 'Tech Corp', industry: 'Technology'})
(2)创建关系
// 先匹配节点,然后创建关系
MATCH 
  (a:Person {name: 'Alice'}),
  (b:Person {name: 'Bob'})
CREATE (a)-[:FRIENDS_WITH {since: '2023-01-01'}]->(b)

// 创建节点和关系同时进行
CREATE 
  (alice:Person {name: 'Alice'})-[:WORKS_AT {position: 'Developer'}]->(company:Company {name: 'Neo4j Inc'})
(3)添加/更新属性
// 添加属性
MATCH (p:Person {name: 'Alice'})
SET p.email = '[email protected]'

// 更新多个属性
MATCH (p:Person {name: 'Bob'})
SET p.age = 26, p.department = 'Engineering'

// 添加标签
MATCH (p:Person {name: 'Charlie'})
SET p:Employee:Manager

4.1.2查询操作

(1)MATCH 基础查询
// 查询所有人物
MATCH (p:Person) 
RETURN p

// 查询特定属性
MATCH (p:Person) 
WHERE p.age > 25 
RETURN p.name, p.age

// 查询关系和路径
MATCH (p1:Person)-[r:FRIENDS_WITH]->(p2:Person)
RETURN p1.name, p2.name, r.since
(2)复杂查询示例
// 查找朋友的朋友
MATCH (p:Person {name: 'Alice'})-[:FRIENDS_WITH*2]->(friendOfFriend)
RETURN friendOfFriend.name

// 聚合查询
MATCH (p:Person)
RETURN p.occupation, COUNT(*) as count, AVG(p.age) as avgAge

// 路径查询
MATCH path = (start:Person)-[:FRIENDS_WITH|WORKS_AT*1..3]->(end)
WHERE start.name = 'Alice'
RETURN path

4.2通过import导入csv等文件导入节点

4.3使用python代码

使用代码连接neo4j

踩坑点:

“neo4j://127.0.0.1:7687”是项目上的url,auth=("neo4j","密码")这是用户名database user与创建项目时设置的密码。

4.4在网站上输入http://localhost:7474,可以连接neo4j网页版,输入密码即可。

如果习惯使用旧版本,点击红色即可使用旧版本的neo4j。

以下为旧版本页面

然后通过右键可以使用expand查看相关节点。

Read more

Pycharm中Github Copilot插件安装与配置全攻略(2023最新版)

PyCharm中GitHub Copilot:从安装到实战的深度配置指南 如果你是一位Python开发者,最近可能已经被各种关于AI编程助手的讨论所包围。GitHub Copilot,这个由GitHub和OpenAI联手打造的“结对编程”伙伴,已经不再是科技新闻里的概念,而是实实在在地进入了我们的开发工作流。特别是在PyCharm这样的专业IDE中,Copilot的集成能带来怎样的化学反应?是效率的倍增,还是全新的编码体验?这篇文章,我将从一个深度使用者的角度,带你走完从零安装到高效实战的全过程,并分享一些官方文档里不会告诉你的配置技巧和实战心得。 1. 环境准备与账号激活:迈出第一步 在开始安装插件之前,我们需要确保两件事:一个可用的GitHub Copilot订阅,以及一个正确版本的PyCharm IDE。很多人第一步就卡在了这里。 首先,关于订阅。GitHub Copilot提供个人和商业两种订阅计划。对于个人开发者,尤其是学生和开源项目维护者,GitHub有相应的优惠甚至免费政策。你需要一个GitHub账号,并前往 GitHub Copilot 官方页面 进行注册和订

By Ne0inhk

llama-cpp-python完整安装指南:5步解决90%新手问题 [特殊字符]

llama-cpp-python完整安装指南:5步解决90%新手问题 🎯 【免费下载链接】llama-cpp-pythonPython bindings for llama.cpp 项目地址: https://gitcode.com/gh_mirrors/ll/llama-cpp-python llama-cpp-python是专为llama.cpp库设计的Python绑定项目,为开发者提供了在Python环境中高效运行本地大语言模型的完美解决方案。通过该项目,您可以轻松实现文本生成、对话交互、多模态推理等AI功能,无需依赖云端API即可享受强大的本地AI推理能力。 🔧 一键编译配置技巧 环境配置是新手最容易遇到问题的环节。llama-cpp-python支持多种硬件加速后端,正确配置编译环境至关重要。 步骤1:基础环境检查 确保系统已安装Python 3.8+和C编译器: * Linux/Mac: gcc或clang * Windows: Visual Studio或MinGW * MacOS: Xcode命令行工具 步骤2:核心安装命令 pip in

By Ne0inhk

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合 在本地跑一个大模型,第一步不是写代码、调参数,而是——等它下载完。 这听起来有点荒诞,却是许多中国开发者的真实日常。当你兴致勃勃地打开终端,输入 ollama run llama3:8b,满心期待地准备开启微调之旅时,现实却给你泼了一盆冷水:进度条纹丝不动,网络连接频繁中断,几个小时过去连基础权重都没拉下来。 问题出在哪?根源就在于——Ollama 默认从 HuggingFace 官方仓库拉取模型,而这个服务器远在海外。对于国内用户来说,这无异于“越洋取经”,不仅速度慢如龟爬,还常因网络波动导致失败重试,白白浪费时间和算力资源。 但其实,我们完全不必硬扛这条路。真正聪明的做法是:绕开公网瓶颈,借助国内镜像高速获取模型 + 使用 LLama-Factory 实现低门槛、高效率的本地微调。这套组合拳不仅能让你把“等待下载”的时间省下来喝杯咖啡,还能让7B甚至13B级别的模型在一张消费级显卡上顺利训练起来。 镜像加速:别再用裸连 HuggingFace

By Ne0inhk
一文通透OpenVLA——在Prismatic VLM(SigLIP、DinoV2、Llama 2)的架构上:基于“下一个token预测技术”预测离散化动作

一文通透OpenVLA——在Prismatic VLM(SigLIP、DinoV2、Llama 2)的架构上:基于“下一个token预测技术”预测离散化动作

前言 当对机器人动作策略的预测越来越成熟稳定之后(比如ACT、比如扩散策略diffusion policy),为了让机器人可以拥有更好的泛化能力,比较典型的途径之一便是基于预训练过的大语言模型中的广泛知识,然后加一个policy head(当然,一开始背后的模型比较简单,比如有用LSTM或MLP——RoboFlamingo) 再之后,便出来了越来越多成熟稳定的专门的VLA模型,比如OpenVLA,再比如近期介绍过过的π0——用于通用机器人控制的VLA模型:一套框架控制7种机械臂(基于PaliGemma和流匹配的3B模型) 1. π0的意义在于,首次用同一套策略/算法操作不同机器人/机械臂,这种基于机器人大模型的「预训练-微调」模式,很快会越来越多(犹如此前大模型革命NLP 其次CV等各模态,目前到了robot领域),算是代表了通用机器人的核心发展方向 2. 且π0 比英伟达的HOVER早一点,当然,同时期的RDT GR2也有这个潜力的,期待这两 后续的更新 一个多月前(本文首发于25年1月),有朋友曾说,一个月内,π0 会开源来着,当时虽然觉得不太可能,但还是抱着期待,可还

By Ne0inhk