安装 Node.js 22+,配置 OpenAI Node.js 库、Vercel AI SDK 基础环境

文章目录

一、安装 Node.js 22+

  1. 官网下载:访问 Node.js 官网,选择 v22.x 稳定版(LTS 或 Current 均可),按系统(Windows/Mac/Linux)安装。
  2. 验证安装:终端执行 node -vnpm -v,输出 v22.x.x 即成功(npm 会随 Node 自动安装)。

二、初始化项目与安装依赖

1. 新建项目文件夹,终端进入目录,执行初始化命令:

npm init -y # 快速生成 package.json

2. 安装核心依赖:

# OpenAI Node.js 库(官方最新版)npminstall openai@latest # Vercel AI SDK(含基础工具链)npminstall ai@latest 

三、基础配置(关键步骤)

1. 配置 OpenAI 库

  • 在项目根目录创建 .env 文件,添加 API 密钥(需提前在 OpenAI 官网获取):
OPENAI_API_KEY=your-api-key-here # 替换为真实密钥 
  • 基础使用示例(创建 index.js):
import OpenAI from'openai';const openai =newOpenAI({ apiKey: process.env.OPENAI_API_KEY});// 测试调用(示例:生成文本)asyncfunctiontestOpenAI(){const response =await openai.chat.completions.create({ model:"gpt-3.5-turbo", messages:[{ role:"user", content:"Hello World"}]}); console.log(response.choices[0].message.content);}testOpenAI();

2. 配置 Vercel AI SDK

  • 无需额外密钥配置(依赖 OpenAI 密钥),基础流式调用示例(修改 index.js):
import{ openai }from'@ai-sdk/openai';import{ streamText }from'ai';asyncfunctiontestVercelAI(){const result =awaitstreamText({ model:openai('gpt-3.5-turbo'), prompt:"Hello World"});// 流式输出结果forawait(const chunk of result.textStream){ process.stdout.write(chunk);}}testVercelAI();

四、运行测试

  1. 安装 dotenv 加载环境变量:npm install dotenv --save-dev
  2. 修改 package.json 添加启动脚本:
"scripts":{"start":"node -r dotenv/config index.js"}
  1. 终端执行 npm start,成功输出 AI 回复即配置完成。

完整的项目目录结构 和 调试常见报错

Read more

【选型】地瓜机器人RDK系列选型指南:X3 vs X5 vs S100 vs S100P(含资源对比图)

【选型】地瓜机器人RDK系列选型指南:X3 vs X5 vs S100 vs S100P(含资源对比图)

在机器人开发领域,地瓜机器人(D-Robotics)凭借其“RDK(Robot Developer Kit)”系列开发套件,已成为众多开发者和创业团队的首选平台。从轻量级边缘计算到高性能具身智能,地瓜机器人已构建了覆盖多场景的完整产品线,致力于为开发者提供高性价比、高集成度、高扩展性的解决方案。其核心芯片“旭日®”系列持续迭代,推动AI与机器人深度融合,助力实现从感知到控制的全链路自主化。 本文将深入对比当前主流的四款RDK开发套件:RDK X3、RDK X5、RDK S100、RDK S100P,并提供详细的资源对比图与应用场景分析,帮助你快速完成技术选型,降低开发门槛,提升项目落地效率。 一、产品定位概览 在深入参数前,先明确每款产品的核心定位,以便根据项目阶段、预算和性能需求做出合理选择。 ● RDK X3:轻量级边缘AI计算模组,适合入门级机器人、智能摄像头、无人机等低功耗、小体积场景。是初学者和教育项目的理想起点,具备基础AI推理能力,可快速搭建视觉识别系统。 ● RDK

GraphRAG论文阅读:From Local to Global: A Graph RAG Approach to Query-Focused Summarization

文章链接:https://arxiv.org/abs/2404.16130 从局部到全局:一种面向查询聚焦摘要生成的GraphRAG方法 摘要 利用检索增强生成(RAG)从外部知识源检索相关信息,使大语言模型(LLMs)能够回答关于私有和/或先前未见过的文档集合的问题。然而,针对整个文本语料库的全局性问题,例如“数据集中的主要主题是什么?”,RAG则无法胜任,因为这本质上是一个查询聚焦的摘要生成(QFS)任务,而非显式的检索任务。同时,先前的QFS方法无法扩展到典型RAG系统索引的文本数量。为了结合这些不同方法的优势,我们提出了GraphRAG,一种基于图的方法,用于在私有文本语料库上进行问答,该方法能随用户问题的广泛性和源文本的数量而扩展。我们的方法使用LLM分两个阶段构建图索引:首先,从源文档中推导出实体知识图谱;然后,为所有紧密相关的实体组预先生成社区摘要。给定一个问题,每个社区摘要被用于生成部分回答,然后所有这些部分回答再次汇总成一个最终回答返回给用户。对于在约100万标记范围内的数据集上的一类全局意义构建问题,我们表明,与传统的RAG基线相比,GraphRAG在生成答

宇树机器人g1二次开发:建图,定位,导航手把手教程(四)导航仿真部分:建完图之后打开仿真导航

先补一下第三教程的四看路线这一块:终端2那里,可以先修改下面图片所示的文件为true,这样打开终端2的时候就可以打开设定好的rviz,就不用单独打开rviz。但是开始播放bag包之后还是要单独添加话题。 建成pcd之后可以查看pcd图:filename.pcd换成自己pcd的名字 pcl_viewer filename.pcd 额外说一句,有几种类型的图大家不要弄错了: 一、下载项目 # 克隆导航栈源码 cd ~/ws_loc/src git clone https://github.com/deepglint/ros_navigation_humanoid.git # 重命名并整理目录结构 mv ros_navigation_humanoid-master ros_navigation_humanoid 1.2、安装系统依赖 # 安装ROS导航相关包 sudo apt-get install libpcl-dev ros-noetic-navigation ros-noetic-tf