Claude Code免费使用教程,前端必看!

Claude Code免费使用教程,前端必看!

目前claude有两种使用方式,一种是官方购买渠道(太贵了,用不起,扎心。。。),还一种就是通过api方式,就是下面我讲的通过any-router提供的api调通就行~相当于中转站,主要是免费啊,谁能说不香!

1.注册LinuxDo账户

目前AnyRouter取消了github登录方式,只能通过LinuxDo账户登录,或者edu的邮箱登录,这里选择使用LinuxDo登录。

linux do官方网址:https://linux.do/  

linux do邀请码:2E917F23-D9BF-44FE-BCBD-AE6AB3B1FC17

提示:如果Linuxdo邀请码失效,注册页面填写邀请码的那个输入框下面有邀请码链接,如图:

申请理由稍微写写,别全打逗号啥的,认真写下很快就过了。


 

2.any Router登录使用

上面linux do账号注册完毕就可以,登录any router了

any router网址:https://anyrouter.top/register?aff=iVs0    (貌似目前需要挂绿色软件才能登录上去)

一定要复制上面的网址(别删除后缀),带后缀的,因为走邀请你会多 50$  !!!  要不然进去默认就75$,走邀请可以多50$,这样总共125$

登录进来之后,点击左侧 API令牌

然后点  添加令牌

里面配置,点我图上标记的两处地方,然后确定

3.安装Claude,并使用

  我是windows系统所以,直接讲windows配置了。

   首先打开环境变量,路径:此电脑->属性->系统->高级系统设置->高级->环境变量(也可以直接在windows搜索框直接搜索环境变量),然后添加系统变量!(添加完最好重启一下,要不然获取不到)

总共添加两个就行:

ANTHROPIC_AUTH_TOKEN      sk-...(这个sk-  就是any router的api令牌,见下图获取方式)

ANTHROPIC_BASE_URL           (这个地方,敲一下吧,放上面网址发不了文章。。红色框里的那个网址!)

以上两个环境变量配完之后,就已经快接近成功了!!!(补充:环境变量配置完,电脑要重启,否则不生效!!!!!!!!!!!一定注意

接下来就是安装claude (node版本要 >=18  ,这个也要注意!要不然安装可能会报错)

npm install -g @anthropic-ai/claude-code claude --version

版本号显示了,就是安装成功~

登录成功后:

成功通过any router中转!!!尽情使用吧~

最后的最后,any router登录一定要走上面邀请链接哦,要不然会少 50$ !!! 还有每天登录也送25$   相当于一直白嫖了,兄弟姐妹们!

Read more

OpenClaw配置Bot接入飞书机器人+Kimi2.5

OpenClaw配置Bot接入飞书机器人+Kimi2.5

上一篇文章写了Ubuntu_24.04下安装OpenClaw的过程,这篇文档记录一下接入飞书机器+Kimi2.5。 准备工作 飞书 创建飞书机器人 访问飞书开放平台:https://open.feishu.cn/app,点击创建应用: 填写应用名称和描述后就直接创建: 复制App ID 和 App Secret 创建成功后,在“凭证与基础信息”中找到 App ID 和 App Secret,把这2个信息复制记录下来,后面需要配置到openclaw中 配置权限 点击【权限管理】→【开通权限】 或使用【批量导入/导出权限】,选择导入,输入以下内容,如下图 点击【下一步,确认新增权限】即可开通所需要的权限。 配置事件与回调 说明:这一步的配置需要先讲AppId和AppSecret配置到openclaw成功之后再设置订阅方式,

FPGA中XDMA多通道传输架构:全面讲解

FPGA中XDMA多通道传输架构:实战解析与工程优化 从一个真实问题说起:为什么我的FPGA数据传不快? 你有没有遇到过这样的场景: FPGA采集了一路4K视频流,每秒要往主机内存送超过1.5GB的数据;同时还要接收来自CPU的控制指令,比如调整曝光、切换模式。结果发现—— 视频帧延迟越来越高,控制命令还经常丢包 。 查PCIe带宽?没问题,Gen3 x8理论有7.8 GB/s,远超需求。 看CPU负载?也不高,不到20%。 那问题出在哪? 答案往往是: 数据通路设计不合理,没有用好XDMA的多通道能力 。 很多工程师把所有数据都塞进一个H2C或C2H通道里,导致高优先级的控制流被大块数据“堵”在后面。这就像让救护车和货车挤同一条车道,再宽的马路也会瘫痪。 本文将带你深入Xilinx XDMA(Xilinx Direct Memory Access)IP核的多通道机制,不仅讲清楚“它是怎么工作的”,更聚焦于 如何在实际项目中高效使用它 ——从寄存器配置到软件编程,从性能调优到常见坑点,全部基于一线开发经验展开。 XDMA是什么?

(10-1)大模型时代的人形机器人感知:视觉-语言模型在机器人中的应用

(10-1)大模型时代的人形机器人感知:视觉-语言模型在机器人中的应用

本章内容聚焦大模型时代人形机器人的感知体系升级,系统介绍了视觉—语言模型、多模态Transformer与3D大模型在机器人中的核心作用,详细讲解了文本、视觉、点云与语音等信息的语义对齐与融合机制,介绍了从语言指令到视觉目标的Grounding、任务分解与意图理解方法,并通过闭环感知与决策联动,展示了大模型支撑机器人在复杂真实场景中的理解、规划与实时行动的用法。 10.1  视觉-语言模型在机器人中的应用 视觉—语言模型(Vision-Language Model,VLM)通过统一建模视觉与自然语言,使机器人具备“看懂并理解语言”的能力,是大模型时代机器人感知与认知融合的核心技术。VLM不仅能够完成图像识别、目标检测等传统感知任务,还可以直接理解语言指令、进行语义推理,并将高层语义映射为可执行的感知与行动目标,在人形机器人中广泛应用于交互理解、场景认知和任务执行等环节。 10.1.1  CLIP/BLIP/Flamingo等模型简介 随着大规模多模态数据与Transformer架构的发展,视觉—语言模型逐渐从“跨模态对齐”演进为“多模态理解与推理”。CLIP、BLIP与Flam

解析ESP-SparkBot开源大模型AI桌面机器人的ESP32-S3核心方案

解析ESP-SparkBot开源大模型AI桌面机器人的ESP32-S3核心方案

ESP-SparkBot是一款基于乐鑫ESP32-S3微控制器构建的开源大模型AI桌面机器人。该项目集成了语音交互、图像识别、远程遥控与多媒体功能于一体,通过创新的边缘-云端协同架构,在低成本硬件上实现了复杂的多模态交互能力,为嵌入式AI应用提供了一个高性价比的参考设计。 一、核心硬件与技术特性 ESP-SparkBot的核心是乐鑫ESP32-S3-WROOM-1-N16R8模组。该模组集成了双核Xtensa® LX7 32位处理器,主频高达240MHz,并配备了512KB片上SRAM。这一计算配置为设备在边缘侧执行实时音频采集、预处理和轻量级AI推理(如语音活动检测、本地关键词识别)提供了必要的算力基础。 在连接性方面,ESP32-S3内置了2.4GHz Wi-Fi 4 (802.11 b/g/n)和蓝牙5.0 (BLE)双模无线通信模块。这使得ESP-SparkBot能够稳定地连接网络,与云端大语言模型(LLM)服务进行数据交换,同时也支持通过手机App进行蓝牙配网和本地控制。丰富的I/O接口,包括I2S、I2C、SPI和ADC等,使其能够灵活扩展多种外设。在项目中,这些接