零成本上线个人项目 ——ngrok 仅穿透前端实现公网访问

开发个人项目时,想让他人访问往往需要购买服务器、配置域名解析,成本高且流程繁琐。

本文介绍一种零成本方案 —— 仅穿透前端即可实现内网个人项目的公网访问。

ngrok 账号注册与工具准备

首先在https://ngrok.com/ 官网注册一个账号,就能获得一个免费的dev结尾的域名。

注册好之后,下载对应的zip压缩包

在官网个人后台 / 仪表盘(Dashboard)可直接复制个人专属的 Authtoken。

分框架适配配置

如果前端是用 Vite + React 的项目,需要在 vite.config.js 文件加上allowedHosts这一行代码:

// vite.config.jsexportdefaultdefineConfig({server:{allowedHosts:['xxx.dev']// ngrok 域名}})

如果前端是基于 Umi Max + Ant Design Pro 的项目,前端默认是跑在 localhost:8000(umi dev),则需要修改2个文件。

1.config/config.ts

在文件里加上如下 proxy 部分:

// config/config.tsexportdefaultdefineConfig({// ... 其他配置 ... proxy:{'/api/':{ target:'http://localhost:[项目后端的端口号]', changeOrigin:true,// 根据后端实际路由决定是否 rewrite// 如果后端接口路径就是 /api/xxx 开头 → 不要 rewrite// 如果后端是 /user/xxx(无 /api 前缀) → 加下面这行// pathRewrite: { '^/api': '' },},},// ... 其他配置 ...});

这段只在 umi dev / npm run dev 时生效。

2.src/app.tsx

找到 request 配置,把 baseURL 相关全部注释或删除:

// src/app.tsxexportconst request: RequestConfig ={// !!! 下面这整段注释掉或删除 !!!// baseURL: "http://localhost:[项目后端的端口号]",// 保持这两个(ngrok 警告页绕过 + cookie 跨域) withCredentials:true, headers:{'ngrok-skip-browser-warning':'true',},...errorConfig,};

项目启动与公网访问

接下来,依次启动后端和前端,将之前下载好的压缩包解压后直接双击 exe 即可打开命令行,执行以下命令:

ngrok config add-authtoken [YourAuthtoken] ngrok http [项目前端的端口号]

复制 ngrok 生成的 https 地址,其他人就能够访问你的项目了。

Read more

理解 IDE 调用大模型(Cursor / Claude Code / Copilot / OpenClaw / Agent IDE) 的 session

理解 IDE 调用大模型(Cursor / Claude Code / Copilot / OpenClaw / Agent IDE) 的 session

一、Session 在 IDE 里的真实含义 在普通 ChatGPT 对话中: Session ≈ 一段聊天 但在 IDE 中: Session ≈ 当前开发工作空间的认知状态 它通常包含: ① 对话历史(Conversation Memory) 你之前说过什么: * 修改哪个模块 * 当前目标 * 已做决策 * 技术约束 模型通过这些推断你下一步意图。 ② 工程上下文(Code Context) IDE 会持续注入: * 当前打开文件 * 最近编辑文件 * git diff * 报错日志 * terminal 输出 * workspace 结构 所以 session 实际上是: 语言上下文 + 代码上下文 + 操作历史 ③ Agent 状态(关键) 在 Agent

whisper-large-v3-turbo实战突破:零基础部署与8倍速语音识别解密

在语音识别技术日新月异的今天,whisper-large-v3-turbo以其惊人的8倍速度提升和卓越的识别精度,正在重新定义智能语音处理的效率标准。这款基于OpenAI Whisper架构的优化版本,在保持原有识别质量的同时,通过创新的模型压缩技术实现了处理速度的质的飞跃,为开发者提供了前所未有的高性能语音转写解决方案。 【免费下载链接】whisper-large-v3-turbo 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-large-v3-turbo 技术架构深度解析:从32层到4层的智能精简 核心优化策略 🧠 传统语音识别模型往往存在计算冗余的问题,whisper-large-v3-turbo通过精密的层数优化,将解码层从32层缩减至4层,同时引入智能补偿算法,确保识别准确率损失控制在0.3%以内。这种设计理念类似于现代建筑中的"少即是多"哲学,在保证结构稳固的前提下实现最大化的效率提升。 性能对比实测数据 * 处理速度:相比原版提升8倍 * 内存占用:降低60%以上 * 准确率保持:99.7

AI写作大师Qwen3-4B避坑指南:CPU环境部署全攻略

AI写作大师Qwen3-4B避坑指南:CPU环境部署全攻略 1. 为什么选Qwen3-4B?别被“4B”二字骗了 很多人看到“4B”第一反应是:这得配什么显卡?A100?H100?结果点开镜像描述才发现——CPU就能跑。但别急着点启动,先问自己三个问题: * 你真需要40亿参数的模型,还是只是被“高智商”“最强智脑”这些词带偏了? * 你的CPU是i5-8250U还是Xeon Platinum 8490H?性能差10倍,体验可能差100倍。 * 你打算写周报、改简历,还是真要现场写一个带GUI的Python计算器? Qwen3-4B-Instruct不是玩具,它是把“逻辑推理”和“长文生成”刻进参数里的选手。它不擅长闲聊,但能拆解“用PyQt6实现一个支持Markdown预览的笔记应用”的完整技术路径;它响应慢,但每句话都经过多步推理校验——这不是缺陷,是设计选择。 所以本指南不叫“快速上手”,而叫“避坑指南”。我们要绕开三类典型陷阱:内存爆炸陷阱、

Stable-Diffusion-3.5降本实战:FP8量化节省40%GPU成本案例

Stable-Diffusion-3.5降本实战:FP8量化节省40%GPU成本案例 1. 引言:当高质量图像生成遇上成本难题 如果你正在使用Stable Diffusion 3.5来创作图像,可能会遇到一个两难的选择:要么忍受缓慢的生成速度和爆满的显存,要么就得为更强大的GPU硬件支付高昂的费用。 Stable Diffusion 3.5确实带来了图像质量、语义理解和文字渲染能力的全面提升,但随之而来的是更大的模型体积和更高的计算需求。对于个人创作者、小型工作室甚至企业项目来说,GPU成本往往成为限制创意落地的最大瓶颈。 今天我要分享的,就是一个实实在在的降本增效方案——通过FP8量化技术,我们成功将SD 3.5的GPU显存占用降低了40%,同时保持了高质量的图像输出。这不是理论上的优化,而是经过实际验证的落地案例。 2. 什么是FP8量化?为什么它能大幅降低成本? 2.1 用大白话理解量化技术 想象一下,你有一张非常高清的照片,文件大小有10MB。现在你需要把这张照片发到社交媒体上,但平台限制文件不能超过1MB。你会怎么做? 大多数人会选择压缩图片——降低分辨率