零成本上线个人项目 ——ngrok 仅穿透前端实现公网访问

开发个人项目时,想让他人访问往往需要购买服务器、配置域名解析,成本高且流程繁琐。

本文介绍一种零成本方案 —— 仅穿透前端即可实现内网个人项目的公网访问。

ngrok 账号注册与工具准备

首先在https://ngrok.com/ 官网注册一个账号,就能获得一个免费的dev结尾的域名。

注册好之后,下载对应的zip压缩包

在官网个人后台 / 仪表盘(Dashboard)可直接复制个人专属的 Authtoken。

分框架适配配置

如果前端是用 Vite + React 的项目,需要在 vite.config.js 文件加上allowedHosts这一行代码:

// vite.config.jsexportdefaultdefineConfig({server:{allowedHosts:['xxx.dev']// ngrok 域名}})

如果前端是基于 Umi Max + Ant Design Pro 的项目,前端默认是跑在 localhost:8000(umi dev),则需要修改2个文件。

1.config/config.ts

在文件里加上如下 proxy 部分:

// config/config.tsexportdefaultdefineConfig({// ... 其他配置 ... proxy:{'/api/':{ target:'http://localhost:[项目后端的端口号]', changeOrigin:true,// 根据后端实际路由决定是否 rewrite// 如果后端接口路径就是 /api/xxx 开头 → 不要 rewrite// 如果后端是 /user/xxx(无 /api 前缀) → 加下面这行// pathRewrite: { '^/api': '' },},},// ... 其他配置 ...});

这段只在 umi dev / npm run dev 时生效。

2.src/app.tsx

找到 request 配置,把 baseURL 相关全部注释或删除:

// src/app.tsxexportconst request: RequestConfig ={// !!! 下面这整段注释掉或删除 !!!// baseURL: "http://localhost:[项目后端的端口号]",// 保持这两个(ngrok 警告页绕过 + cookie 跨域) withCredentials:true, headers:{'ngrok-skip-browser-warning':'true',},...errorConfig,};

项目启动与公网访问

接下来,依次启动后端和前端,将之前下载好的压缩包解压后直接双击 exe 即可打开命令行,执行以下命令:

ngrok config add-authtoken [YourAuthtoken] ngrok http [项目前端的端口号]

复制 ngrok 生成的 https 地址,其他人就能够访问你的项目了。

Read more

AI的提示词专栏:Instruction Tuning 与自定义指令集

AI的提示词专栏:Instruction Tuning 与自定义指令集

AI的提示词专栏:Instruction Tuning 与自定义指令集 本文围绕 Instruction Tuning(指令微调)与自定义指令集展开深入解析,先阐释 Instruction Tuning 的定义、与传统 Prompt 调优的区别及核心价值,指出其通过 “指令 - 响应” 对训练让模型从通用文本生成转向精准执行任务,解决传统 Prompt 调优痛点。接着详解自定义指令集的构成要素与设计原则,给出多领域示例。随后介绍 Instruction Tuning 从数据准备、模型选择、微调训练、效果评估到部署应用的完整实施流程,结合电商客服场景实战案例说明落地要点。还针对数据不足、过拟合等常见问题提供解决方案,最后总结核心内容并展望自动指令集生成等未来趋势,为相关实践提供全面指导。 人工智能专栏介绍     人工智能学习合集专栏是 AI 学习者的实用工具。它像一个全面的 AI 知识库,把提示词设计、AI 创作、智能绘图等多个细分领域的知识整合起来。无论你是刚接触

什么是CloseAI?‌ 简单来说,就是一个帮你更方便、更稳定、更省钱地使用ChatGPT等高级AI的“超级连接器”

什么是CloseAI?‌ 简单来说,就是一个帮你更方便、更稳定、更省钱地使用ChatGPT等高级AI的“超级连接器”

一、CloseAI的定位与技术背景 CloseAI是一个专注于企业级AI代理服务的平台,其核心功能是为开发者及企业提供稳定、高效的AI模型调用接口。该平台通过自研的云原生架构,实现了与OpenAI官方API的完全兼容,同时针对高并发场景进行了深度优化。技术团队由来自国内头部互联网企业的核心骨干组成,具备世界500强级别的研发经验,其系统设计遵循企业级高可用标准,能够支撑每分钟千万级TPM的高并发调用。 二、核心功能与技术优势 1. 稳定性与兼容性 CloseAI采用全站自研架构,通过动态负载均衡和故障自动迁移机制,确保在OpenAI官方服务突发故障时仍能保持稳定运行。其API接口与OpenAI完全一致,开发者无需修改核心代码即可无缝迁移现有项目。 2. 性能优化 平台针对AI模型调用进行了深度优化,支持亿级高并发场景。实测数据显示,在同等硬件条件下,CloseAI的响应速度较普通代理服务提升显著,尤其适用于需要实时处理大量AI请求的企业应用。 3. 合规性与商务支持 CloseAI由海外正规公司运营,所有消费均提供国际通用的正式发票(Invoice)

大模型大比对:2026主流AI大模型全方位横评与选型指南

大模型大比对:2026主流AI大模型全方位横评与选型指南

引言:AI大模型时代,选对模型比用好模型更重要 步入2026年,AI大模型行业早已告别野蛮生长,进入精细化、场景化、差异化竞争的新阶段。从海外OpenAI、Google、Anthropic三巨头领跑,到国内通义千问、智谱GLM、Kimi、文心一言、豆包等模型强势崛起,市面上可供选择的大模型数量繁多,性能、价格、擅长领域各有千秋。对于普通用户、职场人、开发者以及企业而言,面对琳琅满目的AI产品,盲目跟风选择往往会造成效率浪费和成本损耗,只有摸清各大模型的核心优势、短板与适用场景,才能精准匹配需求,让AI真正成为高效助手。 本文精选海内外10款主流大模型,涵盖头部闭源商用模型、高性价比国产模型、开源标杆模型,从核心参数、文本创作、逻辑推理、代码能力、多模态表现、长文本处理、使用成本、隐私合规八大维度展开全方位对比,深入剖析各模型差异,同时给出不同场景下的选型建议,助力读者找到最适合自己的AI大模型。 一、参评大模型一览:覆盖海内外主流选手 本次对比选取当前市场渗透率高、用户口碑好、技术实力领先的10款大模型,

医疗大模型LoRA微调实战:我用40行代码让AI学会看病

医疗大模型LoRA微调实战:我用40行代码让AI学会看病

目录 🎯 摘要 一、技术原理:为什么LoRA是医疗AI的救命稻草? 1.1 架构设计理念:别动基座,只加"外挂" 1.2 核心算法实现:矩阵拆解的魔法 1.3 性能特性分析:数据不说谎 二、实战部分:手把手教你训一个医学问答助手 2.1 完整可运行代码示例 2.2 分步骤实现指南 🚀 步骤1:环境搭建(10分钟搞定) 📊 步骤2:数据准备(最关键的环节) ⚙️ 步骤3:训练调参(避开我踩过的坑) 🧪 步骤4:评估验证(别只看准确率) 2.3 常见问题解决方案 ❌ 问题1:模型胡说八道(医学事实错误) ❌ 问题2:训练不收敛(