小白入门:前端前端调用 AI 接口全流程(附具体案例)

很多前端新手在调用 AI 接口时会犯怵:不知道 “怎么怎么传参数?”“流式响应怎么处理?”“不同功能(润色 / 扩写)调用方式不一样吗?”

其实很简单!本文以 “智能文本处理工具” 为例,手把手教你从 0 到 1 调用 AI 接口,包含润色、扩写等功能,看完就能上手。


准备工作:先看懂这 3 个核心文件

在开始前,我们需要明确项目中 3 个关键文件的作用(这些文件你可能已经有了,只是不知道怎么用):

  • vite.config.js:配置后端接口代理,解决跨域问题
  • apiClient.js:封装好的 HTTP 请求工具,帮你发请求
  • aiService.js:封装好的 AI 功能函数(润色 / 扩写等)
配置文件(vite.config.js)

这个文件告诉前端:" 调用 /writer_api 开头的接口时,自动转发到后端服务器 "。

// vite.config.js exportdefaultdefineConfig({ server:{ proxy:{// AI功能接口代理(润色/扩写等) '/writer_api':{ target:'http://192.168.0.1:3000',// 后端服务器地址  changeOrigin:true,// 解决跨域 rewrite:path=> path.replace(/^\/writer_api/,'')// 去掉前缀 }}}});
请求工具(apiClient.js)

这个文件封装了发送请求的逻辑,你不用关心 fetchaxios 的细节,直接调用即可。

// apiClient.js classHttpClient{asyncpost(url, data){returnfetch(url,{ method:'POST', headers:{'Content-Type':'application/json'}, body:JSON.stringify(data)});}}exportdefaultnewHttpClient();
AI 功能封装(aiService.js)

这里已经帮你写好了调用各种 AI 功能的函数,直接用就行!

// aiService.js import apiClient from'./apiClient.js';// 润色功能 exportconstpolishText=async(text, style)=>{return apiClient.post('/writer_api/generate/',{ writing_mode:`润色${style}`, text: text });};// 扩写功能 exportconstexpandText=async(text)=>{return apiClient.post('/writer_api/generate/',{ writing_mode:'扩写', text: text });};// 处理流式响应(AI逐字返回结果时用) exportconstreadStreamResponse=async(response, onUpdate)=>{const reader = response.body.getReader();const decoder =newTextDecoder();let result ='';while(true){const{ done, value }=await reader.read();if(done)break; result += decoder.decode(value);onUpdate(result);// 实时更新结果 }return result;};

实战案例:做一个 AI 文本处理工具

我们来做一个简单的页面,包含:

  • 输入框(用户输入文本)
  • 功能按钮(润色 / 扩写)
  • 结果展示区(显示 AI 处理后的内容)
页面结构(Vue 组件为例)

先写好 HTML 结构,让用户能输入文本、选择功能、看到结果。

<template> <div> <!-- 输入区域 --> <textarea v-model="userText" placeholder="请输入需要处理的文本..." ></textarea> <!-- 功能按钮 --> <div> <button @click="handlePolish">润色</button> <button @click="handleExpand">扩写</button> </div> <!-- 结果展示 --> <div> <h3>处理结果:</h3> <p>{{ resultText }}</p> </div> </div> </template> 
核心逻辑:调用 AI 接口

重点看 JavaScript 部分,这是调用接口的核心代码。

<script setup> import { ref } from 'vue'; // 导入AI功能函数 import { polishText, expandText, readStreamResponse } from './aiService.js'; // 定义变量 const userText = ref(''); // 用户输入的文本 const resultText = ref(''); // AI返回的结果 // 1. 调用润色功能 const handlePolish = async () => { // 先检查用户有没有输入内容 if (!userText.value) { alert('请输入文本!'); return; } try { // 调用润色接口,传入文本和风格(这里固定用"更正式") const response = await polishText(userText.value, '更正式'); // 处理AI的流式响应(实时更新结果) await readStreamResponse(response, (partialResult) => { resultText.value = partialResult; // 实时显示到页面 }); } catch (error) { alert('润色失败,请重试!'); console.error(error); } }; // 2. 调用扩写功能(和润色几乎一样) const handleExpand = async () => { if (!userText.value) { alert('请输入文本!'); return; } try { // 调用扩写接口,只需要传入文本 const response = await expandText(userText.value); // 同样用流式响应处理结果 await readStreamResponse(response, (partialResult) => { resultText.value = partialResult; }); } catch (error) { alert('扩写失败,请重试!'); } }; </script> 
样式美化(可选)

加一点 CSS 让页面好看点:

<style scoped> .ai-tool { max-width: 800px; margin: 20px auto; padding: 20px; } textarea { width: 100%; height: 150px; padding: 10px; margin-bottom: 10px; } .buttons { margin-bottom: 20px; } button { margin-right: 10px; padding: 8px 16px; cursor: pointer; } .result { padding: 10px; border: 1px solid #eee; } </style> 

关键步骤总结

不管调用哪种 AI 功能,步骤都是固定的:

  1. 获取用户输入:从输入框拿到 userText
  2. 调用对应函数
    • 润色用 polishText(文本, 风格)
    • 扩写用 expandText(文本)
  3. 处理流式响应:用 readStreamResponse 实时显示结果
  4. 错误处理:用 try/catch 捕获异常,提示用户

常见问题解答

Q:为什么要处理流式响应?
A:AI 生成内容时是逐字返回的(比如 “你好→你好,→你好,我是→…”),流式处理能让用户实时看到结果,体验更好。

Q:想加翻译功能怎么办?
A:在 aiService.js 里加一个 translateText 函数,然后在页面加个按钮调用它,逻辑和扩写完全一样。

Q:后端接口地址变了怎么办?
A:只需要改 vite.config.js 里的 target 地址,不用改业务代码。

通过这个例子,你应该能明白:调用 AI 接口其实就是 “传参数→等结果→显示结果” 这三步。不管是润色、扩写还是其他功能,都是同样的套路,换个函数名就行~

如果还有疑问,欢迎在评论区留言!

Read more

从AIGC到MCP协议:一文掌握大模型核心技术,程序员必收藏的学习指南

从AIGC到MCP协议:一文掌握大模型核心技术,程序员必收藏的学习指南

本文系统介绍了大模型相关技术:AIGC(单/多模态生成内容)、RAG技术(解决实时性问题)、Function Calling(赋予模型工具调用能力)、Agent(智能体,具备规划执行闭环能力)及MCP协议(AI应用的USB-C接口,统一工具接入标准)。文章旨在普及AI知识,帮助读者理解大模型技术生态,适合入门学习收藏。 1、AIGC 1.1 单模态 我们大部分人都是从ChatGPT问世开始接触AI的。刚开始用ChatGPT的时候,我们体验的其实是一种文生文的能力。比如你输入一句话,模型给你生成一段文字回应。 不管是我们平时写代码、还是写文章,都是AI根据你的输入文字(提示词Prompt),生成另一段文字。这种让AI自动生成内容的能力,就叫做AIGC。 啥叫AIGC呢?下面来自百度百科的回答: AIGC(Artificial Intelligence Generated Content)——生成式人工智能,是指基于生成对抗网络、大型预训练模型等人工智能的技术方法,通过已有数据的学习和识别,以适当的泛化能力生成相关内容的技术。 AIGC技术的核心思想是利用人工智能算法生成具有

LLaMA-Factory自定义评估指标完整实现指南

LLaMA-Factory自定义评估指标完整实现指南 在大型语言模型(LLM)微调过程中,准确评估模型性能是至关重要的环节。LLaMA-Factory作为一款功能强大的LLM微调框架,提供了灵活的评估机制,支持用户根据具体需求快速实现自定义评估指标。本文将详细介绍如何在该框架中构建完整的自定义评估流程。 评估框架核心架构解析 LLaMA-Factory的评估系统基于模块化设计,主要组件包括评估器、模板处理器和指标计算器。评估器位于src/llamafactory/eval/evaluator.py,负责整个评估流程的协调执行。模板系统定义在src/llamafactory/eval/template.py中,负责数据格式的统一处理。 现有评估机制深度分析 当前框架默认支持分类任务的准确率评估,通过比较模型预测结果与真实标签来计算性能指标。评估过程包括数据加载、模型推理、结果比较和指标计算四个主要阶段。在Evaluator类的eval方法中,可以看到核心的评估逻辑实现: # 现有准确率计算逻辑 correct_predictions = np.array(predict

无需人工标注即可操控安卓应用:AndroidGen-Llama-3-70B重新定义移动智能交互

导语 【免费下载链接】androidgen-llama-3-70b 项目地址: https://ai.gitcode.com/zai-org/androidgen-llama-3-70b 智谱AI开源的AndroidGen-Llama-3-70B模型,首次实现大语言模型在安卓系统全场景的自主任务执行,无需人工标注交互数据即可操控消息、时钟、邮件等应用,为移动智能体开发突破数据稀缺瓶颈提供新路径。 行业现状:移动AI的"数据困境" 当前移动智能体(Agent)开发面临三大挑战:场景多样性要求模型具备跨应用泛化能力,复杂任务需多步骤精准规划,数据过滤与标注成本占开发总成本的60%以上。传统方法依赖人工标注的交互轨迹数据,在面对安卓系统中200+常用应用、10万+可能操作组合时,数据采集效率与标注质量成为难以逾越的瓶颈。 与此同时,2025年被业内称为AI Agent的"快速发展时期"。从2023年AutoGPT开启智能体序幕以来,AI Agent作为新一代智能交互范式,展现出前所未有的发展活力。据Canalys预测,2025年全球AI手机渗透率将达34%,并将于2027年提升至

Stable Diffusion:AI人工智能图像生成的变革者

Stable Diffusion:AI人工智能图像生成的变革者 关键词:Stable Diffusion,AI图像生成,扩散模型,深度学习,图像合成 摘要:本文深入探讨了Stable Diffusion在AI人工智能图像生成领域的变革性作用。从其背景知识入手,详细阐述了核心概念、算法原理、数学模型,通过项目实战展示其具体应用,分析了实际应用场景,并推荐了相关的工具和资源。最后对Stable Diffusion的未来发展趋势与挑战进行总结,同时解答了常见问题,为读者全面了解这一前沿技术提供了系统的知识体系。 1. 背景介绍 1.1 目的和范围 随着人工智能技术的飞速发展,图像生成领域取得了显著的进展。Stable Diffusion作为其中的佼佼者,引发了广泛的关注。本文的目的在于全面介绍Stable Diffusion的原理、应用和发展前景,帮助读者深入理解这一技术。范围涵盖了从基础概念到实际应用的各个方面,包括算法原理、数学模型、项目实战以及未来趋势等。 1.2 预期读者 本文预期读者包括对人工智能、图像生成技术感兴趣的科研人员、开发者、学生以及相关行业的从业者。无论