2026 前端 / 后端 / 算法岗 AI 技能清单,直接对标大厂

2026 前端 / 后端 / 算法岗 AI 技能清单,直接对标大厂

2026 大厂前端岗 AI 技能清单

核心基础技能

  • 大模型前端适配能力:掌握大模型上下文管理,实现对话历史的高效存储与加载,适配流式输出的前端渲染逻辑。
  • AI 组件开发:熟练开发基于大模型的智能组件,如代码补全、智能问答、内容生成类组件,支持参数化配置与多模型切换。
  • 向量数据库集成:掌握 PineconeWeaviate 等向量数据库的前端调用方法,实现语义搜索、相似内容推荐等功能。

进阶实践技能

  • 大模型微调适配:理解大模型微调原理,能够基于前端业务场景,将微调后的模型部署至前端环境,实现模型轻量化调用。
  • 多模态交互开发:支持文本、图像、音频等多模态输入的前端处理,对接多模态大模型 API 实现智能交互。
  • AI 性能优化:实现大模型请求的批量处理缓存复用增量更新,降低前端请求延迟与资源消耗。

实战代码示例

以下为基于 OpenAI API 实现的流式对话前端组件,使用 React 18 开发:

import{ useState, useRef, useEffect }from'react';constAIChatComponent=()=>{const[messages, setMessages]=useState([]);const[inputValue, setInputValue]=useState('');const endOfMessagesRef =useRef(null);// 自动滚动到最新消息useEffect(()=>{ endOfMessagesRef.current?.scrollIntoView({behavior:'smooth'});},[messages]);consthandleSendMessage=async()=>{if(!inputValue.trim())return;const userMessage ={role:'user',content: inputValue };setMessages(prev=>[...prev, userMessage]);setInputValue('');try{const response =awaitfetch('https://api.openai.com/v1/chat/completions',{method:'POST',headers:{'Content-Type':'application/json','Authorization':`Bearer ${process.env.REACT_APP_OPENAI_API_KEY}`},body:JSON.stringify({model:'gpt-4o',messages:[...messages, userMessage],stream:true// 开启流式输出})});const reader = response.body.getReader();const decoder =newTextDecoder('utf-8');let assistantMessage ={role:'assistant',content:''};// 处理流式响应while(true){const{ done, value }=await reader.read();if(done)break;const chunk = decoder.decode(value);const lines = chunk.split('\n').filter(line=> line.trim()!=='');for(const line of lines){const data = line.replace(/^data: /,'');if(data ==='[DONE]')continue;const parsed =JSON.parse(data);const content = parsed.choices.delta.content ||''; assistantMessage ={...assistantMessage,content: assistantMessage.content + content };// 更新UIsetMessages(prev=>{const existing = prev.find(m=> m.role ==='assistant'&& m.id === assistantMessage.id);if(existing){return prev.map(m=> m === existing ? assistantMessage : m);}else{return[...prev,{...assistantMessage,id: Date.now()}];}});}}}catch(error){setMessages(prev=>[...prev,{role:'error',content:'请求失败,请稍后重试'}]);}};return({messages.map((msg, index)=>({msg.content}))}setInputValue(e.target.value)} onKeyDown={(e)=> e.key ==='Enter'&&handleSendMessage()} placeholder="输入问题..." style={{flex:1,padding:'8px 12px',border:'1px solid #e0e0e0',borderRadius:'4px'}}/> 发送 );};exportdefault AIChatComponent;
代码核心特性:实现流式消息实时渲染、自动滚动定位、异常处理,符合大厂前端 AI 组件的性能与交互标准。

2026 大厂后端岗 AI 技能清单

核心基础技能

  • 大模型服务部署:熟练使用 DockerKubernetes 部署大模型服务,支持模型的水平扩展与灰度发布。
  • AI 网关开发:实现统一的 AI 模型网关,提供请求路由、流量控制、身份认证与日志监控功能。
  • 向量数据库运维:掌握向量数据库的集群部署、数据备份与性能调优,支持亿级向量数据的高效查询。

进阶实践技能

  • 大模型微调与部署:基于 LoRA、QLoRA 等轻量化微调方法,针对业务场景定制模型,并部署至生产环境。
  • 多模型编排:开发模型调度系统,实现多模型的协同调用、结果融合与故障降级,提升服务可靠性。
  • AI 成本优化:通过模型量化、请求缓存、动态资源调度等手段,降低大模型服务的部署与运行成本。

实战代码示例

以下为基于 FastAPI 实现的大模型服务网关,支持多模型路由与流量控制:

from fastapi import FastAPI, HTTPException, Request from fastapi.middleware.cors import CORSMiddleware from pydantic import BaseModel import httpx from slowapi import Limiter, _rate_limit_exceeded_handler from slowapi.util import get_remote_address from slowapi.errors import RateLimitExceeded app = FastAPI(title="AI Model Gateway")# 配置跨域 app.add_middleware( CORSMiddleware, allow_origins=["*"], allow_credentials=True, allow_methods=["*"], allow_headers=["*"],)# 配置流量控制,限制为每分钟 100 次请求 limiter = Limiter(key_func=get_remote_address, default_limits=["100/minute"]) app.state.limiter = limiter app.add_exception_handler(RateLimitExceeded, _rate_limit_exceeded_handler)# 模型路由配置 MODEL_ROUTES ={"gpt-4o":"https://api.openai.com/v1/chat/completions","claude-3-opus":"https://api.anthropic.com/v1/messages","qwen-max":"https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation"}classChatRequest(BaseModel): model:str messages:list[dict] stream:[email protected]("/v1/chat/completions")@limiter.limit("100/minute")asyncdefchat_completions(request: Request, chat_request: ChatRequest):if chat_request.model notin MODEL_ROUTES:raise HTTPException(status_code=400, detail=f"Unsupported model: {chat_request.model}") target_url = MODEL_ROUTES[chat_request.model] headers ={}# 根据模型设置请求头if chat_request.model.startswith("gpt-"): headers["Authorization"]=f"Bearer {OPENAI_API_KEY}" headers["Content-Type"]="application/json" payload ={"model": chat_request.model,"messages": chat_request.messages,"stream": chat_request.stream }elif chat_request.model.startswith("claude-"): headers["x-api-key"]=f"{ANTHROPIC_API_KEY}" headers["Content-Type"]="application/json" headers["anthropic-version"]="2023-06-01" payload ={"model": chat_request.model,"messages": chat_request.messages,"stream": chat_request.stream,"max_tokens":4096}elif chat_request.model =="qwen-max": headers["Authorization"]=f"Bearer {DASHSCOPE_API_KEY}" headers["Content-Type"]="application/json" payload ={"model": chat_request.model,"input":{"messages": chat_request.messages},"parameters":{"stream": chat_request.stream}}else:raise HTTPException(status_code=400, detail=f"Unsupported model: {chat_request.model}")try:asyncwith httpx.AsyncClient()as client: response =await client.post( target_url, json=payload, headers=headers, timeout=30.0, stream=chat_request.stream ) response.raise_for_status()if chat_request.stream:return response.iter_raw()else:return response.json()except httpx.HTTPError as e:raise HTTPException(status_code=500, detail=f"Model request failed: {str(e)}")# 环境变量配置(生产环境建议使用 secrets 管理) OPENAI_API_KEY ="your-openai-api-key" ANTHROPIC_API_KEY ="your-anthropic-api-key" DASHSCOPE_API_KEY ="your-dashscope-api-key"if __name__ =="__main__":import uvicorn uvicorn.run(app, host="0.0.0.0", port=8000)
代码核心特性:实现多模型统一接入、流量控制、异常处理,支持流式与非流式请求转发,符合大厂后端 AI 服务的高可用标准。

2026 大厂算法岗 AI 技能清单

核心基础技能

  • 大模型微调与对齐:熟练掌握 LoRA、QLoRA、全参数微调等方法,能够基于业务数据实现模型的领域适配价值对齐
  • 多模态模型开发:理解多模态模型的核心架构,能够开发基于 CLIPGPT-4o 等模型的多模态任务解决方案。
  • 向量检索优化:掌握向量索引构建、相似度计算优化方法,实现亿级数据的毫秒级语义检索。

进阶实践技能

  • 大模型部署与推理优化:掌握 TensorRTvLLMText Generation Inference 等推理框架,实现大模型的低延迟、高吞吐量部署。
  • AI 系统架构设计:设计端到端的 AI 解决方案,包括数据采集、模型训练、部署监控全流程,支持业务快速迭代。
  • 前沿算法跟踪:持续跟进大模型、多模态、强化学习等领域的前沿算法,能够快速落地至业务场景。

实战代码示例

以下为基于 LoRA 实现的 Llama 2-7B 模型微调代码,使用 Hugging Face 生态工具链:

from transformers import( AutoModelForCausalLM, AutoTokenizer, TrainingArguments, Trainer, DataCollatorForLanguageModeling )from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training import torch from datasets import load_dataset # 加载数据集,使用 alpaca 格式的自定义业务数据 dataset = load_dataset("json", data_files="business_data.json")# 加载模型与 tokenizer model_name ="meta-llama/Llama-2-7b-hf" tokenizer = AutoTokenizer.from_pretrained(model_name) tokenizer.pad_token = tokenizer.eos_token # 配置 4-bit 量化训练 model = AutoModelForCausalLM.from_pretrained( model_name, load_in_4bit=True, device_map="auto", torch_dtype=torch.bfloat16 )# 准备模型进行 k-bit 训练 model = prepare_model_for_kbit_training(model)# 配置 LoRA 参数 lora_config = LoraConfig( r=16, lora_alpha=32, target_modules=["q_proj","v_proj"], lora_dropout=0.05, bias="none", task_type="CAUSAL_LM")# 应用 LoRA 配置到模型 model = get_peft_model(model, lora_config) model.print_trainable_parameters()# 输出可训练参数比例# 数据预处理函数defpreprocess_function(examples): inputs =[f"### Instruction: {inst}\n### Input: {inp}\n### Response: "for inst, inp inzip(examples["instruction"], examples["input"])] targets =[f"{res}{tokenizer.eos_token}"for res in examples["output"]] model_inputs = tokenizer(inputs, max_length=512, truncation=True, padding="max_length") labels = tokenizer(targets, max_length=512, truncation=True, padding="max_length") model_inputs["labels"]= labels["input_ids"]return model_inputs # 处理数据集 tokenized_dataset = dataset.map(preprocess_function, batched=True)# 配置训练参数 training_args = TrainingArguments( output_dir="./llama-2-7b-business-lora", per_device_train_batch_size=4, gradient_accumulation_steps=4, learning_rate=2e-4, num_train_epochs=3, logging_dir="./logs", logging_steps=10, save_strategy="epoch", fp16=True, push_to_hub=False)# 初始化数据收集器 data_collator = DataCollatorForLanguageModeling(tokenizer=tokenizer, mlm=False)# 初始化 Trainer trainer = Trainer( model=model, args=training_args, train_dataset=tokenized_dataset["train"], data_collator=data_collator )# 开始训练 trainer.train()# 保存微调后的 LoRA 模型 model.save_pretrained("llama-2-7b-business-lora")
代码核心特性:实现 4-bit 量化的 LoRA 微调,仅训练约 0.1% 的模型参数,大幅降低训练资源消耗,同时保证业务场景的模型效果。

总结

2026 年大厂 AI 相关岗位的技能要求已从基础的 API 调用,升级为全流程的 AI 解决方案能力:

  1. 前端岗需聚焦 AI 组件开发与用户体验优化,实现大模型能力的高效落地;
  2. 后端岗需构建稳定、可扩展的 AI 服务架构,支撑大流量的模型调用需求;
  3. 算法岗需掌握大模型微调、部署优化等核心技术,为业务提供定制化的 AI 能力。
    三者协同形成完整的 AI 技术栈,是大厂构建核心竞争力的关键。

Read more

VSCode扩展工具Copilot MCP使用教程【MCP】

VSCode扩展工具Copilot MCP使用教程【MCP】

MCP(Model Context Protocol,模型上下文协议) ,2024年11月底,由 Anthropic 推出的一种开放标准,旨在统一大型语言模型(LLM)与外部数据源和工具之间的通信协议。本文章教你使用VSCode扩展工具Copilot MCP快速上手MCP应用! 1. VSCode中安装Copilot MCP Copilot MCP是一个适用于 VSCode 的 MCP Client。 2. Copilot MCP使用 安装之后会出现Coplilot授权,并在左侧菜单中出现MCP Server按钮 3. Add Server 点击Add Server,MCP Server分为两种建立方式,Process和SSE 以Process为例,输入必要信息: 其中Server Name是你给Server起的任意名字,需要注意的是Start Command。 这里我的输入为: npx -y @modelcontextprotocol/server-filesystem /path 注意path修改为自己的文件路径,

多模态模型Qwen3-VL在Llama-Factory嵌套量化QLoRA训练+测试+导出+部署(Ollama/LMDeploy)全流程--以具身智能数据集open-eqa为例

多模态模型Qwen3-VL在Llama-Factory嵌套量化QLoRA训练+测试+导出+部署(Ollama/LMDeploy)全流程--以具身智能数据集open-eqa为例

前期环境配置等准备可参考教程: 多模态模型Qwen3-VL在Llama-Factory中断LoRA微调训练+测试+导出+部署全流程--以具身智能数据集open-eqa为例 这里数据来源 Open-EQA 多模态具身智能数据集,经过处理每个样本八张图片,划分为训练-验证集和测试集。 若对下载和处理open-eqa数据集代码有兴趣,可以通过网盘分享的文件:OpenEQACode.zip 链接: https://pan.baidu.com/s/1DqmIp1Xw6HJPX77O-iOXdQ?pwd=dgn8 提取码: dgn8 如果不方便下载和处理open-eqa数据集,可以通过网盘分享的文件:OpenEQA8s.zip 链接: https://pan.baidu.com/s/1_6G4YwI5tmYXUSDLssJ13A?pwd=hfvw 提取码: hfvw 1.微调训练 有cuda显卡可以执行pip install unsloth可以安装Unsloth加快训练和推理 执行pip install tensorboard安装保存完整训练过程的数据,避免中断只能部分曲线

AI写论文引用的文献是真的吗?别再被“幻觉引用”坑了!宏智树AI:所有参考文献均来自知网/维普,真实可查,AIGC率<10%

AI写论文引用的文献是真的吗?别再被“幻觉引用”坑了!宏智树AI:所有参考文献均来自知网/维普,真实可查,AIGC率<10%

“AI写的论文,参考文献靠谱吗?” 这是许多本科生、研究生在使用智能写作工具时最担心的问题。 你可能已经遇到过这样的场景: * AI生成了一篇“看起来很专业”的论文,引用了10篇文献; * 你满怀信心地复制进Word,准备写综述; * 结果一搜标题——根本不存在! * 作者名字像真的一样,期刊名也像正规刊物,但无论知网、万方还是百度学术,都查不到原文。 这种现象,学术界称之为 “幻觉引用”(Hallucinated Citations)——是通用大模型因训练数据混杂、缺乏事实核查机制而产生的“一本正经地胡说八道”。 而一旦你把这类“虚假文献”写进毕业论文,轻则被导师退回,重则被认定为学术不端——因为虚构参考文献,属于严重违反科研诚信的行为。 那么,有没有一个AI工具,既能高效辅助写作,又能100%保证引用真实、可查、可溯源? 答案是:有。宏智树 AI 学术(www.hzsxueshu.com 平台的“毕业论文”

llama的Qwen3.5大模型单GPU高效部署与股票筛选应用|附代码教程

全文链接:https://tecdat.cn/?p=45082 原文出处:拓端数据部落公众号   在当今AI技术快速迭代的背景下,大模型的能力边界不断被突破,但随之而来的隐私安全、推理成本等问题也逐渐凸显。对于许多企业和研究者而言,将大模型部署在本地环境,既能保证数据隐私,又能灵活控制推理流程,成为了迫切需求。我们团队在近期的一个咨询项目中,就帮助客户完成了Qwen3.5大模型的本地化部署,并基于此开发了一款股票筛选工具,整个方案已通过实际业务校验。 本文将从环境准备开始,一步步讲解如何在单GPU上高效运行Qwen3.5,包括llama.cpp的编译、模型下载、服务启动,以及最终的应用开发。希望能为有大模型本地化需求的读者提供一些实用参考。 本文内容改编自过往客户咨询项目的技术沉淀并且已通过实际业务校验,该项目完整代码教程已分享至交流社群。阅读原文进群获取更多最新AI见解和行业洞察,可与900+行业人士交流成长;还提供人工答疑,拆解核心原理、代码逻辑与业务适配思路,帮大家既懂 怎么做,也懂 为什么这么做;遇代码运行问题,更能享24小时调试支持。 全文脉络流程图