前端vue项目打包及部署的详细说明

一、本地项目打包
1. 安装依赖

确保项目依赖完整:

npm install # 或 yarn install 
2. 环境配置

在项目根目录创建环境文件,区分开发和生产环境:

.env.production(生产环境)

NODE_ENV=production VUE_APP_API_BASE=https://api.your-domain.com

.env.development(开发环境)

NODE_ENV=development VUE_APP_API_BASE=http://localhost:3000/api
3. 执行打包命令

使用 Vue CLI 进行生产构建:

npm run build # 或 yarn build
  • 输出目录:默认生成 dist/ 文件夹,包含:
    • index.html(入口文件)
    • css/(样式文件)
    • js/(脚本文件)
    • fonts/(字体文件)
    • img/(图片资源)

二、打包优化
1. 分析构建体积

使用 webpack-bundle-analyzer 查看打包文件体积:

npm install --save-dev webpack-bundle-analyzer

在 vue.config.js 中配置:

module.exports = { chainWebpack: (config) => { config.plugin('webpack-bundle-analyzer') .use(require('webpack-bundle-analyzer').BundleAnalyzerPlugin); } }; 

运行分析:

npm run build -- --report 
2. 优化手段
  • 代码分割:动态导入组件(() => import('./Component.vue'))。
  • 压缩资源:启用 gzip/brotli 压缩。

CDN 引入:将 vuevue-router 等库通过 CDN 加载。

// vue.config.js module.exports = { configureWebpack: { externals: { vue: 'Vue', 'vue-router': 'VueRouter' } } }; 

三、部署方式
1. 静态托管服务(推荐)

适用于 NetlifyVercelGitHub Pages 等平台:

  1. 将 dist/ 目录推送到代码仓库。
  2. 在托管平台关联仓库,设置构建命令为 npm run build
  3. 配置自定义域名和 HTTPS。
2. 自有服务器(Nginx)
  1. 上传 dist/ 到服务器(如 /var/www/your-project)。

 重启 Nginx:

sudo systemctl restart nginx 

配置 Nginx:

server { listen 80; server_name your-domain.com; root /var/www/your-project/dist; index index.html; location / { try_files $uri $uri/ /index.html; # 支持 Vue Router 的 history 模式 } # 代理 API 请求 location /api { proxy_pass http://backend-server:3000; proxy_set_header Host $host; } } 
3. Docker 容器化部署

构建并运行容器:

docker build -t vue-app . docker run -d -p 8080:80 vue-app 

创建 Dockerfile

# 使用 Node 镜像构建 FROM node:16 as build-stage WORKDIR /app COPY package*.json ./ RUN npm install COPY . . RUN npm run build # 使用 Nginx 镜像运行 FROM nginx:alpine as production-stage COPY --from=build-stage /app/dist /usr/share/nginx/html COPY nginx.conf /etc/nginx/conf.d/default.conf EXPOSE 80 CMD ["nginx", "-g", "daemon off;"] 

四、常见问题与解决
1. 静态资源路径错误

在 vue.config.js 中配置 publicPath

module.exports = { publicPath: process.env.NODE_ENV === 'production' ? '/your-subpath/' : '/' }; 
2. 接口跨域问题

开发环境配置代理(vue.config.js):

module.exports = { devServer: { proxy: { '/api': { target: 'http://api-server:3000', changeOrigin: true } } } }; 
3. 浏览器缓存问题

为文件名添加哈希(默认已配置):

// vue.config.js module.exports = { filenameHashing: true // 生成形如 app.4a3b2c1d.js }; 

五、自动化部署(CI/CD)
1. GitHub Actions 示例

在 .github/workflows/deploy.yml 中配置:

name: Deploy on: push: branches: [main] jobs: build-and-deploy: runs-on: ubuntu-latest steps: - uses: actions/checkout@v3 - uses: actions/setup-node@v3 with: node-version: 16 - run: npm install - run: npm run build - uses: peaceiris/actions-gh-pages@v3 with: github_token: ${{ secrets.GITHUB_TOKEN }} publish_dir: ./dist 
2. Jenkins 流水线
pipeline { agent any stages { stage('Build') { steps { sh 'npm install' sh 'npm run build' } } stage('Deploy') { steps { sh 'scp -r dist/ user@server:/var/www/your-project' } } } } 

六、部署后验证

  1. 访问页面,检查功能是否正常。
  2. 使用 Chrome DevTools 的 Network 面板确认资源加载无误。
  3. 使用 Lighthouse 进行性能评分。

总结

  • 本地构建:npm run build 生成 dist/。
  • 部署方式:静态托管、自有服务器、Docker 容器化。
  • 优化核心:代码分割、CDN、缓存策略。
  • 自动化:集成 GitHub Actions/Jenkins 实现 CI/CD。

按此流程操作,可确保 Vue 项目高效、稳定地部署到生产环境。

Read more

AI时代的技术民主化:为什么文科生可能成为最大受益者?

AI时代的技术民主化:为什么文科生可能成为最大受益者?

✨道路是曲折的,前途是光明的! 📝 专注C/C++、Linux编程与人工智能领域,分享学习笔记! 🌟 感谢各位小伙伴的长期陪伴与支持,欢迎文末添加好友一起交流! 当技术门槛被无限降低,真正有价值的不再是"怎么写代码",而是"想做什么" 01 一个被忽视的趋势 过去一年,我观察到一个有趣的现象:那些在AI浪潮中赚得盆满钵满的人,并不是技术背景最深厚的那批。 相反,他们中有学中文的、学设计的、学市场营销的。他们有一个共同特点——擅长理解人,擅长讲故事,擅长发现需求。 而这,恰恰是AI目前做不到的。 02 从"技术壁垒"到"创意壁垒" 传统开发流程 vs AI辅助流程 让我们看看传统的产品开发流程与现在的对比: 关键洞察:传统模式下,"想法&

(第四篇)Spring AI 实战进阶:Ollama+Spring AI 构建离线私有化 AI 服务(脱离 API 密钥的完整方案)

(第四篇)Spring AI 实战进阶:Ollama+Spring AI 构建离线私有化 AI 服务(脱离 API 密钥的完整方案)

前言 作为企业级开发者,我们在使用大模型时常常面临三大痛点:依赖第三方 API 密钥导致的成本不可控、外网依赖导致的合规风险、用户数据上传第三方平台导致的安全隐患。尤其是金融、政务等敏感行业,离线私有化部署几乎是硬性要求。 笔者近期基于 Ollama+Spring AI 完成了一套离线 AI 服务的落地,从模型拉取、量化优化到 RAG 知识库构建全程无外网依赖,彻底摆脱了 API 密钥的束缚。本文将从实战角度,完整拆解离线 AI 服务的开发全流程:包含 Ollama 部署、Spring AI 深度对接、模型量化优化、离线 RAG 知识库落地,所有代码均经过生产环境验证,同时结合可视化图表清晰呈现核心逻辑,希望能为企业级离线 AI 部署提供可落地的参考方案。 一、项目背景与技术选型 1.1 核心痛点与解决方案 业务痛点解决方案技术选型依赖第三方

OpenClaw 配置本地 Ollama 模型完整指南:零成本打造全离线个人 AI 助理

OpenClaw 配置本地 Ollama 模型完整指南:零成本打造全离线个人 AI 助理

OpenClaw 配置本地 Ollama 模型完整指南:零成本打造全离线个人 AI 助理(2026 最新版·含 Auth 配置) 大家好,我是你的 AI 技术博主。今天我们来聊一个 2026 年最火的本地 AI 助理项目——OpenClaw。它能帮你清理收件箱、发邮件、管理日历、处理文件、集成 Telegram/WhatsApp,甚至执行复杂任务,而且完全跑在你自己的电脑上。 配合 Ollama 运行本地模型(如 Qwen3、Qwen2.5、GLM-4.7、Llama3.3 等),你就可以实现真正零费用、零网络依赖、全隐私保护的智能体体验。官方从 Ollama 0.17