nginx 部署前端vue项目

nginx 部署前端vue项目

👨‍⚕主页: gis分享者
👨‍⚕感谢各位大佬 点赞👍 收藏⭐ 留言📝 加关注✅!
👨‍⚕收录于专栏:前端工程师


文章目录


一、🍓什么是nginx?

Nginx是一款轻量级的HTTP服务器,采用事件驱动的异步非阻塞处理方式框架,这让其具有极好的IO性能,时常用于服务端的反向代理和负载均衡。
优点

  • 支持海量高并发:采用IO多路复用epoll。官方测试Nginx能够支持5万并发链接,实际生产环境中可以支撑2-4万并发连接数。
  • 内存消耗少
  • 可商业化
  • 配置文件简单 除了这些优点还有很多,比如反向代理功能,灰度发布,负载均衡功能等

二、🍓nginx 部署前端vue项目步骤

2.1 🍉安装nginx

2.1.1 🍌windows环境安装

到nginx官方下载系统相关的nginx版本安装

在这里插入图片描述


启动命令:

cd F:\nginx-1.19.4 start nginx 

2.1.2 🍌linux环境安装

通常情况下很少使用windows来作为nginx的服务器,一般使用linux。对于linux安装nginx有两种方式,一种是使用官方已经编译好的包来安装,一种是使用源码构建安装。

第一种方式参考官方地址https://nginx.org/en/linux_packages.html#stable

第二种方式参考官方地址https://nginx.org/en/docs/install.html中的Building from Sources片段,这种实际上就是下一个tar.gz包仍到linux服务去自己编译。

在linux服务上和window环境上使用nginx部署vue项目并没有太大差异,把构建好的vue项目dist上传到linux服务上,通用修改nginx服务器中的root来指向dist就ok了,然后使用

# centos 7 systemctl restart nginx.service # centos 6 service nginx restart # 或者是平滑重启 service nginx reload 

2.2 🍉打包vue项目

执行命令

npm run build 
在这里插入图片描述

2.3 🍉配置nginx

修改nginx配置文件,配置文件为conf下的nginx.conf,修改nginx.conf中的server配置片段

server { listen 80;#默认端口是80,如果端口没被占用可以不用修改 server_name localhost; root E:/vue_project/my_project/dist;#vue项目的打包后的dist location /{ try_files $uri $uri/@router;#需要指向下面的@router否则会出现vue的路由在nginx中刷新出现404 index index.html index.htm;}#对应上面的@router,主要原因是路由的路径资源并不是一个真实的路径,所以无法找到具体的文件#因此需要rewrite到index.html中,然后交给路由在处理请求资源 location @router { rewrite ^.*$/index.html last;}#.......其他部分省略}

完成nginx配置后重新加载配置文件

nginx -s reload 

nginx -s reload
浏览器中访问:http://localhost 测试是否部署成功

Read more

Intel GPU加速llama.cpp:SYCL后端完整配置与性能调优指南

Intel GPU加速llama.cpp:SYCL后端完整配置与性能调优指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 随着Intel Arc显卡在消费级市场的普及,越来越多的开发者希望利用Intel GPU来加速大语言模型的推理。llama.cpp作为当前最流行的开源LLM推理框架,通过SYCL后端为Intel GPU提供了强大的计算支持。本文将从实际使用角度出发,深入解析SYCL后端的配置要点和性能优化技巧。 为什么SYCL是Intel GPU的最佳选择? 在llama.cpp的多后端架构中,SYCL相比传统的OpenCL具有显著优势。SYCL基于现代C++标准,提供了更简洁的编程模型和更好的编译器支持。对于Intel Arc显卡用户,SYCL能够充分利用Xe架构的硬件特性,在矩阵乘法等核心操作上实现更高的计算效率。 环境配置:避开常见的安装陷阱 正确安装Intel

【AIGC前沿】MiniMax海螺AI视频——图片/文本生成高质量视频

【AIGC前沿】MiniMax海螺AI视频——图片/文本生成高质量视频

目录 1.MiniMax海螺AI视频简介 2.使用教程 1.MiniMax海螺AI视频简介 海螺视频,作为 MiniMax 旗下海螺 AI 平台精心打造的 AI 视频生成工具,致力于助力用户产出高品质视频内容。该工具依托 abab-video-1 模型,具备强大的文生视频功能。用户仅需输入关键词或简短语句,海螺视频就能据此创作出情节丰富的完整视频。此外,海螺视频运用 DiT 架构,能够精准模拟现实世界的物理规律,尤其在生成复杂场景与高动作场景时,展现出卓越的性能。 2.使用教程 点击如下链接,进入蓝耘元生代智算云平台主页 https://cloud.lanyun.net/#/registerPage?promoterCode=11f606c51e 点击主页上方栏的“MaaS平台” 然后点击左侧栏的“视觉模型”  可以看到可以免费体验一次I2V-01图片生成视频  点击如下红框处将图片上传  例如输入如下的图片 例如想让小狗动起来,可以在如下红框处输入相应的指令,然后点击立即生成

Amazon SageMaker 部署 AIGC 应用:训练 - 优化 - 部署 - Web 前端集成应用实践

Amazon SageMaker 部署 AIGC 应用:训练 - 优化 - 部署 - Web 前端集成应用实践

Amazon SageMaker 部署 AIGC 应用:训练 - 优化 - 部署 - Web 前端集成应用实践 背景 Amazon SageMaker 汇集广泛采用的亚马逊云科技机器学习和分析功能,统一访问所有数据,为分析和人工智能提供一体式体验,使用亚马逊云科技机工具进行模型开发、生成式人工智能、数据处理和 SQL 分析,在融通式合作开发工作室中加快协作和构建,借助强大的生成式人工智能软件开发助手 Amazon Q 开发者版提升效率,无论数据存储在数据湖、数据仓库,还是第三方或联合数据来源中,均可访问所有数据,同时内置治理功能可满足企业安全需求。 前言 本文将通过 Amazon SageMaker Notebook 实例完成 AIGC 模型的测试与验证,再将模型部署至 Amazon SageMaker Inference Endpoint 实现服务化,最后利用 Amazon