2025版最详细WebStorm下载安装教程(详细图解)

2025版最详细WebStorm下载安装教程(详细图解)

目录

一、前言

二、WebStorm的下载安装

1、下载WebStorm

2、安装WebStorm

3、首次启动WebStorm


一、前言

前端一般就是用WebStorm或者是VSCode,Jetbrains家的ide一般都比较重,VSCode相对而言就轻快一点。主要还是看大家自己喜欢哪个就下哪个,我个人电脑内存是32G所以我一直用Jetbrains家的软件体验不错。本博客记录一下WebStorm的安装流程,大家自行参考

然后WebStorm从24年10月开始就是免费的了,所以不需要任何许可证直接下了就能用,并且也不需要像Java和Python那样配JDK和解释器,整体还是很简单的

二、WebStorm的下载安装

1、下载WebStorm

打开浏览器,访问JetBrains的官方网址,点击如下网址能直接跳转到WebStorm的下载页面:

Download WebStorm: The JavaScript and TypeScript IDE by JetBrains

选择好自己的系统,然后直接点击Download即可

等待安装包下载完成,网速快的话几分钟即可下载好

安装包下载完成后点击打开文件,后续出现用户账户控制点击“是”即可

2、安装WebStorm

屏幕出现安装程序,直接点击“下一步”

出现选择安装位置的界面,先点击“浏览”选择自定义的安装路径再点击“下一步”

软件不建议安装在C盘,还有自定义的安装路径一定不要带中文(以后下载所有的开发工具都不要安装在含中文的安装路径下)。可能你安装在中文路径下暂时用着没有什么影响,但是未来某个时刻可能会出现因为无法识别中文路径而导致开发工具整体无法使用或者部分插件或者功能无法使用的情况

我自己的安装目录是D:\Software\WebStorm 2025.2.5,大家自己调整即可

出现安装选项界面,这边直接把四个框全部勾选上就行,再点击“下一步”

最下面的创建关联就是勾选的后缀文件默认以WebStorm打开,想勾选就勾选,不勾选也行。一般前端就是用WebStorm和VSCode,我之前学习JavaWeb的时候也用过VSCode,我个人比较喜欢Jetbrains家的ide,按自己喜好来吧。如果你有VSCode,想用VSCode打开时不直接点击文件而是右键选择用VSCode打开即可

出现选择“开始”菜单文件夹,啥都不用管直接点击安装即可

然后等待一会安装就完成了

安装程序结束后,想马上启动可以勾选上运行

3、首次启动WebStorm

首次运行会出现导入设置的界面,这里自由选择。我的话之前其他ide的字体相关改成了自己喜欢的配置,所以我就选择导入其他JetBrains IDE的配置了

导入配置之前还可以自行筛选要导入的配置

比如这里的Spark插件我就不导入进去了,因为这个是Python的Spark库安装的插件

导入配置等一小会很快就好了

下面是我自己第一次随便写个html文件

Read more

通义万相 2.1 与蓝耘智算平台的深度协同,挖掘 AIGC 无限潜力并释放巨大未来价值

通义万相 2.1 与蓝耘智算平台的深度协同,挖掘 AIGC 无限潜力并释放巨大未来价值

我的个人主页我的专栏:人工智能领域、java-数据结构、Javase、C语言,希望能帮助到大家!!!点赞👍收藏❤ 引言:AIGC 浪潮下的新机遇 在当今数字化飞速发展的时代,人工智能生成内容(AIGC)已成为推动各行业变革的关键力量。从创意内容的快速产出到复杂场景的智能模拟,AIGC 正以前所未有的速度改变着我们的生活和工作方式。通义万相 2.1 作为多模态 AI 生成领域的佼佼者,与蓝耘智算平台这一强大的算力支撑平台深度协同,犹如一颗耀眼的新星,在 AIGC 的浩瀚星空中熠熠生辉,为挖掘 AIGC的无限潜力和释放巨大未来价值提供了坚实的基础和广阔的空间。 一:通义万相 2.1:多模态 AI 生成的卓越典范 ***通义万相 2.1 是阿里巴巴达摩院精心打造的多模态 AI 生成模型,在图像、视频等内容生成方面展现出了令人瞩目的实力。*** 1.1 创新架构引领技术突破 1.

Llama-2-7b 昇腾 NPU 测评总结:核心性能数据、场景适配建议与硬件选型参考

Llama-2-7b 昇腾 NPU 测评总结:核心性能数据、场景适配建议与硬件选型参考

Llama-2-7b 昇腾 NPU 测评总结:核心性能数据、场景适配建议与硬件选型参考 背景与测评目标 本文为适配大模型国产化部署需求,以 Llama-2-7b 为对象,在 GitCode Notebook 昇腾 NPU 环境中完成从依赖安装到模型部署的全流程落地,并通过六大维度测评验证:单请求吞吐量稳定 15.6-17.6 tokens / 秒,batch=4 时总吞吐量达 63.33 tokens / 秒,16GB 显存即可支撑高并发,最终提供可复现的部署方案、性能基准数据及硬件选型建议,助力高效落地国产算力大模型应用。 昇腾 NPU :以华为自研达芬奇架构为核心,高效张量计算适配大模型全场景;搭载 CANN 架构简化开发,支持量化与混合并行技术平衡算力与能耗,深度兼容开源生态适配国产化需求 Llama-2-7B 模型:Meta 开源 70

在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)

在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)

Mac Mini M4 配备了苹果自家研发的 M1/M2/M4 芯片,具有强大的处理能力,能够支持本地跑一些大模型,尤其是在使用如 Ollama、Llama、ComfyUI 和 Stable Diffusion 这类 AI 相关工具时,性能表现非常好。本教程将指导你如何在 Mac Mini M4 上本地部署并运行这些大模型,涵盖从环境搭建到使用的全流程。 一、准备工作 1. 确保系统更新 确保你的 macOS 版本已更新到最新的版本(例如 macOS 13.0 以上),这将确保兼容性和性能。 安装 Homebrew(macOS 包管理工具) Homebrew 是 macOS 上非常流行的包管理工具,它帮助你方便地安装各种软件。在终端中输入以下命令来安装

解决VsCode远程服务器上Copilot无法使用Claude的问题

最近在用vscode中的GitHub copilot,发现无法使用claude系列的模型 很多小伙伴知道要开代理,开往带你以后claude确实会出来,本地使用没有任何问题,但是如果使用远程服务器ssh,claude系列的模型就消失了,参考这篇博客https://blog.ZEEKLOG.net/qq_40620465/article/details/152000104 按照博主的方法,需要加一个改动,在设置远程服务器(注意不是“用户”)的setting.json时需要加入"http.useLocalProxyConfiguration": true, 完成后再重启vscode,claude就有了: