2025版最详细WebStorm下载安装教程(详细图解)

2025版最详细WebStorm下载安装教程(详细图解)

目录

一、前言

二、WebStorm的下载安装

1、下载WebStorm

2、安装WebStorm

3、首次启动WebStorm


一、前言

前端一般就是用WebStorm或者是VSCode,Jetbrains家的ide一般都比较重,VSCode相对而言就轻快一点。主要还是看大家自己喜欢哪个就下哪个,我个人电脑内存是32G所以我一直用Jetbrains家的软件体验不错。本博客记录一下WebStorm的安装流程,大家自行参考

然后WebStorm从24年10月开始就是免费的了,所以不需要任何许可证直接下了就能用,并且也不需要像Java和Python那样配JDK和解释器,整体还是很简单的

二、WebStorm的下载安装

1、下载WebStorm

打开浏览器,访问JetBrains的官方网址,点击如下网址能直接跳转到WebStorm的下载页面:

Download WebStorm: The JavaScript and TypeScript IDE by JetBrains

选择好自己的系统,然后直接点击Download即可

等待安装包下载完成,网速快的话几分钟即可下载好

安装包下载完成后点击打开文件,后续出现用户账户控制点击“是”即可

2、安装WebStorm

屏幕出现安装程序,直接点击“下一步”

出现选择安装位置的界面,先点击“浏览”选择自定义的安装路径再点击“下一步”

软件不建议安装在C盘,还有自定义的安装路径一定不要带中文(以后下载所有的开发工具都不要安装在含中文的安装路径下)。可能你安装在中文路径下暂时用着没有什么影响,但是未来某个时刻可能会出现因为无法识别中文路径而导致开发工具整体无法使用或者部分插件或者功能无法使用的情况

我自己的安装目录是D:\Software\WebStorm 2025.2.5,大家自己调整即可

出现安装选项界面,这边直接把四个框全部勾选上就行,再点击“下一步”

最下面的创建关联就是勾选的后缀文件默认以WebStorm打开,想勾选就勾选,不勾选也行。一般前端就是用WebStorm和VSCode,我之前学习JavaWeb的时候也用过VSCode,我个人比较喜欢Jetbrains家的ide,按自己喜好来吧。如果你有VSCode,想用VSCode打开时不直接点击文件而是右键选择用VSCode打开即可

出现选择“开始”菜单文件夹,啥都不用管直接点击安装即可

然后等待一会安装就完成了

安装程序结束后,想马上启动可以勾选上运行

3、首次启动WebStorm

首次运行会出现导入设置的界面,这里自由选择。我的话之前其他ide的字体相关改成了自己喜欢的配置,所以我就选择导入其他JetBrains IDE的配置了

导入配置之前还可以自行筛选要导入的配置

比如这里的Spark插件我就不导入进去了,因为这个是Python的Spark库安装的插件

导入配置等一小会很快就好了

下面是我自己第一次随便写个html文件

Read more

AI 大模型落地系列|Eino ADK体系篇:你对 ChatModelAgent 有了解吗?

AI 大模型落地系列|Eino ADK体系篇:你对 ChatModelAgent 有了解吗?

声明:本文源于官方文档,重点参考 Eino ADK: ChatModelAgent、Eino ADK: 概述、Eino ADK: Agent 协作 分享一个很棒的AI技术博客,对AI感兴趣的朋友强烈推荐去看看http://blog.ZEEKLOG.net/jiangjunshow。 为什么很多人把 ChatModelAgent 想简单了?一文讲透 ReAct、Transfer、AgentAsTool 与 Middleware * 1. 为什么很多人会把 `ChatModelAgent` 想简单 * 2. `ChatModelAgent` 在 ADK 里到底是什么 * 3. 其内部本质是一个 `ReAct` 循环 * 没有 Tool 时会怎样 * 为什么还需要 `MaxIterations` * 4. 哪几组配置真正决定了行为 * `Name / Description`

Llama-3.2-3B效果实测:Ollama平台下10万字PDF文档摘要质量分析

Llama-3.2-3B效果实测:Ollama平台下10万字PDF文档摘要质量分析 1. 为什么选Llama-3.2-3B做长文档摘要? 你有没有遇到过这样的情况:手头有一份50页的技术白皮书、一份80页的行业研究报告,或者一份120页的产品需求文档,领导说“今天下班前给我一个三页以内的核心要点总结”?翻完目录就花了半小时,通读一遍至少两小时,最后写出来的摘要还被说“重点不突出”“逻辑不清晰”。 这次我决定用刚发布的Llama-3.2-3B模型,在Ollama平台上实测它处理真实长文档的能力。不是跑个标准数据集打个分就完事,而是直接拿一份真实的10.2万字PDF文档——某头部新能源车企发布的《2024智能驾驶技术白皮书》(含图表说明、参数表格、架构图文字描述),全程不切片、不预处理,只做最基础的文本提取,看它能不能真正帮人“读懂厚文档”。 选择Llama-3.2-3B不是跟风。它和上一代相比,指令微调更聚焦在“摘要”和“检索增强”这类任务上,官方明确提到对长上下文理解做了针对性优化。而Ollama平台的优势在于:零配置部署、本地运行不传数据、命令行+Web双模式,特别适合需要

2026 AI大模型实战:零基础玩转当下最火的AIGC

哈喽宝子们,2026年的AI大模型赛道简直卷出了新高度,中关村论坛上昆仑万维发布的Matrix-Game 3.0、SkyReels V4、Mureka V9三大世界级模型直接把全模态AIGC推上了新风口,而且昆仑天工旗下的SkyText、SkyCode等多款模型还开放了开源API,普通人也能轻松玩转AI大模型开发了。 一、当下 AI 大模型核心热点:人人都能做 AI 开发 1.全模态成主流:昆仑万维的 SkyReels V4 视频大模型实现音画一体生成、Mureka V9 音乐大模型支持创作意图精准落地,AI 从单一文本生成进入文本 / 图像 / 音频 / 视频全模态创作时代; 2.开源 API 全面开放:昆仑天工的 SkyText(文本生成)、SkyCode(代码生成)等模型开源,无需自建大模型,通过简单 API 就能实现商用级 AI 功能; 3.

Llama Factory微调显存计算器:输入模型参数立即获得最佳GPU配置

Llama Factory微调显存计算器:输入模型参数立即获得最佳GPU配置 作为一名经常微调大模型的ML工程师,你是否也经历过这样的痛苦:每次尝试新模型时,总要反复调整显存配置,不断试错才能找到合适的GPU资源?这不仅浪费时间,还浪费宝贵的计算资源。今天我要分享一个实用工具——Llama Factory微调显存计算器,它能根据你的模型参数自动推荐最佳GPU配置和deepspeed参数,彻底告别手动试错。 为什么需要显存计算器 大模型微调过程中,显存配置是最让人头疼的问题之一。根据我的实战经验,影响显存需求的主要因素有: * 模型参数量:7B、13B、70B等不同规模的模型显存需求差异巨大 * 微调方法:全参数微调、LoRA、QLoRA等方法对显存的要求各不相同 * 训练配置:batch size、序列长度等参数会显著影响显存占用 传统做法是凭经验猜测,然后不断尝试调整,这不仅效率低下,还经常导致OOM(内存溢出)错误。Llama Factory微调显存计算器正是为解决这一痛点而生。 计算器核心功能解析 这个显存计算器集成在LLaMA-Factory框架中,主要