使用VS Code运行前端代码

使用VS Code运行前端代码

文章目录


VS Code运行HTML文件

提示:这里可以添加本文要记录的大概内容:

但是我在使用VS Code和Hbuilder的不同是:

Hbuilder我记得是可以在菜单栏的“文件”→“新建”→“HTML5+项目”,填写项目名称、路径等信息后点击“完成”即可创建一个新项目

一、安装VS Code 配置插件

如何使用VS Code安装插件及VS Code上的常用插件点我查看

以前写HTML用的是Hbuilder,最近突然发现VS Code也不错,只需要安装open in browser插件即可

在这里插入图片描述

二、在电脑上新建文件夹

VS Code使用是在本地打开一个文件夹

先在电脑上新建个文件夹

在这里插入图片描述


打开VS Code
然后选择【文件】→【打开文件夹】,找到刚才新建的文件夹

在这里插入图片描述

随后点开该文件夹,再次右键选择【新建文件夹】
目的:做好文件分类

在这里插入图片描述

三、新建文件【名字.html】

然后要再右键新建文件【名字.html】使用
html文件图标会变成:<>
css文件图标会变成:#

请添加图片描述

四、运行.html文件

进入页面输入:html:5回车,我们大部分代码是写在body标签下的
下面是个简单的HTML页面展示:

在这里插入图片描述

在文件里面还有个自动保存代码的功能

在这里插入图片描述

VS Code运行VUE代码

Vue-cli脚手架

Read more

一文通透OpenVLA——在Prismatic VLM(SigLIP、DinoV2、Llama 2)的架构上:基于“下一个token预测技术”预测离散化动作

一文通透OpenVLA——在Prismatic VLM(SigLIP、DinoV2、Llama 2)的架构上:基于“下一个token预测技术”预测离散化动作

前言 当对机器人动作策略的预测越来越成熟稳定之后(比如ACT、比如扩散策略diffusion policy),为了让机器人可以拥有更好的泛化能力,比较典型的途径之一便是基于预训练过的大语言模型中的广泛知识,然后加一个policy head(当然,一开始背后的模型比较简单,比如有用LSTM或MLP——RoboFlamingo) 再之后,便出来了越来越多成熟稳定的专门的VLA模型,比如OpenVLA,再比如近期介绍过过的π0——用于通用机器人控制的VLA模型:一套框架控制7种机械臂(基于PaliGemma和流匹配的3B模型) 1. π0的意义在于,首次用同一套策略/算法操作不同机器人/机械臂,这种基于机器人大模型的「预训练-微调」模式,很快会越来越多(犹如此前大模型革命NLP 其次CV等各模态,目前到了robot领域),算是代表了通用机器人的核心发展方向 2. 且π0 比英伟达的HOVER早一点,当然,同时期的RDT GR2也有这个潜力的,期待这两 后续的更新 一个多月前(本文首发于25年1月),有朋友曾说,一个月内,π0 会开源来着,当时虽然觉得不太可能,但还是抱着期待,可还

LFM2.5-1.2B-Thinking效果展示:小身材大能量的AI写作

LFM2.5-1.2B-Thinking效果展示:小身材大能量的AI写作 1. 惊艳开场:小模型的大惊喜 当我第一次看到LFM2.5-1.2B-Thinking这个模型时,说实话有点怀疑——只有12亿参数的文本生成模型,能有多强的能力?但实际测试后,我被彻底打脸了。 这个模型就像是一个小巧但功能齐全的瑞士军刀,虽然体积不大,但该有的功能一个不少。它能写文章、能对话、能创作故事,甚至还能帮你写代码注释。最让人惊喜的是,它的响应速度极快,在普通电脑上就能流畅运行,完全不需要昂贵的显卡。 2. 实际效果展示:文字创作的惊喜体验 2.1 创意写作能力 让我给你看看这个模型的实际创作效果。我输入了一个简单的提示:"写一段关于秋天的散文,要求有诗意和画面感" 模型生成的文字让我眼前一亮: "秋日的阳光透过稀疏的枝叶,在地上洒下斑驳的光影。微风轻拂,落叶如金色的蝴蝶般翩翩起舞,在空中划出优雅的弧线后悄然落地。空气中弥漫着成熟果实的香甜,混合着泥土的清新气息,这是季节更迭时独有的味道。远处的山峦披上了五彩的衣裳,深红、

1.2秒出片!Wan2.1-I2V让RTX 4060实现专业级视频生成,AIGC创作平民化拐点来临

1.2秒出片!Wan2.1-I2V让RTX 4060实现专业级视频生成,AIGC创作平民化拐点来临 【免费下载链接】Wan2.1-I2V-14B-480P-StepDistill-CfgDistill-Lightx2v 项目地址: https://ai.gitcode.com/hf_mirrors/lightx2v/Wan2.1-I2V-14B-480P-StepDistill-CfgDistill-Lightx2v 在AIGC视频生成领域,一个革命性的突破正在发生!Wan2.1-I2V-14B-480P-StepDistill-CfgDistill-Lightx2v模型仅需4步推理就能生成高质量视频,让普通玩家用RTX 4060显卡也能体验到专业级的视频生成效果。这标志着AIGC创作真正走向平民化的历史性拐点! 🚀 极速视频生成:1.2秒创造奇迹 传统的视频生成模型往往需要数十步甚至上百步的推理过程,耗时漫长。而Wan2.1-I2V通过创新的步数蒸馏技术,将推理步骤压缩到惊人的4步,在RTX 4060上仅需1.2秒就能完成视频生成!这种突破性的效率提升,让实时视频创作成为

Mac M系列芯片适配:mlc-llm与llama.cpp对比

Mac M系列芯片适配:mlc-llm与llama.cpp对比 在大语言模型(LLM)逐步从云端走向本地终端的今天,如何在消费级设备上高效运行数十亿参数的模型,成为开发者和研究者共同面对的挑战。苹果自推出搭载M系列芯片的Mac以来,其基于ARM架构的统一内存架构(UMA)与强大的GPU性能,为本地化推理提供了前所未有的硬件基础。然而,由于主流深度学习生态长期依赖CUDA,而Mac缺乏NVIDIA GPU支持,使得多数框架难以直接发挥其全部潜力。 在此背景下,mlc-llm 与 llama.cpp 脱颖而出——它们不依赖传统深度学习运行时,而是通过底层优化,在Apple Silicon上实现了令人惊喜的推理效率。两者路径迥异:一个走“编译驱动、GPU加速”的技术路线,另一个则坚持“极简主义、CPU优先”的哲学。究竟谁更适合你的使用场景?本文将深入剖析二者在Mac平台的技术实现、性能表现与适用边界。 技术内核解析:两条不同的优化路径 mlc-llm:用编译器挖掘Metal的极限算力 mlc-llm并非简单的推理引擎,它本质上是一个面向大模型的端到端编译系统。其核心思想是利用TV