web前端JS—基本语法

一、引入方式

1、内部脚本:将代码定义在HTML页面里面

  • 将JS定义在<script></script>之间
  • 可以在html里面的任意位置放置任意数量的<script></script>
  • 一般放置在<body>元素的底部,改善显示速度
<script> console.log('页面加载时执行'); function localFunction() { return '内部函数'; } </script>

2、外部脚本:额外定义一个.js文件,引入到HTML里面

  • 只能包含js文件,不包含<script>标签
 <script src="app.js"></script> 
  • <script>不能自闭合
<script src="https://cdn.example.com/lib.js" integrity="sha384-xxx" crossorigin="anonymous"> </script>

二、基本语法

1. 变量声明

JavaScript 提供了三种声明变量的方式:

  • var:传统声明方式,存在变量提升,函数作用域。        
    • 全局变量,作用域较大;
    • 可以重复定义
  • let:ES6 引入,块级作用域,不存在变量提升,不允许重复声明。
    • 局部定义,不能重复定义
  • const:ES6 引入,块级作用域,声明常量,不可重新赋值(但对象或数组的内容可以修改)。
  • 原始类型:Number、String、Boolean、Null、Undefined、Symbol(ES6)、BigInt(ES2020)。
  • 引用类型:Object(包括Ar

2. 数据类型

JavaScript 是动态类型语言,拥有以下几种基本数据类型和引用类型:

var x=20; x="LXX";

Read more

通义千问2.5-7B代码生成优化:与GitHub Copilot对比评测

通义千问2.5-7B代码生成优化:与GitHub Copilot对比评测 1. 模型概述与部署准备 通义千问2.5-7B-Instruct是阿里在2024年9月发布的70亿参数指令微调模型,定位为"中等体量、全能型、可商用"的AI助手。这个模型在代码生成方面表现突出,特别适合开发者日常使用。 核心优势特点: * 70亿参数全权重激活:不是MoE结构,完整文件约28GB(fp16格式) * 超长上下文支持:128k token长度,相当于百万级汉字长文档处理能力 * 代码能力强劲:HumanEval通过率85%以上,与CodeLlama-34B相当 * 多语言支持:覆盖16种编程语言和30+自然语言 * 商用友好:开源协议允许商业使用,集成主流推理框架 部署采用vLLM + Open-WebUI方案,这种组合提供了高效的推理性能和友好的用户界面。vLLM作为推理引擎优化了生成速度,Open-WebUI则提供了类似ChatGPT的交互体验。 2. 环境搭建与快速部署 2.1 系统要求与准备 在开始部署前,确保你的系统满足以下要求: 硬件要求: * GPU

Whisper语音识别:本地化部署的完整实战指南

Whisper语音识别:本地化部署的完整实战指南 【免费下载链接】whisper-base.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-base.en 想要在个人设备上实现专业级的语音转文字功能?OpenAI Whisper作为业界领先的语音识别模型,能够在完全离线环境中精准转换音频内容,支持多语言识别,特别适合会议记录、学习笔记等隐私敏感场景。 为什么选择本地语音识别方案 与传统云端语音识别相比,Whisper具备显著的技术优势。基于深度学习训练,识别准确率超过98%,支持99种语言的语音识别和翻译功能。更重要的是,所有处理都在本地设备完成,无需上传云端,确保数据隐私的绝对安全。 部署前准备工作清单 在开始安装前,请确认设备满足以下基础配置: * 操作系统:Windows 10/11、macOS 10.15+ 或 Linux 发行版 * Python环境:Python 3.8 及以上版本

ChatGPT绘图实战:从零构建AI绘画应用的完整指南

AI绘画技术背景与主流模型对比 最近几年,AI绘画技术发展得飞快,从最开始生成一些模糊、怪异的图像,到现在能创作出细节丰富、风格多样的艺术作品,变化真的很大。对于开发者来说,想在自己的应用里加入AI绘图功能,首先得搞清楚市面上有哪些“工具”可用,以及它们各自的特点。 目前,主流的AI绘画模型主要有两大类:一类是以OpenAI的DALL·E系列为代表的闭源、API服务型模型;另一类是以Stable Diffusion为代表的开源、可本地部署的模型。它们各有优劣,选择哪个很大程度上取决于你的项目需求。 1. DALL·E系列 (OpenAI) 这是OpenAI推出的文本生成图像模型,目前主流使用的是DALL·E 2和DALL·E 3。 * 优点:生成质量高,尤其是DALL·E 3在图像细节、文本遵循度和艺术感上表现非常出色。它通过简单的API即可调用,无需关心底层算力、模型部署等复杂问题,集成速度快,非常适合快速原型开发或对生成质量要求高的生产应用。 * 缺点:属于闭源服务,按调用次数收费。开发者无法对模型进行微调或深入了解其内部机制,生成风格和内容受OpenAI的使用政策限制

LLaMA 3.1 模型在DAMODEL平台的部署与实战:打造智能聊天机器人

LLaMA 3.1 模型在DAMODEL平台的部署与实战:打造智能聊天机器人

文章目录 前言 一、LLaMA 3.1 的特点 二、LLaMA3.1的优势 三、LLaMA3.1部署流程 (一)创建实例 (二)通过JupyterLab登录实例 (3)部署LLaMA3.1 (4)使用教程 总结 前言 LLama3.1 是 Meta(Facebook 母公司)发布的系列大语言模型之一,属于 LLaMA(Large Language Model Meta AI)模型系列。LLaMA 模型的目标是通过更高效的设计在保持模型性能的前提下,显著降低其计算和资源需求。LLaMA 3.1 是该系列的最新版本,继承了前面版本,如 LLaMA 1