2026-01-14 学习记录--LLM-申请Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)

2026-01-14 学习记录--LLM-申请Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)

LLM-申请 Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)

一、请求访问Llama模型 ⭐️

随便进入想要访问的Llama模型,这里展示的是Meta-Llama-3-8B-Instruct
1、 点击链接,申请访问Llama模型
在这里插入图片描述
2、 填写相关申请信息,注意如下:👇🏻(1)、国家最好选「美国」,然后填 「美国的大学」;(2)、操作这一步时,节点需要是对应国家的节点(若是美国,那么节点也要是美国)。
在这里插入图片描述
3、 提交成功后,就可开始申请Llama模型的Hugging Face 访问令牌啦~

二、申请Llama模型的Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)⭐️

在这里插入图片描述
1、判断是否需要申请
访问Meta-Llama-3.1-8B-Instruct模型在Hugging Face上的官方仓库
假若你看见“You need to agree to share your contact information to access this model”字样,说明需要申请授权。
在这里插入图片描述
2、申请Hugging Face 访问令牌的方法
申请Hugging Face 访问令牌:1、 在这个页面点击 “Expand to review and access2、 展开后把协议拉到底,勾选/确认 同意条款 & 同意分享联系信息(HF 需要把你的联系信息共享给 Meta,用于许可证合规)3、 「提交」后,一般会立刻变成可访问(有时需要几分钟刷新)
完成后你会看到类似:“You have been granted access”或者 Files and versions 里能正常看到文件列表(不再是提示框)
在这里插入图片描述


在这里插入图片描述
3、判断是否申请成功
判断是否申请成功:1、点击「头像」2、点击「Settings」3、进入「Gated Repositories」,就可以看见 申请的Llama 3.1 model出现了,不过目前请求状态(Request Status)是“PENDING”,需要几分钟时间,变成“ACCEPTED”,才说明有访问权限了。
在这里插入图片描述


在这里插入图片描述
在这里插入图片描述


在这里插入图片描述
或者 👇🏻
当再次访问Meta的Llama-3.1-8B-Instruct模型在Hugging Face上的官方仓库,看见“Gated model You have been granted access to this model”字样,也说明申请授权成功。
在这里插入图片描述

三、获取Access Token ⭐️

在这里插入图片描述
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
根据需求选择令牌类型(Token type):细粒、读、写
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

Read more

山东菏泽测试员:我是如何靠AI逆袭年薪60万的?

山东菏泽测试员:我是如何靠AI逆袭年薪60万的?

一、起点:外包测试员的困境与觉醒 作为一名来自山东菏泽的软件测试员,我最初深陷外包行业的典型困境:价值感低微,被视为“人肉执行器”,只负责重复性手工测试或基础功能验证,难以触及核心业务逻辑。技术成长严重受限,项目周期短且切换频繁,缺乏系统性沉淀机会;职业通道狭窄,晋升至测试开发或管理岗位异常艰难,薪资长期停滞在低位。工作稳定性差,项目结束即面临失业风险,创新参与度几乎为零。2018年,我的年薪不足10万元,菏泽作为三四线城市,资源匮乏加剧了这些挑战。然而,AI技术的崛起——特别是AI-Testing领域的突破——成为转折点。AI不仅能自动化海量重复任务(如用例生成和执行),还能辅助复杂测试(如智能探索性测试),释放人力并提升洞察力。这让我意识到:掌握AI不是取代测试员,而是重塑价值链的关键,是逆袭的起点。 二、逆袭第一步:从工具使用者到效率大师 要突破年薪瓶颈,我首先聚焦效率革命,利用AI将自己从低价值劳动中解放。起步阶段,我自学Python和机器学习基础,通过在线课程(如Coursera)掌握Selenium、Appium等自动化框架。但传统工具局限明显:用例执行依赖静态脚本,

大模型Token入门详解:概念、原理、换算与核心作用【AI基础】

用通俗直白的语言拆解Token相关知识点,全程无晦涩术语,适合AI初学者、大模型入门人群快速掌握核心逻辑,干货好懂易记。 一、Token核心定义:大模型的语言基础单元 我们常说的大语言模型上下文窗口,它的计量单位并不是日常的字数或者词语数,而是Token。大模型的本质是做数字矩阵运算,本身无法直接理解人类的自然语言,必须依靠Tokenizer(分词器)充当“翻译官”,完成文字与数字之间的双向转换,这也是大模型能够理解、生成文字的核心前提。 二、Tokenizer两大核心功能:编码与解码 分词器Tokenizer的工作流程主要分为两步,分工明确且逻辑连贯,支撑起语言与机器指令的转换闭环: * 编码(Encoding):将用户输入的文本内容,转换成模型能够识别的数字序列,包含两个关键步骤。第一步是切分,把完整的语句拆分成模型可处理的最小单元,也就是Token;第二步是映射,为每个Token分配专属的数字编号,即Token ID,让模型能够读取和处理。 * 解码(Decoding):把模型输出的Token ID,反向还原成人类可以正常读懂的自然文字,该过程不需要再次对文本进

一文搞懂MCP、Agent、Skills:AI时代三大核心概念深度对比,搞懂了少走3年弯路

一文搞懂MCP、Agent、Skills:AI时代三大核心概念深度对比,搞懂了少走3年弯路

先搞懂MCP:一个容易混淆的术语 MCP有两个不同的含义 很多人看到"MCP"就懵了,因为这个缩写在AI领域有两个完全不同的含义: 含义1:Model Context Protocol(Anthropic提出的开放协议) 官方定义: MCP是Anthropic在2024年11月发布的开放协议,让AI应用能够标准化地连接数据源和工具。 大白话解释: 就像USB接口统一了设备连接标准一样,MCP统一了AI应用与工具之间的连接方式。 之前的问题: * ChatGPT要接入Google搜索,需要专门写代码 * Claude要接入同样的搜索,又要重新写一遍 * 每个AI应用都要为每个工具写专门的对接代码 有了MCP: * 工具开发者按MCP标准开发一次 * 所有支持MCP的AI应用都可以直接使用 * 就像插USB设备一样简单 这才是当前AI社区讨论最多的"MCP"! ✅ 含义2:Control Plane(AI系统的控制层) 有些文章会把AI系统的控制层也叫"MCP"(Model Control Plane),但这不是标准术语。 更准确的叫法是: * O

【GitHub项目推荐--AutoResearch:AI自主研究代理,让AI自己优化AI模型】⭐⭐⭐⭐⭐

简介 AutoResearch 是由知名AI研究员Andrej Karpathy开发的开源项目,其核心使命是创建一个完全自主的AI研究系统,让AI代理能够自行设计和优化神经网络模型。该项目代表了一种全新的研究范式:不再是人类研究者手动调整超参数和架构,而是将整个研究过程交给AI代理自主进行。AutoResearch提供了一个精简但完整的LLM训练环境,AI代理可以在这个环境中不断实验、评估、迭代,最终发现更优的模型配置。 核心定位:AutoResearch的核心价值在于将AI研究过程本身自动化。传统AI研究依赖于人类研究者的直觉、经验和试错,这个过程既耗时又受限于人类认知的局限性。AutoResearch通过固定时间预算的自主实验循环,实现了研究过程的规模化、系统化和无偏见优化。项目设计哲学是"让AI研究AI",探索在有限计算资源下,自主代理能否超越人类的研究效率。 技术背景:项目基于简化的单GPU nanochat实现,采用Python开发,依赖PyTorch等基础库。整个代码库保持极简设计,只有三个核心文件:prepare.py(数据准备和工具)、train.py(模型和训练