2026-01-14 学习记录--LLM-申请Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)

2026-01-14 学习记录--LLM-申请Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)

LLM-申请 Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)

一、请求访问Llama模型 ⭐️

随便进入想要访问的Llama模型,这里展示的是Meta-Llama-3-8B-Instruct
1、 点击链接,申请访问Llama模型
在这里插入图片描述
2、 填写相关申请信息,注意如下:👇🏻(1)、国家最好选「美国」,然后填 「美国的大学」;(2)、操作这一步时,节点需要是对应国家的节点(若是美国,那么节点也要是美国)。
在这里插入图片描述
3、 提交成功后,就可开始申请Llama模型的Hugging Face 访问令牌啦~

二、申请Llama模型的Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)⭐️

在这里插入图片描述
1、判断是否需要申请
访问Meta-Llama-3.1-8B-Instruct模型在Hugging Face上的官方仓库
假若你看见“You need to agree to share your contact information to access this model”字样,说明需要申请授权。
在这里插入图片描述
2、申请Hugging Face 访问令牌的方法
申请Hugging Face 访问令牌:1、 在这个页面点击 “Expand to review and access2、 展开后把协议拉到底,勾选/确认 同意条款 & 同意分享联系信息(HF 需要把你的联系信息共享给 Meta,用于许可证合规)3、 「提交」后,一般会立刻变成可访问(有时需要几分钟刷新)
完成后你会看到类似:“You have been granted access”或者 Files and versions 里能正常看到文件列表(不再是提示框)
在这里插入图片描述


在这里插入图片描述
3、判断是否申请成功
判断是否申请成功:1、点击「头像」2、点击「Settings」3、进入「Gated Repositories」,就可以看见 申请的Llama 3.1 model出现了,不过目前请求状态(Request Status)是“PENDING”,需要几分钟时间,变成“ACCEPTED”,才说明有访问权限了。
在这里插入图片描述


在这里插入图片描述
在这里插入图片描述


在这里插入图片描述
或者 👇🏻
当再次访问Meta的Llama-3.1-8B-Instruct模型在Hugging Face上的官方仓库,看见“Gated model You have been granted access to this model”字样,也说明申请授权成功。
在这里插入图片描述

三、获取Access Token ⭐️

在这里插入图片描述
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
根据需求选择令牌类型(Token type):细粒、读、写
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

Read more

LLaMAFactory、ModelScope 大模型微调实战(下)

LLaMAFactory、ModelScope 大模型微调实战(下)

一、前言 上次简单介绍了下 LLaMAFactory、ModelScope的微调,今天再来总结下如何部署已经微调好的大模型。 直通车→→→ https://blog.ZEEKLOG.net/tadexinnian/article/details/159154443 本次演示基于魔搭社区(https://www.modelscope.cn/my/mynotebook) 二、将模型转换为gguf 2.1 克隆llama.cpp 并安装环境依赖 -- 进入根目录 cd /mnt/workspace -- 需要用 llama.cpp 仓库的 convert_hf_to_gguf.py 脚本来转换 git clone https://github.com/

Ollama 底层的 llama.cpp 和 GGUF

GGUF = 大模型权重的「通用压缩格式」(类似视频的 MP4,适配所有播放器) llama.cpp = 跑 GGUF 格式模型的「轻量级推理引擎」(类似视频播放器,能在低配电脑上流畅播 MP4) 两者配合:GGUF 让模型体积变小、适配性强,llama.cpp 让模型能在 CPU / 低配 GPU 上快速跑 这也是 Ollama 能做到 “一键本地运行” 的底层原因 GGUF 详解:大模型的 “通用压缩包” 核心定义 GGUF(Generic GGML Format)是 GGML 格式的升级版,是专门为大模型权重设计的二进制存储格式 核心目标是「通用、高效、压缩」 GGML 是什么?

从敏捷到生成式:AIGC如何改变软件测试的全流程

从敏捷到生成式:AIGC如何改变软件测试的全流程

过去二十年,软件测试经历了两次重要范式变迁。 第一次是 瀑布式测试 → 敏捷测试。 第二次是 人工驱动测试 → 自动化测试。 而今天,随着生成式人工智能(AIGC)的兴起,软件测试正在经历第三次重大转型: 从“敏捷测试”走向“生成式测试(Generative Testing)”。 这种变化不仅仅是工具升级,而是测试方法论、测试流程和测试角色的全面重构。 本文将从工程实践的角度,系统分析 AIGC 如何重塑软件测试全流程,并给出可以落地的技术路径。 一、软件测试范式的三次演进 软件测试的发展基本可以分为三个阶段。 阶段核心特点主要问题瀑布测试测试在开发后期进行反馈周期长敏捷测试测试融入开发迭代人工成本高生成式测试AI参与测试设计与执行方法论正在形成 敏捷测试思想来自 Agile Testing: A Practical Guide for Testers and Agile Teams 以及 Continuous Delivery 提出的持续交付理念。 其核心思想包括: * 测试左移(Shift Left)

【AIGC】如何获取ChatGPT外部GPTs应用的提示词Prompt指令和知识库文件

【AIGC】如何获取ChatGPT外部GPTs应用的提示词Prompt指令和知识库文件

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |GPTs应用实例 文章目录 * 💯前言 * 💯获取GPTs的提示词Prompt指令 * 💯获取GPTs的知识库文件 * 💯小结 * 关于GPTs指令如何在ChatGPT上使用,请看这篇文章: 【AIGC】如何在ChatGPT中制作个性化GPTs应用详解     https://blog.ZEEKLOG.net/2201_75539691?type=blog * 关于如何使用国内AI工具复现类似GPTs效果,请看这篇文章: 【AIGC】国内AI工具复现GPTs效果详解     https://blog.ZEEKLOG.net/2201_75539691?type=blog 💯前言 随着 ChatGPT 和其他 AI 应用的不断发展,越来越多的外部 GPTs 被集成进来,以增强其功能和适应多样化的用户需求。这些外部 GPTs 并不仅仅是通用的 聊天助手,而是专为特定场景、