把 Vivado 项目放心交给 Git:一篇 FPGA 工程师必读的实战指南

之前分享过一篇文章《FPGA 版本管理三种方式:你会选哪一种?》,评论区很多人都推荐使用Git进行版本管理,今天这篇文章主题就是使用Git进行备份指南。

在 FPGA 开发中,掌握 Git 等源码管理工具已经是必备技能。

当然,在使用 Vivado 时,我们不仅需要处理源代码控制,还需要处理以 IP 为中心的设计产品。

Vivado 的工程通常是 IP 为中心 的设计,包含:

  • IP Integrator Block Diagram
  • 各类 IP 实例(独立 IP 或 BD 内 IP)
  • 自动生成的包装文件与工程产物

这让很多 FPGA 工程师一开始会觉得:

“Vivado 项目到底该怎么和 Git 一起用?”

好消息是,从 Vivado 2022.1 开始,这一切已经变得非常清晰、也非常容易。

Vivado 2022.1 之后最重要的变化:源文件与生成文件分离

在 Vivado 2022.1 之前:

源文件和生成文件全部混在同一个 .srcs 目录中。

而从 Vivado 2022.1 起,工程目录被明确拆分为:

  • .srcs:源文件
  • .gen:生成文件

这一点非常关键。

👉 这意味着:

只要我们保存 .srcs 目录 + .xpr 工程文件,就可以在任何地方完整重建 Vivado 工程。

示例工程说明

示例使用 Vivado 2024.1 创建了一个新工程,目标板卡为 Avnet ZU Board。

IP Integrator 设计包含:

  • Zynq MPSoC Processing System
  • Smart Interconnect
  • AXI BRAM Controller

此外还加入了 自定义 RTL 文件,通过 UART 提供 AXI 访问,用来演示 自定义 RTL 与 IP 设计共存 的情况。

完成后的 Block Diagram 如下:

Vivado 工程目录结构解析

1️⃣ .srcs 目录

imports/ 下是用户添加的 VHDL / Verilog 源文件

bd/ 下是 IP Integrator 的 Block Diagram

ip/ 下是各个 IP 的 .xci 配置文件

👉 这些都是必须纳入 Git 管理的内容

2️⃣ .gen 目录

.gen 中包含:

自动生成的顶层 wrapper

IP 的生成文件

综合与仿真所需的中间文件

👉 这些文件不需要提交到 Git

将 Vivado 工程加入 Git 仓库

假设你已经在 GitHub 上创建了一个空仓库,下面是核心的步骤。

初始化仓库

git init

添加 Vivado 工程文件

只需要添加两部分:

git add git_demo.srcs/* git add git_demo.xpr

提交到本地仓库

提交这些文件并附带一条消息。

git commit -m "initial issue"

你会看到:

.xpr

RTL / VHDL 文件

IP .xci 文件

都已经被 Git 跟踪。

绑定远程仓库并推送

git remote add origin <url> git push -u origin master

此时在 GitHub 网页上,就可以看到完整的 Vivado 工程源文件了。

从 Git 仓库重建 Vivado 工程

为了验证流程是否正确,我们新建一个文件夹:

git clone <repo_url>

然后直接打开 .xpr 文件。

我们需要重新生成顶层 wrapper,重新生成 IP,正常完成综合与实现即可。

整个流程无需额外脚本,运行非常顺利。

小结

Vivado 2022.1 之后,工程结构已经非常适合 Git 管理

只需管理 .srcs + .xpr

IP、BD、RTL 都能自然融入 Git 流程

Vivado 工程终于可以像软件工程一样被“正常管理”

上面只是简单的使用,后续文章将继续介绍高级点的用法及 Vitis 与源码管理的协同方式。

Read more

Whisper-large-v3语音识别效果评估:人工校验100条样本的准确率与召回率

Whisper-large-v3语音识别效果评估:人工校验100条样本的准确率与召回率 部署说明:本文评测基于由by113小贝二次开发构建的Whisper-large-v3语音识别Web服务,该服务支持99种语言自动检测与转录,采用GPU加速推理。 1. 评测背景与方法 语音识别技术在实际应用中,准确率是用户最关心的核心指标。本次评测旨在通过科学严谨的方法,评估Whisper-large-v3模型在真实场景下的识别性能。 我们采用了以下评测方法: 测试样本构成: * 总样本数:100条音频文件 * 语言分布:中文60条,英文25条,中英混合15条 * 音频类型:清晰录音40条,带背景音30条,多人对话20条,低质量录音10条 * 时长分布:10-30秒短音频70条,30-60秒中长音频20条,1分钟以上长音频10条 评测标准: * 人工逐字校对转录结果 * 统计字级准确率(Character Error Rate) * 计算召回率和精确率 * 记录不同场景下的表现差异 2. 整体识别效果分析 经过对100条样本的详细校验,Whisper-larg

语音识别新篇章:Whisper模型从入门到实战完整指南

语音识别新篇章:Whisper模型从入门到实战完整指南 【免费下载链接】whisper-tiny.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-tiny.en 还在为语音识别技术的高门槛而烦恼吗?🤔 今天,让我们一起探索OpenAI Whisper这款革命性的语音识别工具,看看它是如何让语音转文字变得如此简单高效! 🎯 为什么选择Whisper? 想象一下,你正在参加一个重要的国际会议,需要实时记录多国代表的发言内容。传统方法可能需要多名翻译人员协同工作,而Whisper却能一个人搞定所有任务!💪 Whisper的核心优势: * 🚀 一键安装,快速上手 * 🌍 支持98种语言,真正全球化 * 🎵 智能降噪,适应各种环境 * 💰 完全免费开源,商业友好 📦 快速开始:环境搭建全攻略 准备工作 首先,确保你的系统满足以下基本要求: * Python 3.9或更高版本 * 至少8GB内存 * 支持CUDA的GPU(可选,但推荐) 安装步骤 让我们一步步搭建Whisp

llama.cpp docker 镜像pull国内加速地址

目前llama cpp官方提供的llama.cpp提供的docker 镜像下载命令:docker pull ghcr.io/ggml-org/llama.cpp:server-cuda-b6222 服务器下载速度非常的慢。 比较好的方法是把ghcr.io替换为国内镜像源地址ghcr.nju.edu.cn进行下载: // 官方命令: docker pull ghcr.io/ggml-org/llama.cpp:server-cuda //国内源地址命令 docker pull ghcr.nju.edu.cn/ggml-org/llama.cpp:server-cuda 速度快了几十倍,非常节约时间 推荐给大家!

Phi-3-mini-4k-instruct-gguf镜像免配置:预编译llama-cpp-python wheel加速启动

Phi-3-mini-4k-instruct-gguf镜像免配置:预编译llama-cpp-python wheel加速启动 1. 模型简介 Phi-3-mini-4k-instruct-gguf是微软Phi-3系列中的轻量级文本生成模型GGUF版本。这个经过优化的镜像版本特别适合以下中文场景: * 智能问答系统 * 文本改写与润色 * 内容摘要生成 * 简短创意写作 当前镜像已经完成本地部署优化,用户只需打开网页即可直接使用,无需任何额外配置。 2. 镜像核心优势 2.1 开箱即用的体验 * 内置预编译的llama-cpp-python wheel包,省去编译等待时间 * 已集成q4量化版本的GGUF模型文件 * 完整的CUDA加速支持,推理速度提升明显 2.2 技术架构特点 * 基于llama.cpp的高效推理引擎 * Python轻量级Web接口封装 * 独立的虚拟环境隔离系统依赖 * 内置健康检查接口方便运维监控 3. 快速入门指南 3.1 访问方式 直接在浏览器打开以下地址: https://gpu-3sbnmfumnj-