Vivado 使用教程

Vivado 使用教程

目录

一、创建工程

二、创建文件

三、编写代码

四、仿真验证

五、配置管脚

六、生成Bitstream文件并烧录

一、创建工程

1.左边创建(或打开)工程,右侧可以快速打开最近打开过的工程。

2.来到这一步,命名工程并设置工程的存放路径(这里以D触发器为例)

3.选择RTL点击next。会来到添加文件环节(可以在这里添加.v等文件,不过后面再添加是一样的)直接点击next

4.选择芯片型号(根据开发板选,这里随便选的)完成后点next会弹出信息概要,finish完成。

       

二、创建文件

完成上述步骤会进入当前界面:

1.工程管理器add sourse添加(创建)设计文件,创建文件后选择Verilog语言并命名。

2.定义端口(可选),若在这定义后,文件会自动生成端口定义的代码,比自己敲省时间更方便。

(端口没有说明类型即默认wire类型,可根据情况定义reg类型:“output reg q”)

         

3.设计文件创建完成

三、编写代码

1.代码以D触发器为例:

`timescale 1ns / 1ps //timescale 时间单位/精度 module dff( //D触发器 input wire clk, //时钟信号 input wire d, //输入信号 output reg q, //输出信号 output reg q_n //输出信号取反 ); always@(posedge clk) begin q <= d; q_n <= !d; end endmodule

2.保存后编译(Run Synthesls),再修改报错直到通过。

        图示两处都是编译。点击后来到右图点OK,Number of Jobs 即 CPU 工作线程数,这个与电脑配置有关,配置越高可选数量越多(下图二片标注有误忽略,应该是工作线程数,我忘记改了)。编译的报错可在massage里面查看,尤其注意 error。

四、仿真验证

1.编译成功后创建仿真文件并完成代码编写,参考“步骤二”中设计文件的创建:

( 需选择 “add or create simulate sourse” 

  test bench 代码如下:

`timescale 1ns / 1ps //timescale 时间单位/精度 module dff_tb( ); //仿真一般无端口列表 reg clk_sim; reg d_sim; wire q_sim; wire q_n_sim; always #10 clk_sim = ~clk_sim; //每10个时间单位对clk进行翻转,即周期为20个单位 initial begin clk_sim = 0; d_sim = 0; #20; //延时20个时间单位(20ns) d_sim = 1; #40; d_sim = 0; #100; $stop; //停止仿真 end dff dff( //模块例化: 原模块名----在顶层文件中命名为 .clk (clk_sim), //原模块端口名----要连接的端口名 .d (d_sim), .q (q_sim), .q_n (q_n_sim) ); endmodule

2.保存后编译(Run Synthesls),再修改报错直到通过。

3.波形仿真 点击Run Simulation

(注意1:当有多个tb文件时,选中要仿真的tb文件 右键设为"active")

(注意2:vivado仿真上限时间在tool-setting-simulation中设置,仿真波形不全看看是否不够)

波形如图,每当clk上升沿到来时q输出d的值,说明代码实现D触发器的功能无误。

五、配置管脚

1.Run implement(跑成功后会解锁Run simulation里最后两个禁用的仿真选项,一般也用不到)

2.跑完后点击上图Open Implement Design文字,再到状态栏点击Window - I/O Ports

分配引脚(分配过的Fixed栏会自动打勾),设置相关参数(通常I/O standar 为LVCOMS33)。

3.ctrl+s保存,并完成命名后OK会生成XDC约束文件,约束文件打开位置见图二

六、生成Bitstream文件并烧录

1.生成bit流文件

2.如图示步骤点击,自动连接硬件,确保开发板已连接且通电否则识别不到。

3.烧录:连接开发板后会在这里出现芯片型号(对应新建工程时选择的型号),右键型号后点击“Program Device”再点Program烧录。

Read more

llama.cpp终极内存优化指南:让大模型推理性能飙升200%

llama.cpp终极内存优化指南:让大模型推理性能飙升200% 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 在资源受限环境下运行大型语言模型时,内存管理往往成为制约性能的关键瓶颈。llama.cpp作为C/C++实现的LLaMA模型移植项目,通过创新的内存池架构从根本上解决了这一挑战。本文将深入解析其内存优化策略,为技术决策者和架构师提供完整的性能调优方案。 从内存碎片化到高效推理的技术演进 传统动态内存分配在大模型推理场景下面临严峻挑战:频繁的malloc/free操作导致内存碎片化严重,KV缓存的持续分配与释放直接拖累推理速度。llama.cpp采用预分配与复用机制的革命性思路,在模型启动时根据参数分配连续内存块,通过状态标记实现内存块的循环利用。 图:矩阵乘法中行优先与列优先存储方式对内存访问模式的影响 架构设计哲学:分层抽象与统一接口 llama.cpp的内存管理体系建立在三个关键

如何部署本地 stable diffusion 本地使用大模型Z Image Turbo

🛠️ 部署 Stable Diffusion 详细步骤(以 Automatic1111 WebUI 为例) 1. 准备工作(系统和硬件要求) * 操作系统: Windows 10/11, macOS (Apple Silicon 芯片), 或 Linux。NVIDIA: 推荐使用 NVIDIA 显卡(RTX 系列为佳),显存 (VRAM) 最好在 8GB 或以上。这是 Windows 上运行 SD 性能最好的选择。 * 显卡 (GPU): * AMD: 也可以,但设置可能更复杂,且性能通常不如 NVIDIA。 * Apple Silicon (M系列芯片): 在 macOS 上性能优秀,

AI小说创作神器:5分钟快速部署本地自动写作平台

AI小说创作神器:5分钟快速部署本地自动写作平台 【免费下载链接】AI_NovelGenerator使用ai生成多章节的长篇小说,自动衔接上下文、伏笔 项目地址: https://gitcode.com/GitHub_Trending/ai/AI_NovelGenerator 还在为灵感枯竭而烦恼?想拥有一个能自动生成长篇小说的AI助手吗?今天就来教你如何在5分钟内搭建AI_NovelGenerator,开启AI辅助小说创作之旅。这款开源工具能够自动衔接上下文、埋设伏笔,让你的创作效率提升10倍! 🚀 环境准备:零基础也能轻松搞定 Python环境检查与安装 首先确保你的电脑已安装Python 3.9或更高版本。打开命令行输入以下命令检查Python版本: python --version 如果显示版本号低于3.9,请前往Python官网下载最新版本。推荐使用Python 3.10-3.12,这些版本兼容性最佳。 获取AI模型API密钥 你需要一个有效的API密钥来连接AI模型。支持多种服务商: * OpenAI系列(GPT-4、GPT-3.5等) * D

ComfyUI Manager终极指南:解锁AI绘画插件的无限潜能

ComfyUI Manager终极指南:解锁AI绘画插件的无限潜能 【免费下载链接】ComfyUI-Manager 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-Manager ComfyUI Manager作为AI绘画工作流的核心管理神器,彻底改变了用户与ComfyUI生态系统的交互方式。这款强大的插件管理工具不仅简化了自定义节点和模型文件的安装流程,更为创作者提供了前所未有的灵活性和控制力。 环境准备与快速部署 在开始使用ComfyUI Manager之前,确保你的系统环境符合以下标准: 基础配置要求: * 操作系统:Windows 10/11、macOS 10.15+、主流Linux发行版 * Python版本:3.8-3.11(推荐3.10) * 内存容量:最低8GB,推荐16GB以上 * 存储空间:预留2GB可用空间用于插件安装 一键安装流程: 1. 进入ComfyUI安装目录下的custom_nodes文件夹 2. 执行克隆命令:git clone