Vivado 使用教程

Vivado 使用教程

目录

一、创建工程

二、创建文件

三、编写代码

四、仿真验证

五、配置管脚

六、生成Bitstream文件并烧录

一、创建工程

1.左边创建(或打开)工程,右侧可以快速打开最近打开过的工程。

2.来到这一步,命名工程并设置工程的存放路径(这里以D触发器为例)

3.选择RTL点击next。会来到添加文件环节(可以在这里添加.v等文件,不过后面再添加是一样的)直接点击next

4.选择芯片型号(根据开发板选,这里随便选的)完成后点next会弹出信息概要,finish完成。

       

二、创建文件

完成上述步骤会进入当前界面:

1.工程管理器add sourse添加(创建)设计文件,创建文件后选择Verilog语言并命名。

2.定义端口(可选),若在这定义后,文件会自动生成端口定义的代码,比自己敲省时间更方便。

(端口没有说明类型即默认wire类型,可根据情况定义reg类型:“output reg q”)

         

3.设计文件创建完成

三、编写代码

1.代码以D触发器为例:

`timescale 1ns / 1ps //timescale 时间单位/精度 module dff( //D触发器 input wire clk, //时钟信号 input wire d, //输入信号 output reg q, //输出信号 output reg q_n //输出信号取反 ); always@(posedge clk) begin q <= d; q_n <= !d; end endmodule

2.保存后编译(Run Synthesls),再修改报错直到通过。

        图示两处都是编译。点击后来到右图点OK,Number of Jobs 即 CPU 工作线程数,这个与电脑配置有关,配置越高可选数量越多(下图二片标注有误忽略,应该是工作线程数,我忘记改了)。编译的报错可在massage里面查看,尤其注意 error。

四、仿真验证

1.编译成功后创建仿真文件并完成代码编写,参考“步骤二”中设计文件的创建:

( 需选择 “add or create simulate sourse” 

  test bench 代码如下:

`timescale 1ns / 1ps //timescale 时间单位/精度 module dff_tb( ); //仿真一般无端口列表 reg clk_sim; reg d_sim; wire q_sim; wire q_n_sim; always #10 clk_sim = ~clk_sim; //每10个时间单位对clk进行翻转,即周期为20个单位 initial begin clk_sim = 0; d_sim = 0; #20; //延时20个时间单位(20ns) d_sim = 1; #40; d_sim = 0; #100; $stop; //停止仿真 end dff dff( //模块例化: 原模块名----在顶层文件中命名为 .clk (clk_sim), //原模块端口名----要连接的端口名 .d (d_sim), .q (q_sim), .q_n (q_n_sim) ); endmodule

2.保存后编译(Run Synthesls),再修改报错直到通过。

3.波形仿真 点击Run Simulation

(注意1:当有多个tb文件时,选中要仿真的tb文件 右键设为"active")

(注意2:vivado仿真上限时间在tool-setting-simulation中设置,仿真波形不全看看是否不够)

波形如图,每当clk上升沿到来时q输出d的值,说明代码实现D触发器的功能无误。

五、配置管脚

1.Run implement(跑成功后会解锁Run simulation里最后两个禁用的仿真选项,一般也用不到)

2.跑完后点击上图Open Implement Design文字,再到状态栏点击Window - I/O Ports

分配引脚(分配过的Fixed栏会自动打勾),设置相关参数(通常I/O standar 为LVCOMS33)。

3.ctrl+s保存,并完成命名后OK会生成XDC约束文件,约束文件打开位置见图二

六、生成Bitstream文件并烧录

1.生成bit流文件

2.如图示步骤点击,自动连接硬件,确保开发板已连接且通电否则识别不到。

3.烧录:连接开发板后会在这里出现芯片型号(对应新建工程时选择的型号),右键型号后点击“Program Device”再点Program烧录。

Read more

Llama-3.2-3B部署案例:Ollama镜像免配置+Mac M1/M2芯片原生运行实测

Llama-3.2-3B部署案例:Ollama镜像免配置+Mac M1/M2芯片原生运行实测 想在Mac上快速体验最新的大语言模型?Llama-3.2-3B配合Ollama镜像,让你5分钟内就能开始与AI对话,无需任何复杂配置。 作为一名长期在Mac上折腾AI模型的技术爱好者,我最头疼的就是环境配置和依赖问题。每次看到"只需简单几步"的教程,结果往往需要安装一堆库、解决各种兼容性问题。 直到遇到了Ollama版的Llama-3.2-3B镜像,我才真正体验到了什么叫"开箱即用"。特别是对Mac M1/M2用户来说,这个镜像做了原生优化,不需要通过Rosetta转译,性能直接拉满。 1. Llama-3.2-3B模型简介 Llama 3.2是Meta最新推出的轻量级大语言模型系列,包含1B和3B两个版本。我这次实测的3B版本虽然在参数规模上不算巨大,但在多语言对话场景下的表现相当惊艳。 1.1 核心特点 这个模型专门针对多语言对话进行了优化,无论是中文、英文还是其他语言,都能保持不错的对话流畅度。我在测试中发现,它在理解用户意图和生成连贯回复方面,

AIGC-Fooocus部署实践:从本地手动配置到云端一键启用的深度剖析

AIGC-Fooocus部署实践:从本地手动配置到云端一键启用的深度剖析

摘要: 本文旨在为人工智能生成内容(AIGC)领域的爱好者和开发者提供一份详尽的Fooocus部署指南。Fooocus作为一款基于Gradio的开源图像生成软件,凭借其简化的操作和高质量的输出,受到了广泛关注。我们将通过两种截然不同的部署路径——传统的本地手动环境配置与现代化的云平台一键部署——来全面探索Fooocus的落地过程。本文将深入剖析手动部署中的每一个步骤、每一条命令及其背后的技术逻辑,详细记录可能遇到的环境冲突与解决方案,并将其与云端部署的流畅体验进行客观对比,为读者在不同场景下选择最合适的部署策略提供坚实的技术参考。 第一章:引言——Fooocus与AIGC部署的挑战 随着Stable Diffusion等底层模型的开源,AIGC技术,特别是文生图领域,迎来了爆发式的增长。各种应用和WebUI层出不穷,极大地降低了普通用户接触和使用前沿AI模型的门槛。在众多工具中,由lllyasviel(ControlNet的作者)开发的Fooocus,以其独特的哲学脱颖而出。Fooocus的设计理念是“化繁为简”,它在保留Stable Diffusion XL(SDXL)强大能力的

2026年高薪就业赛道揭晓:AI大数据、大模型、AIGC与云计算,错过等五年!

2026年高薪就业赛道揭晓:AI大数据、大模型、AIGC与云计算,错过等五年!

2026年最好的就业赛道——AI大数据、大模型、云计算与AIGC 2026年的春招市场,只有两种人:懂AI的,和羡慕懂AI的。 春节刚过,当大多数人还沉浸在节日的余温中时,招聘市场已经迎来了“开门红”。据智联招聘数据显示,正月初八活跃职位数跃升至除夕的7倍 。而在这一轮招聘热潮中,一个 明显的赢家赛道已然清晰:以人工智能为代表的新质生产力。 如果你还在为“什么专业好就业”而焦虑,或者正在考虑职业转型,那么今年的市场数据给出了极其明确的指向:AI大数据、大模型、AIGC与云计算,正是当下乃至未来五年的黄金赛道。 一、AI人才“一将难求”:岗位暴涨12倍,平均月薪超6万 2026年的AI人才市场有多火?一组数据足以说明问题。 职场社区平台脉脉发布的《2026年1-2月中高端人才求职招聘洞察》显示,今年前两个月,AI岗位数量同比增长了惊人的12倍,其在新经济行业中的岗位占比从去年同期的2.29%飙升至 26.23% 。 与其相对应的是令人艳羡的薪资水平。AI新发岗位的平均月薪达到 60,738元,比新经济行业平均水平高出约26% 。其中,