【正点原子FPGA学习日记】DAY1:FPGA简介及开发流程

使用正点原子的达芬奇板作为学习使用,文章内容是对正点原子开发指南的整理,仅做回顾学习使用,侵删。

FPGA简介

1,FPGA中文名:现场可编程门阵列

        其中现场指其可重复写入,门阵列指其根据查找表输出,可编程则是FPGA与CPU之间最主要的区别,能够改变逻辑门单元之间的硬件逻辑。

2,FPGA内部结构

        FPGA 由许多“可配置逻辑模块”(Configurable Logic Block,CLB)、输入/输出单元(I/O Block,IOB)和分布式的可编程互联矩阵(Programmable Interconnection Matrix,PIM)组成。

3,CPU、DSP 和 FPGA 的区别

CPU 具有比较强的事务管理功能,可以用来跑 UI 以及应用程序,CPU 优点主要在于擅长控制DSP 主要是来做计算,例如加解密算法,调制解调等,其优势是强大的数据处理能力和较高的运行速度。FPGA主要使用 Verilog 进行编程,灵活性强,并行处理度高,可编程,可以做到很高的带宽处理。


FPGA开发流程

本文将以点亮led灯为例,梳理fpga的开发流程

        标准的FPGA开发流程如下图所示:

0,FPGA工程管理
doc:用来存放辅助文档,如波形图,系统框图等prj:用来新建工程及产生的文件rtl:开发过程中使用notpad++产生的.v格式的rtl文件sim:仿真工程与仿真文件,内部通常还有一个tb文件夹
1,需求分析

        点亮led灯是使用达芬奇板上的按键key0来控制led0灯的亮灭。

        当按键按下,led灯被点亮,按键松开,led灯熄灭。

        通过查询开发板原理图,得到led灯的亮灭逻辑,即led0高电平点亮,反之熄灭。

        按键默认是高电平,按键被按下是低电平:想要实现需求,实际要对led和key做取反~操作

2,系统设计

        由于本实验过于简单,只有一个模块,输入端口为key0,输出端口为led0,因此不需要进行模块划分。

3,硬件选型

        按理应当选用合适规模和性能的fpga芯片进行工作,本文中只能选用达芬奇。

4,绘制系统框图

        根据系统设计的结果使用Viso软件设计系统框图:

        这里绿色框的led,指的是实验名称,key指输入端口,led指输出端口。

5,绘制波形图

        led效果图如下:

        根据效果图绘制波形图(通常输入为绿色,输出为红色):

6,编写rtl代码
        使用notepad++新建一个led.v文件,并存放在rtl文件夹中;

        这里的module指令相当与c中的函数指令,input key和output led相当于函数中的值;

        其中assign led =~key;才是主代码,只是做一个取反操作;
7,软件仿真tb

         使用modelsim软件对rtl代码进行仿真之前,需要编写实验对应的仿真文件(TestBench)。

TestBench 是用于验证功能模块的设计是否符合预期,其内容主要分为以下三个步骤:        1、 向被测功能模块的输入接口添加激励;//给输入接口一个信号        2、 对被测功能模块的顶层接口进行信号例化;        3、 判断被测功能模块的输出是否满足设计预期//判断是否可用

       所谓testbench可以理解成只通过看波形图来判断程序有没有生效使用,与真正的led.v程序使得亮灯不同,后者能通过按键和灯之间的亮灭来判断程序是否可用;

        在sim文件夹中的tb文件夹,新建一个tb_led.v文件,使用notepad++打开,

1)定义仿真单位:第 1 行代码定义的是仿真单位是 1ns,例如 TB 模块中第 16、18、20、22 行代码使用了延迟语句,第 16 行代码“#200”就是延迟 200ns2)定义输入与输出:一般输入信号定义为寄存器类型(reg),一般输出信号定义为线型(wire)。第 6行代码是定义了一位寄存器类型 key 输入,第 9 行代码是定义了一位线型 led 输出3)输入信号初始化:第 13 行代码是一位按键输入的初始化。因为板载按键默认为高电平,所以初始化时我们给按键赋值高电平。4)给输入信号赋值:第 16 行到第 23 行的代码是结合延迟语句给输入按键赋不同的值。第 16 行到第23 行的代码的功能是模拟按键被按下和被释放。5)例化 led 模块:第 27 行到第 30 行代码是例化点亮 LED 模块。通过例化 led 模块,我们 TB 模块编写的激励就可以传递到待测模块进行仿真。

        1,使用modelsim软件在sim文件夹中创建tb_led.prj工程

       2, 通过add files,添加rtl中的led.v和sim—tb中的tb_led.v进入该prj文件中

       3, 然后点击compile选项卡中的compile all编译所有文件,所有文件显示√即完成

        4,点击simulation选项卡中的start simulation

        5,查看波形图是否符合要求

        点击u_led选择add wave选项。

通过将仿真的结果与我们绘制的波形图对比,可以看到两者波形一致,验证我们编写的代码功能是正确的。如果两者波形不一致,则说明我们编写的代码不能正确实现我们设计的功能,此时就需要对代码进行修改,直至仿真的结果与我们绘制的波形图一致。
8,新建工程

        在vivado软件中,新建project文件,取名为led。文件地址为prj文件夹;并选择rtl工程类型;

取消默认勾选了“Create project subdirectory”选项是因为如果勾选了该选项,Vivado 会在所选工程目录下自动创建一个与工程名同名的文件夹

        添加完文件之后,选择开发板芯片型号,这也是不同芯片在该教程中唯一不同的一部分;

9,分析与综合
综合(Synthesis)就是将 RTL 设计转变为由 FPGA 器件中的查 找表(LUT)、触发器(FF)等各种底层电路单元所组成的网表,在这个过程中综合器也会对设计进行优化,例如删除多余的逻辑等等。类似c语言中的编译操作

        如果没有报错,点击原理图界面,之后便可以进行引脚约束

10,约束输入
约束表达了设计者期望满足的时序要求,规范了设计的时行为,并在综合、实现阶段来指导工具进行布局、布线,工具会按照你的约束尽量去努力实现以满足时序要求,并在时序报告中给出结果。常用的约束包括时序约束、引脚约束等等。

        查找手册得知key0和led0的管脚和电平标准,填入表格后,ctlr s保存xdc文件

        xdc文件即引脚约束文件

        最后对代码进行综合;

        通常选择第二个
11,设计实现
12,下载验证及调试
比特流文件即下载验证文件

        首先生成比特流文件,generate bitstream

        连接下载器:

自动查找比特流文件,如果自动找不到,通常在led.runs/imp_1

        点击program,即下载到板子

        注意这里只能单次使用,一旦断电之后就会记忆消失
13,程序固化

第一步:在xdc约束文件中,新增spi设置文件(正点原子的xdc文件中最后一行)

第二部:生成mcs文件(有其他两种文件同样能达到这样的效果)

第三步:添加flash

MCS的文件位置,与bit文件位置相同

Read more

llama.cpp终极内存优化指南:让大模型推理性能飙升200%

llama.cpp终极内存优化指南:让大模型推理性能飙升200% 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 在资源受限环境下运行大型语言模型时,内存管理往往成为制约性能的关键瓶颈。llama.cpp作为C/C++实现的LLaMA模型移植项目,通过创新的内存池架构从根本上解决了这一挑战。本文将深入解析其内存优化策略,为技术决策者和架构师提供完整的性能调优方案。 从内存碎片化到高效推理的技术演进 传统动态内存分配在大模型推理场景下面临严峻挑战:频繁的malloc/free操作导致内存碎片化严重,KV缓存的持续分配与释放直接拖累推理速度。llama.cpp采用预分配与复用机制的革命性思路,在模型启动时根据参数分配连续内存块,通过状态标记实现内存块的循环利用。 图:矩阵乘法中行优先与列优先存储方式对内存访问模式的影响 架构设计哲学:分层抽象与统一接口 llama.cpp的内存管理体系建立在三个关键

2026 AI 编码工具终局对决:Claude Code、Cursor、GitHub Copilot 全维度拆解与最优选型指南

2026 AI 编码工具终局对决:Claude Code、Cursor、GitHub Copilot 全维度拆解与最优选型指南

2026 年,AI 编码已经彻底完成了从 “可选加分项” 到 “开发者刚需” 的全面渗透。行业数据给出了最直观的印证:95% 的开发者每周都会使用 AI 编码工具,75% 的开发者已经用 AI 完成了 50% 以上的编码工作。但与极高渗透率形成鲜明反差的是,绝大多数开发者都选错了适配自身工作流的工具 —— 很多人依然在跟风使用大众普及度最高的产品,却忽略了不同工具背后完全不同的设计哲学、能力边界与适用场景。 从 2021 年 GitHub Copilot 上线开启 AI 编码 1.0 时代,到 2026 年 AI 编码已经从 “单行代码补全” 进化到 “全流程自主工程化”,赛道已经形成了三大头部产品的三分天下格局:Anthropic 推出的 Claude Code、Anysphere 打造的

在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)

在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)

Mac Mini M4 配备了苹果自家研发的 M1/M2/M4 芯片,具有强大的处理能力,能够支持本地跑一些大模型,尤其是在使用如 Ollama、Llama、ComfyUI 和 Stable Diffusion 这类 AI 相关工具时,性能表现非常好。本教程将指导你如何在 Mac Mini M4 上本地部署并运行这些大模型,涵盖从环境搭建到使用的全流程。 一、准备工作 1. 确保系统更新 确保你的 macOS 版本已更新到最新的版本(例如 macOS 13.0 以上),这将确保兼容性和性能。 安装 Homebrew(macOS 包管理工具) Homebrew 是 macOS 上非常流行的包管理工具,它帮助你方便地安装各种软件。在终端中输入以下命令来安装

【GitHub Copilot】Figma MCP还原设计稿生成前端代码

【GitHub Copilot】Figma MCP还原设计稿生成前端代码

这里写自定义目录标题 * Step1:让AI给你配置MCP * Step2:替换成自己的Figma密钥 * Step3:如何使用 Cursor+Figma MCP的教程已经很多了,由于我所在的公司采购的是GitHub Copilot,我研究了一下直接在vscode里利用GitHub Copilot接入Figma MCP进行设计稿还原代码,大获成功,这里分享我的步骤,希望能帮到你。 Step1:让AI给你配置MCP 在vscode中打开你的项目(我的例子是一个微信小程序),呼出github copilot对话框,模式选择Agent,模型建议Claude 3.7 Sonnet,提问: https://github.com/GLips/Figma-Context-MCP 如何配置能让你在vscode里使用这个mcp 之后跟着提示狂点下一步即可完成配置,如果有什么需要装的vscode插件它会自动帮你装,甚至自动生成了配置说明文档。 由于不能保证AI每次生成的答案都一致,这里附上我的运行结果作为参考,可以看到它在项目文件夹最外层建了一个.vscode文件夹,在sett