FPGA小白学习日志二:利用LED实现2选1多路选择器

  在上一篇文章中,主播利用炒菜的比喻帮大家介绍了LED工程的建立,所以在读这一篇文章前,大家可以简要回顾以下LED工程的建立流程。本篇内容,主播主要向大家介绍数据选择器工程的实现方法。

  在开始之前,我们先来了解一下数据选择器是什么:所谓数据选择器,就是从多个输入的逻辑信号中选择一个逻辑信号输出,实现数据选择功能的逻辑电路就是数据选择器。我们用来打个比方,现在我们手中有两张电影票A和B,但这时我们是不知道到底哪张电影票是允许我们进入电影院的,这时候我们就要去问检票员,检票员说A,那就可以进;否则,B就可以进。通过这个比喻,我们就能理解数据选择器的大体思路了:这里的电影票A与B就相当于输入信号in1与in2,检票员就相当于数据选择信号sel(英文select),电影院就相当于输出信号out,注意这里的输出信号out只有一个。因此,我们就可以在Visio中设计出2-1数据选择器:

                           

  同样,我们给出2-1数据选择器的真值表:

            

  我们来分析以下这个真值表:当选择信号sel为0时,对应输入信号in1的通道开启,此时,无论输入信号in2怎么取值,输出信号out永远与输入信号in1相同。那反过来讲,选择信号sel为1时,对应输入信号in2的通道开启,此时,无论输入信号in1怎么取值,输出信号out永远与输入信号in2相同。

  接下来,我们新建工程,具体的步骤在上一章有讲,这里我们就不说了。我们来看看用Verilog语言怎么实现2-1数据选择器:

                            

  我们来分析一下这段代码的语法,in1、in2、sel信号前面都有加“wire”,而out前面却加了“reg”,那么wire和reg到底是什么,他们起什么作用呢?这里主播查阅了锆石科技的《HELLO FPGA》文档:reg和wire都是数据类型,其中reg是寄存器类型,wire是连线型类型。这里主播再打个比方,wire相当于导线,他只能传递信号,但不能记住信号,所以输入信号要使用wire类型;而reg相当于寄存器,他能够记住输入信号,而在always@(*)模块中,我们的输出信号out要持续循环“sel =1 →out = in2,sel =0 →out = in1”这个逻辑进程,所以输出信号就要使用reg寄存器类型,他不断记住输入信号,又根据逻辑进程不断输出信号。

  解释完了代码,我们就来打开RTL视图,验证电路的正确性:

                  

  可以看出,RTL视图和我们在Visio中的设计完全一样。接着我们再来仿真,具体的仿真步骤主播就不说了,这里直接放波形图进行分析;

   我们取第一组红线内的波形图:

  在这组红线内的波形图中,sel信号恒为0,无论in2信号怎么变(输入信号in2从1-0-1),输出信号out波形图是不是恒等于输入信号in1。

  再取第二组分析:

  此时在这组红线内的波形图中,sel信号恒为1,无论in1信号怎么变,输出信号out波形图是不是恒等于输入信号in2了。

  举了这两组的例子,相信大家不仅能会分析波形了,也能从波形图中验证我们RTL视图的正确性。大家有时间呢也可以自己做一下仿真取不同情况分析。不过主播在这里要提醒大家一句啊,在进行仿真前,大家打开“Assignment--Settings”的时候,尤其是“Tool name”选项卡中,一定要注意我们选的是“Modelsim”而不是“Modelsim-Altera”:

  不然就会出现“Can'tIaunchtheModelSim-Alterasoftware”报错:

              

  仿真完之后呢我们就要去分配引脚了,在上一篇文章呢,主播在引脚分配这里出错了,这里就回归到原理图带大家一起读引脚。首先我们打开官方EP4C最小系统板的原理图,找到按键引脚分配图:

                          

  图中我们可以看出,KEY1按键被分配到pin90引脚,KEY2按键被分配到pin89引脚,RESET按键被分配到pin88引脚。由于本工程中我们需要用到3个信号,这里我们就把KEY1按键发出的信号标记为输入信号in1,KEY2按键发出的信号标记为输入信号in2,RESET按键发出的信号标记为选择信号sel。

  再来看LED引脚分配图:

   

  LED0被分配到IO_73引脚,LED1被分配到IO_75引脚,LED2被分配到IO_74引脚。这里我们就选择LED1,将其作为输出信号out。但是我们在引脚分配的页面是找不到IO_75引脚的,这时候我们找到U5-5模块,找到IO_75引脚对应的pin75:

                        

  这样我们的引脚就配置好了:

                                 

  大家注意,在分配好引脚以后呢,还要对未使用管脚进行设置,一定一定要记得烧录到板子之前要进行一次全编译,这不仅是在提醒大家,也是在提醒主播。最后呢我们就来看一下效果图:       

  不按RESET按键时,sel信号持续为0,此时按与不按KEY1,LED1是没有任何反应的,那么按下KEY2,LED1亮,松开KEY2, LED1不亮。

                                         

  长按RESET按键时,sel信号持续为1,此时按与不按KEY2,LED1是没有任何反应的,那么按下KEY1,LED1亮,松开KEY1, LED1不亮。

                                       

  好了,以上这就是本篇文章的所有内容了,还请大家多多支持主播!

Read more

Pycharm中Github Copilot插件安装与配置全攻略(2023最新版)

PyCharm中GitHub Copilot:从安装到实战的深度配置指南 如果你是一位Python开发者,最近可能已经被各种关于AI编程助手的讨论所包围。GitHub Copilot,这个由GitHub和OpenAI联手打造的“结对编程”伙伴,已经不再是科技新闻里的概念,而是实实在在地进入了我们的开发工作流。特别是在PyCharm这样的专业IDE中,Copilot的集成能带来怎样的化学反应?是效率的倍增,还是全新的编码体验?这篇文章,我将从一个深度使用者的角度,带你走完从零安装到高效实战的全过程,并分享一些官方文档里不会告诉你的配置技巧和实战心得。 1. 环境准备与账号激活:迈出第一步 在开始安装插件之前,我们需要确保两件事:一个可用的GitHub Copilot订阅,以及一个正确版本的PyCharm IDE。很多人第一步就卡在了这里。 首先,关于订阅。GitHub Copilot提供个人和商业两种订阅计划。对于个人开发者,尤其是学生和开源项目维护者,GitHub有相应的优惠甚至免费政策。你需要一个GitHub账号,并前往 GitHub Copilot 官方页面 进行注册和订

AI写作大师Qwen3-4B实战:技术博客自动写作系统

AI写作大师Qwen3-4B实战:技术博客自动写作系统 1. 引言 1.1 业务场景描述 在内容创作领域,尤其是技术类博客的撰写过程中,作者常常面临选题困难、结构混乱、表达不精准等问题。高质量的技术文章不仅要求逻辑严密、术语准确,还需具备良好的可读性和实用性。传统人工写作方式耗时耗力,难以满足高频输出需求。 随着大语言模型(LLM)的发展,AI辅助写作已成为提升内容生产效率的重要手段。然而,许多轻量级模型在复杂任务上表现乏力,无法胜任长篇幅、高逻辑性的技术文章生成任务。如何构建一个既能保证输出质量,又能在普通硬件环境下稳定运行的AI写作系统,成为实际落地的关键挑战。 1.2 痛点分析 当前主流的AI写作工具普遍存在以下问题: * 模型能力不足:参数量较小的模型(如0.5B级别)在理解复杂指令和生成连贯长文本方面表现不佳。 * 依赖GPU资源:多数高性能模型需要GPU支持,限制了其在个人电脑或低成本服务器上的部署。 * 交互体验差:缺乏友好的用户界面,导致非技术人员难以使用。 * 输出格式不规范:生成内容常缺少结构化排版,难以直接发布。 1.3 方案预告 本文

VSCode Copilot无法连接网络的解决过程

`VSCode Copilot无法连接网络的解决过程` * 描述 * 解决 * 把settings里的这个Use Local Proxy Configuration关掉就好了 描述 安装WSL后莫名其妙出现:GitHub Copilot Chat Plugin Not Connecting to Network 参考了GitHub:无法连接Issue描述 解决 ctrl+shift+p, 运行F1 > Developer: GitHub Copilot Chat Diagnostics,确信是代理(proxy)的问题 把settings里的这个Use Local Proxy Configuration关掉就好了 也顺便关闭了其他proxy设置: 原因猜测:本地windows开了代理,被WSL复用本地设置,可是原代理端口和WSL代理端口不一致或者已被占用,或者因为WSL上没有实际运行代理程序,导致WSL系统ping不通代理的IP

Llama Factory商业应用:快速打造行业专属的智能客服原型

Llama Factory商业应用:快速打造行业专属的智能客服原型 作为一名技术爱好者,最近我尝试用Llama Factory为一家电商公司搭建智能客服原型,整个过程出乎意料地高效。本文将分享如何利用这一工具快速构建针对商品咨询场景优化的对话模型,即使你是AI新手也能轻松上手。 这类任务通常需要GPU环境支持,目前ZEEKLOG算力平台提供了包含Llama Factory的预置镜像,可快速部署验证。下面我会从环境准备到模型部署,一步步带你完成全流程。 为什么选择Llama Factory? Llama Factory是一个开源的低代码大模型微调框架,特别适合快速构建行业专属的对话系统。它的核心优势包括: * 零代码可视化操作:通过Web界面即可完成模型微调,无需编写复杂代码 * 多模型支持:兼容LLaMA、Qwen、ChatGLM等主流大模型 * 高效微调:支持LoRA等轻量化微调技术,显著降低显存需求 * 商业友好:Apache 2.0协议,可自由用于商业场景 对于电商客服场景,我们主要利用其指令微调功能,让模型理解商品参数、退换货政策等专业领域知识。 环境