基于Zynq FPGA对雷龙SD NAND的测试

基于Zynq FPGA对雷龙SD NAND的测试

一、SD NAND 特征

1.1 SD 卡简介

雷龙的 SD NAND 有很多型号,在测试中使用的是 CSNP4GCR01-AMW 与 CSNP32GCR01-AOW。芯片是基于 NAND FLASH 和 SD 控制器实现的 SD 卡。具有强大的坏块管理和纠错功能,并且在意外掉电的情况下同样能保证数据的安全。

其特点如下:

  • 接口支持 SD2.0 2 线或 4 线;
  • 电压支持:2.7V-3.6V;
  • 默认模式: 可变时钟速率 0 - 25MHz,高达 12.5 MB/s 的接口速度 (使用 4 条并行数据线)
  • 高速模式: 可变时钟速率 0 - 50MHz,高达 25 MB/s 的接口速度 (使用 4 条并行数据线)
  • 工作温度:-40°C ~ +85°C
  • 存储温度:-55°C ~ +125°C
  • 待机电流小于 250uA
  • 修正内存字段错误;
  • 内容保护机制——符合 SDMI 最高安全标准
  • SDNAND 密码保护 (CMD42 - LOCK_UNLOCK)
  • 采用机械开关的写保护功能
  • 内置写保护功能 (永久和临时)
  • 应用程序特定命令
  • 舒适擦除机制

该 SD 卡支持 SDIO 读写和 SPI 读写,最高读写速度可达 25MB/s,实际读写速度要结合 MCU 和接口情况实测获得。通常在简单嵌入式系统并对读写速度要求不高的情况下,会使用 SPI 协议进行读写。但不管使用 SDIO 还是 SPI 都需要符合相关的协议规范,才能建立相应的文件系统;

1.2 SD 卡 Block 图

该 SD 卡封装为 LGA-8;引脚分配与定义如下;在这里插入图片描述:

image-20241106234505040

二、SD 卡样片

与样片同时寄来的还有转接板,转接板将 LGA-8 封装的芯片转接至 SD 卡封装,这样只需将转接板插入 SD 卡卡槽即可使用。

在这里插入图片描述:

image-20241106234515418

三、Zynq 测试平台搭建

  • 测试平台为 Xilinx 的 Zynq 7020 FPGA 芯片;
  • 板卡:Digilent Zybo Z7
  • Vivado 版本:2018.3
  • 文件系统:FATFS
  • SD 卡接口:SD2.0

3.1 测试流程

本次测试主要针对 4G 和 32G 两个不同容量的 SD 卡,在 Zynq FPGA 上搭建 SD 卡读写回路,从而对

Read more

别把 F1 开成老头乐:GitHub Copilot 深度调教与 7 个“上下文工程”秘籍

别把 F1 开成老头乐:GitHub Copilot 深度调教与 7 个“上下文工程”秘籍

别把 F1 开成老头乐:GitHub Copilot 深度调教与 7 个“上下文工程”秘籍 前言 很多开发者抱怨 Copilot 生成的代码是“垃圾”或“幻觉”。真相是:Copilot 是一辆 F1 赛车,而大多数人只把它当成了自动挡的老年代步车。 本指南将揭示 Copilot 不为人知的底层机制,教你通过“上下文工程” (Context Engineering),让 AI 写出精准、规范的生产级代码。 核心心智模型:Copilot 是怎么“思考”的? 在学习技巧前,你需要理解 Copilot 的大脑构造。它不是在瞎猜,它是在根据你喂给它的“上下文(Context)”计算概率。 Copilot 的上下文由三层组成:

边缘计算场景:将Llama Factory微调模型部署到Jetson设备

边缘计算场景:将Llama Factory微调模型部署到Jetson设备 在AI模型应用落地的过程中,许多IoT公司面临一个共同挑战:如何在边缘设备上高效运行经过微调的大语言模型?本文将详细介绍如何通过LLaMA-Factory框架完成模型微调,并将其部署到Jetson系列边缘设备,同时提供TensorRT转换和性能优化的完整解决方案。 为什么需要边缘部署微调模型? 随着大语言模型在IoT场景的应用深入,直接在云端运行模型面临三个核心问题: * 延迟敏感:工业控制、实时监控等场景要求毫秒级响应 * 数据隐私:敏感数据不希望离开本地设备 * 成本压力:长期使用云端GPU会产生高昂费用 Jetson设备作为边缘计算的代表硬件,具备以下优势: * 内置GPU加速核心 * 支持TensorRT推理优化 * 功耗低至5-15W * 提供完整的AI开发生态 云GPU环境下的模型微调 在将模型部署到边缘设备前,我们需要先在云GPU环境完成模型微调。LLaMA-Factory是目前最受欢迎的开源微调框架之一,支持多种微调方法和模型架构。 微调方法选择 根据显存限制

vs code 中内置的聊天是 GitHub Copilot Chat 吗

vs code 中内置的聊天是 GitHub Copilot Chat 吗

vs code 中内置的聊天是 GitHub Copilot Chat 吗 vs code 中内置的聊天要分情况讨论: 1. VS Code 内置的聊天(“Ask Cody”):不是 GitHub Copilot Chat VS Code 在 2023 年底(1.85 版本)引入了一个内置的聊天侧边栏,它的默认提供者是 VS Code 自己的 AI 助手 “Cody”。 * 这个功能是 VS Code 编辑器的一部分,图标通常是一个对话框气泡 💬。 * 它的目标是提供与编辑器深度集成的通用编程帮助,例如解释代码、生成代码、问答等。 * 它不一定与你的 GitHub Copilot 订阅绑定,即使你没有订阅

【文心智能体】使用文心一言来给智能体设计一段稳定调用工作流的提示词

【文心智能体】使用文心一言来给智能体设计一段稳定调用工作流的提示词

🌹欢迎来到《小5讲堂》🌹 🌹这是《文心智能体》系列文章,每篇文章将以博主理解的角度展开讲解。🌹 🌹温馨提示:博主能力有限,理解水平有限,若有不对之处望指正!🌹 目录 * 前言 * 智能体信息 * 名称 * 简介 * 人设 * 开场白 * 工作流 * 消息节点 * 文本处理节点 * 插件节点 * 图片消息节点 * 输出效果 * 小技巧 * 一、结构化框架设计 * 1. **角色定位+任务拆解** * 2. **四要素公式法** * 二、多轮对话优化 * 1. **分步骤引导** * 2. **示例参考法** * 三、细节强化技巧 * 1. **输出格式标准化** * 2. **专业术语与风格** * 四、避免常见误区 * 1. **模糊需求导致输出偏差** * 2. **过度复杂导致理解困难** * 相关文章