XIlinx FPGA使用LVDS的电源与电平关键指南

XIlinx FPGA使用LVDS的电源与电平关键指南

针对 7 Series, UltraScale, UltraScale+ FPGAs 以及 MPSoC 器件使用 LVDS 的注意事项:

1. 适用范围

  • 器件系列:7 Series, UltraScale, UltraScale+, Zynq UltraScale+ MPSoC。
  • 涉及 IO 类型:High Performance (HP) Banks, High Range (HR) Banks, High Density (HD) Banks。

2. 电源电压 (VCCO) 与 输入/输出 的限制

这是该指南的核心内容,根据 Bank 类型和是用作输入还是输出,规则有所不同:

A. LVDS 输出 (Outputs)
  • 严格的电压要求:LVDS 输出驱动器对 Bank 电压(VCCO)有严格要求,必须匹配标准电压。
    • HP Banks (LVDS): VCCO 必须为 1.8V
    • HR/HD Banks (LVDS_25): VCCO 必须为 2.5V
  • 不支持 3.3V 输出:这些器件不支持LVDS_33 标准。你不能在 VCCO 为 3.3V 的 Bank 中使用 LVDS 输出。
B. LVDS 输入 (Inputs)
  • 宽松的电压要求:输入端的 VCCO 电压要求相对宽松,可以不完全匹配标准电压,但有前提条件。
    • HP Banks: 即使 VCCO 不是 1.8V,也可以使用 LVDS 输入。
    • HR/HD Banks: 即使 VCCO 不是 2.5V,也可以使用 LVDS_25 输入。
  • 关键限制 (Termination)
    • 如果在 VCCO 电压不匹配的情况下使用 LVDS 输入(例如在 2.5V 或 3.3V 的 Bank 中接收 1.8V LVDS 信号,或在非 2.5V Bank 接收 LVDS_25),必须将 DIFF_TERM 属性设置为 FALSE
    • 这意味着你不能使用片内终端电阻,必须在 PCB 上使用外部差分终端电阻(通常为 100Ω)。

3. 电气参数合规性 (Signal Integrity)

无论 VCCO 如何连接,必须确保驱动端的信号电平满足 FPGA 接收端的规范(参考具体器件的数据手册 Data Sheet):

  • VOD (差分输出电压) & VOCM (共模输出电压):驱动芯片的输出必须落在 FPGA 接收端的 VIDIFFVICM 允许范围内。
  • VIN (输入电压范围):输入信号的绝对电压电平不能超过 Data Sheet 中规定的 VIN 绝对最大额定值(通常与 VCCO 相关,需注意过压风险)。

4. 关于 “LVDS_33” 的特别说明

  • 无原生支持:现代 Xilinx FPGA(7系列及以后)没有 LVDS_33 I/O 标准。
  • 兼容性设计:如果需要连接旧款 FPGA 或其他芯片的 3.3V LVDS 信号:
    • 作为输出:FPGA 无法直接产生 3.3V 供电的 LVDS 信号。
    • 作为输入:只要信号电平(VOD, VOCM)满足 FPGA 接收端的要求,且不超过 Bank 的输入电压容限,通常可以接收。但务必注意共模电压和摆幅是否在 FPGA 允许范围内,并使用外部端接。

5. 双向 LVDS (Bidirectional)

  • 必须同时满足输入和输出的限制。因此,对于双向 LVDS 信号,Bank 的 VCCO 必须严格设置为对应的标准电压(HP Bank 为 1.8V,HR Bank 为 2.5V),且不能利用输入的宽电压容限特性。

总结检查清单 (Checklist)

  1. 确认 Bank 类型:是 HP、HR 还是 HD?
  2. 确认方向:是仅输入、仅输出还是双向?
  3. 检查 VCCO
    • 输出/双向 -> 必须严格匹配 (HP=1.8V, HR=2.5V)。
    • 仅输入 -> 若 VCCO 不匹配,必须禁用内部匹配 (DIFF_TERM = FALSE) 并使用外部电阻。
  4. 检查电平:对照 Data Sheet 检查驱动端的 VOD/VOCM 是否在接收端的 VIDIFF/VICM 范围内。

Read more

【AI】学习大语言模型原理必看的 10 篇论文

【AI】学习大语言模型原理必看的 10 篇论文

🔥小龙报:个人主页 🎬作者简介:C++研发,嵌入式,机器人等方向学习者 ❄️个人专栏:《AI》 ✨ 永远相信美好的事情即将发生 文章目录 * 前言 * 一、Transformer * 二、GPT-3 * 三、InstructGPT * 四、Sparrow * 五、RLHF * 六、TATAMER * 七、PPO * 八、In-Context Learning * 8.1 Why Can GPT Learn In-Context * 8.2 What learning algorithm is in-context learning * 九、Prompt * 总结 前言 从 Transformer

3D效果:HTML5 WebGL结合AI实现智能3D场景渲染

3D效果:HTML5 WebGL结合AI实现智能3D场景渲染 📝 本章学习目标:本章聚焦高级主题,帮助读者掌握工程化开发能力。通过本章学习,你将全面掌握"3D效果:HTML5 WebGL结合AI实现智能3D场景渲染"这一核心主题。 一、引言:为什么这个话题如此重要 在前端技术快速发展的今天,3D效果:HTML5 WebGL结合AI实现智能3D场景渲染已经成为每个前端开发者必须掌握的核心技能。HTML5作为现代Web开发的基石,与AI技术的深度融合正在重新定义前端开发的边界和可能性。 1.1 背景与意义 💡 核心认知:HTML5与AI的结合,让前端开发从"静态展示"进化为"智能交互"。这种变革不仅提升了用户体验,更开辟了前端开发的新范式。 从2020年TensorFlow.js的成熟,到如今AI辅助开发工具的普及,前端开发正在经历一场智能化革命。据统计,超过70%的前端项目已经开始尝试集成AI能力,AI辅助前端开发工具的市场规模已突破十亿美元。 1.2 本章结构概览 为了帮助读者系统性地掌握本章内容,

别再贴字幕了!Naiz AI:从语义到像素,全链路重构你的“数字孪生”

别再贴字幕了!Naiz AI:从语义到像素,全链路重构你的“数字孪生”

Naiz AI:打破语言边界,正在重新定义“全球视频内容”的表达主权 当传统翻译还在为对齐字幕发愁时,Naiz AI 已经让你的视频在 100 种语言里不仅“说得溜”,还实现了“口型完美同步”:你的声音,在全球任何角落听起来都像母语。 一、一场让内容创作边界消失的“技术海啸” 2026 年,视频创作领域迎来了一场前所未有的范式转移。如果说过去的视频出海是“戴着枷锁起舞”,那么 Naiz AI 的出现就是彻底打碎了那把名为“语言”的锁。 这不是简单的翻译工具,这是一个现象级的全球表达引擎: * 📈 爆发式增长: 仅仅数月,Naiz AI 处理的视频时长已跨越百万小时,将原本昂贵的专业人工配音周期从“周”缩短到了“分钟”。 * 🌟 顶级创作者的共同选择: 无论是追求极致音质的 YouTube 科技博主,还是需要跨国协作的顶级智库,Naiz AI 的

Flutter 三方库 mediapipe_core 的鸿蒙化适配指南 - 实现高性能的端侧 AI 推理库集成、支持多维视觉任务与手势/表情识别实战

Flutter 三方库 mediapipe_core 的鸿蒙化适配指南 - 实现高性能的端侧 AI 推理库集成、支持多维视觉任务与手势/表情识别实战

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 mediapipe_core 的鸿蒙化适配指南 - 实现高性能的端侧 AI 推理库集成、支持多维视觉任务与手势/表情识别实战 前言 在进行 Flutter for OpenHarmony 的智能化应用开发时,集成强大的机器学习(ML)能力是打造差异化体验的关键。mediapipe_core 是谷歌 MediaPipe 框架在 Dart 侧的核心封装库。它能让你在鸿蒙真机上实现极其流畅的人脸检测、手势追踪以及实时姿态估计。本文将深入探讨如何在鸿蒙系统下构建低功耗、高响应的端侧 AI 推理链路。 一、原原理性解析 / 概念介绍 1.1 基础原理 mediapipe_core 作为 MediaPipe 的“神经中枢”