WiFi模块AT指令全解析和智能家居APP制作

1.WiFi的常用AT指令顺序:

1):AT+RST---模块重启指令

2):AT+CWMODE---设置工作模式

      

  1. STA(Station,工作站)模式,在此模式下,WiFi模块可以接入附近其他的网络。
  2. AP(路由器)模式,在此模式下,WiFi可以主动建立一个网络(类似于手机开设热点)。
  3. AP+STA 混合模式,类似于手机既连入附近的路由器,也自己开热点。示例:AT+CWMODE=1

3)AT+CWJAP="K80","123123123"---连接附近的路由器:

     若成功连接,出现

      

4)AT+CWQAP---WIFI模块断开与路由器的连接

      通常WIFI端口连接后,会提示

     

5) AT+CIPSTART---WiFi模块连接服务器

      该指令需要3个参数:依次是 传输层协议、域名(俗称网址)/IP地址、 端口号.

      示例:

      AT+CIPSTART="TCP","www.baidu.com",443

6) AT+CIPCLOSE---关闭与服务器的连接

      示例:

     AT+CIPCLOSE

7) AT+CIPMODE---让WiFi工作在透传模式

      示例:

     AT+CIPMODE=1

     什么是透传模式?

在透传模式下:1.单片机/电脑发送WiFi数据,直接传送给服务器。

                         2. 服务器发送给WIFI数据,直接传送给单片机/电脑
  &n

Read more

ClawdBot开源应用:MIT协议下二次开发Telegram多平台机器人

ClawdBot开源应用:MIT协议下二次开发Telegram多平台机器人 1. ClawdBot是什么:你的本地AI助手,不止于聊天 ClawdBot不是另一个云端API调用工具,而是一个真正属于你、运行在你设备上的个人AI助手。它不依赖外部服务即可完成推理、对话、文件处理等核心任务,所有数据默认留在本地,隐私由你自己掌控。 它采用模块化架构设计,后端模型能力由vLLM提供——这意味着你能享受到接近原生GPU性能的高效推理体验,同时支持Qwen3-4B-Instruct等主流开源模型的即插即用。无论是树莓派4、NUC迷你主机,还是带显卡的台式机,只要满足基础硬件要求(2GB显存+8GB内存),就能跑起来。 更关键的是,ClawdBot从诞生之初就定位为“可深度定制的AI网关”。它不预设使用场景,而是把控制权交还给开发者:你可以把它变成客服中台、知识库入口、自动化办公代理,甚至嵌入到自己的SaaS产品中作为智能增强模块。MIT协议的加持,让这种自由没有法律边界——商用、闭源、再分发,全部允许。 它不像某些“一键部署”工具那样隐藏所有细节,反而鼓励你打开配置文件、修改JSON

Vivado IP核实现LVDS高速通信:从零实现方案

从零构建LVDS高速通信链路:基于Vivado IP核的实战指南 你有没有遇到过这样的场景? 项目急着要验证一个高速ADC的数据采集能力,传感器通过LVDS接口输出1.2 Gbps的原始数据流,而你的FPGA板子却频频丢帧、采样错乱。示波器上看眼图闭合严重,ILA抓出来的数据跳变无序——问题到底出在哪儿? 是PCB走线不匹配?时钟相位没对齐?还是FPGA内部采样逻辑写错了? 别急。今天我们就来 手把手实现一套稳定可靠的LVDS高速通信系统 ,全程基于Xilinx Vivado官方IP核和SelectIO原语,不依赖任何第三方模块或黑盒代码。整个过程不需要你精通SerDes硬核原理,也不用啃IBIS模型,但能让你真正理解“为什么这样接就通了”。 一、为什么选LVDS?它真的适合我的项目吗? 先说结论:如果你的应用涉及 中高带宽(>100 Mbps)、长距离传输(>15 cm)、抗干扰要求高 ,那么LVDS几乎是绕不开的选择。 它强在哪? 特性 对比传统CMOS 工作电压 ~350mV差分摆幅 功耗 恒流驱动,功耗低 EMI辐射

论文阅读笔记(一):《深度学习在自主导航中的应用与方法最新进展:全面综述》

论文阅读笔记(一):《深度学习在自主导航中的应用与方法最新进展:全面综述》

最近想要学习一下关于AI的知识,准备读一个综述《RECENT ADVANCEMENTS IN DEEP LEARNING APPLICATIONS AND METHODS FOR AUTONOMOUS NAVIGATION: A COMPREHENSIVE REVIEW》,并将学习内容记录在此,本笔记主要内容为记录并梳理文献中介绍的基础神经元网络部分,欢迎大家讨论并批评指正。 Artiffcial Neuron(人工神经元) 文献中提到,人工神经元是一个数学函数,用于模拟生物神经元的行为。它接收一个输入信号x,这个信号被一个权重w加权,并加上一个偏置b,然后通过一个激活函数 f来产生输出信号y。 上图展示了一个神经元的结构:它有多个输入,对应多个权重 。这些加权输入在传输函数(通常是求和函数Σ)中合并,然后通过激活函数ϕ产生最终的输出Y 神经网络就是将这些单个的神经元以不同的方式连接起来组成的层级结构(例如,一个神经元的输出可以作为另一个神经元的输入)。通过调整神经元之间的连接权重,神经网络可以学习并模拟复杂的非线性关系,从而实现模式识别、决策等功能,是深度学习的基础。

【论文笔记】A Survey on Data Synthesis and Augmentation for Large Language Models

【论文笔记】A Survey on Data Synthesis and Augmentation for Large Language Models

A Survey on Data Synthesis and Augmentation for Large Language Models(大型语言模型的数据合成与增强综述) 1. 作者 2. 年份 2024 零、摘要 大型语言模型(LLM)的成功与否,本质上与用于训练和评估的海量、多样化和高质量数据的可用性息息相关。然而,高质量数据的增长速度明显落后于训练数据集的扩展速度,从而导致迫在眉睫的数据耗尽危机。这突显了提高数据效率和探索新数据来源的迫切需求。在此背景下,合成数据已成为一种有前景的解决方案。目前,数据生成主要包括两种主要方法:数据增强和合成。本文全面回顾并总结了LLM生命周期中的数据生成技术,包括数据准备、预训练、微调、指令调整、偏好对齐和应用。此外,我们还讨论了这些方法目前面临的限制,并探讨了未来发展和研究的潜在途径。我们的愿望是使研究人员清楚地了解这些方法,使他们能够在构建LLM时迅速确定适当的数据生成策略,同时为未来的探索提供有价值的见解。 一、介绍 * 近年来,LLM在许多行业取得了巨大的进步。但是大模型的性能高度依赖它们接受训练的数据的质量和