ESP32-CAM 使用 webcam 摄像头实时查看视频

ESP32-CAM 使用 webcam 摄像头实时查看视频

0 ESP32cam 介绍

ESP32-CAM 是小尺寸的摄像头模组该模块可以作为最小系统独立工作,尺寸仅为 2740.54.5mm,可广泛应用于各种物联网场合,适用于家庭智能设备、工业无线控制、无线监控、QR 无线识别,无线定位系统信号以及其它物联网应用,是物联网应用的理想解决方案。

在这里插入图片描述

产品特性:

  • 采用低功耗双核32位CPU,可作应用处理器
  • 主频高达240MHz,运算能力高达 600 DMIPS
  • 内置 520 KB SRAM,外置8MB PSRAM
  • 支持UART/SPI/I2C/PWM/ADC/DAC等接口
  • 支持OV2640和OV7670摄像头,内置闪光灯
  • 支持图片WiFI上传
  • 支持TF卡
  • 支持多种休眠模式。
  • 内嵌Lwip和FreeRTOS
  • 支持 STA/AP/STA+AP 工作模式
  • 支持 Smart Config/AirKiss 一键配网
  • 支持二次开发

ESP32cam 的接口引脚图如下所示:

在这里插入图片描述

1 arduino IDE

1.1 安装 arduino IDE

下载官方网址:https://www.arduino.cc/en/software
下载符合自己操作系统版本的IDE并安装。

1.2 arduino IDE 获取 ESP32 开发环境

由于 arduino IDE 中本身是没有 ESP32 的开发版,需要手动进行安装,安装方式如下:

在 Arduino IDE 中,找到 工具>开发板>开发板开发板管理,搜索 ESP32 或者直接选择 ESP32 Wrover Module

在这里插入图片描述


在这里插入图片描述

打开 Arduino IDE ,找到 文件>首选项 ,将 ESP32 的配置链接填入附加开发板管理网址中。

# 配置链接 https://dl.espressif.com/dl/package_esp32_index.json 
在这里插入图片描述

2 内网视频实时查看

2.1 选择 文件>示例>ESP32>Camera>CameraWebServer ,进入示例代码界面
在这里插入图片描述
2.2 修改示例代码中的相关参数
  • 修改示例代码中的 wifi 和密码的名称。

修改示例代码中的摄像头类型为 CAMERA_MODEL_AI_THINKER 。

在这里插入图片描述
2.3 运行结果

上传成功后,按一下 ESP32cam 开发板上的 RST 按键 ,重新启动开发板。
选择 工具>串口监视器,查看串口中输出的 ip,并用浏览器打开 ip 即可实时查看视频画面。

在这里插入图片描述
在这里插入图片描述
2.4 代码
#include"esp_camera.h"#include<WiFi.h>//// WARNING!!! PSRAM IC required for UXGA resolution and high JPEG quality// Ensure ESP32 Wrover Module or other board with PSRAM is selected// Partial images will be transmitted if image exceeds buffer size//// Select camera model// #define CAMERA_MODEL_WROVER_KIT // Has PSRAM//#define CAMERA_MODEL_ESP_EYE // Has PSRAM//#define CAMERA_MODEL_M5STACK_PSRAM // Has PSRAM//#define CAMERA_MODEL_M5STACK_V2_PSRAM // M5Camera version B Has PSRAM//#define CAMERA_MODEL_M5STACK_WIDE // Has PSRAM//#define CAMERA_MODEL_M5STACK_ESP32CAM // No PSRAM#defineCAMERA_MODEL_AI_THINKER// Has PSRAM//#define CAMERA_MODEL_TTGO_T_JOURNAL // No PSRAM#include"camera_pins.h"constchar* ssid ="TP-LINK_1760";constchar* password ="987654321";voidstartCameraServer();voidsetup(){ Serial.begin(115200); Serial.setDebugOutput(true); Serial.println(); camera_config_t config; config.ledc_channel = LEDC_CHANNEL_0; config.ledc_timer = LEDC_TIMER_0; config.pin_d0 = Y2_GPIO_NUM; config.pin_d1 = Y3_GPIO_NUM; config.pin_d2 = Y4_GPIO_NUM; config.pin_d3 = Y5_GPIO_NUM; config.pin_d4 = Y6_GPIO_NUM; config.pin_d5 = Y7_GPIO_NUM; config.pin_d6 = Y8_GPIO_NUM; config.pin_d7 = Y9_GPIO_NUM; config.pin_xclk = XCLK_GPIO_NUM; config.pin_pclk = PCLK_GPIO_NUM; config.pin_vsync = VSYNC_GPIO_NUM; config.pin_href = HREF_GPIO_NUM; config.pin_sscb_sda = SIOD_GPIO_NUM; config.pin_sscb_scl = SIOC_GPIO_NUM; config.pin_pwdn = PWDN_GPIO_NUM; config.pin_reset = RESET_GPIO_NUM; config.xclk_freq_hz =20000000; config.pixel_format = PIXFORMAT_JPEG;// if PSRAM IC present, init with UXGA resolution and higher JPEG quality// for larger pre-allocated frame buffer.if(psramFound()){ config.frame_size = FRAMESIZE_UXGA; config.jpeg_quality =10; config.fb_count =2;}else{ config.frame_size = FRAMESIZE_SVGA; config.jpeg_quality =12; config.fb_count =1;}#ifdefined(CAMERA_MODEL_ESP_EYE)pinMode(13, INPUT_PULLUP);pinMode(14, INPUT_PULLUP);#endif// camera init esp_err_t err =esp_camera_init(&config);if(err != ESP_OK){ Serial.printf("Camera init failed with error 0x%x", err);return;} sensor_t * s =esp_camera_sensor_get();// initial sensors are flipped vertically and colors are a bit saturatedif(s->id.PID == OV3660_PID){ s->set_vflip(s,1);// flip it back s->set_brightness(s,1);// up the brightness just a bit s->set_saturation(s,-2);// lower the saturation}// drop down frame size for higher initial frame rate s->set_framesize(s, FRAMESIZE_QVGA);#ifdefined(CAMERA_MODEL_M5STACK_WIDE)||defined(CAMERA_MODEL_M5STACK_ESP32CAM) s->set_vflip(s,1); s->set_hmirror(s,1);#endif WiFi.begin(ssid, password);while(WiFi.status()!= WL_CONNECTED){delay(500); Serial.print(".");} Serial.println(""); Serial.println("WiFi connected");startCameraServer(); Serial.print("Camera Ready! Use 'http://"); Serial.print(WiFi.localIP()); Serial.println("' to connect");}voidloop(){// put your main code here, to run repeatedly:delay(10000);}

3 烧录程序到 ESP32cam 开发板中

3.1 通过配套的下载器进行下载
在这里插入图片描述

然后点击左上角的编译验证按钮进行编译,编译成功后点击旁边的上传按钮烧录到 ESP32cam 开发板中。

在这里插入图片描述

将下载器与 ESP32cam 安装到一起,使用数据线链接到电脑,安装商家提供的驱动,之后在 工具选项中选择对应的 开发板与串口。

在这里插入图片描述
3.2 通过 USB转TTL(CH340)下载器进行下载
在这里插入图片描述

USB转TTL下载器仅仅是连接线上与配套送的下载器不同,其他下载步骤是一样的。

USB转TTL下载器与 ESP32cam 的链接线如下:

  • USB转TTL VCC 接 ESP32cam 5V
  • USB转TTL GND 接 ESP32cam GND
  • USB转TTL RXD 接 ESP32cam TXD
  • USB转TTL TXD 接 ESP32cam RXD
  • 下载时,需要将 GPIO1 接到 GND 上,用来启动下载模式。

4 外网视频实时查看

外网视频实时查看分为:

  • esp32cam 开发板中运行的程序;
  • 服务器中运行的程序。

通过ESP32cam 将视频数据发送的服务器中,服务器运行接受程序进行接收并展示,这样的好处是可以发送到外部公网服务器中。

esp32cam 中的程序如下:

#include<Arduino.h>#include<WiFi.h>#include"esp_camera.h"#include<vector>constchar*ssid ="TP-LINK_1760";constchar*password ="987654321";const IPAddress serverIP(192,168,1,104);//欲访问的地址,即服务器的ip,可内网也可公网uint16_t serverPort =18080;//服务器端口号#MTU#definemaxcache1430 WiFiClient client;//声明一个客户端对象,用于与服务器进行连接//CAMERA_MODEL_AI_THINKER类型摄像头的引脚定义#definePWDN_GPIO_NUM32#defineRESET_GPIO_NUM-1#defineXCLK_GPIO_NUM0#defineSIOD_GPIO_NUM26#defineSIOC_GPIO_NUM27#defineY9_GPIO_NUM35#defineY8_GPIO_NUM34#defineY7_GPIO_NUM39#defineY6_GPIO_NUM36#defineY5_GPIO_NUM21#defineY4_GPIO_NUM19#defineY3_GPIO_NUM18#defineY2_GPIO_NUM5#defineVSYNC_GPIO_NUM25#defineHREF_GPIO_NUM23#definePCLK_GPIO_NUM22static camera_config_t camera_config ={.pin_pwdn = PWDN_GPIO_NUM,.pin_reset = RESET_GPIO_NUM,.pin_xclk = XCLK_GPIO_NUM,.pin_sscb_sda = SIOD_GPIO_NUM,.pin_sscb_scl = SIOC_GPIO_NUM,.pin_d7 = Y9_GPIO_NUM,.pin_d6 = Y8_GPIO_NUM,.pin_d5 = Y7_GPIO_NUM,.pin_d4 = Y6_GPIO_NUM,.pin_d3 = Y5_GPIO_NUM,.pin_d2 = Y4_GPIO_NUM,.pin_d1 = Y3_GPIO_NUM,.pin_d0 = Y2_GPIO_NUM,.pin_vsync = VSYNC_GPIO_NUM,.pin_href = HREF_GPIO_NUM,.pin_pclk = PCLK_GPIO_NUM,.xclk_freq_hz =20000000,.ledc_timer = LEDC_TIMER_0,.ledc_channel = LEDC_CHANNEL_0,.pixel_format = PIXFORMAT_JPEG,// .frame_size = FRAMESIZE_VGA,// FRAMESIZE_UXGA (1600 x 1200)// FRAMESIZE_QVGA (320 x 240)// FRAMESIZE_CIF (352 x 288)// FRAMESIZE_VGA (640 x 480)// FRAMESIZE_SVGA (800 x 600)// FRAMESIZE_XGA (1024 x 768)// FRAMESIZE_SXGA (1280 x 1024).frame_size = FRAMESIZE_QVGA,.jpeg_quality =24,// 图像质量(jpeg_quality) 可以是 0 到 63 之间的数字。数字越小意味着质量越高.fb_count =1,};voidwifi_init(){ WiFi.mode(WIFI_STA); WiFi.setSleep(false);//关闭STA模式下wifi休眠,提高响应速度 WiFi.begin(ssid, password);while(WiFi.status()!= WL_CONNECTED){delay(500); Serial.print(".");} Serial.println("WiFi Connected!"); Serial.print("IP Address:"); Serial.println(WiFi.localIP());} esp_err_t camera_init(){//initialize the camera esp_err_t err =esp_camera_init(&camera_config);if(err != ESP_OK){ Serial.println("Camera Init Failed");return err;} sensor_t * s =esp_camera_sensor_get();//initial sensors are flipped vertically and colors are a bit saturatedif(s->id.PID == OV2640_PID){// s->set_vflip(s, 1);//flip it back// s->set_brightness(s, 1);//up the blightness just a bit// s->set_contrast(s, 1);} Serial.println("Camera Init OK!");return ESP_OK;}voidsetup(){ Serial.begin(115200);wifi_init();camera_init();}voidloop(){ Serial.println("Try To Connect TCP Server!");if(client.connect(serverIP, serverPort))//尝试访问目标地址{ Serial.println("Connect Tcp Server Success!");//client.println("Frame Begin"); //46 72 61 6D 65 20 42 65 67 69 6E // 0D 0A 代表换行 //向服务器发送数据while(1){ camera_fb_t * fb =esp_camera_fb_get();uint8_t* temp = fb->buf;//这个是为了保存一个地址,在摄像头数据发送完毕后需要返回,否则会出现板子发送一段时间后自动重启,不断重复if(!fb){ Serial.println("Camera Capture Failed");}else{//先发送Frame Begin 表示开始发送图片 然后将图片数据分包发送 每次发送1430 余数最后发送 //完毕后发送结束标志 Frame Over 表示一张图片发送完毕  client.print("Frame Begin");//一张图片的起始标志// 将图片数据分段发送int leng = fb->len;int timess = leng/maxcache;int extra = leng%maxcache;for(int j =0;j< timess;j++){ client.write(fb->buf, maxcache);for(int i =0;i< maxcache;i++){ fb->buf++;}} client.write(fb->buf, extra); client.print("Frame Over");// 一张图片的结束标志 Serial.print("This Frame Length:"); Serial.print(fb->len); Serial.println(".Succes To Send Image For TCP!");//return the frame buffer back to the driver for reuse fb->buf = temp;//将当时保存的指针重新返还esp_camera_fb_return(fb);//这一步在发送完毕后要执行,具体作用还未可知。 }delay(20);//短暂延时 增加数据传输可靠性}/* while (client.connected() || client.available()) //如果已连接或有收到的未读取的数据 { if (client.available()) //如果有数据可读取 { String line = client.readStringUntil('\n'); //读取数据到换行符 Serial.print("ReceiveData:"); Serial.println(line); client.print("--From ESP32--:Hello Server!"); } } Serial.println("close connect!"); client.stop(); //关闭客户端 */}else{ Serial.println("Connect To Tcp Server Failed!After 10 Seconds Try Again!"); client.stop();//关闭客户端}delay(10000);}

服务器中运行的程序(Python):

import socket import threading import time import numpy as np import cv2 begin_data =b'Frame Begin' end_data =b'Frame Over'#接收数据# ESP32发送一张照片的流程# 先发送Frame Begin 表示开始发送图片 然后将图片数据分包发送 每次发送1430 余数最后发送# 完毕后发送结束标志 Frame Over 表示一张图片发送完毕# 1430 来自ESP32cam发送的一个包大小为1430 接收到数据 data格式为b''defhandle_sock(sock, addr): temp_data =b'' t1 =int(round(time.time()*1000))whileTrue: data = sock.recv(1430)# 如果这一帧数据包的开头是 b'Frame Begin' 则是一张图片的开始if data[0:len(begin_data)]== begin_data:# 将这一帧数据包的开始标志信息(b'Frame Begin')清除 因为他不属于图片数据 data = data[len(begin_data):len(data)]# 判断这一帧数据流是不是最后一个帧 最后一针数据的结尾时b'Frame Over'while data[-len(end_data):]!= end_data: temp_data = temp_data + data # 不是结束的包 讲数据添加进temp_data data = sock.recv(1430)# 继续接受数据 直到接受的数据包包含b'Frame Over' 表示是这张图片的最后一针# 判断为最后一个包 将数据去除 结束标志信息 b'Frame Over' temp_data = temp_data + data[0:(len(data)-len(end_data))]# 将多余的(\r\nFrame Over)去掉 其他放入temp_data# 显示图片 receive_data = np.frombuffer(temp_data, dtype='uint8')# 将获取到的字符流数据转换成1维数组 r_img = cv2.imdecode(receive_data, cv2.IMREAD_COLOR)# 将数组解码成图像# r_img = r_img.reshape(480, 640, 3)# r_img = r_img.reshape(320, 240, 3) t2 =int(round(time.time()*1000)) fps =1000//(t2-t1) cv2.putText(r_img,"FPS"+str(fps),(50,50), cv2.FONT_HERSHEY_SIMPLEX,1,(255,0,0),2) cv2.imshow('server_frame', r_img)if cv2.waitKey(1)&0xFF==ord('q'):break t1 = t2 print("接收到的数据包大小:"+str(len(temp_data)))# 显示该张照片数据大小 temp_data =b''# 清空数据 便于下一章照片使用 server = socket.socket(socket.AF_INET, socket.SOCK_STREAM)# 这里的 ip 与端口是运行该程序的服务器的 ip 与端口,需要与 arduino 中的一致 server.bind(('192.168.1.104',18080)) server.listen(5) CONNECTION_LIST =[]#主线程循环接收客户端连接whileTrue: sock, addr = server.accept() CONNECTION_LIST.append(sock)print('Connect--{}'.format(addr))#连接成功后开一个线程用于处理客户端 client_thread = threading.Thread(target=handle_sock, args=(sock, addr)) client_thread.start()

Read more

5分钟部署麦橘超然Flux,低显存设备也能玩转AI绘画

5分钟部署麦橘超然Flux,低显存设备也能玩转AI绘画 1. 为什么你值得花5分钟试试这个Flux控制台 你是不是也遇到过这些情况: * 想试试最新的Flux模型,但显卡只有8GB甚至6GB,一加载就报“CUDA out of memory”; * 下载完模型还要手动配置路径、改代码、调参数,折腾两小时还没看到一张图; * 网页版用着方便,但担心隐私泄露、生成被限速、图片被缓存; 别再纠结了——麦橘超然 - Flux 离线图像生成控制台,就是为这类真实场景而生的。它不是又一个需要编译、调参、查文档的实验项目,而是一个开箱即用的本地Web服务:模型已打包进镜像,float8量化技术让DiT主干网络显存占用直降近一半,Gradio界面简洁到连提示词输入框都标好了占位符,连SSH隧道怎么转发都给你写好了命令。 更重要的是,它真的能在你的旧笔记本、远程小内存服务器、甚至实验室里那台只配了RTX 3060的工位机上跑起来。本文不讲原理推导,不堆术语,就带你从零开始,5分钟内完成部署、打开浏览器、输入第一句描述、亲眼看到AI画出赛博朋克雨夜街道——所有操作一步接一步,复制粘贴就能

Llama-3.2-3B代码审查:基于Java面试题的质量评估体系

Llama-3.2-3B代码审查:基于Java面试题的质量评估体系 1. 当代码审查遇上Java面试题:为什么这个组合特别有效 最近在团队内部做技术分享时,有位刚转行的同事问了一个很实在的问题:“市面上那么多代码审查工具,为什么还要专门用Java面试题来测试模型?”这个问题让我想起自己第一次用Llama-3.2-3B分析一段经典的单例模式实现时的惊讶——它不仅指出了线程安全问题,还顺手给出了三种不同场景下的优化方案,其中一种恰好就是某大厂最新面试题的标准答案。 Java面试题之所以成为检验代码审查能力的黄金标尺,是因为它们天然具备几个关键特质:题目边界清晰但解法多样,既考察基础语法又涉及设计思想,还常常暗藏性能陷阱和并发隐患。比如“如何实现一个线程安全的懒汉式单例”,表面看是考synchronized,实际会牵扯到双重检查锁、volatile关键字、类加载机制甚至JVM内存模型。这种层层嵌套的复杂性,恰恰是检验AI代码理解深度的最佳试金石。 更有趣的是,面试题往往带着明确的业务语境。同样是HashMap,面试官问“为什么HashMap不是线程安全的”和问“在高并发计数场景下如

[特殊字符] WuliArt Qwen-Image Turbo:5分钟快速部署你的AI绘画神器

WuliArt Qwen-Image Turbo:5分钟快速部署你的AI绘画神器 专为个人GPU打造的轻量级文生图引擎来了——无需云服务、不依赖专业运维,一台RTX 4090就能跑出专业级1024×1024高清图像。本文将手把手带你完成从镜像拉取、服务启动到生成第一张赛博朋克街景的全流程,全程5分钟,零调试,小白友好。 1. 为什么你需要WuliArt Qwen-Image Turbo? 1.1 它不是另一个“跑不起来”的文生图模型 你可能试过不少本地文生图方案:显存爆满、黑图频出、生成一张图要等三分钟、分辨率糊成马赛克……而WuliArt Qwen-Image Turbo是少数真正为消费级GPU用户设计的落地型工具。它不堆参数,不拼大模型,而是用精准的工程优化解决真实痛点: * 不再黑图:BFloat16原生支持,数值溢出问题彻底消失 * 不再卡顿:4步推理完成生成,比传统SDXL快5–10倍 * 不再换卡:24GB显存(如RTX 4090)即可流畅运行1024×1024输出 * 不再折腾:开箱即用Web界面,

合规为基,场景为锚:文心一言API接入的备案要求与深度场景合规解析

合规为基,场景为锚:文心一言API接入的备案要求与深度场景合规解析

在做备案咨询的时候,我被问得最多的问题就是“我们接了文心一言的API,到底要不要去网信办备案?” 很多企业的心态很微妙:不备案怕被下架,去备案又觉得流程繁琐像剥层皮。其实,备案的核心不在于你用了谁的模型,而在于你怎么用、给谁用。 尤其是接入文心一言这种通过国家网信办生成式人工智能服务备案的头部大模型时,很多老板容易产生一个误区:“底座都合规了,我用一下还需要备案?” 答案没那么简单。今天我们抛开枯燥的法条,直接从实操角度,从文心一言这类的合规边界掰开了讲讲。 一、 政策红线 我国对算法的监管逻辑其实很直白:只要你的服务能对公众产生影响,尤其是能生成内容、引导舆论,那就必须管。这并非针对某一家企业,而是对互联网信息服务的底层约束。 按照《生成式人工智能服务管理暂行办法》,提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并履行备案手续。如果企业产品未经备案直接上线,且具有交互功能的服务,一旦被监管抽查发现,面临的不仅是应用下架,还可能涉及行政处罚,甚至影响企业主体的信用评级。 二、 真实场景的合规判定 与其死磕政策,不如对号入座看看你