深入解析MySQL(9)——主从复制架构详解

深入解析MySQL(9)——主从复制架构详解
在这里插入图片描述

🔥我的主页:九转苍翎⭐️个人专栏:《Java SE 》《Java集合框架系统精讲》《MySQL高手之路:从基础到高阶 》《计算机网络 》《Java工程师核心能力体系构建》天行健,君子以自强不息。


MySQL版本:8.0.44
Linux操作系统版本:Ubuntu 24.04 LTS

1.MySQL集群

1.1 单机模式

在单一服务器上安装和运行MySQL数据库,多个应用程序都访问同一台数据库服务器

优点:

  • 简单易用:部署和维护成本低,无需配置复杂的集群管理工具或分布式协议
  • 低成本:无需额外购买多台服务器或负载均衡设备,硬件和运维成本较低

缺点:

  • 单点故障风险:所有数据和服务依赖单一节点,一旦服务器硬件故障或网络问题,整个系统将不可用
  • 读写压力集中:所有读写请求集中在单台服务器,可能成为性能瓶颈,尤其在数据量或并发量大的场景下

1.2 集群模式

通过多台服务器协同工作来提高数据库性能、可用性和可扩展性

优点:

  • 负载均衡:读操作可分散到多个从节点,降低主节点压力
  • 数据冗余:数据在多个节点同步存储,避免单点故障导致数据丢失
  • 扩展性:水平扩展能力强,可通过增加节点提升处理能力

缺点:

  • 数据同步延迟:异步复制可能导致从节点数据滞后,尤其在网络波动或高负载时
  • 资源消耗:多节点需额外硬件资源
  • 配置复杂度高:集群部署需调整多项参数,维护成本较高

1.3 主从结构

1.3.1 角色

主服务器(Master):主要负责写操作和简单查询操作
从服务器(Slave):主要负责复杂查询操作和备份

1.3.2 原理

  • 主库的Binlog Dump Thread:当从库连接主库时,主库创建一个Binlog Dump Thread,负责将二进制日志内容发送给从库
  • 从库的I/O Thread:接收主库的二进制日志事件并写入从库的中继日志(Relay Log)

从库的SQL Thread:读取中继日志(Relay Log)中的事件并执行,实现数据同步

在这里插入图片描述
  1. Slave连接master,读取master的版本和时钟信息,并在master中注册自己
  2. Master根据Slave的连接数为每个连接创建Binlog Dump Thread
  3. Master节点在进行insert、update、delete操作时,把相应操作按执行顺序写入Binary Log
  4. 当Master节点的Binary Log发生变化时,Binlog Dump Thread通知所有Slave节点,并把Binary Log的增量内容以event的方式推送给Slave的I/O Thread
  5. Slave的I/O Thread把接收到的内容写入Relay Log
  6. Slave的SQL Thread读取Relay Log的内容
  7. Slave的SQL Thread解析日志并转为SQL进行回放操作,把数据写入Databases

1.4 高性能架构

  • 读写分离:将读操作和写操作分发到不同的数据库节点,提升系统整体性能。写操作集中在主库(Master),读操作分散到从库(Slave)
  • 数据库分片:将数据水平拆分到多个独立数据库实例(database),解决单库数据量过大导致的性能瓶颈

2.Ubuntu系统安装Docker

2.1 添加Docker官方密钥

添加Docker官方GPG密钥是为了验证从Docker仓库下载的软件包的真实性和完整性

  • 验证软件源的真实性
    • 确保你下载的Docker软件包确实来自官方
    • 防止中间人攻击或恶意镜像站提供被篡改的软件包
  • 确保软件包完整性
    • 用GPG密钥验证软件包的数字签名
    • 确认软件在传输过程中没有被修改
aptinstall apt-transport-https ca-certificates curl software-propertiescommon -ycurl-fsSL https://download.docker.com/linux/ubuntu/gpg |sudo apt-key add - # 1. 下载Docker官方的公钥# 2. 存储在系统的密钥环中# 3. APT在安装时会用这个密钥验证软件包签名

2.2 添加阿里云Docker APT源

Docker官方服务器位于国外,国内访问速度慢。阿里云在国内,下载速度通常能大幅提升

add-apt-repository "deb [arch=amd64] https://mirrors.aliyun.com/dockerce/linux/ubuntu $(lsb_release -cs) stable"

可能出现的错误信息:

W: GPG error: https://mirrors.aliyun.com/docker-ce/linux/ubuntu noble InRelease: The following signatures couldn't be verified because the public key is not available: NO_PUBKEY 7EA0A9C3F273FCD8 

简单来说,这个错误的意思是:“阿里云给了我Docker的软件列表,并且说这是用7EA0A9C3F273FCD8这个钥匙签名的,但是我的钥匙串里没有这把钥匙,所以我无法确认这是不是真的Docker官方列表。”
解决方法: 把Docker官方的公钥添加到你的系统中

apt-key adv --keyserver keyserver.ubuntu.com --recv-keys 7EA0A9C3F273FCD8 

2.3 安装Docker

#更新APT包索引apt update #安装Dockeraptinstall docker-ce docker-ce-cli containerd.io -y

2.4 查看结果

# 查看状态 systemctl status docker
在这里插入图片描述
# 查看版本docker version 
在这里插入图片描述

2.5 设置配置

# 设置开机自启动 root@VM-0-7-ubuntu:~# systemctl enable docker# 查看是否开机启动 root@VM-0-7-ubuntu:~# systemctl list-unit-files|grep docker.service docker.service enabled enabled 
# 停止防火墙 root@VM-0-7-ubuntu:~# systemctl stop ufw# 查看防火墙 root@VM-0-7-ubuntu:~# systemctl status ufw
在这里插入图片描述
# 禁用防火墙开机自启动 systemctl disable ufw 

2.6 修改镜像源

vim /etc/docker/daemon.json 
{"registry-mirrors":["https://docker.m.daocloud.io","https://dockerhub.timeweb.cloud","https://huecker.io"]}

3.主从复制

3.1 一主一从

⼀台主服务器主要负责读写操作,⼀台从服务器主要负责读操作或备份(本文演示该模式,但在实际开发中不常用)

在这里插入图片描述

3.2 一主多从

  • ⼀台主服务器负责写操作,多台从服务器负责读操作和备份。从节点从主节点同步数据
在这里插入图片描述
  • ⼀台主服务器负责写操作,多台从服务器负责读操作和备份。其中⼀个从节点从主节点同步数据,并为其他从节点提供数据同步服务,这样可以降低主节点数据同步的压力
在这里插入图片描述

3.3 多主多从

在这里插入图片描述

3.4 主库配置

docker run \-d\-p53306:3306 \-v /org/mysql/master/conf:/etc/mysql/conf.d \-v /org/mysql/master/mysql:/var/lib/mysql \-eMYSQL_ROOT_PASSWORD=123456\--name org-mysql-master \ mysql:8.0.44 
  • docker run
    • 作用:创建并启动一个新的容器
    • docker create:只创建不启动
    • docker start:启动已存在的容器
    • docker run = create + start
  • -d
    • 作用:在后台运行容器(守护进程模式)
  • -p 53306:3306
    • 格式:-p 宿主机端口:容器端口
    • 作用:端口映射
  • -v /org/mysql/master/conf:/etc/mysql/conf.d
  • -e MYSQL_ROOT_PASSWORD=123456
    • 格式:-e 环境变量名=值
    • 作用: 设置容器内的环境变量
  • –name org-mysql-master
    • 作用:给容器命名
  • mysql:8.0.44(指定版本)

作用:数据卷挂载 - 数据库数据,容器删除后数据不会丢失

宿主机:/org/mysql/master/mysql ↓ 挂载(双向同步) 容器内:/var/lib/mysql 
# 在配置文件中添加如下配置 root@VM-0-7-ubuntu:~# vim /org/mysql/master/conf/my.cnf
# MySQL服务器节点 [mysqld] # server-id随便设置,保证不重复即可 server-id=11253306 log-bin=binlog binlog_format=ROW binlog_expire_logs_seconds=864000 sync-binlog=1 #指定需要复制的数据库,默认全部 # binlog-do-db=db_name #设置不需要复制的数据库 # binlog-ignore-db=db_name1 # binlog-ignore-db=db_name2 
# 重启容器,使配置⽣效 root@VM-0-7-ubuntu:~# docker restart org-mysql-master# 进入容器 root@VM-0-7-ubuntu:~# docker exec -it org-mysql-master env LANG=C.UTF-8 /bin/bash bash-5.1# mysql -uroot -p
mysql>set password ='123456';# 查看配置是否⽣效 mysql>select @@server_id;+-------------+| @@server_id|+-------------+|13803306|+-------------+-- 为从服务器创建访问账号并设置密码,⽤于从服务器登录主服务器 mysql>createuser'org_slave'@'%' identified with mysql_native_password by'123456';-- 为用户赋予复制权限 mysql>grantreplication slave on*.*to'org_slave'@'%';-- 刷新权限 mysql> flush privileges;-- 查看master状态,记录File和Position的值,-- 之后要在从服务器中配置中⽤到这两个值,表⽰从哪个⽇志⽂件中的哪个位置开始同步数据 mysql>show master status;+---------------+----------+--------------+------------------+-------------------+|File| Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set |+---------------+----------+--------------+------------------+-------------------+| binlog.000004|157||||+---------------+----------+--------------+------------------+-------------------+

3.5 从库配置

docker run \-d\-p53307:3306 \-v /org/mysql/slave1/conf:/etc/mysql/conf.d \-v /org/mysql/slave1/mysql:/var/lib/mysql \-eMYSQL_ROOT_PASSWORD=123456\--name org-mysql-slave1 \ mysql:8.0.44 
# 在配置文件中添加如下配置 root@VM-0-7-ubuntu:~# vim /org/mysql/slave1/conf/my.cnf
[mysqld] # server-id随便设置,保证不重复即可 server-id=11253307 log-bin=binlog binlog_format=ROW binlog_expire_logs_seconds=864000 sync-binlog=1 ########################### 从服务器配置 ################################## #中继日志基本名 relay-log=relay-bin #服务器启动时不启动复制,通过手动启动 skip-replica-start=ON # 链式日志同步,如上图“一主多从”模式的第二种模式 # log-replica-updates=ON # 禁用二进制日志 # skip-log-bin ########################################################################### #指定需要复制的数据库,默认全部 # binlog-do-db=db_name #设置不需要复制的数据库 # binlog-ignore-db=db_name1 # binlog-ignore-db=db_name2 
# 重启容器,使配置⽣效 root@VM-0-7-ubuntu:~# docker restart org-mysql-slave1# 进入容器 root@VM-0-7-ubuntu:~# docker exec -it org-mysql-slave1 env LANG=C.UTF-8 /bin/bash bash-5.1# mysql -uroot -p
mysql>set password ='123456';# 查看配置是否⽣效 mysql>select @@server_id;+-------------+| @@server_id|+-------------+|13803307|+-------------+ mysql> change master to master_host ='81.69.218.112', master_port =53306, master_user ='org_slave', master_password ='123456', master_log_file ='binlog.000004', master_log_pos =157;

3.6 启动主从复制

# 在从服务器中启动复制 mysql>start replica;# 查看从服务器状态 mysql>show replica status\G;
在这里插入图片描述

4.下节预告

深入解析MySQL(10)——基于ShardingSphere的高性能架构详解

5.我的博客即将同步至腾讯云开发者社区声明

我的博客即将同步至腾讯云开发者社区,邀请大家一同入驻:https://cloud.tencent.com/developer/support-plan?invite_code=gxfbp0gkvtq

Read more

Flutter 三方库 http_client_interceptor 的鸿蒙化适配指南 - 实现原生 HttpClient 的全量请求拦截、支持端侧动态 Headers 注入与网络流量审计实战

Flutter 三方库 http_client_interceptor 的鸿蒙化适配指南 - 实现原生 HttpClient 的全量请求拦截、支持端侧动态 Headers 注入与网络流量审计实战

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 http_client_interceptor 的鸿蒙化适配指南 - 实现原生 HttpClient 的全量请求拦截、支持端侧动态 Headers 注入与网络流量审计实战 前言 在进行 Flutter for OpenHarmony 开发时,虽然我们常使用 dio 等高阶库,但仍有大量底层插件或遗留系统直接使用 Dart 原生的 HttpClient。如何在中途“截获”这些原生请求,以便统一添加鉴权 Token、日志审计或处理特定区域的网关重定向?http_client_interceptor 是一款专为原生 IO 库设计的拦截器插件。本文将探讨如何在鸿蒙端构建极致透明的网络治理层。 一、原直观解析 / 概念介绍 1.1 基础原理

Linux 动态链接与动态库加载深度解析

Linux 动态链接与动态库加载深度解析

🔥草莓熊Lotso:个人主页 ❄️个人专栏: 《C++知识分享》《Linux 入门到实践:零基础也能懂》 ✨生活是默默的坚持,毅力是永久的享受! 🎬 博主简介: 文章目录 * 前言: * 一. 进程如何感知并加载动态库 * 1.1 进程对动态库的 “可见性” * 1.2 多进程共享动态库的实现 * 二. 动态链接的核心工作原理 * 2.1 程序运行前的动态链接准备 * 2.2 动态库的地址无关性:PIC 编译 * 2.3 运行时的地址重定位:从符号到实际地址 * 三. GOT/PLT:动态链接的核心实现机制 * 3.1 全局偏移量表(GOT) * 3.2 过程链接表(PLT):延迟绑定优化 * 3.

Flutter 三方库 klutter 的鸿蒙化适配指南 - 掌握 Kotlin Multiplatform (KMP) 互操作技术、助力鸿蒙应用构建极致复用且高性能的跨端业务逻辑共享体系

Flutter 三方库 klutter 的鸿蒙化适配指南 - 掌握 Kotlin Multiplatform (KMP) 互操作技术、助力鸿蒙应用构建极致复用且高性能的跨端业务逻辑共享体系

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 klutter 的鸿蒙化适配指南 - 掌握 Kotlin Multiplatform (KMP) 互操作技术、助力鸿蒙应用构建极致复用且高性能的跨端业务逻辑共享体系 前言 在 OpenHarmony 鸿蒙应用全场景覆盖的演进旅程中,开发者往往面临着“如何在保障 UI 高一致性的同时,最大化复用核心业务逻辑”的命题。特别是对于那些已经积累了大量成熟 Kotlin 代码的团队,如何让这些逻辑在鸿蒙端“无感”运行?klutter 作为一个专注于“Flutter 与 Kotlin Multiplatform 胶水层”的互操作框架,旨在为鸿蒙开发者提供一套标准的、类型安全的跨端逻辑桥接方案。本文将详述其在鸿蒙端的实战技法。 一、原原理分析 / 概念介绍 1.1 基础原理 klutter

Flutter 组件 powersync_attachments_helper 的适配 鸿蒙Harmony 实战 - 驾驭分布式附件同步、实现鸿蒙端大文件离线存储与生命周期自动化管理方案

Flutter 组件 powersync_attachments_helper 的适配 鸿蒙Harmony 实战 - 驾驭分布式附件同步、实现鸿蒙端大文件离线存储与生命周期自动化管理方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 powersync_attachments_helper 的适配 鸿蒙Harmony 实战 - 驾驭分布式附件同步、实现鸿蒙端大文件离线存储与生命周期自动化管理方案 前言 在鸿蒙(OpenHarmony)生态的分布式多媒体协作、工业设备故障图片上报以及需要频繁处理大量音频/视频附件的专业级应用开发中,“非结构化数据与 SQL 逻辑的一致性同步”是决定应用能否在大规模复杂场景下存活的技术深水区。面对一条已经同步成功的“设备巡检记录”。如果其关联的“高清故障原图”因为同步时机错位、由于存储空间不足导致的本地缓存被回收,或者是在鸿蒙手机与平板之间由于同步策略不同步导致的文件路径失效。那么不仅会导致用户在查看详情时看到令人沮丧的“附件丢失”占位图,更会严重削弱政务类资产审计的底层严密性。 我们需要一种“逻辑关联、物理对齐”的附件治理艺术。 powersync_attachments_helper 是一套专为 PowerSync 设计的附件同步