Error message here!

Hide Error message here!

忘记密码?

Error message here!

请输入正确邮箱

Hide Error message here!

密码丢失?请输入您的电子邮件地址。您将收到一个重设密码链接。

Error message here!

返回登录

Close

003.MMM双主-双从读写分离部署

木二 2019-01-29 09:25:00 阅读数:212 评论数:0 点赞数:0 收藏数:0

一 前期规划

1.1 主机规划

image

1.2 虚拟IP规划

image


1.3 用户列表

image

提示:以上角色需要在所有节点添加。

1.4 整体架构

clipboard

1.4 hosts修改

 1 [root@localhost ~]# vi /etc/sysconfig/network
 2 NETWORKING=yes
 3 HOSTNAME=Master01
 4 [root@Master01 ~]# vi /etc/hosts
 5 Master01 172.24.8.10
 6 Master02 172.24.8.11
 7 Slave01 172.24.8.12
 8 Slave02 172.24.8.13
 9 Monitor 172.24.8.20

提示:所有主机添加对应的hostname和hosts,此步骤非必须,为方便之后简化配置,建议修改hosts。

1.5 NTP配置

略,具体可参考笔记NTP-《003.NTP客户端配置》。
提示:针对高可用的优化,建议所有节点均配置NTP服务。

二 部署MySQL

2.1 安装MySQL

略,具体可参考MySQL主从复制-《MySQL高可用主从复制部署》。
提示:除去monitor节点外所有节点均需要部署。

三 双主复制部署

3.1 master01 my.cf配置

 1 [root@Master01 ~]# vi /etc/my.cnf
 2 [mysqld]
 3 ……
 4 server-id=1 #设置主服务器master的id
 5 log-bin=mysql-bin #配置二进制变更日志命名格式
 6 replicate-wild-ignore-table=mysql.%
 7 replicate-wild-ignore-table=test.%
 8 replicate-wild-ignore-table=information_schema.%
 9 sync-binlog=1 #每条自动更新,安全性高,默认是0
 10 auto_increment_increment=2 #字段一次递增多少
 11 auto_increment_offset=1 #自增字段的起始值
 12 log_slave_updates #当一个主故障,另一个立即接管
 13 read_only=1

注意:
master开启二进制日志后默认记录所有库所有表的操作,可以通过配置来指定只记录指定的数据库甚至指定的表的操作,具体在mysql配置文件的[mysqld]可添加修改如下选项:
方法一:
 1 # 不同步哪些数据库
 2 binlog-ignore-db = mysql
 3 binlog-ignore-db = test
 4 binlog-ignore-db = information_schema
 5 # 只同步哪些数据库,除此之外,其他不同步
 6 binlog-do-db = mysqltest

方法二:
建议采用以下方式配置过滤:
 1 replicate-wild-ignore-table=mysql.% #从库配置不同步表
 2 replicate-wild-do-table=test.% #从库配置需要同步的表

提示:不要在主库使用binlog-ignore-db和binlog-do-db,也不要在从库使用replicate-wild-ignore和replicate-wild-do-table。

3.2 Master02 my.cf配置

 1 [root@Master01 ~]# service mysqld start
 2 [root@Master01 ~]# mysql -uroot -px120952576
 3 mysql> grant replication slave on *.* to 'repl_user'@'172.24.8.%' identified by 'x12345678';
#创建用于复制的账号
 4 mysql> grant replication client on *.* to 'mmm_monitor'@'172.24.8.%' identified by 'x12345678';
#创建用于监控MySQL服务健康的账号
 5 mysql> grant super,replication client,process on *.* to 'mmm_agent'@'172.24.8.%' identified by 'x12345678';
#创建用于切换只读模式、同步Master信息的账号
 6 mysql> grant select,insert,update,delete,create,drop on *.* to 'mmm_test'@'172.24.8.%' identified by 'x120952576' with grant option; #创建之后用于读写分离测试的账号
 7 mysql> flush privileges;
 8 [root@Master01 ~]# service mysqld restart
 9 [root@Master01 ~]# mysql -uroot -px120952576
 10 mysql> show master status;

10_thumb1
master01:
file:mysql-bin.000001
position:120
注意:读写分离对于用于super或者all privileges权限的用户无效,需要创建普通用户进行测试。

3.4 Master02创建账号

略,同3.3 Master01创建账号同样操作即可。
 1 [root@Master01 ~]# service mysqld restart
 2 [root@Master01 ~]# mysql -uroot -px120952576
 3 mysql> show master status;

11_thumb1
master02:
file:mysql-bin.000001
position:120

3.5 启动双主复制

提示:如果Master01和Master02已经存在数据,则在开启主备复制之前,需要将Master01和Master02手动同步一次(/var/lib/mysql整个目录打包tar.gz),具体方法略。
注意:本实验都是重新安装的MySQL,可直接启动同步
 1 [root@Master01 ~]# mysql -uroot -px120952576
 2 Enter password:
 3 mysql> change master to master_host='172.24.8.11',
 4 -> master_user='repl_user',
 5 -> master_password='x12345678',
 6 -> master_log_file='mysql-bin.000001',
 7 -> master_port=3306,
 8 -> master_log_pos=120;
 9 mysql> start slave;
 10 mysql> show slave status\G #查看slave状态

3.3 启动Master02的slave功能

 1 [root@Master02 ~]# mysql -uroot -px120952576
 2 mysql> change master to master_host='172.24.8.10',
 3 -> master_user='repl_user',
 4 -> master_password='x12345678',
 5 -> master_log_file='mysql-bin.000001',
 6 -> master_log_pos=120;
 7 mysql> start slave;
 8 mysql> show slave status\G #查看slave状态

提示:
slave的I/O和SQL线程都已经开始运行,而且Seconds_Behind_Master不再是NULL。日志的位置增加了,意味着一些事件被获取并执行了。如果你在master上进行修改,你可以在slave上看到各种日志文件的位置的变化,同样,你也可以看到数据库中数据的变化。

四 其他节点配置

4.1 所有Slave节点配置配置

 1 [root@Master01 ~]# scp /etc/my.cnf root@172.24.8.12:/etc/
 2 [root@Master01 ~]# scp /etc/my.cnf root@172.24.8.13:/etc/
 3 [root@Slave01 ~]# vi /etc/my.cnf
 4 [mysqld]
 5 ……
 6 server-id=3 #设置主服务器Slave01的id
 7 [root@Slave02 ~]# vi /etc/my.cnf
 8 [mysqld]
 9 ……
 10 server-id=4 #设置主服务器Slave02的id

提示:从Master01将复制my.cnf至所有节点(除去monitor外),并修改相应的server id。

4.2 所有Slave节点创建账号

 1 [root@Slave01 ~]# service mysqld start
 2 [root@Slave01 ~]# mysql -uroot -px120952576
 3 mysql> grant replication slave on *.* to 'repl_user'@'172.24.8.%' identified by 'x12345678'; #创建用于复制的账号
 4 mysql> grant replication client on *.* to 'mmm_monitor'@'172.24.8.%' identified by 'x12345678'; #创建用于监控MySQL服务健康的账号
 5 mysql> grant super,replication client,process on *.* to 'mmm_agent'@'172.24.8.%' identified by 'x12345678';
 #创建用于切换只读模式、同步Master信息的账号
 6 mysql> grant select,insert,update,delete,create,drop on *.* to 'mmm_test'@'172.24.8.%' identified by 'x120952576' with grant option; #创建之后用于读写分离测试的账号
 7 mysql> flush privileges;

提示:Slave02如上操作。

4.2 Slave节点配置Master01为主

 1 [root@Slave01 ~]# service mysqld restart
 2 [root@Slave01 ~]# mysql -uroot -px120952576
 3 mysql> change master to master_host='172.24.8.10',
 4 -> master_user='repl_user',
 5 -> master_password='x12345678',
 6 -> master_log_file='mysql-bin.000001',
 7 -> master_log_pos=120;
 8 mysql> start slave;
 9 mysql> show slave status\G #查看slave状态

提示:Slave02如上操作。
注意:读写分离对于用于super或者all privileges权限的用户无效,需要创建普通用户进行测试。

五 安装MMM组件

5.1 监控Monitor节点安装MMM

 1 [root@Monitor tmp]# wget http://mirrors.ustc.edu.cn/epel/epel-release-latest-6.noarch.rpm
 2 [root@Monitor tmp]# rpm -ivh epel-release-latest-6.noarch.rpm
 3 [root@Monitor ~]# yum -y install mysql-mmm*

5.2 其他节点安装MMM

 1 [root@Master01 ~]# wget http://mirrors.ustc.edu.cn/epel/epel-release-latest-6.noarch.rpm
 2 [root@Master01 ~]# rpm -ivh epel-release-latest-6.noarch.rpm
 3 [root@Master01 ~]# yum -y install mysql-mmm-agent

注意:
  • MMM组件在常规YUM中不包含,需要安装epel源;
  • 除monitor节点外其他节点只需要安装mysql-mmm-agent即可。

提示:若yum安装出现以下报错,建议在所有节点改用编译安装,操作见附1-附2:

12_thumb1

附1 添加安装Perl脚本

 1 [root@Master01 ~]# cat install.sh
 2 #!/bin/bash
 3 wget http://xrl.us/cpanm --no-check-certificate
 4 mv cpanm /usr/bin
 5 chmod 755 /usr/bin/cpanm
 6 cat > /root/list << EOF
 7 install Algorithm::Diff
 8 install Class::Singleton
 9 install DBI
 10 install DBD::mysql
 11 install File::Basename
 12 install File::stat
 13 install File::Temp
 14 install Log::Dispatch
 15 install Log::Log4perl
 16 install Mail::Send
 17 install Net::ARP
 18 install Net::Ping
 19 install Proc::Daemon
 20 install Thread::Queue
 21 install Time::HiRes
 22 EOF
 23 for package in `cat /root/list`
 24 do
 25 cpanm $package
 26 done

附2 编译安装

 1 [root@Master01 tmp]# wget http://mysql-mmm.org/_media/:mmm2:mysql-mmm-2.2.1.tar.gz
 2 [root@Master01 tmp]# mv \:mmm2\:mysql-mmm-2.2.1.tar.gz mysql-mmm-2.2.1.tar.gz
 3 [root@Master01 tmp]# tar -zxvf mysql-mmm-2.2.1.tar.gz
 4 [root@Master01 tmp]# cd mysql-mmm-2.2.1/
 5 [root@Master01 mysql-mmm-2.2.1]# make install

注意,注意,注意:
通常使用以上编译安装也会失败,强烈建议使用yum安装,但yum安装必须使得MySQL版本为mysql-community-server-5.6.37(或以上)!

5.3 目录构成

目录
介绍
/usr/lib/perl5/vendor_perl/5.8.8/MMM
MMM使用的主要perl模块
/usr/lib/mysql-mmm
MMM使用的主要脚本
/usr/sbin
MM使用的主要命令的路径
/etc/init.d/
MMM的agent和monitor启动服务的目录
/etc/mysql-mmm
MMM配置文件的路径,默认所以的配置文件
/var/log/mysql-mmm
默认的MMM保存日志的位置

六 配置MMM

6.1 Master01的mmm_agent配置

 1 [root@Master01 ~]# vi /etc/mysql-mmm/mmm_agent.conf
 2 include mmm_common.conf
 3 this db1

提示:设置db1的配置信息,此db1名字可自定义,但必须和mmm_common.conf 中一致。

6.2 Master01的mmm_common配置

 1 [root@Master01 ~]# vi /etc/mysql-mmm/mmm_common.conf
 2 active_master_role writer
 3 #当设置为writer的时候,需要在所有MySQL节点设置“read_only=1”,则MMM会本剧每个节点的角色进行动态判断,当MMM的角色设置<role writer>时候,则会自动添加“set global read_only=0”操作,即打开写权限。
 4 <host default>
 5 cluster_interface eth0 #设置网络接口,不能为子接口。
 6 pid_path /var/run/mysql-mmm/mmm_agentd.pid #设定PID文件路径
 7 bin_path /usr/libexec/mysql-mmm/ #设置MMM可执行文件路径
 8 replication_user repl_user #设置复制的用户名
 9 replication_password x12345678 #设置复制的用户名的密码
 10 agent_user mmm_agent #设置更改只读操作的用户
 11 agent_password x12345678 #设置更改只读操作用户的密码
 12 </host>
 13
 14 <host db1> #设置db1的配置信息,此db1名字可自定义,但必须和mmm_agent.conf中一致。
 16 ip 172.24.8.10 #设置db1的物理IP
 17 mode master #设置db1角色为Master
 18 peer db2 #设置db1对等的主机名,即db2和db1均为Master
 19 </host>
 20
 21 <host db2> #类似db1的设置
 22 ip 172.24.8.11
 23 mode master
 24 peer db1
 25 </host>
 26
 27 <host db3> #类似db1的设置
 28 ip 172.24.8.12
 29 mode slave #设置db3的角色为Slave
 30 </host>
 31
 32 <host db4> #类似db1的设置
 33 ip 172.24.8.13
 34 mode slave #设置db4的角色为Slave
 35 </host>
 36
 37 <role writer> #设置可写角色
 38 hosts db1, db2 #设置可执行写操作的主机
 39 ips 172.24.8.100 #设置可写的虚拟IP
 40 mode exclusive #设置角色的模式为互斥,互斥角色只有一个IP,并且同一时间只能分配一个主机。
 41 </role>
 42
 43 <role reader> #设置只读角色
 44 hosts db1, db2, db3, db4 #设置只读角色的主机
 45 ips 172.24.8.101, 172.24.8.102, 172.24.8.103, 172.24.8.104
 46 #设置可读的虚拟IP,可以有多个。
 47 mode balanced
#设置角色的模式为负载均衡,在负载均衡角色中,可以有多个IP,这些IP被均衡地、动态地分配给多个MySQL主机。
 49 </role>

6.3 Master01的mysql-mmm-agent配置

 1 [root@Master01 ~]# vi /etc/default/mysql-mmm-agent
 2 ENABLED=1

注意:使用yum安装则不需要配置mysql-mmm-agent ,默认已经添加了ENABLED=1。

6.4 其他节点配置

 1 [root@Master01 ~]# scp /etc/mysql-mmm/mmm_common.conf root@172.24.8.11:/etc/mysql-mmm/
 2 [root@Master01 ~]# scp /etc/mysql-mmm/mmm_common.conf root@172.24.8.12:/etc/mysql-mmm/
 3 [root@Master01 ~]# scp /etc/mysql-mmm/mmm_common.conf root@172.24.8.13:/etc/mysql-mmm/
 4 [root@Master01 ~]# scp /etc/default/mysql-mmm-agent root@172.24.8.11://etc/default/
 5 [root@Master01 ~]# scp /etc/default/mysql-mmm-agent root@172.24.8.12://etc/default/
 6 [root@Master01 ~]# scp /etc/default/mysql-mmm-agent root@172.24.8.13://etc/default/

提示:所有节点的mysql-mmm-agent和mmm_common.conf内容一致,从Master01复制即可,Monitor不需要配置agent。
 1 [root@Master02 ~]# vi /etc/mysql-mmm/mmm_agent.conf
 2 include mmm_common.conf
 3 this db2
 4 [root@Slave01 ~]## vi /etc/mysql-mmm/mmm_agent.conf
 5 include mmm_common.conf
 6 this db3
 7 [root@Slave02 ~]## vi /etc/mysql-mmm/mmm_agent.conf
 8 include mmm_common.conf
 9 this db4

6.5 管理Monitor节点配置

 1 [root@Monitor ~]# vi /etc/mysql-mmm/mmm_mon.conf
 2 include mmm_common.conf
 3 <monitor>
 4 ip 127.0.0.1 #为了安全,只设置本机监听,mmm_mond默认监听的端口为9988
 6 pid_path /var/run/mysql-mmm/mmm_mond.pid #设置mmm_mond进程pid文件位置
 8 bin_path /usr/libexec/mysql-mmm #mmm可执行文件路径
 10 status_path /var/lib/mysql-mmm/mmm_mond.status #mmm集群的状态文件
 12 ping_ips 172.24.8.10, 172.24.8.11, 172.24.8.12, 172.24.8.13
 13 #用于测试的IP,只要其中有一个地址能ping通,代表网络正常,不要写入本机(即Monitor)IP。
 14 auto_set_online 60 #设置是否自动上线,若大于0,抖动的主机在抖动时间范围过后,自动上线。
 16 ……
 17 </monitor>
 18
 19 <host default>
 20 monitor_user mmm_monitor #设置mmm_monitor账号。
 22 monitor_password x12345678 #设置mmm_monitor密码。
 24 </host>
 25 debug 0 #mmm管理器的运行模式,1为debug模式,0为正常模式。

注意:mmm-mon.conf只需要在监控管理Monitor节点上配置即可。

七 MMM集群的启动

7.1 管理监控Monitor节点启动

 1 [root@Monitor ~]# /etc/init.d/mysql-mmm-monitor start
 2 [root@Monitor ~]# chkconfig mysql-mmm-monitor on

7.2 所有agent节点启动

 1 [root@Master01 ~]# /etc/init.d/mysql-mmm-agent start
 2 [root@Master01 ~]# chkconfig mysql-mmm-agent on
 3 [root@Master02 ~]# /etc/init.d/mysql-mmm-agent start
 4 [root@Master02 ~]# chkconfig mysql-mmm-agent on
 5 [root@Slave01 ~]# /etc/init.d/mysql-mmm-agent start
 6 [root@Slave01 ~]# chkconfig mysql-mmm-agent on
 7 [root@Slave02 ~]# /etc/init.d/mysql-mmm-agent start
 8 [root@Slave02 ~]# chkconfig mysql-mmm-agent on

八 MMM基本维护

8.1 MMM常见命令

 1 [root@Monitor ~]# mmm_control help
 2 Valid commands are:
 3 help - show this message #显示帮助信息
 4 ping - ping monitor #测试网络运行状态
 5 show - show status #显示MMM集群节点状态
 6 checks [<host>|all [<check>|all]] - show checks status #显示MMM集群中指定(所有)节点的详细状态
 8 set_online <host> - set host <host> online #将MMM集群中的节点设置为online状态
 10 set_offline <host> - set host <host> offline #将MMM集群中的节点设置为offline状态
 12 mode - print current mode. #显示MMM集群当前的运行模式,有active(默认)、manual和passive三种模式。
 14 set_active - switch into active mode.
 15 set_manual - switch into manual mode.
 16 set_passive - switch into passive mode. #切换MMM集群到以上三种模式。
 18 move_role [--force] <role> <host> - move exclusive role <role> to host <host>
 19 #在互斥模式下切换角色
 20 (Only use --force if you know what you are doing!)
 21 set_ip <ip> <host> - set role with ip <ip> to host <host>
 22 #用来在被动模式下操纵角色

8.2 查看集群状态

 1 [root@Monitor ~]# mmm_control show
13_thumb1
解释:
ONLINE:节点运行正常,处于在线状态;
ADMIN_OFFLINE:节点是通过手动模式离线的;
HARD_OFFLINE:节点是MMM集群执行ping操纵失败或检测到MySQL失败而切换的一种状态;
AWAITING_RECOVERY:等待恢复状态;
REPLICATION_FAIL:主从复制失败状态,一般由于复制主线程没运行导致;
REPLICATION_DELAY:复制日志有延迟,一般是由于检测日志失败导致的。

8.3 查看集群运行模式

 1 [root@Monitor ~]# mmm_control mode
14_thumb1
解释:
ACTIVE:表示主动模式,也是默认模式,即活动的Master故障后另一个备份的Master可自动接管故障Master角色,继续提供服务。Slave故障后其他节点的Slave也会自动接管故障Slave角色,继续提供服务。
MANUAL:表示手动模式,该模式不会自动执行切换,节点故障需要手动进行切换。
PASSIVE:表示被动模式,在此模式下,MMM管理端不会改变集群节点的角色,也不更新状态文件和发送任何信息给每个agent节点。

8.4 检查节点情况

 1 [root@Monitor ~]# mmm_control checks all
15_thumb1
解释:
ping:主要用来探测网络可用性;
MySQL:检测MySQL服务器是否运行正常;
rep_threads:检测MySQL的复制线程是否正常运行;
rep_backlog:检测MySQL的复制日志是否有积压。
注意:
以上四个检测任何一项出现问题,都会进行角色切换操作,从而保证MySQL服务的高可用性。

8.5 日志文件

db端:/var/log/mysql-mmm/mmm_agentd.log
监控端:/var/log/mysql-mmm/mmm_mond.log

九 测试MMM

9.1 测试集群复制功能

 1 [root@Client ~]# mysql -uroot -px120952576 -h172.24.8.100
 2 mysql> show variables like "%hostname%";
 3 mysql> show variables like "%server_id%";

16_thumb1
 1 mysql> create database mysqltest;
 2 mysql> use mysqltest;
 3 mysql> create table user(id int(5),name char(10));
 4 mysql> insert into user values (00001,'zhangsan');

在Slave从服务器上进行验证:
 1 [root@Master02 ~]# mysql -uroot -px120952576
 2 mysql> show databases;
 3 mysql> select * from mysqltest.user;

17_thumb1
其他所有slave节点测试略。

9.2 读写分离测试

 1 [root@Client ~]# mysql -ummm_test -px120952576 -h172.24.8.101
 2 mysql> use mysqltest;
 3 mysql> create table test_mmm(id int,email varchar(100));

18_thumb1
结论:从reader权限的vip进入后只能进行读,不能写,实现了读写分离。

9.3 故障转移测试

A Master转移
 1 [root@Monitor ~]# mmm_control show #查看现有集群情况
19_thumb1
 1 [root@Master01 ~]# service mysqld stop #停止Master01节点
 2 [root@Monitor ~]# mmm_control show #再次查看集群节点情况

20_thumb1
 1 [root@Master01 ~]# service mysqld start #再次启动Master01节点
 2 [root@Monitor ~]# mmm_control show

21_thumb1
结论:由上可知当Master01节点故障时,writer vip自动切换到Master02上,当Master01节点重新启动,writer vip并不会切回Master01,类似Keepalived中的不抢占模式,若需要Master01切回writer,可执行以下命令手动切回:
 1 [root@Monitor ~]# mmm_control move_role writer db1
 2 [root@Monitor ~]# mmm_control show

22_thumb1
B Slave转移
 1 [root@Slave01 ~]# service mysqld stop
 2 [root@Monitor ~]# mmm_control show

23_thumb1
 1 [root@Slave01 ~]# service mysqld start
 2 [root@Monitor ~]# mmm_control show

24_thumb1
结论:由上可知当Slave01节点故障时,reader vip自动切换到Master02上,当Slave01节点重新启动,reader vip会切回Slave01。

十 MMM总结

  1. Master02节点宕机不影响集群的状态,只是移除了Master02节点的读状态;
  2. Master01主节点宕机,由Master02主节点接管写角色,Slave01、Slave02指向新Master02主库进行复制,Slave01、Slave02会自动change master到Master02;
  3. MMM架构需要多个节点、多个IP,对服务器数量有要求;
  4. 在读写非常繁忙的业务系统下表现不是很稳定,可能会出现复制延时、切换失效等问题;
  5. MMM方案并不太适应于对数据安全性要求很高,并且读、写繁忙的环境中
参考资料1:http://www.cnblogs.com/chenmh/p/5563778.html
参考资料2:http://www.cnblogs.com/gomysql/p/3671896.html
参考资料3:《循序渐进Linux》
版权声明
本文为[木二]所创,转载请带上原文链接,感谢
https://www.cnblogs.com/itzgr/p/10332602.html

编程之旅,人生之路,不止于编程,还有诗和远方。
阅代码原理,看框架知识,学企业实践;
赏诗词,读日记,踏人生之路,观世界之行;

支付宝红包,每日可领