一.简介
本文将介绍如何使用mysql-mmm搭建数据库的高可用架构.
二.环境
服务器 |
主机名 |
Ip |
Severed |
Mysql版本 |
系统 |
Master1 |
master1 |
192.168.4.10 |
10 |
5.6.15 |
Centos6.9 |
Master2 |
master2 |
192.168.4.11 |
11 |
5.6.15 |
|
Slave1 |
slave1 |
192.168.4.12 |
12 |
5.6.15 |
|
Slave2 |
slave2 |
192.168.4.13 |
13 |
5.6.15 |
|
Monitor |
monitor |
192.168.4.100 |
无 |
无 |
|
Client |
client |
192.168.4.120 |
无 |
5.6.15 |
|
虚拟IP
虚拟ip |
功能 |
描述 |
192.168.4.200 |
Write |
主用master写入虚拟Ip |
192.168.4.201 |
read |
读服务器虚拟Ip |
192.168.4.202 |
Read |
读服务器虚拟Ip |
案例图谱
三.mmm架构
服务器角色
类型 |
服务进程 |
主要用途 |
管理节点 |
mmm-monitor |
负责所有的监控工作的监控守护进程,决定故障节点的移除或恢复。 |
数据库节点 |
mmm-agent |
运行所在MySQL服务器殇的代理守护进程,提供简单远程服务集、提供给监控节点(可用来更改只读模式、复制的主服务器等 ) |
核心软件包及应用
软件包名 |
包作用 |
Net-ARP-1.0.8.tgz |
分配虚拟ip |
mysql-mmm-2.2.1.tar.gz |
MySQL-MMM架构核心进程,安装完成后即可启动管理进程也可启动客户端进程。 |
四.部署集群基本结构
我们将部署集群的工作分为两大块,第一块就是部署集群基础环境。使用4台RHEL6服务器,如下图所示。其中192.168.4.10、192.168.4.11作为MySQL双主服务器,192.168.4.12、192.168.4.13作为主服务器的从服务器。
安装服务器时建议管理防火墙及SELINUX.
4.1 mysql服务器的安装
下面我会介绍MySQL的安装方式。本文将使用64位的RHEL 6操作系统,MySQL数据库的版本是5.6.15。
访问http://dev.mysql.com/downloads/mysql/,找到MySQL Community Server下载页面,平台选择“Red Hat Enterprise Linux 6 / Oracle Linux 6”,然后选择64位的bundle整合包下载,如下图所示。
注意:下载MySQL软件时需要以Oracle网站账户登录,如果没有请根据页面提示先注册一个(免费) 。
4.1.1 卸载系统自带的mysql-server、mysql软件包(如果有的话)
yum -y remove mysql-server mysql
4.1.2 释放MySQL-bundle整合包
[root@master1 ~]#tar xvf MySQL-5.6.15-1.el6.x86_64.rpm-bundle.tar MySQL-shared-5.6.15-1.el6.x86_64.rpm //共享库 MySQL-shared-compat-5.6.15-1.el6.x86_64.rpm //兼容包 MySQL-server-5.6.15-1.el6.x86_64.rpm //服务端程序 MySQL-client-5.6.15-1.el6.x86_64.rpm //客户端程序 MySQL-devel-5.6.15-1.el6.x86_64.rpm //库和头文件 MySQL-embedded-5.6.15-1.el6.x86_64.rpm //嵌入式版本 MySQL-test-5.6.15-1.el6.x86_64.rpm //测试包
4.1.3 安装MySQL数据库
[root@master1]# rpm -Uvh MySQL-*.rpm
4.1.4 启动MySQL数据库
[root@master1 ~]# service mysql start && chkconfig --list mysql Starting MySQL SUCCESS! mysql 0:关闭 1:关闭 2:启用 3:启用 4:启用 5:启用 6:关闭
4.1.5 MySQL密码
在安装完后会自动生成在root目录下.mysql_secret文件内 查询后可使用此密码登录Mysql
[root@master1 ~]# cat .mysql_secret # The random password set for the root user at Mon Jan 1 16:48:31 2001 (local time): kZ5j71cyZiKKhSeX // 密码文件
4.1.6 登录MySQL,并修改密码 使用刚查到的密码进行登录
[root@master1 ~]# mysql -u root -p Enter password: mysql> SET PASSWORD FOR 'root'@'localhost'=PASSWORD('123456');
修改后再次登录时既可以使用新密码了。
按照上述方法 将4台服务器均装好MySQL。
4.2 部署双主多从结构
1.数据库授权(4台数据库主机master1,master2,slave1,slave2执行以下操作)
部署主从同步只需要授权一个主从同步用户即可,但是我们要部署MySQL-MMM架构,所以在这里我们将MySQL-MMM所需用户一并进行授权设置。再授权一个测试用户,在架构搭建完成时测试使用。
mysql> grant replication slave on *.* to slaveuser@"%" identified by "pwd123"; Query OK, 0 rows affected (0.01 sec) //主从同步授权 mysql> grant replication client on *.* to monitor@"%" identified by "monitor"; Query OK, 0 rows affected (0.00 sec) //MMM所需架构用户授权 mysql> grant replication client,process,super on *.* to agent@"%" identified by "agent"; Query OK, 0 rows affected (0.00 sec) //MMM所需架构用户授权 mysql> grant all on *.* to root@"%" identified by "123456"; Query OK, 0 rows affected (0.00 sec) //测试用户授权
2.开启主数据库binlog日志、设置server_id(master1,master2)
master1设置
[root@master1 ~]# cat /etc/my.cnf [mysqld] datadir=/var/lib/mysql socket=/var/lib/mysql/mysql.sock user=mysql # Disabling symbolic-links is recommended to prevent assorted security risks symbolic-links=0 server_id=10 //指定服务器ID log_bin //启用binlog日志
log_slave_updates=1 //启用链式复制 [mysqld_safe] log-error=/var/log/mysqld.log pid-file=/var/run/mysqld/mysqld.pid [root@master1 ~]# [root@master1 ~]# service mysql restart //重启MySQL服务 Shutting down MySQL.. [确定] Starting MySQL.. [确定] [root@master1 ~]# ls /var/lib/mysql/master1-bin* //查看binlog日志是否生成 /var/lib/mysql/master1-bin.000001 /var/lib/mysql/master1-bin.index
master2设置:
[root@master2 mysql]# cat /etc/my.cnf [mysqld] datadir=/var/lib/mysql socket=/var/lib/mysql/mysql.sock user=mysql # Disabling symbolic-links is recommended to prevent assorted security risks symbolic-links=0 server_id=11
log_slave_updates=1
log-bin [mysqld_safe] log-error=/var/log/mysqld.log pid-file=/var/run/mysqld/mysqld.pid [root@master2 mysql]# /etc/init.d/mysql restart Shutting down MySQL.. SUCCESS! Starting MySQL. SUCCESS! [root@master2 mysql]# ls /var/lib/mysql/master2-bin.* /var/lib/mysql/master2-bin.000001 /var/lib/mysql/master2-bin.000002 /var/lib/mysql/master2-bin.index
从库设置serverid
slave1设置
[root@slave1 mysql]# cat /etc/my.cnf [mysqld] datadir=/var/lib/mysql socket=/var/lib/mysql/mysql.sock user=mysql # Disabling symbolic-links is recommended to prevent assorted security risks symbolic-links=0 server_id=12 …
[root@slave1 ~]# service mysql restart
slave2设置
[root@slave2 mysql]# cat /etc/my.cnf [mysqld] datadir=/var/lib/mysql socket=/var/lib/mysql/mysql.sock user=mysql # Disabling symbolic-links is recommended to prevent assorted security risks symbolic-links=0 server_id=13 … [root@slave2~]# service mysql restart
3.配置主从从从关系
配置master2、slave1、slave2成为master1的从服务器
查看master1的master状态
mysql> show master status\G *************************** 1. row *************************** File: master1-bin.000002 Position: 120 Binlog_Do_DB: Binlog_Ignore_DB: Executed_Gtid_Set: 1 row in set (0.00 sec)
依照上面参数配置master2为master1的从服务器
mysql> change master to -> master_host="192.168.4.10", -> master_user="slaveuser", -> master_password="pwd123", -> master_log_file="master1-bin.000002", -> master_log_pos=120; Query OK, 0 rows affected, 2 warnings (0.01 sec) mysql> start slave; Query OK, 0 rows affected (0.00 sec) mysql> show slave status\G Slave_IO_Running: Yes //IO节点正常 Slave_SQL_Running: Yes //SQL节点正常
用同样的方法设置slave1以及slave2为master1的从服务器
4.配置主主从从关系,将master1配置为master2的从服务器
查看master2的master信息:
mysql> show master status \G *************************** 1. row *************************** File: master2-bin.000002 Position: 120 Binlog_Do_DB: Binlog_Ignore_DB: Executed_Gtid_Set: 1 row in set (0.00 sec)
设置master1成为master2的从服务器
mysql> change master to -> master_host="192.168.4.11", -> master_user="slaveuser", -> master_password="pwd123", -> master_log_file="master2-bin.000002", -> master_log_pos=120; Query OK, 0 rows affected, 2 warnings (0.01 sec) mysql> start slave ; Query OK, 0 rows affected (0.00 sec) mysql> show slave status \G *************************** 1. row *************************** Slave_IO_Running: Yes //IO节点正常 Slave_SQL_Running: Yes //SQL节点正常
5.测试主从架构是否成功
master1更新数据库,查看其它主机是否成功 ,当所有主机分别在本机都能看到刚刚建立的数据库db1,则正常。
mysql> create database db1; Query OK, 1 row affected (0.00 sec) mysql> show databases; +--------------------+ | Database | +--------------------+ | information_schema | | db1 | | mysql | | performance_schema | | test | +--------------------+ 5 rows in set (0.00 sec)
至此,基本环境构建完成。
五.MySQL-MMM架构部署
5.1 MMM集群方案
使用第4章的架构,192.168.4.10、192.168.4.11作为MySQL双主服务器,192.168.4.12、192.168.4.13作为主服务器的从服务器,添加192.168.4.100作为MySQL-MMM架构中管理监控服务器,实现监控MySQL主从服务器的工作状态及决定故障节点的移除或恢复工作,架构搭建完成后使用客户机192.168.4.120进行访问,客户机需要安装MySQL-client软件包。拓扑见图2
5.2 步骤
实现此案例需要按照如下步骤进行。
步骤一:安装MySQL-MMM
1.安装依赖关系(MySQL集群内5台服务器master1,master2,slave1,slave2,monitor)均需安装
[root@master2 mysql]# yum -y install gcc* perl-Date-Manip perl-Date-Manip perl-Date-Manip perl-XML-DOM-XPath perl-XML-Parser perl-XML-RegExp rrdtool perl-Class-Singleton perl perl-DBD-MySQL perl-Params-Validate perl-MailTools perl-Time-HiRes perl-ExtUtils-CBuilder perl-ExtUtils-MakeMaker
2.安装MySQL-MMM软件依赖包(MySQL集群内5台服务器master1,master2,slave1,slave2,monitor)均需安装。
-
安装Log-Log4perl 类
[root@master1 mysql-mmm]# rpm -ivh perl-Log-Log4perl-1.26-1.el6.rf.noarch.rpm warning: perl-Log-Log4perl-1.26-1.el6.rf.noarch.rpm: Header V3 DSA/SHA1 Signature, key ID 6b8d79e6: NOKEY error: Failed dependencies: perl(Test::More) >= 0.45 is needed by perl-Log-Log4perl-1.26-1.el6.rf.noarch [root@master1 mysql-mmm]# rpm -ivh perl-Log-Log4perl-1.26-1.el6.rf.noarch.rpm --force --nodeps
我在安装过程中报了错误显示nokey ,由于是安装了旧版本GPGkeys造成,增加参数--force –nodeps强制安装即可跳过
- 安装Algorithm-Diff类
[root@master1 mysql-mmm]# tar -zxvf Algorithm-Diff-1.1902.tar.gz Algorithm-Diff-1.1902/ Algorithm-Diff-1.1902/diffnew.pl Algorithm-Diff-1.1902/t/ Algorithm-Diff-1.1902/t/oo.t Algorithm-Diff-1.1902/t/base.t Algorithm-Diff-1.1902/htmldiff.pl Algorithm-Diff-1.1902/lib/ Algorithm-Diff-1.1902/lib/Algorithm/ Algorithm-Diff-1.1902/lib/Algorithm/Diff.pm Algorithm-Diff-1.1902/lib/Algorithm/DiffOld.pm Algorithm-Diff-1.1902/META.yml Algorithm-Diff-1.1902/Changes Algorithm-Diff-1.1902/cdiff.pl Algorithm-Diff-1.1902/MANIFEST Algorithm-Diff-1.1902/diff.pl Algorithm-Diff-1.1902/Makefile.PL Algorithm-Diff-1.1902/README [root@master1 mysql-mmm]# cd Algorithm-Diff-1.1902 [root@master1 Algorithm-Diff-1.1902]# perl Makefile.PL Checking if your kit is complete... Looks good Writing Makefile for Algorithm::Diff [root@master1 Algorithm-Diff-1.1902]# make && make install
3.安装Proc-Daemon类
root@master1 mysql-mmm]# tar -zxvf Proc-Daemon-0.03.tar.gz Proc-Daemon-0.03/ Proc-Daemon-0.03/t/ Proc-Daemon-0.03/t/00modload.t Proc-Daemon-0.03/t/01filecreate.t Proc-Daemon-0.03/README Proc-Daemon-0.03/Makefile.PL Proc-Daemon-0.03/Daemon.pm Proc-Daemon-0.03/Changes Proc-Daemon-0.03/MANIFEST [root@master1 mysql-mmm]# cd Proc-Daemon-0.03 [root@master1 Proc-Daemon-0.03]# perl Makefile.PL Checking if your kit is complete... Looks good Writing Makefile for Proc::Daemon [root@master1 Proc-Daemon-0.03]# make && make install cp Daemon.pm blib/lib/Proc/Daemon.pm Manifying blib/man3/Proc::Daemon.3pm Installing /usr/local/share/perl5/Proc/Daemon.pm Installing /usr/local/share/man/man3/Proc::Daemon.3pm Appending installation info to /usr/lib64/perl5/perllocal.pod [root@master1 Proc-Daemon-0.03]#
4.安装Net-ARP虚拟IP分配工具:
[root@mysql-master1 ~]# gunzip Net-ARP-1.0.8.tgz [root@mysql-master1 ~]# tar xvf Net-ARP-1.0.8.tar .. .. [root@mysql-master1 ~]# cd Net-ARP-1.0.8 [root@mysql-master1 Net-ARP-1.0.8]# perl Makefile.PL Module Net::Pcap is required for make test! Checking if your kit is complete... Looks good Writing Makefile for Net::ARP [root@mysql-master1 Net-ARP-1.0.8]# make && make install .. .. [root@mysql-master1 Net-ARP-1.0.8]# cd [root@mysql-master1 ~]#
5. 安装Mysql-MMM软件包:
[root@mysql-master1 ~]# tar xvf mysql-mmm-2.2.1.tar.gz .. .. [root@mysql-master1 ~]# cd mysql-mmm-2.2.1 [root@mysql-master1 mysql-mmm-2.2.1]# make && make install .. .. [root@mysql-master1 mysql-mmm-2.2.1]#
步骤二:修改配置文件
- 修改公共配置文件
本案例中MySQL集群的5台服务器(master1、master2、slave1、slave2、monitor)都需要配置,可以先配好一台后使用scp复制。
root@master1 ~]# vim /etc/mysql-mmm/mmm_common.conf active_master_role writer <host default> cluster_interface eth0 //设置主从同步的用户 pid_path /var/run/mmm_agentd.pid bin_path /usr/lib/mysql-mmm/ replication_user slaveuser //设置主从同步的用户 replication_password pwd123 //设置主从同步用户密码 agent_user agent //mmm-agent控制数据库用户 agent_password agent //mmm-agent控制数据库用户密码 </host> <host master1> //设置第一个主服务器 ip 192.168.4.10 //master1 IP 地址 mode master peer master2 //指定另外一台主服务器 </host> <host master2> //指定另外一台主服务器 ip 192.168.4.11 mode master peer master1 </host> <host slave1> //设置第一台从服务器 ip 192.168.4.12 //slave1 IP 地址 mode slave //本段落配置的是slave服务器 </host> <host slave2> ip 192.168.4.13 mode slave </host> <role writer> //设置写入服务器工作模式 hosts master1,master2 //提供写的主服务器 ips 192.168.4.200 //设置VIP地址 mode exclusive //排他模式 </role> <role reader> //设置读取服务器工作模式 hosts slave1,slave2 //提供读的服务器信息 ips 192.168.4.201,192.168.4.202 //多个虚拟IP mode balanced //均衡模式 </role>
2.修改管理主机配置文件(monitor主机配置)
[root@monitor ~]# vim /etc/mysql-mmm/mmm_mon.conf include mmm_common.conf <monitor> ip 192.168.4.100 //设置管理主机IP地址 pid_path /var/run/mmm_mond.pid bin_path /usr/lib/mysql-mmm/ status_path /var/lib/misc/mmm_mond.status ping_ips 192.168.4.10,192.168.4.11,192.168.4.12,192.168.4.13 //设置被监控数据库 </monitor> <host default> monitor_user monitor //监控数据库MySQL用户 monitor_password monitor //监控数据库MySQL用户密码 </host> debug 0 [root@monitor ~]#
3.修改客户端配置文件
master1、master2、slave1、slave2,都要配置相应名称
root@master1 /]# cat /etc/mysql-mmm/mmm_agent.conf include mmm_common.conf this master1 [root@master2 /]# cat /etc/mysql-mmm/mmm_agent.conf include mmm_common.conf this master2 [root@slave2 /]# cat /etc/mysql-mmm/mmm_agent.conf include mmm_common.conf this slave2 [root@slave2 /]# cat /etc/mysql-mmm/mmm_agent.conf include mmm_common.conf this slave2
六.MySQL-MMM架构使用
6.1.启动MySQL-MMM架构
1.启动mmm-agent
master1,master2,slave1,slave2均执行以下操作。
[root@master1 ~]# /etc/init.d/mysql-mmm-agent start Daemon bin: '/usr/sbin/mmm_agentd' Daemon pid: '/var/run/mmm_agentd.pid' Starting MMM Agent daemon... Ok
2.启动mmm-monitor
[root@moitor ~]# /etc/init.d/mysql-mmm-monitor start Daemon bin: '/usr/sbin/mmm_mond' Daemon pid: '/var/run/mmm_mond.pid' Starting MMM Monitor daemon: Ok
6.2 设置集群中服务器为online状态。
控制命令只能在管理端Monitor上运行。开用命令查看当前个服务器状态。 默认所有服务器为waiting状态,如有异常,检查各服务器SELinux及iptabless
[root@localhost ~]# mmm_control show master1(192.168.4.10) master/AWAITING_RECOVERY. Roles: master2(192.168.4.11) master/AWAITING_RECOVERY. Roles: slave1(192.168.4.12) slave/ AWAITING_RECOVERY. Roles: slave2(192.168.4.13) slave/AWAITING_RECOVERY. Roles:
通过命令设置4台数据库主机为online
[root@monitor ~]# mmm_control set_online master1 OK: State of 'master1' changed to ONLINE. Now you can wait some time and check its new roles! [root@monitor ~]# mmm_control set_online master2 OK: State of 'master2' changed to ONLINE. Now you can wait some time and check its new roles! [root@monitor ~]# mmm_control set_online slave1 OK: State of 'slave1' changed to ONLINE. Now you can wait some time and check its new roles! [root@monitor ~]# mmm_control set_online slave2 OK: State of 'slave2' changed to ONLINE. Now you can wait some time and check its new roles! [root@monitor ~]#
再次查看当前集群中各服务器状态
[root@monitor ~]# mmm_control show master1(192.168.4.10) master/ONLINE. Roles: writer(192.168.4.200) master2(192.168.4.11) master/ONLINE. Roles: slave1(192.168.4.12) slave/ONLINE. Roles: reader(192.168.4.201) slave2(192.168.4.13) slave/ONLINE. Roles: reader(192.168.4.202)
通过状态,可以看到4台主机全是online状态,写入服务器为master1,ip为虚拟ip192.168.4.200.从服务器为slave1,slave2.
6.3 测试MySQL-MMM架构
客户端安装MySQL-client
[root@client ~]# tar xvf MySQL-5.6.15-1.el6.x86_64.rpm-bundle.tar .. .. [root@client ~]# rpm -ivh MySQL-client-5.6.15-1.el6.x86_64.rpm
MySQL-MMM虚拟IP访问测试,同时可测试建立插入查看等功能。
[root@client /]# mysql -h192.168.4.200 -uroot -p123456 -e "show databases" Warning: Using a password on the command line interface can be insecure. +--------------------+ | Database | +--------------------+ | information_schema | | db1 | | db2 | | mysql | | performance_schema | | test | +--------------------+ [root@client /]#
6.4 主数据库宕机测试
我们可以认为将主数据库停用达到测试集群的目的。
[root@master1 ~]# /etc/init.d/mysql stop Shutting down MySQL.. SUCCESS! [root@master1 ~]#
此时我们查看monitor日志可以看到详细的检测及切换过程。
017/10/24 01:37:07 WARN Check 'rep_backlog' on 'master1' is in unknown state! Message: UNKNOWN: Connect error (host = 192.168.4.10:3306, user = monitor)! Lost connection to MySQL server at 'reading initial communication packet', system error: 111 2017/10/24 01:37:07 WARN Check 'rep_threads' on 'master1' is in unknown state! Message: UNKNOWN: Connect error (host = 192.168.4.10:3306, user = monitor)! Lost connection to MySQL server at 'reading initial communication packet', system error: 111 2017/10/24 01:37:15 ERROR Check 'mysql' on 'master1' has failed for 10 seconds! Message: ERROR: Connect error (host = 192.168.4.10:3306, user = monitor)! Lost connection to MySQL server at 'reading initial communication packet', system error: 111 2017/10/24 01:37:16 FATAL State of host 'master1' changed from ONLINE to HARD_OFFLINE (ping: OK, mysql: not OK) 2017/10/24 01:37:16 INFO Removing all roles from host 'master1': 2017/10/24 01:37:16 INFO Removed role 'writer(192.168.4.200)' from host 'master1' 2017/10/24 01:37:16 INFO Orphaned role 'writer(192.168.4.200)' has been assigned to 'master2'
在monitor上再次查看数据库服务器状态,可以发现此时master1已经为offline状态,写入服务器及虚拟ip192.168.4.200已经变更为master2
[root@monitor ~]# mmm_control show master1(192.168.4.10) master/HARD_OFFLINE. Roles: master2(192.168.4.11) master/ONLINE. Roles: writer(192.168.4.200) slave1(192.168.4.12) slave/ONLINE. Roles: reader(192.168.4.201) slave2(192.168.4.13) slave/ONLINE. Roles: reader(192.168.4.202)
查看slave1.slave2的的从属关系,主服务器以变更为master2
mysql> show slave status \G *************************** 1. row *************************** Slave_IO_State: Waiting for master to send event Master_Host: 192.168.4.11 Master_User: slaveuser Master_Port: 3306 Connect_Retry: 60 Master_Log_File: master2-bin.000002 Read_Master_Log_Pos: 211 Relay_Log_File: slave1-relay-bin.000002 Relay_Log_Pos: 285 Relay_Master_Log_File: master2-bin.000002 Slave_IO_Running: Yes Slave_SQL_Running: Yes
注意服务器恢复后由offline状态转换为waiting状态,但不会变为Online状态,需手动启用。
至此,我们的MySQL高可用集群已经部署完毕。
7.简化版集群。
上面我们已经部署完了5台服务器组成的MySQL集群,但根据各公司实际情况,可能访问量并不需要如此多的服务器进行集群化。而主从服务器的形式又不能实现主备用之间的热备。下面我将上例做了更改,使用3台服务器搭建集群。此例即不需要太多服务器,又能实现数据库的热备份。
我们现在要做的就是对monitor配置的更改,首先调整被监控服务器IP,修改MMM主配置文件。
[root@monitor ~]# cat /etc/mysql-mmm/mmm_mon.conf include mmm_common.conf <monitor> ip 192.168.4.100 pid_path /var/run/mmm_mond.pid bin_path /usr/lib/mysql-mmm/ status_path /var/lib/misc/mmm_mond.status ping_ips 192.168.4.10,192.168.4.11 //此处是被监控服务器IP </monitor> <host default> monitor_user monitor monitor_password monitor </host> debug 0 [root@monitor ~]#
然后修改公共配置文件,注意master1,master2,monior保持一致,都要修改。
[root@monitor ~]# cat /etc/mysql-mmm/mmm_common.conf active_master_role writer <host default> cluster_interface eth0 pid_path /var/run/mmm_agentd.pid bin_path /usr/lib/mysql-mmm/ replication_user slaveuser replication_password pwd123 agent_user agent agent_password agent </host> <host master1> ip 192.168.4.10 mode master peer master2 </host> <host master2> ip 192.168.4.11 mode master peer master1 </host> <role writer> hosts master1,master2 ips 192.168.4.200 mode exclusive </role> <role reader> hosts master1,master2 ips 192.168.4.201,192.168.4.202 mode balanced </role> [root@monitor ~]#
配置完成后 ,其它配置与5台拓扑类似,启用master1和master2 的 mmm进程 ,在 monitor服务器启用online模式后 查看mmm状态
[root@monitor ~]# mmm_control show master1(192.168.4.10) master/ONLINE. Roles: reader(192.168.4.201), writer(192.168.4.200) master2(192.168.4.11) master/ONLINE. Roles: reader(192.168.4.202)
可以看到master1和master2都承担读的工作,而master1又单独承担写的任务。下面测试将master1的数据库关闭看结果。
[root@monitor ~]# mmm_control show master1(192.168.4.10) master/HARD_OFFLINE. Roles: master2(192.168.4.11) master/ONLINE. Roles: reader(192.168.4.201), reader(192.168.4.202), writer(192.168.4.200)
可以看到 ,当关闭master1时,master2即承担读的工作又承担写的工作 。用户始终可以通过链接192.168.4.200进行数据库操作,实现了双击热备。
八.故障分析
试验中遇到了两次问题 。列出仅供参考
问题1
mysql> show slave status \G *************************** 1. row *************************** ………….. Slave_IO_Running: Connecting Slave_SQL_Running: Yes …………. Last_IO_Errno: 2003 Last_IO_Error: error connecting to master 'slaveuser@192.168.4.10:3306' - retry-time: 60 retries: 2 1 row in set (0.00 sec)
关闭matse selinux 清空防火墙 ,关闭防火墙后重启slave解决。
问题2
搭建过程中,多次更改配置后 ,遇到如下错误
mysql> start slave; ERROR 1872 (HY000): Slave failed to initialize relay log info structure from the repository
此问题使用reset slave all清空所有的复制信息,然后重置master.infor
start slave后复制正常。