mysql5.6部署集群基础环境
建站服务器
mysql5.6部署集群基础环境
成都创新互联服务项目包括明水网站建设、明水网站制作、明水网页制作以及明水网络营销策划等。多年来,我们专注于互联网行业,利用自身积累的技术优势、行业经验、深度合作伙伴关系等,向广大中小型企业、政府机构等提供互联网行业的解决方案,明水网站推广取得了明显的社会效益与经济效益。目前,我们服务的客户以成都为中心已经辐射到明水省份的部分城市,未来相信会继续扩大服务区域并继续获得客户的支持与信任!-----------------------------
部署集群基础环境
Mysql-MMM架构部署
MYSQL-MMM架构使用
部署集群基础环境
192.168.4.10 master1
192.168.4.11 master2
192.168.4.12 slave1
192.168.4.13 slave2
192.168.4.100 monitor
使用5台mysql5.6 其中192.168.4.10、192.168.4.11作为mysql双主服务器,192.168.4.12、 192.168.4.13作为主服务器的从服务器。
192.168.4.100 作为mysql-MMM架构中管理监控服务器,
步骤一:配置hosts本地解析
1.配置本机hosts解析记录
[root@master1 ~]# cat /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.4.10 master1 master1.tarena.com
192.168.4.11 master2 master2.tarena.com
192.168.4.12 slave1 slave1.tarena.com
192.168.4.13 slave2 slave2.tarena.com
192.168.4.100 monitor monitor.tarena.com
2.测试hosts解析成功
[root@master1 ~]# ping -c 3 master1
PING master1 (192.168.4.10) 56(84) bytes of data.
64 bytes from master1 (192.168.4.10): icmp_seq=1 ttl=64 time=0.019 ms
64 bytes from master1 (192.168.4.10): icmp_seq=2 ttl=64 time=0.019 ms
64 bytes from master1 (192.168.4.10): icmp_seq=3 ttl=64 time=0.022 ms
--- master1 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2000ms
rtt min/avg/max/mdev = 0.019/0.020/0.022/0.001 ms
---------------------------------------------------
步骤二:部署数据库主机
http://xmomo.blog.51cto.com/5994484/1939747
步骤三:部署双主多从结构
1)数据库授权(4台数据库主机master1,master2,slave1,slave2执行以下操作)
部署主从同步只需要授权一个主从同步用户即可,但是我们要部署mysql-MMM架构,
所以在这里我们将mysql-MMM所需用户一并进行授权设置。再授权一个测试用户,在架构搭建完成时测试使用。
master1设置:
[root@master1 ~]# mysql -uroot -ppwd123
数据库授权部分为了方便试验我直接允许所有地址访问了,生产环境需谨慎
mysql> grant replication slave on *.* to slaveuser@% identified by pwd123; //主从同步授权
Query OK,0 rows affected(0.00 sec)
mysql> grant replication client on *.* to monitor@% identified by monitor; //MMM所需架构用户授权
Query OK,0 rows affected(0.06 sec)
mysql> grant replication client,process,super on *.* to agent@% identified by agent; //MMM所需架构用户授权
Query OK,0 rows affected(0.00 sec)
mysql> grant all on *.* to root@% identified by pwd123; //测试用户授权
Query OK,0 rows affected(0.00 sec)
mysql>
2)开启主数据库bin-log日志、设置server_id(master1,master2)
master1设置:
[root@master1 ~]# vi /etc/my.cnf
[mysqld]
server_id=100 //设置server_id,服务器唯一ID,必须是1至232-1之间的整数
log-bin //(主库必须开启)开启bin-log日志
master2设置:
[root@master2 ~]# vi /etc/my.cnf
[mysqld]
server_id=101
log-bin
重启两台主库的mysql服务
3)从库设置server_id(slave1,slave2)
slave1设置:
[root@slave1 ~]#vi /etc/my.cnf
[mysqld]
log-bin //主库必须开启
server-id=102
注意:在集群,所有的服务器ID编号都必须是唯一的。
mysql主库的二进制日志必须要开启,从服务器上二进制日志功能是不需要开启的。
但是,你也可以通过启用从服务器的二进制日志功能,实现数据备份与恢复,此外在一些更复杂的拓扑环境中,mysql从服务器也可以扮演其他从服务器的主服务器。
slave2设置:
[root@slave2 ~]#vi /etc/my.cnf
[mysqld]
log-bin
server-id=103
重启两台从库的mysql服务
4)配置主从从从关系
配置master2、slave1、slave2成为master1的从服务器
查看master1服务器bin-log日志使用节点信息:
[root@master1 ~]# mysql -uroot -ppwd123
....
mysql> flush tables with read lock;
mysql> show master status\\G
***************************1. row ***************************
File: master1-bin.000001
Position:120
Binlog_Do_DB:
Binlog_Ignore_DB:
Executed_Gtid_Set:
1 row inset(0.00 sec)
mysql>
mysql> unlock tables;
注意:执行完此步骤后不要再操作主服务器mysql,防止主服务器状态值变化
防止其他主机操作主数据库,可以用只读锁表的方式来防止数据库被修改。
flush tables with read lock; 命令的作用是对所有数据库的所有表执行只读锁定,
只读锁定后所有数据库的写操作将被拒绝,但读操作可以继续。
执行锁定可以防止在查看二进制日志信息的同时有人对数据进行修改操作,
最后使用unlock tables; 语句对全局锁执行结束操作。
设置master2为master1的从库:
[root@master2 ~]# mysql -uroot -ppwd123
....
mysql> change master to master_host=\'192.168.4.10\',master_user=\'slaveuser\',master_password=\'pwd123\',master_log_file=\'master1-bin.000001\',master_log_pos=120;
数据复制的关键操作是配置从服务器去连接主服务器进行数据复制,我们需要告知从服务器建立网络连接所有必要的信息。
使用CHANGE MASTER TO 语句即可完成该项工作,
MASTER_HOST 指定主服务器主机名或IP地址,
MASTER_USER 为主服务器上创建的拥有复制权限的账户名称,
MASTER_PASSWORD 为该账户的密码,
MASTER_LOG_FILE 指定主服务器二进制日志文件名称,
MASTER_LOG_POS 为主服务器二进制日志当前记录的位置。
mysql> start slave; //启动同步进程
注:以为我之前做过主从,在启动同步进程的时候报错(1872)。可以用命令 reset slave; 然后在change master to重新连接。
mysql> show slave status\\G //查看主从是否成功
....
启动同步进程后查看IO节点和SQL节点是否为Yes如果均为Yes表示主从正常。
Slave_IO_Running: Yes //IO节点正常
Slave_SQL_Running: Yes //SQL节点正常
....
设置slave1为master1从:
[root@slave1 ~]# mysql -uroot -ppwd123
mysql>change master to master_host=\'192.168.4.10\',master_user=\'slaveuser\',master_password=\'pwd123\',master_log_file=\'master1-bin.000001\',master_log_pos=120;
mysql> start slave;
mysql> show slave status\\G
....
Slave_IO_Running: Yes //IO节点正常
Slave_SQL_Running: Yes //SQL节点正常
....
mysql>
设置slave2为master1从:
[root@slave2 ~]# mysql -uroot -ppwd123
....
mysql>change master to master_host=\'192.168.4.10\',master_user=\'slaveuser\',master_password=\'pwd123\',master_log_file=\'master1-bin.000001\',master_log_pos=120;
mysql> start slave;
mysql> show slave status\\G
....
Slave_IO_Running: Yes //IO节点正常
Slave_SQL_Running: Yes //SQL节点正常
....
---------------------------------------------------------------------------------------------
5)配置主主从从关系,将master1配置为master2的从
查看master2的bin-log使用信息:
[root@master2 ~]# mysql -uroot -ppwd123
....
mysql> show master status\\G
***************************1. row ***************************
File: master2-bin.000001
Position:120
Binlog_Do_DB:
Binlog_Ignore_DB:
Executed_Gtid_Set:
1 row inset(0.00 sec)
设置master1成为master2的从:
[root@master1 ~]# mysql -uroot -ppwd123
....
mysql> change master to master_host=\'192.168.4.11\',master_user=\'slaveuser\',master_password=\'pwd123\',master_log_file=\'master2-bin.000001\',master_log_pos=120;
mysql> start slave;
Query OK,0 rows affected(0.27 sec)
mysql> show slave status\\G
....
Slave_IO_Running: Yes //IO节点正常
Slave_SQL_Running: Yes //SQL节点正常
....
6)测试主主从从架构是否成功
master1更新数据,查看其它主机是否同步:
[root@master1 ~]# mysql -uroot -ppwd123
....
mysql> show databases;
+--------------------+
| Database |
+--------------------+
| information_schema |
| mysql |
| performance_schema |
| test |
+--------------------+
4 rows inset(0.00 sec)
mysql> create database tarena;
mysql> show databases;
+--------------------+
| Database |
+--------------------+
| information_schema |
| mysql |
| performance_schema |
| tarena |
| test |
+--------------------+
5 rows inset(0.00 sec)
mysql>
master2主机查看:
[root@master2 ~]# mysql -uroot -ppwd123 -e show databases
Warning: Using a password on the command line interface can be insecure.
+--------------------+
| Database |
+--------------------+
| information_schema |
| mysql |
| performance_schema |
| tarena |
| test |
+--------------------+
slave1主机查看:
[root@slave1 ~]# mysql -uroot -ppwd123 -e show databases
Warning: Using a password on the command line interface can be insecure.
+--------------------+
| Database |
+--------------------+
| information_schema |
| mysql |
| performance_schema |
| tarena |
| test |
+--------------------+
slave2主机查看:
[root@slave2 ~]# mysql -uroot -ppwd123 -e show databases
Warning: Using a password on the command line interface can be insecure.
+--------------------+
| Database |
+--------------------+
| information_schema |
| mysql |
| performance_schema |
| tarena |
| test |
+--------------------+
=============================================================
2 mysql-MMM架构部署
使用5台centos服务器,其中192.168.4.10、192.168.4.11作为mysql双主服务器,192.168.4.12、192.168.4.13作为主服务器的从服务器,
192.168.4.100 作为mysql-MMM架构中管理监控服务器,实现监控mysql主从服务器的工作状态及决定故障节点的移除或恢复工作。
步骤一:安装mysql-MMM
安装依赖yum源(mysql集群内5台服务器master1,master2,slave1,slave2,monitor)均需安装
rpm -ivh http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm
1) 安装监控程序
在管理服务器(monitor)上,执行下面命令:
[root@monitor ~]# yum -y install mysql-mmm-monitor* perl-Time-HiRes*
2) 安装代理程序
mysql集群内4台服务器(master1、master2、slave1、slave2)
# yum -y install mysql-mmm-agent*
....
步骤二:修改配置文件
1)修改公共配置文件
本案例中mysql集群的5台服务器(master1、master2、slave1、slave2、monitor)都需要配置,可以先配好一台后使用scp复制。
[root@master1 ~]# vim /etc/mysql-mmm/mmm_common.conf
active_master_role writer
cluster_interface eth0
pid_path /var/run/mmm_agentd.pid
bin_path /usr/lib/mysql-mmm/
replication_user slaveuser //设置主从同步的用户
replication_password pwd123 //设置主从同步用户密码
agent_user agent //mmm-agent控制数据库用户
agent_password agent //mmm-agent控制数据库用户密码
ip 192.168.4.10//master1 IP 地址
mode master
peer master2 //指定另外一台主服务器
ip 192.168.4.11
mode master
peer master1
ip 192.168.4.12//slave1 IP 地址
mode slave //本段落配置的是slave服务器
ip 192.168.4.13
mode slave
hosts master1,master2 //提供写的主服务器
ips 192.168.4.200 //设置VIP地址
mode exclusive //排他模式
hosts slave1,slave2 //提供读的服务器信息
ips 192.168.4.201,192.168.4.202 //多个虚拟IP
mode balanced //均衡模式
....
2)修改管理主机配置文件(monitor主机配置)
[root@monitor ~]# vim /etc/mysql-mmm/mmm_mon.conf
include mmm_common.conf
ip 192.168.4.100//设置管理主机IP地址
pid_path /var/run/mmm_mond.pid
bin_path /usr/lib/mysql-mmm/
status_path /var/lib/misc/mmm_mond.status
ping_ips 192.168.4.10,192.168.4.11,192.168.4.12,192.168.4.13 //设置被监控数据库
monitor_user monitor //监控数据库mysql用户
monitor_password monitor //监控数据库mysql用户密码
debug 0
....
[root@monitor ~]#
3)修改客户端配置文件
master1配置
[root@master1 ~]# vi /etc/mysql-mmm/mmm_agent.conf
include mmm_common.conf
this master1
master2配置
[root@master2 ~]# vi /etc/mysql-mmm/mmm_agent.conf
include mmm_common.conf
this master2
slave1配置
[root@slave1 ~]# vi /etc/mysql-mmm/mmm_agent.conf
include mmm_common.conf
this slave1
slave2配置
[root@slave2 ~]# vi /etc/mysql-mmm/mmm_agent.conf
include mmm_common.conf
this slave2
==========================================================
3 mysql-MMM架构使用
启动MMM集群架构
设置集群中服务器为online状态
mysql-MMM架构部署完成后需要启动,数据库端启动mmm-agent进程,管理端启动mmm-monitor进程,启动完成后设置所有数据库主机状态为online。
步骤一:启动MMM集群架构
1)启动mmm-agent进程
master1操作:
[root@master1 ~]# /etc/init.d/mysql-mmm-agent start
master2操作:
[root@master2 ~]# /etc/init.d/mysql-mmm-agent start
slave1操作:
[root@slave1 ~]# /etc/init.d/mysql-mmm-agent start
slave2操作:
[root@slave2 ~]# /etc/init.d/mysql-mmm-agent start
2)启动mmm-monitor进程
monitor主机操作:
[root@monitor ~]# /etc/init.d/mysql-mmm-monitor start
步骤二:设置集群中服务器为online状态
控制命令只能在管理端monitor服务器上执行。
查看当前集群中各服务器状态:
[root@monitor ~]# mmm_control show
master1(192.168.4.10)master/AWAITING_RECOVERY. Roles:
master2(192.168.4.11)master/AWAITING_RECOVERY. Roles:
slave1(192.168.4.12)slave/AWAITING_RECOVERY. Roles:
slave2(192.168.4.13)slave/AWAITING_RECOVERY. Roles:
设置4台数据库主机状态为online:
[root@monitor ~]# mmm_control set_online master1
OK: State of \'master1\' changed to ONLINE. Now you can wait some time and check its new roles!
[root@monitor ~]# mmm_control set_online master2
OK: State of \'master2\' changed to ONLINE. Now you can wait some time and check its new roles!
[root@monitor ~]# mmm_control set_online slave1
OK: State of \'slave1\' changed to ONLINE. Now you can wait some time and check its new roles!
[root@monitor ~]# mmm_control set_online slave2
OK: State of \'slave2\' changed to ONLINE. Now you can wait some time and check its new roles!
再次查看当前集群中各服务器状态:
[root@monitor ~]# mmm_control show
master1(192.168.4.10)master/ONLINE. Roles:writer(192.168.4.200)
master2(192.168.4.11)master/ONLINE. Roles:
slave1(192.168.4.12)slave/ONLINE. Roles:reader(192.168.4.201)
slave2(192.168.4.13)slave/ONLINE. Roles:reader(192.168.4.202)
步骤三:测试mysql-MMM架构
2)mysql-MMM虚拟IP访问测试
[root@client ~]# mysql -h292.168.4.200-uroot -ppwd123 -e show databases
Warning: Using a password on the command line interface can be insecure.
+--------------------+
| Database |
+--------------------+
| information_schema |
| mysql |
| performance_schema |
| tarena |
| test |
+--------------------+
[root@client ~]#
[root@client ~]# mysql -h292.168.4.201-uroot -ppwd123 -e show databases
Warning: Using a password on the command line interface can be insecure.
+--------------------+
| Database |
+--------------------+
| information_schema |
| mysql |
| performance_schema |
| tarena |
| test |
+--------------------+
[root@client ~]#
[root@client ~]# mysql -h292.168.4.202-uroot -ppwd123 -e show databases
Warning: Using a password on the command line interface can be insecure.
+--------------------+
| Database |
+--------------------+
| information_schema |
| mysql |
| performance_schema |
| tarena |
| test |
+--------------------+
[root@client ~]#
3)主数据库宕机测试
[root@master1 ~]# service mysql stop //停止master1上服务
Shutting down mysql....[确定]
[root@monitor ~]# mmm_control show //查看集群内服务器状态
通过输出信息可以看到虚拟IP从master1切换到master2:
master1(192.168.4.10)master/HARD_OFFLINE. Roles:
master2(192.168.4.11)master/ONLINE. Roles:writer(192.168.4.200)
slave1(192.168.4.12)slave/ONLINE. Roles:reader(192.168.4.201)
slave2(192.168.4.13)slave/ONLINE. Roles:reader(192.168.4.202)
[root@client ~]# mysql -h292.168.4.200-uroot -ppwd123 -e show databases //访问虚拟IP测试
Warning: Using a password on the command line interface can be insecure.
+--------------------+
| Database |
+--------------------+
| information_schema |
| mysql |
| performance_schema |
| tarena |
| test |
+--------------------+
[root@client ~]#
MySQL-MMM集群架构就完成了。
过程中遇到的问题:
我在第一次 mmm_control show 查看集群服务器状态的时候,发现除了master1的状态为AWAITING_RECOVERY, 其他三台为HARD_OFFLINE。
这是因为我最开始创建的monitor用户没有被同步过去,在主库master1 重新创建就好。
查看MYSQL数据库中所有用户 ,
mysql> SELECT DISTINCT CONCAT(\'User: \'\'\',user,\'\'\'@\'\'\',host,\'\'\';\') AS query FROM mysql.user;
还有一个问题,我的环境是虚拟机克隆的,配置主从的时候遇到UUID冲突的问题,
停止数据库 把数据库所在目录下的auto.cnf 备份一份之后,删除。 重启就好了。
主库master1 一定要记得开启 log-slave-updates
本文题目:mysql5.6部署集群基础环境
本文来源:http://pwwzsj.com/article/cjsigc.html