rhcs

红帽子RHCS套件安装与配置(一)

此生再无相见时 提交于 2020-03-15 17:29:52
RHCS提供的三个核心功能    高可用集群是RHCS的核心功能。当应用程序出现故障,或者系统硬件、网络出现故障时,应用可以通过RHCS提供的高可用性服务管理组件自动、快速从一个节点切换到另一个节点,节点故障转移功能对客户端来说是透明的,从而保证应用持续、不间断的对外提供服务,这就是RHCS高可用集群实现的功能。    RHCS通过LVS(LinuxVirtualServer)来提供负载均衡集群,而LVS是一个开源的、功能强大的基于IP的负载均衡技术,LVS由负载调度器和服务访问节点组成,通过LVS的负载调度功能,可以将客户端请求平均的分配到各个服务节点,同时,还可以定义多种负载分配策略,当一个请求进来时,集群系统根据调度算法来判断应该将请求分配到哪个服务节点,然后,由分配到的节点响应客户端请求,同时,LVS还提供了服务节点故障转移功能,也就是当某个服务节点不能提供服务时,LVS会自动屏蔽这个故障节点,接着将失败节点从集群中剔除,同时将新来此节点的请求平滑的转移到其它正常节点上来;而当此故障节点恢复正常后,LVS又会自动将此节点加入到集群中去。而这一系列切换动作,对用户来说,都是透明的,通过故障转移功能,保证了服务的不间断、稳定运行。    RHCS通过GFS文件系统来提供存储集群功能,GFS是GlobalFileSystem的缩写,它允许多个服务同时去读写一个单一的共享文件系统

企业实战篇RHCS(4)

牧云@^-^@ 提交于 2020-02-27 10:52:55
企业实战篇RHCS(4) 为什么要实现高可用集群下的iscsi磁盘共享 在我们之前做的实验中,把测试页分别写在了两个节点server2和server3上(由于要观察实验效果所以内容不一样),而在企业中要反馈给用户的页面不会只有server2、server3这么简单,更不可能把那些数据放在每一个节点的主机里。此时就需要存储分离,所以就有了高可用集群下的iscsi磁盘共享。 实验配置环境 创建一台新的虚拟机server4 添加一块虚拟存储 安装 yum scsi-* -y yum whatprovides */partprobe yum install parted-2.1-21.el6.x86_64 -y #安装刷新命令 partprobe #刷新 fdisk -l #查看磁盘 如图所示,添加成功 vim /etc/tgt/targets.conf 重启 /etc/init.d/tgtd start pa ax #查看是否成功 接收server2和server3 安装 yum install iscsi-* -y iscsiadm -m distovery -t st -p 172.25.0.4 # 发现server4共享设备 iscsiadm -m node -l ##连接共享设备 partprobe fdisk -l 出现/dev/sdb表明成功(此硬盘为server4的/dev

Linux企业实战-RHCS

冷暖自知 提交于 2020-02-24 13:35:56
转接上一篇博客 服务器提供存储 再添加一台主机server3 安装软件 yum install scsi-* -y server1和2安装 yum install iscsi-* -y 然后在server3对/etc/tgt/targets.conf进行编辑 vim /etc/tgt/targets.conf 然后启动tgtd /etc/init.d/tgtd start server1中寻找 iscsiadm -m discovery -t st -p 172.25.0.3 在server2进行同样的操作 然后同步分区表partprobe 然后进行分区操作 fdisk -cu /dev/sdb 在server1上进行分区操作在server2进行刷新(partprobe)操作发现server2也被分区了 这是server2中的lvs也存在了 然后进行格式化操作 mkfs.ext4 /dev/dangdang/dd 进行挂载操作 mount /dev/dangdang/dd /mnt/ 本地文件系统不支持同时写入 停止server1和server2服务去网页编辑添加文件系统服务 clusvcadm -d apache 然后重新添加server group 然后去server1上测试挂载和 然后去真机测试 如何同时支持挂载和写入 gfs2集群文件系统(使用gfs2时必须使用集群)

企业级高可用集群---RHCS(二)---配置集群套件

烂漫一生 提交于 2020-02-23 22:59:28
企业级高可用集群—RHCS(二)—配置集群套件 文章目录 企业级高可用集群---RHCS(二)---配置集群套件 1.部署实验环境 2.搭建RHCS环境 3.创建集群 4.配置fence 1.部署实验环境 此实验中需要3台rhel6版本的虚拟机,分别是server1 server2 server3。 配好同一网段的ip地址,提前写好解析。(操作比较简单,这里就不在赘述了) vim /etc/hosts #添加解析 172.25.254.1 server1 172.25.254.2 server2 172.25.254.3 server3 在server1和server2搭建高级的yum源: 在server1中: cd /etc/yum.repos.d/ ls vim rhel-source.repo 将写好的文件发给server2: scp rhel-source.repo root@172.25.254.2:/etc/yum.repos.d/ 配置成功: yum clean all yum repolist 2.搭建RHCS环境 ricci---图形里的集群管理 luci---图形界面 在server1中安装: yum install ricci luci -y 给ricci设置密码: id ricci passwd ricci 启动ricci luci: 注意

RHCS集群通过ISCSI实现共享存储(单点挂载)

会有一股神秘感。 提交于 2020-02-23 15:26:29
一、搭建环境 两台redht6.5的虚拟机。 server1 配置luci集群管理界面,用来配置和管理集群。 server1、server2 集群节点,配置ricci。 server3 配置共享存储,增添一块共享磁盘 二、共享存储搭建步骤(单点挂载) 1.新建一个虚拟机,添加一个虚拟硬盘; [root@rhcs3 ~]# fdisk -l 2.在服务端安装软件 [root@rhcs3 ~]# yum install scsi-* -y 3.在文件里配置共享策略,开启服务,查看 [root@rhcs3 ~]# vim /etc/tgt/targets.conf 38 <target iqn.2020-02.com.example:server.target1> 39 backing-store /dev/vda 40 </target> [root@rhcs3 ~]# /etc/init.d/tgtd start [root@rhcs3 ~]# tgt-admin -s [root@rhcs3 ~]# ps ax 注意:只能有这两个tgtd进程,否则不成功 4.在集群节点端安装iscsi软件,并查看服务端共享出来的存储 [root@rhcs1 ~]# yum install iscsi-* -y [root@rhcs1 ~]# iscsiadm -m discovery -t st

RHCS套件,红帽高可用集群

我的未来我决定 提交于 2019-12-23 13:59:16
一、什么是RHCS RHCS是Red Hat Cluster Suite的缩写,也就是红帽集群套件,RHCS是一个能够提供高可用性、高可靠性、负载均衡、存储共享且经济廉价的集群工具集合,它将集群系统中三大集群架构融合一体,可以给web应用、数据库应用等提供安全、稳定的运行环境。 更确切的说,RHCS是一个功能完备的集群应用解决方案,它从应用的前端访问到后端的数据存储都提供了一个行之有效的集群架构实现,通过RHCS提供的这种解决方案,不但能保证前端应用持久、稳定的提供服务,同时也保证了后端数据存储的安全。 RHCS提供了集群系统中三种集群构架,分别是高可用性集群、负载均衡集群、存储集群。 二、RHCS提供的三个核心功能 1, 高可用集群是RHCS的核心功能。当应用程序出现故障,或者系统硬件、网络出现故障时,应用可以通过RHCS提供的高可用性服务管理组件自动、快速从一个节点切换到另一个节点,节点故障转移功能对客户端来说是透明的,从而保证应用持续、不间断的对外提供服务,这就是RHCS高可用集群实现的功能。 2,RHCS通过LVS(Linux Virtual Server)来提供负载均衡集群,而LVS是一个开源的、功能强大的基于IP的负载均衡技术,LVS由负载调度器和服务访问节点组成,通过LVS的负载调度功能,可以将客户端请求平均的分配到各个服务节点,同时,还可以定义多种负载分配策略

Redhat HA相关命令(RHCS)

旧街凉风 提交于 2019-12-06 04:21:17
1、监控cluster运行状态: # clustat 显示集群的概要信息 # cman_tool status 查看集群信息 # cman_tool nodes -a 查看各个节点简要信息 举例: #1.1 clustat查看集群状态(最常用) 在节点1查看的,状态中的Local就在节点1上显示。 # clustat Cluster Status for new_cluster @ Tue Sep 1 12:23:09 2015 Member Status: Quorate Member Name ID Status ------ ---- ---- ------ heartdb1 1 Online, Local, rgmanager heartdb2 2 Online, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:orares heartdb1 started #1.2 cman_tool status 查看 # cman_tool status Version: 6.2.0 Config Version: 18 # 集群配置文件版本号 Cluster Name: new_cluster # 集群名称 Cluster Id: 23732 Cluster

RHCS概述

二次信任 提交于 2019-12-05 23:47:55
RHCS概述 创建 RHCS集群环境 创建高可用 Apache服务 1 创建RHCS集群环境 1.1 问题 准备四台 KVM虚拟机,其三台作为集群节点,一台安装luci并配置iSCSI存储服务,实现如下功能: 使用 RHCS创建一个名为tarena的集群 集群中所有节点均需要挂载 iSCSI共享存储 使用集群中任意节点对 iSCSI设置进行分区格式化 安装 luci的虚拟主机要求额外添加一块20G硬盘 物理主机 IP地址为192.168.4.1,主机名称为desktop1.example.com 1.2 方案 使用 4台虚拟机,1台作为luci和iSCSI服务器、3台作为节点服务器,拓扑结构如图-1所示。 图 -1 所有主机的主机名及对应的 IP地址如表-1所示。 表- 1 主机名称及对应IP地址表 1.3 步骤 实现此案例需要按照如下步骤进行。 步骤一:安装前准备 1)为所有节点配置yum源,注意所有的虚拟主机均需要挂载安装光盘。 [ root@node1 ~] # mount / dev / cdrom / media [ root@node1 ~] # rm - rf / etc / yum . repos . d/* [ root@node1 ~]# vim /etc/yum.repos.d/dvd.repo [dvd] name=red hat baseurl= file

1.云计算&大数据_linux学习框架

我只是一个虾纸丫 提交于 2019-12-02 06:43:07
知识框架: 1.Linux基础知识 2.系统管理 服务安全 服务管理 shell脚本编程 Linux服务管理 openssl, web, ftp, samba, nfs, dhcp, dns 3.MySQL数据库系统 瞬时&持久 cache$storage 4.Linux集群:负载均衡,clustor LB:lvs, nginx, haproxy (4lager 7lager) HA: heartbeat, corosync, rhcs, keepalived 5.分布式应用: MogileFS MongoDB (NoSQL) HDFS, MapReduce 分布式文件系统 zookeeper 6.缓存系统: varnish 7.虚拟化: xen, kvm(基于内核的虚拟机), docker 8.openstack: IAAS云(xen, kvm, lxc) 9.运维工具: puppet(RUBY), saltstack(Python), ansible 10.监控: zabbix 11.大数据处理: hadoop(上一代) DT时代 spark,strom elk elastic search logstash kibana 12.Docker 13.Python 来源: https://www.cnblogs.com/zhimahu/p/11735071.html