nfs配置

【集群实战】共享存储实时备份(解决nfs共享存储的单点问题)

断了今生、忘了曾经 提交于 2019-12-13 16:10:59
1. nfs存储的单点问题 如果nfs服务器宕机了,则所有的nfs客户机都会受到影响。一旦宕机,会丢失部分用户的数据。为了解决单点问题,需要实现共享存储的实时备份,即:将nfs服务端共享目录下的数据实时备份到备份服务器(或其它存储设备),以保证数据的完整性。 2. NFS共享数据的实时同步推送备份 公司有两台web服务器一直在对外提供服务,但随着业务的发展用户越来越多,网站的功能也越来越强大,各种图片,视频等占用硬盘空间越来越大。 于是,领导将web服务器的数据直接存储到NFS服务器上作为存储使用;并且为了防止NFS服务器发生单点故障,领导希望将web服务器存储的内容实时同步到Rsync备份服务器上。现在由你来计划完成领导的需求。 具体要求如下: NFS服务器的要求如下: 服务器的共享目录名为/data目录; 权限要求只能内网网段访问且可读可写,时时同步; 为了方便管理人员管理,需要指定NFS虚拟账户为zuma,uid=888,gid=888 所有访问者的身份都压缩为最低身份 将/data目录里的内容同步时时推送到备份服务器的/data目录里(inotify+rsync) web服务器将NFS共享目录统一挂载到/var/html/www目录下 思路: 1. NFS存储服务器和Rsync备份服务器,Rsync服务器部署运行rsync --daemon服务

源码编译安装ganesha

自作多情 提交于 2019-12-12 02:27:20
源码编译安装 ganesha 简介 系统环境:CentOS 7.5 ceph:luminous nfs-ganesha:v2.6 stable 安装步骤 安装依赖 首先需要安装编译会用到的公共库 1 yum install gcc git cmake autoconf libtool bison flex doxygen openssl-devel gcc-c++ krb5-libs krb5-devel libuuid-devel nfs-utils -y 如果是使用 Ubuntu 系统,主要有以下几个包不同 gcc-c++ -> g++ libuuid-devel -> uuid-dev nfs-utils -> nfs-kernel-server 如果要生成 FSAL_RGW 模块,需要安装 librgw2-devel 1 yum install librgw2-devel -y 如果要生成 FSAL_CEPH 模块,需要安装 libcephfs1-devel 1 yum install libcephfs-devel -y 源码下载 克隆源码到本地 1 git clone -b V2.6-stable https://github.com/nfs-ganesha/nfs-ganesha.git --recursive 编译 cmake nfs-ganesha 源码

Centos 7之LVS负载均衡群集

妖精的绣舞 提交于 2019-12-10 12:33:35
博文目录 一、LVS群集应用基础 二、LVS虚拟服务器 三、搭建NFS共享存储服务 一、LVS群集应用基础 根据实际企业环境的不同,群集所提供的功能也各不相同,采用的技术细节也可能各有千秋。然而从整体上来看,需要先了解一些关于群集的共性特征,这样才能在构建和维护群集的工作中做到心中有数,避免操作上的盲目性。 1、群集的类型 无论是哪种群集,都至少包括两台节点服务器,而对外表现为一个整体,只提供一个访问入口(域名或IP地址),相当于一台大型计算机。根据群集所针对的目标差异,可以分为以下三种类型。 负载均衡群集(Load Balance Cluster):以提高应用系统的响应能力、尽可能处理更多的访问请求、较少延迟为目的,获得高并发、高负载的整体性能。例如,“DNS轮询” 、“应用层交换”、“反向代理”等都可用做负载均衡群集。LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载压力。 高可用群集(High Availability Cluster):以提高应用系统的可靠性,尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果,例如,“故障切换”。“双机热备”、“多机热备”、等都属于高可用群集技术,HA的工作方式包括双工和主从两种模式。双工就是所有节点同时在线;主从则只有主节点在线

虚拟机迁移

試著忘記壹切 提交于 2019-12-09 22:32:46
虚拟机迁移 迁移的原因(前提:共享存储) 尽可能停机时间短(安全等级 三个9) 资源不均等 环境准备 报错 冷迁移 1.准备环境(环境一致)桥接网络 #下载软件及启动 [root@kvm02 ~]# yum install -y libvirt virt-install qemu-kvm [root@kvm02 ~]# systemctl start libvirtd [root@kvm02 ~]# systemctl enable libvirtd #生成桥接 [root@kvm02 ~]# virsh iface-bridge eth0 br0 Created bridge br0 with attached device eth0 2.将磁盘和配置文件进行传输过去 #关机 [root@kvm01 opt]# virsh shutdown web02 #导出配置文件 [root@kvm01 opt]# virsh dumpxml web02 > web02.xml #传输磁盘 [root@kvm01 opt]# scp -rp /opt/web02.qcow2 root@10.0.0.162:/opt/ #传输配置文件 [root@kvm01 opt]# scp -rp /opt/web02.xml root@10.0.0.162:/opt/ 3.将主机导入进去 [root

05:自定义镜像与仓库 、持久化存储 、Docker网络架构

孤人 提交于 2019-12-08 19:30:14
案例1:制作自定义镜像 案例2:创建私有镜像仓库 案例3:NFS共享存储 案例4:创建自定义网桥 1 案例1:制作自定义镜像 1.1 问题 本案例要求制作自定义镜像: 基于centos镜像使用commit创建新的镜像文件 基于centos镜像使用Dockerfile文件创建一个新的镜像文件 1.2 步骤 实现此案例需要按照如下步骤进行。 步骤一:使用镜像启动容器 1)在该容器基础上修改yum源 [root@docker1 docker_images]# docker run -it docker.io/centos [root@8d07ecd7e345 /]# rm -rf /etc/yum.repos.d/ [root@8d07ecd7e345 /]# vi /etc/yum.repos.d/dvd.repo * [dvd] name=dvd baseurl=ftp://192.168.1.254/system enabled=1 gpgcheck=0 [root@8d07ecd7e345 /]# yum clean all [root@8d07ecd7e345 /]# yum repolist 2)安装测试软件 [root@8d07ecd7e345 /]# yum -y install net-tools iproute psmisc vim-enhanced 3

部署Cloudstack环境(cloudstack manager+kvm,适合RHEL/CentOS)

坚强是说给别人听的谎言 提交于 2019-12-06 15:29:08
系统:CentOS 6.3 x86_64 版本:Cloudstack 4.2.1 CloudStack是一个开源的具有高可用性及扩展性的云计算平台。支持管理大部分主流的hypervisors,如KVM,XenServer,VMware,Oracle VM,Xen等。 同时CloudStack是一个开源云计算解决方案。可以加速高伸缩性的公共和私有云(IaaS)的部署、管理、配置。使用CloudStack作为基础,数据中心操作者可以快速方便的通过现存基础架构创建云服务。 CloudStack可以通过组织和协调用户的虚拟化资源,构建一个和谐的环境。CloudStack具有许多强大的功能,可以让用户构建一个安全的多租户云计算环境。 CloudStack的前身是Cloud.com,后被思杰收购。英特尔、阿尔卡特-朗迅、瞻博网络、博科等都已宣布支持CloudStack。2011年7月,Citrix收购Cloud.com,并将CloudStack 100%开源。2012年4月5日,Citrix又宣布将其拥有的CloudStack开源软件交给Apache软件基金会管理。CloudStack已经有了许多商用客户,包括GoDaddy、英国电信、日本电报电话公司、塔塔集团、韩国电信等。 当前最新版本为4.2.1 官网: http://cloudstack.apache.org/ 下载地址: http:/

Kubernetes1.16下部署Prometheus+node-exporter+Grafana+AlertManager

大城市里の小女人 提交于 2019-12-06 14:21:06
Prometheus 持久化安装 我们prometheus采用nfs挂载方式来存储数据,同时使用configMap管理配置文件。并且我们将所有的prometheus存储在 kube-system #建议将所有的prometheus yaml文件存在一块 mkdir /opt/prometheus -p && cd /opt/prometheus #生成配置文件 cat >> prometheus.configmap.yaml <<EOF apiVersion: v1 kind: ConfigMap metadata: name: prometheus-config namespace: kube-system data: prometheus.yml: | global: scrape_interval: 15s scrape_timeout: 15s scrape_configs: - job_name: 'prometheus' static_configs: - targets: ['localhost:9090'] EOF # 配置文件解释(这里的configmap实际上就是prometheus的配置) 上面包含了3个模块global、rule_files和scrape_configs 其中global模块控制Prometheus Server的全局配置 scrape

构建基于地址转换(LVS—NAT)模式的负载均衡群集

浪尽此生 提交于 2019-12-06 09:56:35
此博文是案例博文,关于LVS负载均衡群集的原理及相关概述,请参考博文: Centos 7之LVS负载均衡群集 一、案例简介 1、案例环境 2、实验结果 使用NAT模式的群集技术,LVS负载调度器是所有节点访问Internet的网关服务器,其192.168.200.10作为整个群集的VIP地址。 使用轮询(rr)的调度算法。 web1和web2先搭建web服务,分别准备不同的网页文件,供客户端访问,以此来确定client访问LVS服务器的192.168.200.10,可以访问到两台web服务器。 待client测试成功后,web1和web2便可以挂载NFS服务器提供的共享目录,以此来为client提供相同的网页文件。 二、开始搭建复制均衡群集 1、部署Web1服务器: [root@centos01 ~]# yum -y install httpd <!--安装httpd服务--> [root@centos01 ~]# echo "www.benet.com" > /var/www/html/index.html <!--创建网站主页测试页--> [root@centos01 ~]# systemctl start httpd <!--启动httpd服务--> [root@centos01 ~]# systemctl enable httpd <!--设置开机自动启动--> [root

kvm2

有些话、适合烂在心里 提交于 2019-12-06 06:44:48
kvm虚拟机的桥接网络 默认的虚拟机网络是NAT模式,网段192.168.122.0/24 1:创建桥接网卡 创建桥接网卡命令 virsh iface-bridge eth0 br0 取消桥接网卡命令 virsh iface-unbridge br0 新虚拟机使用桥接模式 2默认NAT模式 virt-install --virt-type kvm --os-type=linux --os- variant rhel7 --name web04 --memory 1024 --vcpus 1 -- disk /opt/web04.qcow2 --boot hd --network network=default --graphics vnc,listen=0.0.0.0 -- noautoconsole 桥接模式 virt-install --virt-type kvm --os-type=linux --os- variant rhel7 --name web04 --memory 1024 --vcpus 1 -- disk /data/web04.qcow2 --boot hd --network bridge=br0 -- graphics vnc,listen=0.0.0.0 --noautoconsole 如果虚拟机获取不到ip地址 3 将已有虚拟机网络修改为桥接模式 a

LVS负载均衡群集——NAT模式

时光毁灭记忆、已成空白 提交于 2019-12-05 18:53:41
NAT模式 地址转换:  简称NAT模式,类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口  服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式 实验原理图 实验环境 LVS调度器作为web服务器池的网关,LVS两块网卡,分别连接内外网,使用轮询(rr)调度算法 LVS负载调度器 内网33网关:192.168.13.1 外网36:12.0.0.1 web1 192.168.13.151 web2 192.168.13.170 nfs服务器 192.168.13.145 client测试机 12.0.0.12 1,在nfs服务器上添加两块硬盘,做共享存储使用,格式化 [root@nfs ~]# fdisk /dev/sdb ##分区 令(输入 m 获取帮助):n ##创建新分区 Partition type: p primary (0 primary, 0 extended, 4 free) e extended Select (default p): p ##主分区 分区号 (1-4,默认 1): ##回车 起始 扇区 (2048-41943039,默认为 2048): ##回车 将使用默认值 2048 Last 扇区, +扇区 or +size{K,M,G} (2048