nfs配置

高可用集群综合实践

Deadly 提交于 2019-12-05 04:57:59
目录 NFS_Rsyslog服务器搭建 Mariadb服务器搭建 Tomcat服务器搭建 Apache服务器搭建 nginx 服务器配置 HAProxy负载均衡服务器搭建 搭建DNS服务器 客户机测试 主要功能 HAProxy服务搭建负载均衡服务器,将请求派发不同的后端服务 Keepalived服务实现主从热备,提高服务的可用性 Nginx服务器负责处理.heml静态web请求,并将动态的请求重定向给指定的服务器 Tomcat服务器负责处理.jsp动态web请求 Apache服务器负责.php动态web请求 Mariadb服务器提供数据存储功能,存储用户注册信息 NFS服务器提供各个站点的数据,保证数据的一致性 Rsyslog服务器记录存储各个服务器的日志 DNS服务器负责各个web站点域名解析 拓扑图 实验环境 haproxy-master server:centos7 192.168.20.10(内网) 192.168.10.10(外网) 192.168.10.200(VIP) haproxy-slave server:centos7 192.168.20.11(内网) 192.168.10.11(外网) 192.168.10.200(VIP) nginx server:centos7 192.168.20.20 nginx server:centos7 192.168.20

kubernetes v1.15.4 部署手册

て烟熏妆下的殇ゞ 提交于 2019-12-04 01:33:57
kubernetes v1.15.4 部署手册 配置要求 推荐在阿里云采购如下配置:(也可以使用自己的虚拟机、私有云等) 3台 2核4G 的ECS(突发性能实例 t5 ecs.t5-c1m2.large或同等配置,单台约 0.4元/小时,停机时不收费) Cent OS 7.6 安装后的软件版本为 Kubernetes v1.15.4 calico 3.8.2 nginx-ingress 1.5.3 Docker 18.09.7 检查 centos / hostname # 在 master 节点和 worker 节点都要执行 cat /etc/redhat-release # 此处 hostname 的输出将会是该机器在 Kubernetes 集群中的节点名字 # 不能使用 localhost 作为节点的名字 hostname # 请使用 lscpu 命令,核对 CPU 信息 # Architecture: x86_64 本安装文档不支持 arm 架构 # CPU(s): 2 CPU 内核数量不能低于 2 lscpu 修改 hostname # 修改 hostname hostnamectl set-hostname your-new-host-name # 查看修改结果 hostnamectl status # 设置 hostname 解析 echo "127.0.0.1 $

GlusterFS 配置及使用

*爱你&永不变心* 提交于 2019-12-03 12:03:20
转载自:https://www.cnblogs.com/sxchengchen/p/7805667.html GlusterFS 配置及使用 GlusterFS 集群创建 一、简介 GlusterFS概述 Glusterfs是一个开源的分布式文件系统,是Scale存储的核心,能够处理千数量级的客户端.在传统的解决 方案中Glusterfs能够灵活的结合物理的,虚拟的和云资源去体现高可用和企业级的性能存储. Glusterfs通过TCP/IP或InfiniBand RDMA网络链接将客户端的存储资块源聚集在一起,使用单一的全局命名空间来管理数据,磁盘和内存资源. Glusterfs基于堆叠的用户空间设计,可以为不同的工作负载提供高优的性能. Glusterfs支持运行在任何标准IP网络上标准应用程序的标准客户端,如下图1所示,用户可以在全局统一的命名空间中使用NFS/CIFS等标准协议来访问应用数据. Glusterfs主要特征 扩展性和高性能 高可用 全局统一命名空间 弹性hash算法 弹性卷管理 基于标准协议 工作原理: 1) 首先是在客户端, 用户通过glusterfs的mount point 来读写数据, 对于用户来说,集群系统的存在对用户是完全透明的,用户感觉不到是操作本地系统还是远端的集群系统。 2) 用户的这个操作被递交给 本地linux系统的VFS来处理。 3)

RHCE7 题库

匿名 (未验证) 提交于 2019-12-03 00:43:02
RHCE7 下 RHC E 部分 您在考试中将使用到两个系统的信息如下: system1.group8.example.com : system2.group8.example.com : root redhat IP DHCP IP system1.group8.example.com 172.24.8.11/24 system2.group8.example.com 172.24.8.12/24 DNS group8.example.com 特别指 名, 不然 所有要求配置的网络服务都必须能被该域的系统访问。 server.group8.example.com group8.example.com system1 system2 server.group8.example.com YUM URL http://server.group8.example.com/yum 防火墙是默认打开的,在您认为适当的时候可以关闭。其他防火墙的设置可能在单独的要求中。 my133.org(172.13.8.0/24) 第一题: SELinux system1 system2 SELinux enforcing : 要求系统重启后依然生效。 seliunx # # # selinux 第二题:配置防火墙 system1 system2 group8.example.com system1

Unable to mount volumes for pod "prometheus&expired waiting for volumes to attach or mount for pod

匿名 (未验证) 提交于 2019-12-03 00:37:01
[root@szy-k8s-master log] # kubectl describe pod prometheus-544bf54848-b97rn --namespace=kube-system Name: prometheus- 544 bf54848-b97rn Namespace : kube-system Node: szy-k8s-node1/ 10.10 .31 .203 Start Time: Tue, 26 Jun 2018 17 : 05 : 08 + 0800 Labels: app=prometheus pod-template-hash= 1006910404 Annotations: <none> Status: Pending IP: Controlled By : ReplicaSet/prometheus- 544 bf54848 Containers: prometheus: Container ID: Image: prom/prometheus:latest Image ID: Port: 9090 /TCP Host Port: 0 /TCP State: Waiting Reason: ContainerCreating Ready: False Restart Count: 0 Environment: <none> Mounts:

构建根文件系统

匿名 (未验证) 提交于 2019-12-02 23:55:01
在Linux中,是以树状结构管理所有目录、文件,其他分区挂接在某个目录上,这个目录被称为挂接点或者安装点,然后就可以通过这个目录来访问这个分区上的文件了; 在一个分区上存储文件时需要遵循一定的格式,这种格式称为文件系统类型,比如fat16、fat32、ext2、ext3、jffs2、yaffs等,除了这些实实在在的存储分区的文件系统类型外,Linux还有几种虚拟的文件系统类型,比如proc、sysfs等,它们的文件并不存储在实际的设备上,而是在访问它们 时由内核临时生成,比如proc文件系统下的uptime文件,读取它时可以得到两个时间值(用来表示系统启动后运行的秒数、空闲的秒数),每次读取都是由内核实时生成,每次读取到的结果都不一样; 内核启动的最后一步就是启动init进程,代码在init/main.c文件中,会调用init_post()函数; init进程是由内核启动的第一个(也是唯一的一个)用户进程(进程ID为1),它根据配置文件决定启动哪些程序,比如执行某些脚本、启动shell或者运行用户指定的程序等; init进程的执行程序通常是/sbin/init,也可以自己编写/sbin/init程序,或者通过bootloader传入命令行参数"init=xxxxx"指定某个程序作为init进程运行; 内核启动init进程的过程如下: static int noinline init

jz2440操作速查

匿名 (未验证) 提交于 2019-12-02 23:47:01
安装工具: 1. /ssh Secure CRT.exe 2. FTP CuteFTP Professional.exe 3.. TFTP Tftpd32.exe uboot的相关指令: 1.q-- 2.menu-- 3.print-- 4.set-- 5.save-- 6.reset-- U-boot 0 8. 9.help-- help <cmd>-- 10.mtd-- flash TFTP工具在Nandflash上烧写裸板程序 1.0.安装远程(串口/ssh)调试工具:Secure CRT.exe Norflash uboot. 1.1.OpenJTAG> print bootargs=noinitrd root=/dev/mtdblock3 init=/linuxrc console=ttySAC0 bootcmd=nand read.jffs2 0x30007FC0 kernel; bootm 0x30007FC0 bootdelay=2 baudrate=115200 ethaddr=08:00:3e:26:0a:5b netmask=255.255.255.0 mtdids=nand0=nandflash0 mtdparts=mtdparts=nandflash0:256k@0(bootloader),128k(params),2m(kernel),-(root)

CentOS7.5 -- Ansible部署与应用

匿名 (未验证) 提交于 2019-12-02 21:53:52
第1章 Ansible概述 Ansible是一个配置管理系统configuration management system python 语言是运维人员必须会的语言 ansible 是一个基于python 开发的自动化运维工具 其功能实现基于ssh远程连接服务 ansible 可以实现批量系统配置,批量软件部署,批量文件拷贝,批量运行命令等功能 1.1 Ansible能做什么 ansible可以帮助我们完成一些批量任务,或者完成一些需要经常重复的工作。 比如:同时在100台服务器上安装nginx服务,并在安装后启动服务。 比如:将某个文件一次性拷贝到100台服务器上。 比如:每当有新服务器加入工作环境时,你都要为新服务器部署某个服务,也就是说你需要经常重复的完成相同的工作。 这些场景中我们都可以使用到ansible。 1.2 Ansible软件特点 1.ansible不需要单独安装客户端,SSH相当于ansible客户端。 2.ansible不需要启动任何服务,仅需安装对应工具即可。 3.ansible依赖大量的python模块来实现批量管理。 4.ansible配置文件/etc/ansible/ansible.cfg 1.3 Ansible基础架构 1.连接插件(connectior plugins) 用于连接主机 用来连接被管理端 2.核心模块(core modules)

嵌入式linux:通过qemu模拟mini2440开发环境

匿名 (未验证) 提交于 2019-12-02 21:53:52
1 编译安装QEMU 首先下载qemu for mini2440,直接打包下载 http://repo.or.cz/w/qemu/mini2440.git/snapshot/HEAD.tar.gz 解压后,进入源代码目录中: sudo apt-get install zlib1g-dev sudo apt-get install libsdl-dev (prefix指定安装路径,这里是$HOME/work/mini2440) ./configure --target-list=arm-softmmu --prefix=$HOME/work/mini2440 make -j4 make install 安装完后,添加环境变量: sudo vim /etc/bash.bashrc 添加一行: export PATH=$PATH:$HOME/work/mini2440/bin 保存退出后,用source 生效或者注销重新登录 source /etc/bash.bashrc 测试是否正常: qemu-system-arm --version 2 使用buildroot一键生成uboot和linux内核及根文件系统 首先下载buildroot的源代码,下载地址: http://buildroot.org/downloads/buildroot-2012.05.tar.gz 解压后

嵌入式Linux常用服务配置之nfs服务配置

心不动则不痛 提交于 2019-12-02 16:56:43
安装nfs: #sudo apt-get install nfs-kernel-server Ubuntu 10.10中的已经是最新版本了,无需安装 打开/etc/exports文件,在末尾加入: /home/xgc *(rw,sync,no_root_squash) 注:nfs允许挂载的目录及权限,在文件/etc/exports中进行定义, 各字段含义如下: /home/xgc:要共享的目录 * :允许所有的网段访问 rw :读写权限 sync:资料同步写入内在和硬盘 no_root_squash:nfs客户端共享目录使用者权限 重启服务: #sudo /etc/init.d/portmap restart <---重启portmap,很重要 #sudo /etc/init.d/nfs-kernel-server restart <---重启nfs服务 #showmount -e <---显示共享出的目录 注:nfs是一个RPC程序,使用它前,需要映射好端口,通过portmap设定 命令执行情况如下: xgc@xgc-VirtualBox:~$ sudo /etc/init.d/portmap restart Rather than invoking init scripts through /etc/init.d, use the service(8) utility, e.g