RAID 0、1、5、1+0总结

孤人 提交于 2019-12-26 05:31:47

RAID(Redundant Array Of Independent Disk,独立磁盘冗余阵列),可以提供比普通磁盘更快的速度、更高的安全性,生产环境中服务器在安装时一般都会做RAID,RAID的创建有两种方式,一种是软RAID(由操作系统来实现,生产环境下一般不采用,因为是基于系统,所以一旦系统挂掉了,数据就挂了),另一种是硬RAID(使用的是RAID卡,也叫阵列卡等的一种独立于系统之外的卡,当系统挂掉之后可以保证磁盘数据的安全性)。

RAID 0:(String 条带模式)

要求:至少需要两块磁盘

优点:数据分散存储于不同磁盘上,在读写时可以实现并发,是所有RAID级别中存储性能最高的;磁盘利用率100%;

缺点:没有容错功能,一旦其中一块磁盘挂掉全部数据将都会顺坏

image

RAID 1:(Mirroring 镜像卷)

image

要求:至少需要两块磁盘

优点:用过硬盘镜像数据实现数据冗余,保证数据的安全性,在两块盘上互为备份,当原始数据繁忙时,可以直接从镜像备份中读取数据;

缺点:是RAID级别中单位成本最高的,当其中一块磁盘挂掉时,系统可以直接切换到镜像盘上读写,并且不需要重组失效的数据,磁盘利用率50%;

RAID 5原理:数据以块为单位分散存储在各个硬盘上,RAID 5不对数据进行备份,而是把数据和与其对应的奇偶校验信息存储到组成的RAID5的各个磁盘上,并且将奇偶校验信息和对应的数据分别存储于不同的磁盘上,其中一块(只允许一块)挂掉时,利用剩下的数据和校验信息可以恢复数据。

imageimage

上表中的A、B值即代表不同的位,利用异或运算可以简单算出挂掉磁盘上的数据。

要求:需要3块及以上硬盘

优势:兼顾读写速度和数据安全,其中一块磁盘挂掉时,可以保证数据不被损坏;(需要注意的是,只允许坏一块盘,并且坏盘要及时更换)

磁盘利用率=[(n-1)/n] * 2/3

RAID 1+0:

先创建RAID 1,在RAID的基础上创建RAID 0

优点:数据安全性好,只要不是一个RAID 1上的2个硬盘同时损坏,都不影响数据的正常读写,数据恢复快

缺点:写性能较RAID 0+1 差一些

RAID 0+1

先创建RAID 0,在RAID 0 的基础上再创建RAID 1

优点:性能上考虑的话,RAID 0+1要更有优势一些,RAID 0+1写入速度更快一些,读取速度和RAID 1+0 一样,

缺点:一旦其中一块硬盘挂掉之后,一半的硬盘无法正常工作,如果2个条带上各坏一块,整个阵列将挂掉

实例 1

创建RAID 0(基于系统的软RAID)

1.新加8块硬盘(虚拟机中)

brw-rw---- 1 root disk 8,  16 Sep 22 12:04 /dev/sdb
brw-rw---- 1 root disk 8,  17 Sep 22 12:04 /dev/sdb1
brw-rw---- 1 root disk 8,  32 Sep 22 12:05 /dev/sdc
brw-rw---- 1 root disk 8,  33 Sep 22 12:05 /dev/sdc1
brw-rw---- 1 root disk 8,  48 Sep 22 12:06 /dev/sdd
brw-rw---- 1 root disk 8,  49 Sep 22 12:06 /dev/sdd1
brw-rw---- 1 root disk 8,  64 Sep 22 09:57 /dev/sde
brw-rw---- 1 root disk 8,  80 Sep 22 09:57 /dev/sdf
brw-rw---- 1 root disk 8,  96 Sep 22 09:57 /dev/sdg
brw-rw---- 1 root disk 8, 112 Sep 22 09:57 /dev/sdh
brw-rw---- 1 root disk 8, 128 Sep 22 09:57 /dev/sdi

2.使用mdadm命令创建

 

-C或--creat

建立一个新阵列

-r

移除设备

-A

激活磁盘阵列

-l 或--level=

设定磁盘阵列的级别

-D或--detail

打印阵列设备的详细信息

-n或--raid-devices=

指定阵列成员(分区/磁盘)的数量

-s或--scan

扫描配置文件或/proc/mdstat得到阵列缺失信息

-x--spare-devicds=

指定阵列中备用盘的数量

-f

将设备状态定为故障

-c或--chunk=

设定阵列的块chunk大小 ,单位为KB

-a或--add

添加设备到阵列

-G或--grow

改变阵列大小或形态

-v

--verbose 显示详细信息

   

[root@sishen ~]# mdadm -C -v /dev/md0 -l 0 -n 2  /dev/sd{b,c}
mdadm: chunk size defaults to 512K
mdadm: /dev/sdb appears to be part of a raid array:
    level=raid0 devices=0 ctime=Thu Jan  1 08:00:00 1970
mdadm: partition table exists on /dev/sdb but will be lost or
       meaningless after creating array
mdadm: /dev/sdc appears to be part of a raid array:
    level=raid0 devices=0 ctime=Thu Jan  1 08:00:00 1970
mdadm: partition table exists on /dev/sdc but will be lost or
       meaningless after creating array
Continue creating array?y     
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@sishen ~]# cat /proc/mdstat       #查看阵列信息
Personalities : [raid0]
md0 : active raid0 sdc[1] sdb[0]

    41942016 blocks super 1.2 512k chunks     
unused devices: <none>

[root@sishen ~]# mdadm -D /dev/md0

3.生成配置文件

[root@sishen ~]# mdadm -Ds > /etc/mdadm.conf
[root@sishen ~]# cat !$

cat /etc/mdadm.conf
ARRAY /dev/md0 metadata=1.2 name=sishen.163.cn:0 UUID=b4192d7e:3d23d5fd:8cb8d61e:4368d38d

4.创建分区

[root@sishen ~]# parted /dev/md0
GNU Parted 2.1
Using /dev/md0
Welcome to GNU Parted! Type 'help' to view a list of commands.

(parted) p
Model: Unknown (unknown)
Disk /dev/md0: 42.9GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt

Number  Start   End     Size    File system  Name     Flags
1      1049kB  19.9GB  19.9GB               primary

(parted) mkpart primary 19.9G 39.9G
(parted) p

(parted) mklabel gpt
(parted) mkpart primary 0G 19.9G
(parted) p
Model: Unknown (unknown)
Disk /dev/md0: 42.9GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt

Number  Start   End     Size    File system  Name     Flags
1      1049kB  19.9GB  19.9GB               primary

(parted) mkpart primary 19.9G 39.9G
(parted) p
Model: Unknown (unknown)
Disk /dev/md0: 42.9GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt

Number  Start   End     Size    File system  Name     Flags
1      1049kB  19.9GB  19.9GB               primary
2      19.9GB  39.9GB  20.0GB               primary

(parted)

5.格式化

[root@sishen ~]# mkfs.ext4 /dev/md0p1

[root@sishen ~]# mkfs.ext4 /dev/md0p2

6.挂载使用

[root@sishen ~]# mkdir /md01           #创建挂载点

[root@sishen ~]# mkdir /md02         

[root@sishen ~]# mount /dev/md0p1 /md01/      #挂载

[root@sishen ~]# mount /dev/md0p2 /md02/

[root@sishen ~]# df -h
Filesystem      Size  Used Avail Use% Mounted on

…….

/dev/md0p1       19G  172M   18G   1% /md01
/dev/md0p2       19G  172M   18G   1% /md02

可以使用如下方式实现永久挂载

1)编辑/etc/fstab文件添加如下两行

[root@sishen ~]# vim /etc/fstab

/dev/md0p1     ext4   defaults 0 0 /md01

/dev/md0p2     ext4  defaults 0 0 /md02

2)通过UUID方式挂载

[root@sishen ~]# blkid /dev/md0p1    #获取UUID

/dev/md0p1: UUID="2c9c107a-9150-43bf-ad7a-fdc6c32b828c" TYPE="ext4"

[root@sishen ~]# blkid /dev/md0p2
/dev/md0p2: UUID="1a3f8a8a-b9e6-4669-9949-7c2bec36fee2" TYPE="ext4"

同样编辑1)中的文件添加如下两行

UUID=2c9c107a-9150-43bf-ad7a-fdc6c32b828c /md0p1  ext4  defaults        0 0
UUID=1a3f8a8a-b9e6-4669-9949-7c2bec36fee2 /md0p2  ext4  defaults        0 0

实例2   创建RAID1

1.同样准备硬盘

2.开始创建

[root@sishen ~]# mdadm -C -v /dev/md1 -l 1 -n 2 -x 1 /dev/sd{d,e,f}

[root@sishen ~]# cat /proc//mdstat

//查看阵列信息
sonalities : [raid0] [raid1]
md1 : active raid1 sdf[2](S) sde[1] sdd[0]
      20955008 blocks super 1.2 [2/2] [UU]
      [=====>...............]  resync = 28.6% (6000000/20955008) finish=1.1min speed=206896K/sec
     
md0 : active raid0 sdc[1] sdb[0]
      41942016 blocks super 1.2 512k chunks
     
unused devices: <none>

[root@sishen ~]# mdadm -D /dev/md1

//查看详细信息

3.创建配置文件

[root@sishen ~]# mdadm -Ds >> /etc/mdadm.conf

4.创建挂载点、分区、格式化、挂载使用

[root@sishen ~]# mkdir /md1

[root@sishen ~]# parted /dev/md1

[root@sishen ~]# mkfs.ext4 /dev/md1p1

[root@sishen ~]# mount /dev/md1p1 /md1/
[root@sishen ~]# df -h
Filesystem      Size  Used Avail Use% Mounted on
……….
/dev/md1p1       19G  172M   18G   1% /md1

5.查看状态信息

[root@sishen ~]# cat /proc/mdstat
Personalities : [raid0] [raid1]
md1 : active raid1 sdf[2](S) sde[1] sdd[0]
      20955008 blocks super 1.2 [2/2] [UU]
 

md0 : active raid0 sdc[1] sdb[0]
      41942016 blocks super 1.2 512k chunks


    
unused devices: <none>

#md1:表示此阵列的设备名

#active:正常读写

#raid 1:raid级别

#sdf[2][S]:为此阵列的第三个设备且是热备盘,sde[1]此阵列第二个设备,sdc[0]此阵列的第一个设备

#20955008 blocks:此阵列的块大小,

#[2/2]此阵列中有2个磁盘,并且都在运行

动态查看使用

[root@sishen ~]# watch -n 1 cat /proc/mdstat

配置文件介绍

[root@sishen ~]# cat /etc/mdadm.conf
ARRAY /dev/md0 metadata=1.2 name=sishen.163.cn:0 UUID=b4192d7e:3d23d5fd:8cb8d61e:4368d38d
ARRAY /dev/md0 metadata=1.2 name=sishen.163.cn:0 UUID=b4192d7e:3d23d5fd:8cb8d61e:4368d38d
ARRAY /dev/md1 metadata=1.2 spares=1 name=sishen.163.cn:1 UUID=8a5d9559:dd72a74d:6b72f9aa:45bd2b86

#spares=1:有一块热备盘

手动设置故障盘

[root@sishen ~]# mdadm -f /dev/md1 /dev/sdd
mdadm: set /dev/sdd faulty in /dev/md1

移除故障盘
[root@sishen ~]# mdadm -r /dev/md1 /dev/sdd
mdadm: hot removed /dev/sdd from /dev/md1

查看状态
[root@sishen ~]# cat /proc/mdstat
Personalities : [raid0] [raid1]
md1 : active raid1 sdf[2] sde[1]
      20955008 blocks super 1.2 [2/1] [_U]
      [======>..............]  recovery = 33.9% (7117952/20955008) finish=1.1min speed=200000K/sec
      //正在同步数据
md0 : active raid0 sdc[1] sdb[0]
      41942016 blocks super 1.2 512k chunks
     
unused devices: <none>

重新生成配置文件

[root@sishen ~]# mdadm -Ds > /etc/mdadm.conf

实例3 创建RAID5

1.准备分区

[root@sishen ~]# ls /dev/sdg*
/dev/sdg   /dev/sdg2  /dev/sdg4  /dev/sdg6  /dev/sdg8
/dev/sdg1  /dev/sdg3  /dev/sdg5  /dev/sdg7  /dev/sdg9

2.开始创建

[root@sishen ~]# mdadm -C -v /dev/md5 -l 5 -n 6 -c 32 -x 2 /dev/sdg{1,2,3,5,6,7,8,9}
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: size set to 1059200K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.

3.生成配置文件

[root@sishen ~]# mdadm -Ds > /etc/mdadm.conf

后续步骤同上;

实例4       停止/激活阵列

[root@sishen ~]# mdadm -S /dev/md5
mdadm: stopped /dev/md5

[root@sishen ~]# mdadm –As

//激活所有阵列
mdadm: /dev/md1 is already in use.
mdadm: /dev/md5 has been started with 6 drives and 2 spares.
mdadm: /dev/md1 is already in use.

为阵列添加一块新硬盘

[root@sishen ~]# mdadm -a /dev/md5 /dev/sdg10
mdadm: added /dev/sdg10

#如果阵列在停止状态下,则可能无法添加新硬盘

改变阵列大小

[root@sishen ~]# mdadm --grow /dev/md5 --array-size 264800

 

重新生成配置文件

[root@sishen ~]# mdadm -Ds > /etc/mdadm.conf

创建RAID 1+0

方法是在raid1的基础上创建raid0

首先创建2个raid 1

[root@sishen ~]# mdadm -C -v /dev/md11 -l 1 -n 2 /dev/sd{b,c}

[root@sishen ~]# mdadm -C -v /dev/md12 -l 1 -n 2 /dev/sd{d,e}

然后在raid1上面创建raid 0

[root@sishen ~]# mdadm -C -v /dev/md0 -l 0 -n 2 /dev/md1{1,2}

生成配置文件

[root@sishen ~]# mdadm -Ds > /etc/mdadm.conf

使用和上述操作一样

关闭所有RAID

[root@sishen ~]# mdadm -Ss
mdadm: stopped /dev/md1
mdadm: stopped /dev/md0

删除RAID

先停止阵列,再卸载,然后删除配置文件

最后清除物理磁盘中的RAID标识

[root@sishen ~]# mdadm --misc --zero-superblock /dev/sd{b,c,d,e,f}

[root@sishen ~]# mdadm --misc --zero-superblock /dev/sdg{2,3,5,6,7,8,9,10}

#--misc 修改MD相关的信息

#--zero-superblock 擦除设备中的超级块

若有问题后续会更新!!!点滴记录!重在积累!

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!