天天看点

raid0、1、5、10创建11047552 blocks:表示此阵列的大小,以块为单位(1G)

•常见raid原理

•raid卡

•配置raid

•删除raid

实验需要添加5块硬盘

sda , b ,c,d,e,f

RAID(Redundant Array of Independent Disks,独立磁盘冗余阵列)可以提供较普通磁盘更高的速度、安全性,所以服务器在安装时都会选择创建RAID。RAID的创建有两种方式:软RAID(通过操作系统软件来实现)和硬RAID(使用硬件阵列卡)。

raid0:

RAID-0 :striping(条带模式),至少需要两块磁盘,做RAID分区的大小最好是相同的(可以充分发挥并发优势);数据分散存储于不同的磁盘上,在读写的时候可以实现并发,所以相对其读写性能最好;但是没有容错功能,任何一个磁盘的损坏将损坏全部数据;磁盘利用率为100%。

RAID-1 :mirroring(镜像卷),至少需要两块硬盘,raid大小等于两个raid分区中最小的容量(最好将分区大小分为一样),数据有冗余,在存储时同时写入两块硬盘,实现了数据备份;

磁盘利用率为50%,即2块100G的磁盘构成RAID1只能提供100G的可用空间。

RAID-5 :需要三块或以上硬盘,可以提供热备盘实现故障的恢复;只损坏一块,没有问题。但如果同时损坏两块磁盘,则数据将都会损坏。 空间利用率: (n-1)/n 2/3

1+1 =2 

是用相对简单的异或逻辑运算(相同为0,相异为1)

A值 B值 Xor结果

0 0 0

1 0 1

0 1 1

1 1 0

管理软raid工具mdadm

mdadm 参数:

命令常用参数如下:

-C或--creat 建立一个新阵列 -r 移除设备

-A 激活磁盘阵列 -l 或--level= 设定磁盘阵列的级别

-D或--detail 打印阵列设备的详细信息 -n或--raid-devices= 指定阵列成员(分区/磁盘)的数量

-s或--scan 扫描配置文件或/proc/mdstat得到阵列缺失信息 -x或--spare-devicds= 指定阵列中备用盘的数量

-f 将设备状态定为故障 -c或--chunk= 设定阵列的块chunk大小 ,单位为KB

-a或--add 添加设备到阵列 -G或--grow 改变阵列大小或形态

-v --verbose 显示详细信息

热备份盘(hot spare or hot standby driver):为了加强容错的功能以及使系统在磁盘故障的情况下能迅速的重建数据,以维持系统的性能,一般的磁盘阵列系统都可使用热备份功能。

Chunk (块): raid存储数据时每个数据段的大小。 4K,64K

若chunk过大,可能一块磁盘上的带区空间就可以满足大部分的I/O操作的数据的读写只局限与一块硬盘上,这便不能充分发挥Raid并发的优势;如果chunk设置过小,任何很小的I/O指令都可能引发大量的读写操作,不能良好的发挥并发性能,占用过多的控制器总线带宽,也影响了阵列的整体性能。所以,在创建带区时,我们应该根据实际应用的需要,合理的选择带区的大小

RAID0

例1、

1)创建RAID0

2)导出阵列配置文件

3)格式化并挂载到指定目录

4)修改/etc/fstab永久挂载

环境:添加一个sdc硬盘,分两个1G的主分区。sdc1和sdc2

[root@localhost ~]# fdisk /dev/sdc

[root@localhost ~]# ll /dev/sdc*

brw-rw---- 1 root disk 8, 16 Feb 25 09:10 /dev/sdc

brw-rw---- 1 root disk 8, 17 Feb 25 09:10 /dev/sdc1

brw-rw---- 1 root disk 8, 18 Feb 25 09:10 /dev/sdc2

[root@localhost ~]# yum -y install mdadm ##安装mdadm管理工具

[root@localhost ~]# mdadm -C -v /dev/md0 -l 0 -n 2 /dev/sdc{1,2}

mdadm: chunk size defaults to 512K

mdadm: Defaulting to version 1.2 metadata

mdadm: array /dev/md0 started.

查看阵列信息

[root@localhost ~]# mdadm -Ds

ARRAY /dev/md0 metadata=1.2 name=localhost.cn:0 UUID=c02009dd:fc28f287:fafca47a:49b2bd81

生成配置文件

[root@localhost ~]# mdadm -Ds > /etc/mdadm.conf

[root@localhost ~]# mdadm -D /dev/md0

/dev/md0:

Version : 1.2

Creation Time : Thu Feb 25 09:14:14 2016

Raid Level : raid0

Array Size : 2095104 (2046.34 MiB 2145.39 MB)

Raid Devices : 2

Total Devices : 2

Persistence : Superblock is persistent

Active Devices : 2

Working Devices : 2

Failed Devices : 0

Spare Devices : 0

对创建的RAID0创建分区

[root@localhost ~]# fdisk /dev/md0

[root@localhost ~]# ll /dev/md0*

brw-rw---- 1 root disk 9, 0 Feb 25 09:19 /dev/md0

brw-rw---- 1 root disk 259, 1 Feb 25 09:19 /dev/md0p1

格式化分区并挂载

[root@localhost ~]# mkfs.xfs /dev/md0p1

[root@localhost ~]# mkdir /raid0

[root@localhost ~]# mount /dev/md0p1 /raid0/

永久挂载

[root@localhost ~]# blkid | grep md0p1

/dev/md0p1: UUID="a25acfcc-9e33-474a-98b8-a0c07fee063e" TYPE="xfs"

[root@localhost ~]# echo "UUID=a25acfcc-9e33-474a-98b8-a0c07fee063e /raid0 xfs defaults 0 0" >> /etc/fstab

建立RAID1

1)创建RAID1

2)添加1G热备盘

3)模拟磁盘故障,自动顶替故障盘

4)卸载阵列

环境:创建分区:sdd1,sdd2,sdd3 大小为1G

[root@localhost ~]# fdisk /dev/sdd

[root@localhost ~]# ll /dev/sdd*

brw-rw---- 1 root disk 8, 32 Feb 26 07:35 /dev/sdd

brw-rw---- 1 root disk 8, 33 Feb 26 07:35 /dev/sdd1

brw-rw---- 1 root disk 8, 34 Feb 26 07:35 /dev/sdd2

brw-rw---- 1 root disk 8, 35 Feb 26 07:35 /dev/sdd3

创建RAID1

[root@localhost ~]# mdadm -C -v /dev/md1 -l 1 -n 2 -x 1 /dev/sdd{1,2,3}

mdadm: Note: this array has metadata at the start and

may not be suitable as a boot device. If you plan to

store '/boot' on this device please ensure that

your boot-loader understands md/v1.x metadata, or use

--metadata=0.90

mdadm: size set to 1047552K

Continue creating array?

Continue creating array? (y/n) y

mdadm: array /dev/md1 started.

[root@localhost ~]# cat /proc/mdstat

Personalities : [raid1]

1047552 blocks super 1.2 [2/2] [UU]

unused devices: <none>

[root@localhost ~]# cat !$

cat /etc/mdadm.conf

ARRAY /dev/md1 metadata=1.2 spares=1 name=localhost.cn:1 UUID=9b5e920c:a637e13a:9bfc64ac:74998dc0

使用RAID1

创建分区、格式化、挂载

[root@localhost ~]# fdisk /dev/md1

[root@localhost ~]# mkfs.xfs /dev/md1p1

[root@localhost ~]# mkdir /raid1

[root@localhost ~]# mount /dev/md1p1 /raid1/

[root@localhost ~]# df -h

Filesystem Size Used Avail Use% Mounted on

/dev/mapper/rhel-root 10G 3.2G 6.9G 32% /

devtmpfs 2.0G 0 2.0G 0% /dev

tmpfs 2.0G 84K 2.0G 1% /dev/shm

tmpfs 2.0G 9.0M 2.0G 1% /run

tmpfs 2.0G 0 2.0G 0% /sys/fs/cgroup

/dev/sr0 3.8G 3.8G 0 100% /mnt

/dev/sda1 197M 125M 72M 64% /boot

tmpfs 394M 16K 394M 1% /run/user/42

tmpfs 394M 0 394M 0% /run/user/0

/dev/md1p1 1019M 33M 987M 4% /raid1

#md1:表示此阵列的设备名

#active:表示此阵列正常读写

#sdd3[2][S]:表示是这个阵列第3个设备且是备用盘,sdd2[1]是此阵列第2个设备,sdd1[0]是此阵列第1个设备

#【2/2】:表示阵列中有2个磁盘,并且2个都在正常运行

[root@localhost ~]# cat /etc/mdadm.conf

#spares=1表示:有热备盘1个

#下面模拟RAID1中/dev/sdd1出现故障,观察/dev/sdd3备用盘能否自动顶替故障盘

#将/dev/sdd1指定为故障状态,cat /proc/mdstat查看阵列状态

#稍待片刻阵列重新重建成功,发现/dev/sdd3后的[S]消失了,成功顶替故障盘

#移除故障盘/dev/sdd1

[root@localhost ~]# watch -n 1 cat /proc/mdstat

[root@localhost ~]# mdadm -f /dev/md1 /dev/sdd1

mdadm: set /dev/sdd1 faulty in /dev/md1

移动损坏的设备:

[root@localhost ~]# mdadm -r /dev/md1 /dev/sdd1

mdadm: hot removed /dev/sdd1 from /dev/md1

md1 : active raid1 sdd3[2] sdd2[1]

重新生成配置文件

ARRAY /dev/md1 metadata=1.2 name=localhost.cn:1 UUID=9b5e920c:a637e13a:9bfc64ac:74998dc0

建立RAID5

1)创建RAID5

2)停止阵列,重新激活阵列

3)再添加新的1G热备盘,扩展阵列容量,从3磁盘个扩展到4个

实验环境: sde1,sde2,sde3,sde5,sde6 个主分区 每个1G

创建分区

[root@localhost ~]# fdisk /dev/sde

[root@localhost ~]# ll /dev/sde*

brw-rw---- 1 root disk 8, 64 Feb 26 08:04 /dev/sde

brw-rw---- 1 root disk 8, 65 Feb 26 08:04 /dev/sde1

brw-rw---- 1 root disk 8, 66 Feb 26 08:04 /dev/sde2

brw-rw---- 1 root disk 8, 67 Feb 26 08:04 /dev/sde3

brw-rw---- 1 root disk 8, 69 Feb 26 08:04 /dev/sde5

brw-rw---- 1 root disk 8, 70 Feb 26 08:04 /dev/sde6

brw-rw---- 1 root disk 8, 71 Feb 26 08:04 /dev/sde7

brw-rw---- 1 root disk 8, 72 Feb 26 08:04 /dev/sde8

创建RAID5

[root@localhost ~]# mdadm -C -v /dev/md5 -l 5 -n 3 -c 32 -x 1 /dev/sde{1,2,5,6}

ARRAY /dev/md5 metadata=1.2 spares=1 name=localhost.cn:5 UUID=1ac1f8c8:d4829dbb:a47fa5e2:414231f1

停止md5 

停止之前先生成配置文件

[root@localhost ~]# mdadm -S /dev/md5

mdadm: stopped /dev/md5

激活:

[root@localhost ~]# mdadm -As

#再新添加一块硬盘分区/dev/sde7,希望扩展RAID5阵列到4块硬盘

[root@localhost ~]# mdadm -a /dev/md5 /dev/sde7

mdadm: added /dev/sde7

Personalities : [raid1] [raid6] [raid5] [raid4]

2095104 blocks super 1.2 level 5, 32k chunk, algorithm 2 [3/3] [UUU]

md1 : active raid1 sdc3[2] sdc2[1]

[root@localhost ~]# mdadm -G /dev/md5 -n 4

3142656 blocks super 1.2 level 5, 32k chunk, algorithm 2 [4/4] [UUUU]

[root@localhost ~]# mdadm -Ds >/etc/mdadm.conf

了解:

建立RAID 1+0双层架构的方法

方法,先创建raid1,再使用创建的raid1设备创建raid0

[root@localhost ~]# fdisk /dev/sdf

[root@localhost ~]# ll /dev/sdf*

brw-rw---- 1 root disk 8, 80 Feb 26 08:39 /dev/sdf

brw-rw---- 1 root disk 8, 81 Feb 26 08:39 /dev/sdf1

brw-rw---- 1 root disk 8, 82 Feb 26 08:39 /dev/sdf2

brw-rw---- 1 root disk 8, 83 Feb 26 08:39 /dev/sdf3

brw-rw---- 1 root disk 8, 84 Feb 26 08:39 /dev/sdf4

brw-rw---- 1 root disk 8, 85 Feb 26 08:39 /dev/sdf5

首先、创建2个底层的raid1

[root@localhost ~]# mdadm -C -v /dev/md11 -l 1 -n 2 /dev/sdf{1,2}

[root@localhost ~]# mdadm -C -v /dev/md12 -l 1 -n 2 /dev/sdf{3,5}

再创建上层的raid0

[root@localhost ~]# mdadm -C -v /dev/md10 -l 0 -n 2 /dev/md1{1,2}

mdadm: array /dev/md10 started.

ARRAY /dev/md11 metadata=1.2 name=localhost.cn:11 UUID=c80e5768:eca7d5fb:6a576707:06884d89

ARRAY /dev/md12 metadata=1.2 name=localhost.cn:12 UUID=46da12ab:4b6a9a71:16d2715b:18e52724

ARRAY /dev/md10 metadata=1.2 name=localhost.cn:10 UUID=632a0efc:66e6847c:615ee844:a04ab1f3

关闭所有的RAID

卸载raid的挂载

[root@localhost ~]# mdadm -Ss

全部激活

mdadm删除软raid的方法

首先,创建一个raid1

[root@localhost ~]# mdadm -C /dev/md3 -l 1 -n 2 /dev/sdc{1,2}

开始删除raid

[root@localhost ~]# umount /dev/md3p1

删除配置文件

[root@localhost ~]# rm -rf /etc/mdadm.conf

清除物理磁盘中的raid标识

[root@localhost ~]# mdadm --misc --zero-superblock /dev/sdc1

[root@localhost ~]# mdadm --misc --zero-superblock /dev/sdc2

参数说明:

mdadm --misc options... devices

report on or modify various md related devices. #报告或修改各种MD相关的设备

--zero-superblock : erase the MD superblock from a device. #擦除设备中的MD超级块。

本文转自信自己belive51CTO博客,原文链接: http://blog.51cto.com/11638205/2048962,如需转载请自行联系原作者

继续阅读