•常見raid原理
•raid卡
•配置raid
•删除raid
實驗需要添加5塊硬碟
sda , b ,c,d,e,f
RAID(Redundant Array of Independent Disks,獨立磁盤備援陣列)可以提供較普通磁盤更高的速度、安全性,是以伺服器在安裝時都會選擇建立RAID。RAID的建立有兩種方式:軟RAID(通過作業系統軟體來實作)和硬RAID(使用硬體陣列卡)。
raid0:
RAID-0 :striping(條帶模式),至少需要兩塊磁盤,做RAID分區的大小最好是相同的(可以充分發揮并發優勢);資料分散存儲于不同的磁盤上,在讀寫的時候可以實作并發,是以相對其讀寫性能最好;但是沒有容錯功能,任何一個磁盤的損壞将損壞全部資料;磁盤使用率為100%。
RAID-1 :mirroring(鏡像卷),至少需要兩塊硬碟,raid大小等于兩個raid分區中最小的容量(最好将分區大小分為一樣),資料有備援,在存儲時同時寫入兩塊硬碟,實作了資料備份;
磁盤使用率為50%,即2塊100G的磁盤構成RAID1隻能提供100G的可用空間。
RAID-5 :需要三塊或以上硬碟,可以提供熱備盤實作故障的恢複;隻損壞一塊,沒有問題。但如果同時損壞兩塊磁盤,則資料将都會損壞。 空間使用率: (n-1)/n 2/3
1+1 =2
是用相對簡單的異或邏輯運算(相同為0,相異為1)
A值 B值 Xor結果
0 0 0
1 0 1
0 1 1
1 1 0
管理軟raid工具mdadm
mdadm 參數:
指令常用參數如下:
-C或--creat 建立一個新陣列 -r 移除裝置
-A 激活磁盤陣列 -l 或--level= 設定磁盤陣列的級别
-D或--detail 列印陣列裝置的詳細資訊 -n或--raid-devices= 指定陣列成員(分區/磁盤)的數量
-s或--scan 掃描配置檔案或/proc/mdstat得到陣列缺失資訊 -x或--spare-devicds= 指定陣列中備用盤的數量
-f 将裝置狀态定為故障 -c或--chunk= 設定陣列的塊chunk大小 ,機關為KB
-a或--add 添加裝置到陣列 -G或--grow 改變陣列大小或形态
-v --verbose 顯示詳細資訊
熱備份盤(hot spare or hot standby driver):為了加強容錯的功能以及使系統在磁盤故障的情況下能迅速的重建資料,以維持系統的性能,一般的磁盤陣列系統都可使用熱備份功能。
Chunk (塊): raid存儲資料時每個資料段的大小。 4K,64K
若chunk過大,可能一塊磁盤上的帶區空間就可以滿足大部分的I/O操作的資料的讀寫隻局限與一塊硬碟上,這便不能充分發揮Raid并發的優勢;如果chunk設定過小,任何很小的I/O指令都可能引發大量的讀寫操作,不能良好的發揮并發性能,占用過多的控制器總線帶寬,也影響了陣列的整體性能。是以,在建立帶區時,我們應該根據實際應用的需要,合理的選擇帶區的大小
RAID0
例1、
1)建立RAID0
2)導出陣列配置檔案
3)格式化并挂載到指定目錄
4)修改/etc/fstab永久挂載
環境:添加一個sdc硬碟,分兩個1G的主分區。sdc1和sdc2
[root@localhost ~]# fdisk /dev/sdc
[root@localhost ~]# ll /dev/sdc*
brw-rw---- 1 root disk 8, 16 Feb 25 09:10 /dev/sdc
brw-rw---- 1 root disk 8, 17 Feb 25 09:10 /dev/sdc1
brw-rw---- 1 root disk 8, 18 Feb 25 09:10 /dev/sdc2
[root@localhost ~]# yum -y install mdadm ##安裝mdadm管理工具
[root@localhost ~]# mdadm -C -v /dev/md0 -l 0 -n 2 /dev/sdc{1,2}
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
檢視陣列資訊
[root@localhost ~]# mdadm -Ds
ARRAY /dev/md0 metadata=1.2 name=localhost.cn:0 UUID=c02009dd:fc28f287:fafca47a:49b2bd81
生成配置檔案
[root@localhost ~]# mdadm -Ds > /etc/mdadm.conf
[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Feb 25 09:14:14 2016
Raid Level : raid0
Array Size : 2095104 (2046.34 MiB 2145.39 MB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
對建立的RAID0建立分區
[root@localhost ~]# fdisk /dev/md0
[root@localhost ~]# ll /dev/md0*
brw-rw---- 1 root disk 9, 0 Feb 25 09:19 /dev/md0
brw-rw---- 1 root disk 259, 1 Feb 25 09:19 /dev/md0p1
格式化分區并挂載
[root@localhost ~]# mkfs.xfs /dev/md0p1
[root@localhost ~]# mkdir /raid0
[root@localhost ~]# mount /dev/md0p1 /raid0/
永久挂載
[root@localhost ~]# blkid | grep md0p1
/dev/md0p1: UUID="a25acfcc-9e33-474a-98b8-a0c07fee063e" TYPE="xfs"
[root@localhost ~]# echo "UUID=a25acfcc-9e33-474a-98b8-a0c07fee063e /raid0 xfs defaults 0 0" >> /etc/fstab
建立RAID1
1)建立RAID1
2)添加1G熱備盤
3)模拟磁盤故障,自動頂替故障盤
4)解除安裝陣列
環境:建立分區:sdd1,sdd2,sdd3 大小為1G
[root@localhost ~]# fdisk /dev/sdd
[root@localhost ~]# ll /dev/sdd*
brw-rw---- 1 root disk 8, 32 Feb 26 07:35 /dev/sdd
brw-rw---- 1 root disk 8, 33 Feb 26 07:35 /dev/sdd1
brw-rw---- 1 root disk 8, 34 Feb 26 07:35 /dev/sdd2
brw-rw---- 1 root disk 8, 35 Feb 26 07:35 /dev/sdd3
建立RAID1
[root@localhost ~]# mdadm -C -v /dev/md1 -l 1 -n 2 -x 1 /dev/sdd{1,2,3}
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: size set to 1047552K
Continue creating array?
Continue creating array? (y/n) y
mdadm: array /dev/md1 started.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
1047552 blocks super 1.2 [2/2] [UU]
unused devices: <none>
[root@localhost ~]# cat !$
cat /etc/mdadm.conf
ARRAY /dev/md1 metadata=1.2 spares=1 name=localhost.cn:1 UUID=9b5e920c:a637e13a:9bfc64ac:74998dc0
使用RAID1
建立分區、格式化、挂載
[root@localhost ~]# fdisk /dev/md1
[root@localhost ~]# mkfs.xfs /dev/md1p1
[root@localhost ~]# mkdir /raid1
[root@localhost ~]# mount /dev/md1p1 /raid1/
[root@localhost ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 10G 3.2G 6.9G 32% /
devtmpfs 2.0G 0 2.0G 0% /dev
tmpfs 2.0G 84K 2.0G 1% /dev/shm
tmpfs 2.0G 9.0M 2.0G 1% /run
tmpfs 2.0G 0 2.0G 0% /sys/fs/cgroup
/dev/sr0 3.8G 3.8G 0 100% /mnt
/dev/sda1 197M 125M 72M 64% /boot
tmpfs 394M 16K 394M 1% /run/user/42
tmpfs 394M 0 394M 0% /run/user/0
/dev/md1p1 1019M 33M 987M 4% /raid1
#md1:表示此陣列的裝置名
#active:表示此陣列正常讀寫
#sdd3[2][S]:表示是這個陣列第3個裝置且是備用盤,sdd2[1]是此陣列第2個裝置,sdd1[0]是此陣列第1個裝置
#【2/2】:表示陣列中有2個磁盤,并且2個都在正常運作
[root@localhost ~]# cat /etc/mdadm.conf
#spares=1表示:有熱備盤1個
#下面模拟RAID1中/dev/sdd1出現故障,觀察/dev/sdd3備用盤能否自動頂替故障盤
#将/dev/sdd1指定為故障狀态,cat /proc/mdstat檢視陣列狀态
#稍待片刻陣列重新重建成功,發現/dev/sdd3後的[S]消失了,成功頂替故障盤
#移除故障盤/dev/sdd1
[root@localhost ~]# watch -n 1 cat /proc/mdstat
[root@localhost ~]# mdadm -f /dev/md1 /dev/sdd1
mdadm: set /dev/sdd1 faulty in /dev/md1
移動損壞的裝置:
[root@localhost ~]# mdadm -r /dev/md1 /dev/sdd1
mdadm: hot removed /dev/sdd1 from /dev/md1
md1 : active raid1 sdd3[2] sdd2[1]
重新生成配置檔案
ARRAY /dev/md1 metadata=1.2 name=localhost.cn:1 UUID=9b5e920c:a637e13a:9bfc64ac:74998dc0
建立RAID5
1)建立RAID5
2)停止陣列,重新激活陣列
3)再添加新的1G熱備盤,擴充陣列容量,從3磁盤個擴充到4個
實驗環境: sde1,sde2,sde3,sde5,sde6 個主分區 每個1G
建立分區
[root@localhost ~]# fdisk /dev/sde
[root@localhost ~]# ll /dev/sde*
brw-rw---- 1 root disk 8, 64 Feb 26 08:04 /dev/sde
brw-rw---- 1 root disk 8, 65 Feb 26 08:04 /dev/sde1
brw-rw---- 1 root disk 8, 66 Feb 26 08:04 /dev/sde2
brw-rw---- 1 root disk 8, 67 Feb 26 08:04 /dev/sde3
brw-rw---- 1 root disk 8, 69 Feb 26 08:04 /dev/sde5
brw-rw---- 1 root disk 8, 70 Feb 26 08:04 /dev/sde6
brw-rw---- 1 root disk 8, 71 Feb 26 08:04 /dev/sde7
brw-rw---- 1 root disk 8, 72 Feb 26 08:04 /dev/sde8
建立RAID5
[root@localhost ~]# mdadm -C -v /dev/md5 -l 5 -n 3 -c 32 -x 1 /dev/sde{1,2,5,6}
ARRAY /dev/md5 metadata=1.2 spares=1 name=localhost.cn:5 UUID=1ac1f8c8:d4829dbb:a47fa5e2:414231f1
停止md5
停止之前先生成配置檔案
[root@localhost ~]# mdadm -S /dev/md5
mdadm: stopped /dev/md5
激活:
[root@localhost ~]# mdadm -As
#再新添加一塊硬碟分區/dev/sde7,希望擴充RAID5陣列到4塊硬碟
[root@localhost ~]# mdadm -a /dev/md5 /dev/sde7
mdadm: added /dev/sde7
Personalities : [raid1] [raid6] [raid5] [raid4]
2095104 blocks super 1.2 level 5, 32k chunk, algorithm 2 [3/3] [UUU]
md1 : active raid1 sdc3[2] sdc2[1]
[root@localhost ~]# mdadm -G /dev/md5 -n 4
3142656 blocks super 1.2 level 5, 32k chunk, algorithm 2 [4/4] [UUUU]
[root@localhost ~]# mdadm -Ds >/etc/mdadm.conf
了解:
建立RAID 1+0雙層架構的方法
方法,先建立raid1,再使用建立的raid1裝置建立raid0
[root@localhost ~]# fdisk /dev/sdf
[root@localhost ~]# ll /dev/sdf*
brw-rw---- 1 root disk 8, 80 Feb 26 08:39 /dev/sdf
brw-rw---- 1 root disk 8, 81 Feb 26 08:39 /dev/sdf1
brw-rw---- 1 root disk 8, 82 Feb 26 08:39 /dev/sdf2
brw-rw---- 1 root disk 8, 83 Feb 26 08:39 /dev/sdf3
brw-rw---- 1 root disk 8, 84 Feb 26 08:39 /dev/sdf4
brw-rw---- 1 root disk 8, 85 Feb 26 08:39 /dev/sdf5
首先、建立2個底層的raid1
[root@localhost ~]# mdadm -C -v /dev/md11 -l 1 -n 2 /dev/sdf{1,2}
[root@localhost ~]# mdadm -C -v /dev/md12 -l 1 -n 2 /dev/sdf{3,5}
再建立上層的raid0
[root@localhost ~]# mdadm -C -v /dev/md10 -l 0 -n 2 /dev/md1{1,2}
mdadm: array /dev/md10 started.
ARRAY /dev/md11 metadata=1.2 name=localhost.cn:11 UUID=c80e5768:eca7d5fb:6a576707:06884d89
ARRAY /dev/md12 metadata=1.2 name=localhost.cn:12 UUID=46da12ab:4b6a9a71:16d2715b:18e52724
ARRAY /dev/md10 metadata=1.2 name=localhost.cn:10 UUID=632a0efc:66e6847c:615ee844:a04ab1f3
關閉所有的RAID
解除安裝raid的挂載
[root@localhost ~]# mdadm -Ss
全部激活
mdadm删除軟raid的方法
首先,建立一個raid1
[root@localhost ~]# mdadm -C /dev/md3 -l 1 -n 2 /dev/sdc{1,2}
開始删除raid
[root@localhost ~]# umount /dev/md3p1
删除配置檔案
[root@localhost ~]# rm -rf /etc/mdadm.conf
清除實體磁盤中的raid辨別
[root@localhost ~]# mdadm --misc --zero-superblock /dev/sdc1
[root@localhost ~]# mdadm --misc --zero-superblock /dev/sdc2
參數說明:
mdadm --misc options... devices
report on or modify various md related devices. #報告或修改各種MD相關的裝置
--zero-superblock : erase the MD superblock from a device. #擦除裝置中的MD超級塊。
本文轉自信自己belive51CTO部落格,原文連結: http://blog.51cto.com/11638205/2048962,如需轉載請自行聯系原作者