Linux之磁碟陣列(RAID)

2021-02-13 DevOps

一、RAID的原理基礎

在講解RAID的原理基礎之前,我們首先來了解一下傳統磁碟的劣勢。我們知道一臺PC機種都會包含CPU、內存、主板、硬碟、網卡等硬體,影響計算機性能的組建包括:CPU、主板總線IO、內存IO、硬碟IO、網卡IO等。可能我們在一提到影響計算機的性能時,首先想到的就是CPU。但是隨著計算機的發展,特別是對於現代的處理器來說,其運算速度已經是非常快的了,同時我們的內存IO速度也已經達到了非常快的地步了(差不多應該有5G每秒),而我們也知道數據都是保存硬碟上的,所以計算機其實是先將硬碟的數據傳遞給內存,然後CPU再從內存中加載數據來進行運算的,所以由此看來影響整個計算機性能的因素就是我們的硬碟IO速度了。我們來看看目前流行的硬碟類型及速度(數據可能不準確,不過基本差不多)

  硬碟類型    速度  SATA <150M/s  SCSI<200M/s  SAS200M/s左右  SSD固態硬碟  500M/s左右

我們目前的PC機上基本上都是使用SATA接口的硬碟,讀的速度大概不超過150M/s,寫的速度就更慢了,而生產環境下的服務基本上都是使用SAS(串行SCSI)硬碟,速度最快的是SSD固態硬碟,其速度幾乎是SATA的4-5倍。但是即使是使用SSD固態硬碟,其速度在500M/s左右,也遠遠達不到我們內存以及CPU的處理速度。所以,盤是絕大多數計算機的性能的瓶頸

所以,現代磁碟的缺陷就是:I/O性能極差,穩定性極差

I/O性能我們剛已經看到了,就算是使用SSD固態硬碟,其還是會大大影響計算機的性能,穩定性差表現在,如果一個硬碟發生了故障或者損壞,那麼這塊硬碟就已經不能再使用了,這如果是在對數據保存要求特別高的地方來說,其是不可想像的。正因為如此,就誕生了一種新的技術--RAID。

RAID(Redundant Array of Independent Disks)是廉價磁碟冗餘陣列技術的英文縮寫,它的原理就是通過多個磁碟並行運行來提高整個計算機的I/O存儲性能

RAID的評判標準有如下三個:

 

速度:讀寫速度的提升

磁碟使用率:多磁碟的空間使用率

冗餘性: 能夠支持幾塊磁碟損壞而不丟失數據

 

所以,基於以上三個評判標準,RAID分為很多種類,稱之為RAID級別,現代RAID一共有7個級別,分別是RAID0~RAID6,但是常用的RAID級別主要是以下四種:

RAID0:提高讀寫性能

RAID1:提高讀寫性能、冗餘性

RAID5:提高讀寫性能、冗餘性(允許1塊硬碟發生故障)

RAID6:提高讀寫性能、冗餘性(運行2塊硬碟發生故障)

下面我們就基於RAID的三個評判標準來看看常用的這四個RAID級別各自的特點

1.RAID0

RAID的工作原理就是通過多塊硬碟並行運行來提高整個計算機的I/O存儲性能。所以如果是RAID0這個級別,我們至少需要2塊硬碟,在讀寫數據時,RAID0是通過將數據分開讀寫到多塊硬碟的方式來提高讀寫性能的。我們可以通過下圖來看看RAID0的工作原理

RAID0至少需要兩塊硬碟,當使用RAID0時,我們在讀寫數據的時候是將數據分開讀寫到多塊硬碟上,所以其讀寫速度是最快的,但是因為多塊硬碟上保存了數據的一部分,所以當一塊硬碟發生損壞時,其整個RAID的數據也就損壞了。

①空間利用率:所有硬碟空間之和

②性能:所有硬碟讀寫速度之和

③冗餘能力:無

2.RAID1

RAID1也是至少需要2塊硬碟,在寫數據的時候就不同於RAID0了,RAID1在寫數據時會將數據複製到多塊硬碟上,即每塊硬碟都會保存該數據的一個備份,在讀數據時,以提高冗餘性。讀的時候同時從多塊硬碟上讀取數據,以提高讀的性能。

①空間利用率:所有磁碟中最小的那塊(其實在使用RAID時,最好每

塊硬碟的大小及型號都一樣)

②性能:讀性能是所有硬碟之和,寫性能有所減弱

③冗餘能力:只要有一塊硬碟正常,數據就正常

3.RAID5

RAID5至少需要3塊硬碟,RAID5與RAID0類似,讀寫數據的時候會將數據分布的讀寫到所有硬碟上。但是在寫數據的時候RAID5會對數據進行奇偶校驗運算,並將校驗信息也保存在了硬碟上,所以即使我們其中一塊硬碟發生了損壞,RAID5也能通過其他硬碟以及校驗信息對數據進行恢復使用。但是如果2塊或者2塊以上的硬碟發生了損壞,整個數據也就損壞了。

①空間利用率:1 - 1/n

②性能:讀性能接近RAID0,寫性能相比RAID0要弱一些

③冗餘能力:可以接受1塊硬碟的損壞

4.RAID6

RAID6至少需要4塊硬碟,RAID6與RAID5相類似,讀寫數據的時候會將數據分布的讀寫到所有硬碟上。在寫數據的時候RAID5會對數據進行奇偶校驗運算,並將校驗信息也保存在了硬碟上,但是RAID6會比RAID5多保存一份校驗信息,所以RAID6的冗餘性比RAID5就有所提升,可以允許2塊硬碟發生損壞。

①空間利用率:1 - 2/n

②性能:讀性能接近RAID5,寫性能相比RAID5還要弱一些

③冗餘能力:可以接受2塊硬碟的損壞

以上四種RAID級別是我們最常用的四種級別,對於個人PC機來說,可能我們最需要提高的是硬碟存儲性能,所以基本上使用的是RAID0,其讀寫性能得到了最大的提高,但是其冗餘性為0,當硬碟發生損壞時,數據也就損壞了。而在生產環境下的伺服器,使用的最多是RAID5或者RAID6,其即提供了讀寫性能,也提供了冗餘性。RAID1通常會對於那些對數據準確性要求及其嚴格的場合才會使用。

我們來總結一下這4個常用的RAID級別各自的優缺點:

  RAID級別          速度  冗餘性    磁碟利用率    RAID 0      讀寫速度均有提升  0  所有磁碟之和  RAID 1    讀速度有提示  n  一個磁碟大小  RAID 5    讀寫速度均有提升      1  1-1/n  RAID 6    讀寫速度均有提升  2  1-2/n

RAID的實現有兩種方式:軟體RAID和硬體RAID

①軟體RAID

通過系統功能或者RAID軟體來實現RAID,沒有獨立的硬體和接口,需要佔用一定的系統資源(CPU、硬碟接口速度),並且受到作業系統穩定性的影響

②硬體RAID

通過獨立的RAID硬體卡實現,有些主板集成了RAID硬體,有些需要購買獨立的RAID硬體卡,硬體RAID實現不需要佔用其他硬體資源,穩定性和速度都比軟體RAID要強,所以對於伺服器來說,最好是使用硬體RAID來提高計算機的性能

二、Linux系統下軟體RAID的使用

對於目前所有的作業系統,包括windows、mac os、linux等作業系統,其都有軟體RAID的實現,而我們的Linux作業系統的軟體RAID是通過 mdadm 這個程序來實現的

使用Linux下的 mdadm 這個軟體需要注意的幾點:

①mdadm 支持的RAID級別有:RAID0、RAID1、RAID4、RAID5以及RAID6。我們看到對於常用的四種RAID級別,mdadm都能夠支持

②mdadm 可以基於多塊硬碟、分區以及邏輯捲來創建RAID。對於硬體實現RAID來說,就只能是基於多塊硬碟了

③創建好的軟體RAID對應於 /dev/mdn,n表示的是第幾個RAID,如第一個創建的RAID對應 /dev/md0, 第二個創建的RAID就對應 /dev/md1,當然這個名字是可以自己隨便取的

④RAID的信息保存在 /proc/mdstat 文件中,或者通過 mdadm 命令來查看

接下來我就在我這臺CentOS的系統上來創建我們的軟體RAID

在創建軟體RAID之前,我這裡首先通過虛擬機模擬了4塊1G的虛擬硬碟出來,當然在實際環境下,使用的就是具體的硬碟了。

 

[root@xiaoluo ~]# fdisk -lDisk /dev/sda: 21.5 GB, 21474836480 bytes255 heads, 63 sectors/track, 2610 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesSector size (logical/physical): 512 bytes / 512 bytesI/O size (minimum/optimal): 512 bytes / 512 bytesDisk identifier: 0x00093d90   Device Boot      Start         End      Blocks   Id  System/dev/sda1               1         523     4194304   82  Linux swap / SolarisPartition 1 does not end on cylinder boundary./dev/sda2   *         523        2611    16776192   83  LinuxDisk /dev/sdb: 1073 MB, 1073741824 bytes255 heads, 63 sectors/track, 130 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesSector size (logical/physical): 512 bytes / 512 bytesI/O size (minimum/optimal): 512 bytes / 512 bytesDisk identifier: 0x00000000Disk /dev/sdc: 1073 MB, 1073741824 bytes255 heads, 63 sectors/track, 130 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesSector size (logical/physical): 512 bytes / 512 bytesI/O size (minimum/optimal): 512 bytes / 512 bytesDisk identifier: 0x00000000Disk /dev/sdd: 1073 MB, 1073741824 bytes255 heads, 63 sectors/track, 130 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesSector size (logical/physical): 512 bytes / 512 bytesI/O size (minimum/optimal): 512 bytes / 512 bytesDisk identifier: 0x00000000Disk /dev/sde: 1073 MB, 1073741824 bytes255 heads, 63 sectors/track, 130 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesSector size (logical/physical): 512 bytes / 512 bytesI/O size (minimum/optimal): 512 bytes / 512 bytesDisk identifier: 0x00000000

 

我們創建軟體RAID是通過 mdadm 這個命令來創建的,例如我們創建一個 RAID 0,其語法格式如下:

 

創建RAID 0:  mdadm -C /dev/md0 -a yes -l 0 -n 2 /dev/sdb /dev sdc

 

① -C  創建一個新的RAID  我們這裡就是創建第一個RAID,名字叫做 /dev/md0

② -a  自動創建對應的設備  yes表示會自動在/dev下創建該RAID設備

③ -l  指定要創建的RAID級別  0我們這裡創建RAID 0

 -n  指定硬碟數量  2表示使用2塊硬碟來創建這個RAID0,分別是 /dev/sdb 和 /dev/sdc 

我們通過 mdadm 這個命令來創建軟體RAID的語法格式就是這樣的

 

創建RAID 1:    mdadm -C /dev/md1 -a yes -l 1 -n 2 /dev/sdb /dev/sdc創建RAID 5:    mdadm -C /dev/md2 -a yes -l 5 -n 3 /dev/sdb /dev/sdc /dev/sdd創建RAID 6:    mdadm -C /dev/md3 -a yes -l 6 -n 4 /dev/sdb /dev/sdc /dev/sdd /dev/sde

 

我們也可以使用 -x 參數來指定一個備份磁碟,備份磁碟一般不使用,當出現一個磁碟故障的時候,指定的備份磁碟可以自動上線工作:

mdadm -C /dev/md0 -a yes -l 5 -n 3 -x /dev/sdb /dev/sdc /dev/sdd /dev/sde

我們看到,我們創建了一個RAID5,使用了三塊硬碟,此時我們指定了參數 -x ,表示我們指定了一塊硬碟來作為備份磁碟,當其他三塊磁碟中一塊出現問題時,這個指定備份硬碟就可以自動上線工作了。

接下來我們通過來創建一個RAID 0來看看 mdadm 命令的使用:

[root@xiaoluo ~]# mdadm -C /dev/md0 -a yes -l 0 -n 2 /dev/sdb /dev/sdc mdadm: Defaulting to version 1.2 metadatamdadm: array /dev/md0 started.[root@xiaoluo ~]# ls -l /dev/md0 brw-rw----. 1 root disk 9, 0 May 25 22:36 /dev/md0

此時我們就創建好了一個RAID 0,我們發現 /dev 下也存在了一個叫做 md0的設備了,我們可以使用 mdadm -D 這個命令來查看剛創建的RAID的詳細信息,或者來查看 /proc/mdstat 這個文件來查看RAID的信息

 

[root@xiaoluo ~]# cat /proc/mdstat Personalities : [raid0] md0 : active raid0 sdc[1] sdb[0]      2096128 blocks super 1.2 512k chunks      unused devices: <none>
[root@xiaoluo ~]# mdadm -Dmdadm: No devices given.[root@xiaoluo ~]# mdadm -D /dev/md0 /dev/md0:        Version : 1.2  Creation Time : Sat May 25 22:36:15 2013     Raid Level : raid0     Array Size : 2096128 (2047.34 MiB 2146.44 MB)   Raid Devices : 2  Total Devices : 2    Persistence : Superblock is persistent    Update Time : Sat May 25 22:36:15 2013          State : clean Active Devices : 2Working Devices : 2 Failed Devices : 0  Spare Devices : 0     Chunk Size : 512K           Name : xiaoluo:0  (local to host xiaoluo)           UUID : fe746431:4d77f0e9:e1c1a06f:1d341790         Events : 0    Number   Major   Minor   RaidDevice State       0       8       16        0      active sync   /dev/sdb  //創建好的RAID 0使用了 /dev/sdb /dev/sdc這兩塊硬碟       1       8       32        1      active sync   /dev/sdc

 

注意:】我們在創建好RAID以後,需要將RAID的信息保存到 /etc/mdadm.conf 這個文件裡,這樣在下次作業系統重新啟動的時候,系統就會自動加載這個文件來啟用我們的RAID

[root@xiaoluo ~]# mdadm -D --scan > /etc/mdadm.conf[root@xiaoluo ~]# cat /etc/mdadm.conf

ARRAY /dev/md0 metadata=1.2 name=xiaoluo:0 UUID=fe746431:4d77f0e9:e1c1a06f:1d341790

 

這樣我們在下次系統重新啟動的時候,RAID也會自動啟用了

在創建了這個RAID 0以後,我們就不能再去使用 /dev/sdb 和 /dev/sdc 這個硬碟了,一旦對其進行任何操作,都會損壞我們剛創建好的RAID,所以我們此時就是使用RAID 0這個設備來對其進行文件系統格式化和掛載使用了

[root@xiaoluo ~]# mkfs.ext4 /dev/md0
mke2fs 1.41.12 (17-May-2010)Filesystem label=OS type: LinuxBlock size=4096 (log=2)Fragment size=4096 (log=2)Stride=128 blocks, Stripe width=256 blocks131072 inodes, 524032 blocks26201 blocks (5.00%) reserved for the super userFirst data block=0Maximum filesystem blocks=53687091216 block groups32768 blocks per group, 32768 fragments per group8192 inodes per groupSuperblock backups stored on blocks:    32768, 98304, 163840, 229376, 294912Writing inode tables: done                            Creating journal (8192 blocks): doneWriting superblocks and filesystem accounting information: doneThis filesystem will be automatically checked every 24 mounts or180 days, whichever comes first.  Use tune2fs -c or -i to override.[root@xiaoluo ~]# mount /dev/md0 /mnt[root@xiaoluo ~]# mount/dev/sda2 on / type ext4 (rw)proc on /proc type proc (rw)sysfs on /sys type sysfs (rw)devpts on /dev/pts type devpts (rw,gid=5,mode=620)tmpfs on /dev/shm type tmpfs (rw,rootcontext="system_u:object_r:tmpfs_t:s0")none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)/dev/md0 on /mnt type ext4 (rw)  // 我們的/dev/md0 已經掛載上可以使用了
[root@xiaoluo ~]# cd /mnt/[root@xiaoluo mnt]# lslost+found

這個時候我們就是使用RAID來進行文件的操作了,創建的時候使用的是RAID哪個級別,那麼該RAID就會具有該級別的讀寫特性。在創建完RAID以後,我們就可以像使用分區一樣來使用這個RAID了

我們也可以通過 mdadm -S 這命令來關閉我們的 RAID ,當然在關閉RAID之前,我們需要先卸載掉RAID

[root@xiaoluo mnt]# cd 

[root@xiaoluo ~]# umount /mnt

[root@xiaoluo ~]# mdadm -S /dev/md0 
mdadm: stopped /dev/md0

 

通常如果我們要重新啟動我們的RAID,可以使用 mdadm -R 這個命令,但是可能是由於作業系統或者是軟體的版本,在關閉RAID以後,使用這個命令會提示找不到該文件

[root@xiaoluo ~]# mdadm -R /dev/md0mdadm: error opening /dev/md0: No such file or directory

這個時候我們只需要重新啟動一下作業系統即可,因為我們剛才已經經RAID的信息保存在了 /etc/mdadm.conf 這個文件裡了

[root@xiaoluo ~]# ls -l /dev/md0brw-rw----. 1 root disk 9, 0 May 25 22:57 /dev/md0

我們看到在重新啟動作業系統後,剛才那個RAID設備又有了。

如果說我此時需要從該設備中拿走一塊硬碟,或者說我要完全的刪除這個RAID,從而像以前那樣正常使用我們剛用作RAID的硬碟,這個時候我們應該怎麼做呢?

通過 mdadm --zero-superblock 這個命令即可,但是我們首先必須要停止我們的RAID,即使用 mdadm -S 命令。例如我要將剛才創建的RAID 0 的兩塊硬碟完全移除,就可以使用如下命令:

[root@xiaoluo ~]# mdadm -S /dev/md0mdadm: stopped /dev/md0[root@xiaoluo ~]# mdadm --zero-superblock /dev/sdb [root@xiaoluo ~]# mdadm --zero-superblock /dev/sdc

這個時候,我們的RAID 0的信息就全部被清除掉了,剛才那兩塊硬碟我們也就能夠正常的單獨使用了。

我們這裡再來實驗一下創建一個 RAID 5,然後來講解一下如何模擬故障的命令

[root@xiaoluo ~]# mdadm -C /dev/md0 -a yes -l 5 -n 3 /dev/sdb /dev/sdc /dev/sdd mdadm: Defaulting to version 1.2 metadatamdadm: array /dev/md0 started.[root@xiaoluo ~]# cat /proc/mdstat Personalities : [raid0] [raid6] [raid5] [raid4] md0 : active raid5 sdd[3] sdc[1] sdb[0]      2095104 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]      [=================>...]  recovery = 87.2% (915204/1047552) finish=0.0min speed=91520K/sec  // 操作未完畢      unused devices: <none>

注意:】我們在創建RAID 5 或者RAID 6的時候,因為其還要對硬碟進行一些檢查的操作,而且根據硬碟的大小時間可能會不同,我們在輸入完 mdadm 命令以後,還必須要去查看 /proc/mdstat 這個文件,查看這個文件裡面的進度信息是否已經完整,例如上面創建時進度才只有 87.2% ,我們必須要等進度顯示完整以後才能做接下來的操作

[root@xiaoluo ~]# cat /proc/mdstat Personalities : [raid0] [raid6] [raid5] [raid4] md0 : active raid5 sdd[3] sdc[1] sdb[0]      2095104 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]  // 操作完畢      unused devices: <none>  

通過mdadm -D 可以查看RAID詳細信息:

 

[root@xiaoluo ~]# mdadm -D /dev/md0/dev/md0:        Version : 1.2  Creation Time : Sat May 25 23:07:06 2013     Raid Level : raid5     Array Size : 2095104 (2046.34 MiB 2145.39 MB)  Used Dev Size : 1047552 (1023.17 MiB 1072.69 MB)   Raid Devices : 3  Total Devices : 3    Persistence : Superblock is persistent    Update Time : Sat May 25 23:07:18 2013          State : clean Active Devices : 3Working Devices : 3 Failed Devices : 0  Spare Devices : 0         Layout : left-symmetric     Chunk Size : 512K           Name : xiaoluo:0  (local to host xiaoluo)           UUID : 029e2fe7:8c9ded40:f5079536:d249ccf7         Events : 18    Number   Major   Minor   RaidDevice State       0       8       16        0      active sync   /dev/sdb       1       8       32        1      active sync   /dev/sdc       3       8       48        2      active sync   /dev/sdd

 

實驗環境下,我們還可以通過 mdadm 命令來模擬RAID故障,通過 mdadm /dev/md0 -f /dev/sdd 命令

[root@xiaoluo ~]# mdadm /dev/md0 -f /dev/sddmdadm: set /dev/sdd faulty in /dev/md0

我們可以再查看一下這個RAID的信息:

[root@xiaoluo ~]# mdadm -D /dev/md0/dev/md0:        Version : 1.2  Creation Time : Sat May 25 23:07:06 2013     Raid Level : raid5     Array Size : 2095104 (2046.34 MiB 2145.39 MB)  Used Dev Size : 1047552 (1023.17 MiB 1072.69 MB)   Raid Devices : 3  Total Devices : 3    Persistence : Superblock is persistent    Update Time : Sat May 25 23:13:44 2013          State : clean, degraded Active Devices : 2Working Devices : 2 Failed Devices : 1  Spare Devices : 0         Layout : left-symmetric     Chunk Size : 512K           Name : xiaoluo:0  (local to host xiaoluo)           UUID : 029e2fe7:8c9ded40:f5079536:d249ccf7         Events : 19    Number   Major   Minor   RaidDevice State       0       8       16        0      active sync   /dev/sdb       1       8       32        1      active sync   /dev/sdc       2       0        0        2      removed       3       8       48        -      faulty spare   /dev/sdd  // 這塊硬碟被標誌成了壞的硬碟

我們看到 /dev/sdd 這塊硬碟被標誌成了壞的硬碟,因為我們使用的是RAID 5這個級別,所以一塊硬碟損壞了,並不會對數據造成損壞,數據還是完好無整的

我們可以通過 mdadm /dev/md0 -r /dev/sdd 來移除這塊硬碟

[root@xiaoluo ~]# mdadm /dev/md0 -r /dev/sdd mdadm: hot removed /dev/sdd from /dev/md0[root@xiaoluo ~]# mdadm -D /dev/md0/dev/md0:        Version : 1.2  Creation Time : Sat May 25 23:07:06 2013     Raid Level : raid5     Array Size : 2095104 (2046.34 MiB 2145.39 MB)  Used Dev Size : 1047552 (1023.17 MiB 1072.69 MB)   Raid Devices : 3  Total Devices : 2    Persistence : Superblock is persistent    Update Time : Sat May 25 23:17:12 2013          State : clean, degraded Active Devices : 2Working Devices : 2 Failed Devices : 0  Spare Devices : 0         Layout : left-symmetric     Chunk Size : 512K           Name : xiaoluo:0  (local to host xiaoluo)           UUID : 029e2fe7:8c9ded40:f5079536:d249ccf7         Events : 22    Number   Major   Minor   RaidDevice State       0       8       16        0      active sync   /dev/sdb       1       8       32        1      active sync   /dev/sdc       2       0        0        2      removed  // /dev/sdd 已經被移除掉了

如果我們要換上新的硬碟,則可以使用 mdadm /dev/md0 -a /dev/sde 這個命令

[root@xiaoluo ~]# mdadm /dev/md0 -a /dev/sde mdadm: added /dev/sde
[root@xiaoluo ~]# mdadm -D /dev/md0 /dev/md0:        Version : 1.2  Creation Time : Sat May 25 23:07:06 2013     Raid Level : raid5     Array Size : 2095104 (2046.34 MiB 2145.39 MB)  Used Dev Size : 1047552 (1023.17 MiB 1072.69 MB)   Raid Devices : 3  Total Devices : 3    Persistence : Superblock is persistent    Update Time : Sat May 25 23:19:15 2013          State : clean, degraded, recovering Active Devices : 2Working Devices : 3 Failed Devices : 0  Spare Devices : 1         Layout : left-symmetric     Chunk Size : 512K Rebuild Status : 90% complete           Name : xiaoluo:0  (local to host xiaoluo)           UUID : 029e2fe7:8c9ded40:f5079536:d249ccf7         Events : 40    Number   Major   Minor   RaidDevice State       0       8       16        0      active sync   /dev/sdb       1       8       32        1      active sync   /dev/sdc       3       8       64        2      spare rebuilding   /dev/sde  // 新的/dev/sde硬碟已經增加進來了

 

歡迎關注運維自研堂訂閱號,運維自研堂是一個技術分享平臺,主要是運維自動化開發:linux、python、django、saltstack、tornado、bootstrap、redis、golang、docker、etcd等經驗分享。

趁現在,關注我們    


牛人並不可怕,可怕的是牛人比我們還努力!


長按圖片,識別加入我們!

相關焦點

  • linux中如何查看Raid磁碟陣列信息
    linux中如何查看Raid磁碟陣列信息這篇文章主要介紹了linux中如何查看Raid磁碟陣列信息的相關資料,需要的朋友可以參考下
  • Linux雲計算架構師:RAID磁碟陣列的原理與搭建
    :(Redundant Arrays of Independent Disks,RAID)有「獨立磁碟構成的具有冗餘能力的陣列」之意(其中一塊盤壞了,數據不丟失)。磁碟陣列是由很多價格較便宜的磁碟,以硬體(RAID卡)或軟體(MDADM)形式組合成一個容量巨大的磁碟組,利用多個磁碟組合在一起,提升整個磁碟系統效能。利用這項技術,將數據切割成許多區段,分別存放在各個硬碟上。
  • 【技術指南】RAID磁碟陣列及配置
    RAID是Redundant Array of Independent Disks的縮寫,中文簡稱為獨立冗餘磁碟陣列。取性能RAID1磁碟陣列中單位成本最高,提供了很高的數據安全性和可用性。當一個磁碟失效時,系統可以自動切換到鏡像磁碟上讀寫,不需要重組失效的數據。
  • RAID磁碟陣列介紹
    RAID概念RAID(Redundant Array of Independent Disks,獨立磁碟冗餘陣列)可以提供較普通磁碟更高的速度、
  • 一、雲計算系列-RAID磁碟陣列
    -l  --level:指定 RAID 配置級別,例如,設置「--level=5」則表示創建陣列的級別是 RAID 5。-n  --raid-devices:指定RAID中活動磁碟的數目。通過「/proc/mdstat」文件可查看到當前陣列的狀態,如下:[root@localhost ~]# cat /proc/mdstatPersonalities : [raid6] [raid5] [raid4] md5 : active raid5 sdb3[4] sdb4[3] sdb2[1](F) sdb1[0]
  • 磁碟陣列 RAID 技術原理詳解 圖文
    2.4 RAID 4 特點、原理與應用;創建RAID 4需要三塊或更多的磁碟,它在一個驅動器上保存校驗信息,並以RAID 0方式將數據寫入其它磁碟,如圖所示。因為一塊磁碟是為校驗信息保留的,所以陣列的大小是(N-l)*S,其中S是陣列中最小驅動器的大小。就像在 RAID 1中那樣,磁碟的大小應該相等。
  • 磁碟陣列模擬實踐-raid{0,1,5,10}
    磁碟陣列(Redundant Arrays of Independent Disks,RAID),即「獨立磁碟構成的具有冗餘能力的陣列」之意。磁碟陣列是利用多塊廉價且獨立的磁碟組合成一個大容量的磁碟組,從而實現將個別磁碟提供數據所產生加成效果用以提升整個磁碟系統效能的目的,可以利用這種技術將數據切割成許多區段,分別存放在各個硬碟上,實現數據備份冗餘的功能。
  • Linux | 實戰分享RAID磁碟陣列的原理與搭建
    1)創建RAID12)添加1個熱備盤3)模擬磁碟故障,自動頂替故障盤4)從raid1中移出故障盤[root@xuegod63 ~]#  mdadm -C -v /dev/md1 -l 1 -n 2 -x 1 /dev/sd[d,e,f]  將RADI信息保存到配置文件[root@xuegod63 ~]
  • RAID磁碟陣列數據災難恢復指南
    常見Raid 故障及可恢復性分析  1、軟體故障:  a.突然斷電造成RAID磁碟陣列卡信息的丟失的數據恢復。  b.重新配置RAID陣列信息,導致的數據丟失恢復。  c.如果磁碟順序出錯,將會導致系統不能識別數據。
  • Linux系統安全 | Linux下邏輯卷LVM的管理和RAID磁碟陣列
    RAID(Redundant Arrays of Inexpensive Disks)容錯式廉價磁碟陣列。並且查看其狀態 mdadm -D /dev/md0 或 cat /proc/mdstat-C 創建陣列存儲設備-n 添加磁碟的數量-l RAID的等級2:創建配置文件 /etc/mdadm.conf ,並且寫入配置信息 3:然後把md0設備建立邏輯卷,修改配置文件 fstab,重新掛載第一步:建立RAID存儲設備md0,並且查看其狀態
  • Linux系統安全(四) | Linux下邏輯卷LVM的管理和RAID磁碟陣列
    RAID(Redundant Arrays of Inexpensive Disks)容錯式廉價磁碟陣列。並且查看其狀態 mdadm -D /dev/md0 或 cat /proc/mdstat-C 創建陣列存儲設備-n 添加磁碟的數量-l RAID的等級2:創建配置文件 /etc/mdadm.conf ,並且寫入配置信息 3:然後把md0設備建立邏輯卷,修改配置文件 fstab,重新掛載第一步:建立RAID存儲設備md0,並且查看其狀態
  • 實用技能:軟RAID陣列
    -C組建raid開頭命令,注意:C是大寫-a擴展,yes表示同意執行-n使用磁碟數量-l定義raid級別raid陣列設備名可自定義,此處以/dev/md0為例磁碟數量根據實際情況填寫,此處raid 0至少為2塊。
  • 軟RAID搭建-基於linux系統搭建RAID0
    先做陣列再裝系統,一般在伺服器啟動時會顯示進入raid配置的按鍵.比如Ctrl+L,每種伺服器廠商的按鍵不一樣.硬RAID需要RAID卡,磁碟接在RAID卡上,由RAID卡進行統一的管理控制,數據由它進行分配維護,有自己的CPU,處理速度快。
  • Linux系統中軟raid實現方案
    當然有,軟raid就可以實現這一需求。實現步驟軟raid比較依賴作業系統,所以他的劣勢也顯而易見,需要佔用系統資源(主要是CPU資源)。目前在Linux和windows下軟raid都比較常見了,Linux是通過mdadm實現的,windows下則在win2003之後通過磁碟管理來實現。
  • 【概念科普】三分鐘了解常見RAID磁碟陣列(多見於伺服器、NAS)
    RAID(Redundant Arrays of Independent Disks)獨立磁碟冗餘陣列,簡稱磁碟陣列。就是將多塊獨立的硬碟組合成一個硬碟組,以達到提升硬碟數據讀寫效能,或者增加容錯能力提升數據安全性的目的。
  • 如何組建raid0磁碟陣列?雙硬碟組建Raid0磁碟陣列圖文教程
    不過在組建raid磁碟陣列之前,我們需要了解下自己的主板是否支持組建raid這個功能,不同的主板支持不同的raid模式,但是大多數主板支持raid0、raid1和raid10,我們知道RAID 0是速度最快的,那麼如何組建raid0磁碟陣列?下面裝機之家分享一下雙硬碟組建raid0磁碟陣列圖文教程。
  • 使用 mdadm 管理 RAID 陣列 | Linux 中國
    它是一個命令行工具,可用於管理 Linux 上的軟體 RAID[1] 陣列。本文概述了使用它的基礎知識。此級別也稱為磁碟鏡像[2]。4、–raid-devices:-raid-devices 參數指定將用於創建 RAID 陣列的設備數。通過將 -level=1(鏡像)與 -metadata=1.0 (將元數據存儲在設備末尾)結合使用,可以創建一個 RAID1 陣列,如果不通過 mdadm 驅動訪問,那麼它的底層設備會正常顯示。
  • linux磁碟簡介
    :磁碟的接口硬碟的設備名稱文件系統RAID獨立冗餘磁碟陣列磁碟的接口現在磁碟最常用的可簡單分為普通的機械盤和SSD(Solid-state drive或Solid-state disk)兩種,他們都已不同的接口協議和主板連結,在了解命令之前,我們先來看下,現在伺服器磁碟的接口協議。
  • 有關RAID 5磁碟陣列數據恢復的問題集錦
    Raid 5是最常見的raid方式之一,它本身也具有一定的數據保護機制,如果其中的一塊盤壞了,插上新磁碟後,將會自動通過其他磁碟上的校驗碼實現數據恢復
  • 簡述RAID磁碟陣列技術
    ),簡稱磁碟陣列。另外,磁碟陣列對於電腦來說,看起來就像一個單獨的硬碟或邏輯存儲單元。RAID基礎知識基本原理RAID ( Redundant Array of Independent Disks )即獨立磁碟冗餘陣列,通常簡稱為磁碟陣列。