分享

RAID

 sdxy 2021-10-20

RAID是什么意思?

RAID最初是1987年在加利福尼亚大学进行的一个科研项目,后来由伯克利分校的D.A. Patterson教授在1988年正式提出。

RAID(Redundant Array of Inexpensive Disks)直译为“廉价冗余磁盘阵列”,最初是为了组合多块小容量的廉价磁盘来代替大容量的昂贵磁盘,同时希望在磁盘失效时不会对数据造成影响而开发出的一种磁盘存储技术。

后来随着硬盘研发技术的不断提升,硬盘的容量越来越大,成本却在不断下降,所以RAID中Inexpensive(廉价)一词已经失去意义,于是将这个词用Independent(独立)来替代,RAID就成了“独立冗余磁盘阵列”,也简称为“磁盘阵列”,但这只是名称的变化,实质性的内容并没有改变。

RAID有什么用处?

通俗地说,RAID就是通过将多个磁盘按照一定的形式和方案组织起来,通过这样的形式能够获取比单个硬盘更高的速度、更好的稳定性、更大的存储能力的存储解决方案,用户不必关心磁盘阵列究竟由多少块硬盘组成,使用中整个阵列就如同一块硬盘一样。所以,RAID技术能够为计算机系统提供以下3个方面的优异性能:

1.提供更大的存储空间

目前容量为2TB的硬盘已经在市场上销售,2TB的存储空间对于个人用户来说已经很大了,但对于企业用户来说,还远远不够,那么使用RAID技术,就可以把多块硬盘组成一个更大的存储空间供用户使用。比如,利用RAID-0技术把5块2TB的硬盘组织起来,能够提供10TB的存储空间。

2.提供更快的传输速度

从计算机问世以来的这几十年间,CPU的处理速度以几何数量级迅猛增长,著名的摩尔定律告诉我们,CPU的性能每隔18个月就会提高1倍,可见其速度增长之快。然而,硬盘作为计算机中最重要的存储设备,在容量飞速增长的同时,速度却提高缓慢,已经成为计算机速度发展的瓶颈。

如果采用RAID技术,可以让很多硬盘同时传输数据,而这些硬盘在逻辑上又表现为一块硬盘,所以使用RAID可以达到单个硬盘几倍,甚至几十倍的速率。

也就是说,RAID技术可以通过在多个硬盘上同时存储和读取数据的方式来大幅提高存储系统的数据吞吐量。

3.提供更高的安全性

RAID可以通过数据校验提供容错功能,在很多RAID模式中都有较为完备的冗余措施,甚至是直接相互的镜像备份,从而大大提高了RAID系统的容错性,让系统的稳定性更好、安全性更高。

RAID级别简介

RAID技术针对不同的应用需求而使用不同的技术类别,这些类别被称为RAID级别,每一种级别代表一种技术。目前业界公认的标准是RAID-0级、RAID-1级、RAID-2级、RAID-3级、RAID-4级、RAID-5级,这些不同的级别并不代表技术的高低,也就是说,RAID-5并不高于RAID-0,RAID-1也不低于RAID-4,至于该选择哪一种RAID级别的产品,需要根据用户的操作环境和应用需求而定,与级别的高低没有必然的关系。

在上面提到的RAID-0~RAID-5这6个级别之间,还可以互相组合出新的RAID形式,如RAID-0与RAID-1组合成为RAID-10,RAID-0与RAID-5组合成为RAID-50等。

除了RAID-0~RAID-5这6个级别以及它们之间的组合以外,目前很多服务器和存储厂商还发布了很多非标准RAID,例如,IBM公司研发的RAID-1E、RAID-5E、RAID-5EE;康柏公司研发的双循环RAID-5,因康柏公司已被惠普公司收购,所以这种RAID级别也被称为惠普双循环。

近几年很多厂商又推出一种新的RAID级别,即RAID-6,因为RAID-6也不是标准RAID,所以厂商各有各的标准,其中包括Intel公司的P+Q双校验RAID-6、惠普公司的RAID-ADG、NetApp公司的双异或RAID-6(也称为RAID-DP),另外还有X-Code编码RAID-6、ZZS编码RAID-6、Park编码RAID-6、EVENODD编码RAID-6等。

从上面的介绍可以看出,RAID-6确实有太多的标准,但除了P+Q双校验RAID-6以外,其他形式的RAID-6都应该看作“准RAID6”。

另外,有些RAID控制器厂商还支持一种叫作JBOD的结构,严格地说这种结构不能算作RAID,仅仅是把多块硬盘捆绑起来使用。

对于上文提到的各种级别的RAID形式,15.1.4节将详细讲述。

怎么组建RAID?硬件or软件2种方法

前文介绍了RAID的基础知识和级别,那么RAID是如何构建出来的呢?有两种方法可以实现RAID,一种是使用RAID控制器组建RAID,称为硬RAID;另外一种是直接用程序创建RAID,称为软RAID。下面分别介绍。

硬RAID创建方法

硬RAID需要RAID控制器才能实现,RAID控制器也称为RAID卡。在前些年RAID卡的价格是很高昂的,并且只能支持SCSI接口的硬盘,往往只在高档服务器上才能使用。近来随着技术的发展和产品成本的不断下降,IDE硬盘和SATA硬盘的性能都有了很大提升,加之RAID芯片的普及,使得RAID技术也应用到了IDE硬盘和SATA硬盘上。

一个4通道的IDE-RAID卡如图15-1所示,可连接8块IDE硬盘。

怎么组建RAID?硬件or软件2种方法-数据恢复迷

图15-1 4通道的IDE-RAID卡

一个4通道的SATA-RAID卡如图15-2所示,可连接4块SATA硬盘。

怎么组建RAID?硬件or软件2种方法-数据恢复迷

图15-2 4通道的SATA-RAID卡

随着SAS硬盘的普及,其优越的性能使SAS硬盘逐渐替代了专业的SCSI硬盘,成为服务器的主流硬盘。一个4通道的SAS-RAID卡如图15-3所示,它也可以向下兼容SATA硬盘。

怎么组建RAID?硬件or软件2种方法-数据恢复迷

图15-3 4通道的SAS-RAID卡

有了RAID卡,把RAID卡插到计算机主板上,再连接几块硬盘,就可以配置RAID了,下面演示一下这个过程。

第1步 启动计算机并进入RAID配置界面,如图15-4所示。

怎么组建RAID?硬件or软件2种方法-数据恢复迷

图15-4 RAID配置界面

第2步 选择“Configure”下的“New Configuration”,开始一个新的配置。如果原先已经配置过RAID,新的配置将会破坏原有配置,所以系统会询问是否继续,如图15-5所示。

怎么组建RAID?硬件or软件2种方法-数据恢复迷

图15-5 询问是否继续

第3步 选择“Yes”继续进行,然后进入通道的选择。该RAID卡支持双通道,选“通道-0”,并把该通道的4块硬盘加入进来,如图15-6所示。

怎么组建RAID?硬件or软件2种方法-数据恢复迷

图15-6 将4块硬盘加入通道-0

第4步 选中通道和硬盘后,按F10键进行配置,将这4块盘配置为RAID-5的类型,如图15-7所示。

怎么组建RAID?硬件or软件2种方法-数据恢复迷

图15-7 配置为RAID-5

第5步 设置好配置项目后选“Accept”并回车,一个4块盘的RAID-5就配置好了。这时可以按F3键查看一下配置好的逻辑盘,如图15-8所示。

怎么组建RAID?硬件or软件2种方法-数据恢复迷

图15-8 查看逻辑盘

第6步 RAID-5配置好以后,还需要做一下Initialize(初始化),逻辑盘就可以使用了。

另外,除了可以用RAID卡创建RAID,目前还有很多主机板集成RAID功能,也可以创建RAID,其功能相当于RAID卡,但占CPU资源很严重,所以这种不能算纯粹的硬RAID,可以算半软半硬吧。

软RAID创建方法

除了使用RAID卡或者主板所带的芯片实现磁盘阵列外,还可以在一些操作系统中直接利用软件方式实现RAID功能,例如Windows 2000/XP/2003等系统中都内置了RAID功能。

为了使用软件RAID功能,首先必须将基本磁盘转换为动态磁盘(动态磁盘的详细讲解请参见第3章)。下面以三块硬盘为例,讲解创建软RAID-5的过程。

第1步 连接硬盘

创建RAID-5卷至少需要3块硬盘。先在计算机上连接3块硬盘,连接好以后启动系统进入“磁盘管理”,可以看到3块新接的4.3GB的硬盘,如图15-9所示。

怎么组建RAID?硬件or软件2种方法-数据恢复迷

图15-9 3块新的4.3GB硬盘

第2步 将基本磁盘转换为动态磁盘

在磁盘1或磁盘2或磁盘3上单击鼠标右键,选择“升级到动态磁盘”命令,出现对话框后在磁盘1、磁盘2及磁盘3前面打勾并确定,几秒钟后升级就完成了,此时在“磁盘管理”中磁盘1、磁盘2和磁盘3都已经变成动态磁盘了,如图15-10和图15-11所示。

怎么组建RAID?硬件or软件2种方法-数据恢复迷怎么组建RAID?硬件or软件2种方法-数据恢复迷
图15-10 选定需要转换的磁盘图15-11 3块基本磁盘被转换为动态磁盘

第3步 创建RAID-5卷

在磁盘1上右击并选择“创建卷”命令,单击“下一步”按钮后选择RAID-5,将磁盘1、磁盘2及磁盘3添加到右边的“已选的”列表框中,如图15-12所示。

怎么组建RAID?硬件or软件2种方法-数据恢复迷

图15-12 将3块盘添加到“已选的”列表框中

然后Windows提示指派驱动器号,可以由Windows指定也可手动分配,本例中选择了L作为RAID-5卷的驱动器号,如图15-13所示。

怎么组建RAID?硬件or软件2种方法-数据恢复迷

图15-13 选择 L为RAID-5卷的驱动号

接着需要进行格式化,可以选择FAT32或NTFS作为RAID-5卷的文件系统,然后选择簇的大小和卷标。簇越大磁盘性能越高但造成的空间浪费也越大。选择“默认”由Windows自动设定,在“执行快速格式化”上打勾并确定,经过几秒钟的格式化后,屏幕上半部分就出现了一个驱动器号为L,容量为三块磁盘总容量的2/3,这就是我们要的RAID-5阵列,如图15-14所示。

怎么组建RAID?硬件or软件2种方法-数据恢复迷

图15-14 创建好的RAID5卷L

到这里,一个软RAID-5的逻辑盘就创建成功了。

RAID-0数据组织原理

RAID-0是最简单的一种RAID形式,目的是把多块物理盘连接在一起形成一个容量更大的存储设备。RAID-0逻辑盘的容量等于物理盘的容量乘以成员盘的数目。

一个由两块物理盘组成的RAID-0如图15-17所示。

RAID-0数据组织原理-数据恢复迷

图15-17 两块物理盘组成的RAID-0数据分布图

在图15-17中,两块物理盘由RAID控制器组建成RAID-0逻辑盘,RAID控制器将物理盘划分为一个个的条带,其中数字“0”是物理盘0的第一个条带,数字“2”是物理盘0的第二个条带,依此类推,一直划分到物理盘0的末尾;而数字“1”是物理盘1的第一个条带,数字“3”是物理盘1的第二个条带,依此类推,一直划分到物理盘1的末尾。RAID控制器把每块物理盘以条带为单位并行处理,虚拟出一个新的结构,就是RAID-0逻辑盘。

从图15-17中可以清楚地看到,通过建立RAID-0,原先顺序写入的数据被分散到两块物理盘中同时进行读/写,两块物理盘的并行操作使同一时间内磁盘读/写的速度提升了2倍。

RAID-0只是单纯地提高读/写性能,并没有为数据的可靠性提供保证,而且其中的任何一个物理盘失效都将影响到所有数据,因此,RAID-0不能应用于数据安全性要求高的场合。

RAID-0故障原因分析

这里说的RAID-0故障,是指RAID-0逻辑盘丢失或不可访问。导致RAID-0故障的原因主要有以下几种:

1.RAID控制器出现物理故障

RAID控制器是块硬件卡,如果这块卡出现物理故障,将不能被计算机识别,也就无法完成对RAID-0中各个物理成员盘的控制。在这种情况下,通过RAID控制器虚拟出来的逻辑盘自然就不存在了。

2.RAID信息出错

对于硬RAID-0来说,RAID控制器将物理盘配置为RAID-0后,会生成一些参数,包括该RAID-0的盘序、条带大小、RAID-0在每块物理盘中的起始地址等,还会记录有关该RAID-0的相关信息,包括组成该RAID-0的物理盘数目、物理盘的容量大小等,所有这些信息和参数就被称为RAID信息,也称为RAID元数据,它们会被保存到RAID控制器中,有时候也会保存到RAID-0的成员盘中。

对于软RAID-0来说,同样具有上面提到的RAID信息,这些信息一般都存放在RAID-0的成员盘中。

RAID信息出错就是指该RAID-0的配置参数或者相关信息出现错误,导致RAID程序不能正确地组织RAID-0中的成员盘,从而导致RAID-0逻辑盘丢失或不能访问。

3.RAID-0成员盘出现物理故障

RAID-0不允许任何一块成员盘离线,如果RAID-0中的某一块成员盘出现物理故障,如电路损坏、磁头损坏、固件损坏、出现坏扇区等,该成员盘就不能正常使用,从而导致RAID-0崩溃。

4.人为误操作

如果误将RAID-0中的成员盘拔出,或者给RAID-0除尘时将成员盘拔出后忘了原来的顺序,以及不小心删除了RAID-0的配置信息等,都会造成RAID-0崩溃。

RAID-0数据恢复思路

RAID-0是所有RAID中最脆弱的,没有任何冗余性,其中任意一块成员盘出现故障,都会导致所有数据丢失,所以使用RAID-0数据的风险很大。

RAID-0出现故障后,要恢复其中的数据,必须先修复有故障的成员盘,或者将其做出完整的磁盘镜像,也就是说在恢复RAID-0的数据时,全部成员盘不能有任何缺失。

这里以一个四块物理盘组成的RAID-0为例,讲解RAID-0出现故障后数据恢复的思路。该RAID-0的结构如图15-18所示。

RAID-0数据恢复思路-数据恢复迷

图15-18 本节讲解所用RAID-0结构图

对RAID-0原逻辑盘中的数据进行恢复,必须要把所有物理盘重组。因为RAID-0已经不可用,所以先把物理盘从RAID控制器中取出来,即“去RAID化”,作为单盘进行分析。

对于单块物理盘,如图15-18中的“物理盘0”,其中的数据条带为A、E、I、M,“物理盘1”中的数据条带为B、F、J、N,都是部分数据,只有把4块物理盘中的数据按照A、B、C、D、E、F、G、H…的条带顺序拼接好,才是原RAID-0逻辑盘中完整的数据。

那么如何按顺序拼接4块物理盘中的数据呢?在这里有两个因素很重要:一个因素是RAID-0中每个条带的大小,也就是A、B等这些数据块所占用的扇区数;另一个因素是RAID-0中硬盘的排列顺序,也就是说哪块物理盘是RAID-0中的第一块盘,哪块物理盘是RAID-0中的第二块盘等等。

以图15-18中的RAID-0为例,假设条带的大小为16个扇区,物理盘的顺序就按照图中的排列顺序,那么只要到物理盘0中取0~15扇区的数据,再到物理盘1中取0~15扇区的数据,到物理盘2中取0~15扇区的数据,到物理盘3中取0~15扇区的数据,接下来再回到物理盘0中取16~31扇区的数据,就这样依次按顺序取下去,把所有取出来的数据按照顺序衔接成一个镜像文件或镜像盘,这就成为完整的原RAID-0逻辑盘的结构了。直接访问这个重组出来的镜像文件或镜像盘,就得到了原RAID-0逻辑盘中的数据。

RAID-1数据组织原理

RAID-1又被称为磁盘镜像,需要两个物理盘共同构建,使用磁盘镜像(Disk Mirroring)技术。方法是在工作磁盘(Working Disk)之外再加一额外的备份磁盘(Backup Disk),两个磁盘所存储的数据完全一样。数据写入工作磁盘的同时亦写入备份磁盘,也就是将一块物理盘的内容完全复制到另一块物理盘上,所以两块物理盘所构成的RAID-1阵列,其容量仅等于一块硬盘的容量。RAID-1的数据分布情况如图15-19所示。

RAID-1数据组织原理-数据恢复迷

图15-19 RAID-1数据分布图

RAID-1是磁盘阵列中单位成本最高的,但提供了很高的数据安全性和可用性。当一个物理盘失效时,系统可以自动切换到镜像磁盘上读/写,而不需要重组失效的数据。

虽然RAID-0可以提供更多的空间和更好的读/写性能,但是整个系统是非常不可靠的,如果出现故障,无法进行任何补救。所以,RAID-0一般只是在那些对数据安全性要求不高的情况下才被人们使用。而RAID-1和RAID-0截然不同,其技术重点全部放在如何能够在不影响性能的情况下最大限度地保证系统的可靠性和可修复性上。

RAID-1是所有RAID等级中实现成本最高的一种,尽管如此,人们还是选择RAID-1来保存那些关键性的重要数据。

RAID-1故障原因分析

这里说的RAID-1故障,是指RAID-1逻辑盘丢失或不可访问。导致RAID-1故障的原因主要有以下几种:

1.RAID控制器出现物理故障

RAID控制器如果出现物理故障,将不能被计算机识别,也就无法完成对RAID-1中各个物理成员盘的控制。在这种情况下,通过RAID控制器虚拟出来的逻辑盘自然就不存在了。

2.RAID信息出错

对于硬RAID-1来说,RAID控制器将物理盘配置为RAID-1后,会记录有关该RAID-1的相关信息,包括组成该RAID-1的物理盘数目、物理盘的容量大小、哪块物理盘为工作磁盘、哪块物理盘为镜像磁盘、RAID-1在每块物理盘中的起始地址等,所有这些信息被称为RAID信息,也称为RAID元数据。它们会被保存到RAID控制器中,有时候也会保存到RAID-1的成员盘中。

对于软RAID-1来说,同样具有上面提到的RAID信息,这些信息一般都存放在RAID-1的成员盘中。

RAID信息出错就是指该RAID-1的配置信息出现错误,导致RAID程序不能正确地组织管理RAID-1中的成员盘,从而导致RAID-1逻辑盘丢失或不能访问。

3.RAID-1成员盘出现物理故障

RAID-1可以允许其中一块成员盘离线,如果RAID-1中的某一块成员盘出现物理故障,如电路损坏、磁头损坏、固件损坏、出现坏扇区等,该成员盘就不能正常使用,但剩下的一块成员盘中的数据完好无损,RAID-1还不会崩溃。

如果系统管理员没有及时替换出现故障的成员盘,当另一块成员盘再出现故障离线后,RAID-1将彻底崩溃。

4.人为误操作

如果误将RAID-1中的两块成员盘都拔出,或者不小心删除了RAID-1的配置信息等,都会造成RAID-1崩溃。

RAID-1数据恢复思路

RAID-1是所有RAID中最简单的一种,以图15-20所示的RAID-1结构为例,从图中可以看出,RAID-1中两块硬盘互为镜像,所有数据都是完全一样的,如果是RAID控制器故障或RAID信息出错导致RAID-1的数据无法访问,只要将两块物理盘中的一块从服务器上拆下来,作为单独的硬盘接在一台计算机上,就很容易将数据恢复出来。

RAID-1数据恢复思路-数据恢复迷

图15-20 本节讲解所用RAID-1结构图

如果RAID-1中一块硬盘出现故障,不会影响服务器的运行,只要把故障硬盘更换为一块好的硬盘就可以了。如果没有及时更换,导致第二块硬盘也出现故障,这时RAID-1就会失效。因为先出现故障的硬盘中的数据已经不完整,所以不能以第一块硬盘为基准进行数据恢复,而应该用后出现故障的硬盘进行数据恢复,一般情况下都能够完全恢复出所有的数据。

RAID-1E数据组织原理

RAID-1E是RAID-1的增强版本,但它并不是通常所说的RAID 0+1的组合。RAID-1E的工作原理与RAID-1基本上是一样的,只是RAID-1E的数据恢复能力更强,但由于RAID-1E写一个条带的数据至少要两次,因此,RAID控制器的负载会增大很多,从而造成磁盘读/写能力下降。

RAID-1E至少需要3块物理盘才能实现,其数据分布情况如图15-23所示。

RAID-1E数据组织原理-数据恢复迷

图15-23 RAID-1E数据分布图

从图15-23可以看出,RAID-1E的各个物理盘中,以两个条带组为一个单元,在一个单元中,上一个条带组内是连续排列的数据,下一个条带组则是上一个条带组的错位镜像,即将上一个条带组中每个成员盘内的数据向右移动一块盘的位置,写入下一个条带组的各个成员盘中,最后一个成员盘的数据则写入第一个成员盘中。

RAID-1E在一块成员盘离线的情况下不会影响数据的完整性,如果RAID-1E由4块或者4块以上成员盘构成,则能够支持在两块成员盘离线的情况下不会影响数据的完整性,只是有两个前提:一是离线的两块成员盘不能是相邻的两块盘,二是第一块成员盘和最后一块成员盘不能同时离线。

RAID-1E故障原因分析

这里说的RAID-1E故障,是指RAID-1E逻辑盘丢失或不可访问。导致RAID-1E故障的原因主要有以下几种:

1.RAID控制器出现物理故障

RAID控制器如果出现物理故障,将不能被计算机识别,也就无法完成对RAID-1E中各个物理成员盘的控制。在这种情况下,通过RAID控制器虚拟出来的逻辑盘自然就不存在了。

2.RAID信息出错

RAID控制器将物理盘配置为RAID-1E后,会生成一些参数,包括该RAID-1E的盘序、条带大小、RAID-1E在每块物理盘中的起始地址等,还会记录有关该RAID-1E的相关信息,包括组成该RAID-1E的物理盘数目、物理盘的容量大小等,所有这些信息和参数就被称为RAID信息,也称为RAID元数据。它们会被保存到RAID控制器中,有时候也会保存到RAID-1E的成员盘中。

RAID信息出错就是指该RAID-1E的配置信息和参数出现错误,导致RAID程序不能正确地组织管理RAID-1E中的成员盘,从而导致RAID-1E逻辑盘丢失或不能访问。

3.RAID-1E成员盘出现物理故障

由3块成员盘组建的RAID-1E可以允许1块成员盘离线而不影响RAID-1E逻辑盘数据的完整性,如果RAID-1E中的两块成员盘出现物理故障,如电路损坏、磁头损坏、固件损坏、出现坏扇区等,RAID-1E将会崩溃。

由4块及4块以上成员盘组建的RAID-1E可以允许不相邻的两块成员盘离线而不影响RAID-1E逻辑盘数据的完整性,如果RAID-1E中相邻的两块成员盘出现物理故障或者不相邻的3块成员盘出现物理故障,如电路损坏、磁头损坏、固件损坏、出现坏扇区等,RAID-1E将会彻底崩溃。

4.人为误操作

如果误将RAID-1E中两块以上成员盘同时拔出,或者给RAID-1E除尘时将成员盘拔出后忘了原来的顺序,以及不小心删除了RAID-1E的配置信息等,都会造成RAID-1E崩溃。

5.RAID控制器的稳定性

RAID-1E的数据分布结构比其他级别的RAID要复杂一些,尤其是当RAID-1E中有成员盘离线时,算法将变得更加复杂,RAID控制器将会工作在一个比较吃力的状态。而RAID控制器的负载太重便会极大地增加数据读/写时出现I/O滞留的可能性,从而导致更多成员盘离线,或者导致RAID信息出错。

RAID-1E数据恢复思路

RAID-1E是所有RAID中比较安全的一种级别,冗余性很好。对于RAID-1E出现故障后数据恢复的方法,下面分情况介绍。

这里以3块成员盘的RAID-1E为例,如图15-24所示。

RAID-1E数据恢复思路-数据恢复迷

图15-24 本节讲解所用RAID-1E结构图

不缺失成员盘

如果是RAID控制器故障或RAID信息出错导致RAID-1E的逻辑盘无法访问,各成员盘没有物理故障,先把物理盘从RAID控制器中取出来,即“去RAID化”,作为单盘进行分析。

对于RAID-1E有两个因素需要分析:一是RAID-1E中每个条带的大小,也就是A、B等这些数据块所占用的扇区数;二是RAID-1E中物理盘的排列顺序,也就是说哪块物理盘是RAID-1E中的第一块盘,哪块物理盘是RAID-1E中的第二块盘等。

分析出RAID-1E的条带大小和盘序后,将各个物理盘的0号条带、2号条带、4号条带等所有编号为偶数的条带按照盘序衔接到一起,就拼凑成为了完整的RAID-1E逻辑盘。

以图15-24所示的RAID-1E为例,假设条带的大小为16个扇区,成员盘的盘序就按照图中的排列顺序,那么只要到物理盘0中取0~15扇区的数据,再到物理盘1中取0~15扇区的数据,到物理盘2中取0~15扇区的数据,即把每块成员盘的0号条带按照盘序取出,接下来跳过1号条带,进入2号条带,按照盘序读取每块成员盘的32~47扇区的数据,就这样依次按顺序取下去,把所有取出来的数据按照顺序衔接成一个镜像文件或镜像盘,这就成为完整的原RAID-1E逻辑盘的结构了。直接访问这个重组出来的镜像文件或镜像盘,就得到了原RAID-1E逻辑盘中的数据。

缺失一块成员盘

假设RAID-1E的3块成员盘中有1块出现无法修复的物理故障,那么只能用剩下的两块成员盘恢复数据。如图15-25所示,加阴影的“物理盘2”表示故障盘,无法读取,我们用物理盘0和物理盘1进行数据恢复。

RAID-1E数据恢复思路-数据恢复迷

图15-25 RAID-1E中“物理盘2”为故障盘

对于这种情况的RAID-1E,也需要先分析出条带大小和剩下两块成员盘的盘序,然后将0、2、4等偶数条带的数据按照盘序读取出来,对于1、3、5等奇数条带只读取0号盘的数据,把所有取出来的数据按照顺序衔接成一个镜像文件或镜像盘,这就成为完整的原RAID-1E逻辑盘的结构了。直接访问这个重组出来的镜像文件或镜像盘,就得到了原RAID-1E逻辑盘中的数据。

RAID-2数据组织原理

RAID-2是将数据条块化地分布于不同的硬盘上,条块单位为位或字节,并使用“加重平均纠错码”的编码技术来提供错误检查及恢复,这种纠错码也被称为“海明码”。海明码需要多个磁盘存放检查及恢复信息,使得RAID-2技术实施更复杂,因此在商业环境中很少使用。

海明码在磁盘阵列中被间隔写入磁盘上,而且地址都一样,也就是在各个磁盘中,其数据都在相同的磁道及扇区中。

RAID-2的设计是使用共轴同步的技术,存取数据时整个磁盘阵列一起动作,在各磁盘的相同位置作平行存取,所以有最快的存取时间,其总线是特别的设计,以大带宽并行传输所存取的数据。在大型文件的存取应用中,RAID-2有最好的性能,但如果文件太小,将会影响其性能,因为磁盘的存取是以扇区为单位的,而RAID-2的存取是所有磁盘平行动作,而且是作位的存取,所以小于1个扇区的数据量会使其性能大打折扣。

RAID-2是设计给需要连续存取大量数据的计算机使用的,如作影像处理或CAD/CAM的工作站等,并不适用于一般的多用户环境、网络服务器和PC。

因RAID-2现在几乎没有商业应用,所以本书省略对该结构的故障原因分析和数据恢复思路的讲解。

RAID-3数据组织原理

RAID-3的数据存取方式和RAID-2一样,把数据以位或字节为单位来分割并且存储到各个硬盘上,在安全方面以奇偶校验取代海明码做错误校正及检测,所以只需要一个额外的校检磁盘。奇偶校验值的计算是以各个硬盘的相对应位作异或的逻辑运算,然后将结果写入奇偶校验硬盘,其数据分布情况如图15-26所示。

RAID-3数据组织原理-数据恢复迷

图15-26 RAID-3数据分布图

图15-26中物理盘2中的每一个校验块所包含的都是其他两块物理盘中对应数据块的校验信息,P0为数据0、1的异或值,P1为数据2、3的异或值,P2为数据4、5的异或值。

RAID-3具有容错能力,但是系统会受到影响。当一块硬盘失效时,该硬盘上的所有数据块必须使用校验信息重新建立。如果是从好盘中读取数据块,不会有任何变化。但是如果要读取的数据块正好位于已经损坏的硬盘上,则必须同时读取同一条带中的所有其他数据块,并根据校验值重建丢失的数据。

另外,在使用RAID-3的过程中还有其他一些性能上的问题需要引起注意。RAID-3所存在的最大一个不足同时也是导致RAID-3很少被人们采用的原因就是校验盘很容易成为整个系统的瓶颈。我们已经知道RAID-3会把数据的写入操作分散到多个磁盘上进行,然而不管是向哪一个数据盘写入数据,都需要同时重写校验盘中的相关信息。因此,对于那些经常需要执行大量写入操作的应用来说,校验盘的负载将会很大,无法满足程序的运行速度,从而导致整个RAID系统性能的下降。鉴于这种原因,RAID-3更加适合应用于那些写入操作较少、读取操作较多的应用环境,例如数据库和Web服务器等。

因RAID-3现在几乎没有商业应用,所以本书省略对该结构的故障原因分析和数据恢复思路的讲解。

RAID-4数据组织原理

RAID-4和RAID-3很相似,数据都是依次存储在多个硬盘之上,奇偶校验码存放在独立的奇偶校验盘上,唯一不同的是,在数据分割上RAID-3是以位或字节为单位,而RAID-4是以条带为单位。

RAID-4也使用一个校验硬盘,各硬盘相同位置的条带形成一个校验硬盘条带,放在校验硬盘上。这种方式可在不同的硬盘平行执行不同的读取命令,大幅提高硬盘阵列的读取性能;但写入数据时,因受限于校验硬盘,同一时间只能作一次,启动所有硬盘读取数据形成同一校验条带的所有数据条带,与要写入的数据做好校验计算再写入。即使如此,小型文件的写入仍然比RAID-3要快,因其校验计算较简单而非位的计算,但校验硬盘和RAID-3一样,也形成其性能的瓶颈。

因RAID-4现在几乎没有商业应用,所以本书省略对该结构的故障原因分析和数据恢复思路的讲解。

RAID-5数据组织原理

RAID-5RAID-4一样,数据以条带为单位分布到各个硬盘上,RAID-5和RAID-4的最大区别在于RAID-5不是把所有的校验块集中保存在一个专门的校验盘中,而是分散到所有的数据盘中,其数据分布情况如图15-27所示。

RAID-5数据组织原理-数据恢复迷

图15-27 RAID-5数据分布图

从图15-27可以看到,RAID-5的校验码存在于所有硬盘上,其中P0为数据条带0、1的校验值,P1为数据2、3的校验值,P2为数据4、5的校验值。

RAID-5的冗余性不错,当一块成员盘离线后,数据依然能够保持完整性。

在读/写性能方面,因为每一个写操作都需要计算校验并写入校验,所以写性能稍差一些,但读取性能很好。

另外由于RAID-5的每个条带组中都有一个条带用来写校验,所以所有校验条带加在一起刚好占用1块物理盘的空间,也就是说RAID-5逻辑盘的容量等于所有物理盘容量的总和减去1块物理盘的容量。

RAID-5的应用很广泛,是所有RAID级别中应用最多的。下面来具体讲解一下校验值的算法。RAID-5的校验值采用的是异或算法。异或运算是二进制数值间的一种算法,其运算符号为XOR,或者用“⊕”表示。运算组合有以下四种:

0 ⊕ 0=0

0 ⊕ 1=1

1 ⊕ 0=1

1 ⊕ 1=0

图15-27中的P0就是数据条带0⊕数据条带1的结果;P1就是数据条带2⊕数据条带3的结果;P2就是数据条带4⊕数据条带5的结果。因为一个异或运算式中的任一数值都能由其他数值通过异或运算得到,所以当缺失一个数值时,用剩下的数值经过异或运算就能得到缺失的数值了,这就是RAID-5能够缺失1块盘的道理。

多个数字同时进行异或运算时,有两个特点:

(1)运算结果与运算顺序无关。

例如:(a ⊕ b) ⊕ c=a ⊕ (b ⊕ c)。

(2)各个参与运算的数字与结果循环对称。

例如a ⊕ b ⊕ c=d,那么可以得到:

a=b ⊕ c ⊕ d

b=a ⊕ c ⊕ d

c=a ⊕ b ⊕ d

RAID-5之所以能够容错,就是利用了异或运算的这些特点。例如,将上面例子中的a、b、c、d看作RAID-5四块成员盘上的条带,其中三个是数据条带,剩下一个是校验条带,如果有一块成员盘离线,不管哪个条带丢失了,都可以用剩下的三个条带经过异或计算出来。

RAID-5的校验条带被分散保存在不同的成员盘中,这样就可以确保任何对校验条带进行的读/写操作都会在所有的成员盘中进行均衡,从而避免了RAID-4的瓶颈。

RAID-5的常规左异步结构

不同品牌的服务器或者同一品牌服务器的不同型号,其RAID控制器组建的RAID-5在结构上会有所不同。按照其数据条带和校验条带在RAID-5成员盘中分布方式的不同,可以把RAID-5的结构分为常规左异步、非常规左异步、常规右异步、非常规右异步、常规左同步、非常规左同步、常规右同步、非常规右同步8种。

常规左异步结构的RAID-5如图15-28所示。

RAID-5的常规左异步结构-数据恢复迷

图15-28 RAID-5的常规左异步结构图

从图15-28中可以看出,常规左异步的RAID-5存储结构有如下特点:

(1)校验块从最后一块物理盘开始写起,然后依次往前面的物理盘中写入,当写到第一块物理盘后再回到最后一块物理盘,依次循环。

(2)数据块总是从第一块物理盘开始写,然后依次往后面的物理盘中写入,即各条带组内的数据块均由低号物理盘向高号物理盘依次写入。

另外,这种结构也被称为“3-2-1连续”。

RAID-5的非常规左异步结构

RAID-5的非常规左异步结构与常规左异步结构的区别主要在第一个条带组中校验块的位置不同。常规左异步结构第一个条带组中校验块的位置一定在最后一块物理盘上,而非常规左异步结构的第一个条带组中校验块的位置则不在最后一块物理盘上,而是位于其他物理盘上,位于第一块物理盘上的情况比较多一些,如图15-29所示。

RAID-5的非常规左异步结构-数据恢复迷

图15-29 RAID-5的非常规左异步结构图

从图15-29中可以看出,非常规左异步的RAID-5存储结构有如下特点:

  • 第一个条带组中校验块的位置在第一块物理盘上。

  • 从第二个条带组开始,校验块从最后一块物理盘开始写起,然后依次往前面的物理盘中写入,当写到第一块物理盘后再回到最后一块物理盘,依次循环。

  • 第一个条带组中数据块从第二块物理盘开始写,然后依次写入后面的物理盘。

  • 从第二个条带组开始,数据块总是从第一块物理盘开始写,然后依次往后面的物理盘中写入,即各条带组内的数据块均由低号物理盘向高号物理盘依次写入。

RAID-5的常规左同步结构

常规左同步结构的RAID-5如图15-30所示。

RAID-5的常规左同步结构-数据恢复迷

图15-30 RAID-5的常规左同步结构图

从图15-30中可以看出,常规左同步的RAID-5存储结构有如下特点:

(1)校验块从最后一块物理盘开始写起,然后依次往前面的盘中写入,当写到第一块物理盘后再回到最后一块物理盘,依次循环。

(2)每个条带组内的第一个数据块首先写入校验块所在物理盘的下一物理盘中(注意看图15-30中数据块2和3以及数据块8和9的写入顺序),其余数据块再依次写入。

另外,这种结构也被称为“3-2-1标准”。

RAID-5的非常规左同步结构

RAID-5的非常规左同步结构与常规左同步结构的区别主要在第一个条带组中校验块的位置不同。常规左同步结构第一个条带组中校验块的位置一定在最后一块物理盘上,而非常规左同步结构的第一个条带组中校验块的位置则不在最后一块物理盘上,而是位于其他物理盘上,位于第一块物理盘上的情况比较多一些,如图15-31所示。

RAID-5的非常规左同步结构-数据恢复迷

图15-31 RAID-5的非常规左同步结构图

从图15-31中可以看出,非常规左同步的RAID-5存储结构有如下特点:

(1)第一个条带组中校验块的位置在第一块物理盘上。

(2)从第二个条带组开始,校验块从最后一块物理盘开始写起,然后依次往前面的物理盘中写入,当写到第一块物理盘后再回到最后一块物理盘,依次循环。

(3)每个条带组内的第一个数据块首先写入校验块所在物理盘的下一物理盘中(注意看图15-31中数据块4和5以及数据块10和11的写入顺序),其余数据块再依次写入。

RAID-5的常规右异步结构

常规右异步结构的RAID-5如图15-32所示。

RAID-5的常规右异步结构-数据恢复迷

图15-32 RAID-5的常规右异步结构图

从图15-32中可以看出,常规右异步的RAID-5存储结构有如下特点:

(1)校验块从第一块物理盘开始写起,然后依次往后面的物理盘中写入,当写到最后一块物理盘后再回到第一块物理盘,依次循环。

(2)各条带组内的数据块均由低号物理盘向高号物理盘依次写入。

另外,这种结构也被称为“15-2-3连续”。

RAID-5的非常规右异步结构

RAID-5的非常规右异步结构与常规右异步结构的区别主要在第一个条带组中校验块的位置不同。常规右异步结构第一个条带组中校验块的位置一定在第一块物理盘上,而非常规右异步结构的第一个条带组中校验块的位置则不在第一块物理盘上,而是位于其他物理盘上,位于最后一块物理盘上的情况比较多一些,如图15-33所示。

RAID-5的非常规右异步结构-数据恢复迷

图15-33 RAID-5的非常规右异步结构图

从图15-33中可以看出,非常规右异步的RAID-5存储结构有如下特点:

(1)第一个条带组中校验块的位置在最后一块物理盘上。

(2)从第二个条带组开始,校验块从第一块物理盘开始写起,然后依次往后面的物理盘中写入,当写到最后一块物理盘后再回到第一块物理盘,依次循环。

(3)各条带组内的数据块均由低号物理盘向高号物理盘依次写入。

RAID-5E数据组织原理

这种RAID级别是从RAID-5的基础上发展而来的,它与RAID-5不同的地方是将数据校验信息平均分布在每一个物理盘中的同时,还要在每个物理盘都要预留一定的空间,这部分空间称为热备空间(简写为HS)。当一个物理盘出现故障时,这个物理盘上的数据将被写入到其他物理盘预留的热备空间内,起到数据保护的作用,而这时候的RAID级别则从RAID-5E转换成了特殊结构的RAID-5,继续保护磁盘数据。

RAID-5E允许两个磁盘出错,但不能是同一时间出错。构建RAID-5E最少需要4个磁盘才能实现,构建成的逻辑盘容量为全部物理盘总容量减去两块物理盘的容量,因为一块物理盘的容量用来存放校验信息,一块物理盘的容量用作热备空间。

RAID-5E的结构如图15-37所示。

RAID-5E数据组织原理-数据恢复迷

图15-37 RAID-5E的数据分布图

因RAID-5E现在几乎没有商业应用,所以本书省略对该结构的故障原因分析和数据恢复思路的讲解。

RAID-5EE数据组织原理

RAID-5EE的工作原理与RAID-5E基本相同,它也是在每个磁盘中预留一部分空间作为分布的热备空间,但这部分热备空间也像数据一样进行了条带化,分布在每个条带组中。当一个硬盘出现故障时,这个磁盘上的数据将被同步到分布的热备空间,达到数据的保护作用。

不过与RAID-5E不同的是RAID-5EE内增加了一些优化技术,使RAID-5EE的工作效率更高,同步数据的速度也更快。

RAID-5EE也允许两个磁盘不在同一时间出错。构建RAID-5EE最少需要4个磁盘才能实现,其数据分布情况如图15-38所示。

RAID-5EE数据组织原理-数据恢复迷

图15-38 RAID-5EE数据分布图

图15-38中HS0、HS1、HS2、HS3就是一些热备空间,用于备份存储离线物理盘同一条带中的数据。

RAID-5EE故障原因分析

这里说的RAID-5EE故障,是指RAID-5EE逻辑盘丢失或不可访问。导致RAID-5EE故障的原因主要有以下几种:

1.RAID控制器出现物理故障

RAID控制器如果出现物理故障,将不能被计算机识别,也就无法完成对RAID-5EE中各个物理成员盘的控制。在这种情况下,通过RAID控制器虚拟出来的逻辑盘自然就不存在了。

2.RAID信息出错

RAID控制器将物理盘配置为RAID-5EE后,会生成一些参数,包括该RAID-5EE的盘序、条带大小、左右结构情况、同步异步情况、RAID-5EE在每块物理盘中的起始地址等,还会记录有关该RAID-5EE的相关信息,包括组成该RAID-5EE的物理盘数目、物理盘的容量大小等,所有这些信息和参数就被称为RAID信息,也称为RAID元数据。它们会被保存到RAID控制器中,有时候也会保存到RAID-5EE的成员盘中。

RAID信息出错就是指该RAID-5EE的配置信息和参数出现错误,导致RAID程序不能正确地组织管理RAID-5EE中的成员盘,从而导致RAID-5EE逻辑盘丢失或不能访问。

3.RAID-5EE成员盘出现物理故障

RAID-5EE中一块成员盘离线后,剩下的成员盘会计算生成离线成员盘的数据并写入热备空间内,如果在这个过程还没有完成的情况下又有一块成员盘离线,RAID-5EE就会崩溃。

4.人为误操作

如果误将RAID-5EE中两块以上成员盘同时拔出,或者给RAID-5EE除尘时将成员盘拔出后忘了原来的顺序,以及不小心删除了RAID-5EE的配置信息等,都会造成RAID-5EE崩溃。

5.RAID控制器的稳定性

RAID-5EE的数据分布结构中存在校验块和热备块,当RAID-5EE中有成员盘离线时,算法将变得非常复杂,RAID控制器将会工作在一个比较吃力的状态。而RAID控制器的负载太重便会极大地增加数据读/写时出现I/O滞留的可能性,从而导致更多成员盘离线,或者导致RAID信息出错。

RAID-5EE数据恢复思路

RAID-5EE中数据的分布与RAID-5相比,每个条带组中多出一个热备块,如图15-39中的HS0、HS1、HS2、HS3就是热备块。

RAID-5EE数据恢复思路-数据恢复迷

图15-39 本节讲解所用RAID-5EE的结构图

对RAID-5EE的数据进行重组,也需要先把物理盘去RAID化,作为单盘进行分析,如图15-39中的4块物理盘,把4块物理盘中的数据按照A、B、C、D、E、F、G、H…的顺序拼接好,就是RAID-5EE逻辑盘中完整的数据。

因为RAID-5EE的每块物理盘中都有校验块和热备块,所以分析RAID-5EE就需要比RAID-5多一个因素,即热备块的位置。另外,RAID-5EE与RAID-5一样,也有左异步、左同步、右异步、右同步之分,也就是说,RAID-5EE有五个因素需要分析:一是RAID中每个条带的大小,也就是 A或B这些数据块所占用的扇区数;二是RAID中硬盘的排列顺序,也就是盘序;三是校验块的循环方向;四是数据块的走向;五是热备块的位置。

以图15-39中4块物理盘组成的RAID-5EE为例,假设条带的大小为32个扇区,物理盘的顺序就按照图中的排列顺序,那么只要到硬盘0中取0~31扇区的信息,再到硬盘1中取0~31扇区的信息,硬盘2的0~31扇区是热备块,跳过不取,硬盘3中0~31扇区的信息是校验块,跳过不取。接下来再回到硬盘0中取32~63扇区的信息,就这样依次按顺序取下去,把所有取出来的数据按照顺序衔接成一个镜像文件或者是镜像盘,这就成为完整的原RAID-5EE逻辑盘的结构了。直接访问这个重组出来的镜像文件或镜像盘,就得到了原RAID-5EE逻辑盘中的数据。

如果RAID-5EE的一块成员盘事先已经离线,那么这块成员盘中的数据会被同步到热备块中,剩下的成员盘依然是一个完整的、结构特殊的RAID-5。这个特殊的RAID-5出现故障后,数据恢复的思路变化比较大,读者可以自行画出图来分析一下。

RAID-6是什么技术?

RAID-6(Independent Data Disks with Two Independent Distributed Parity Schemes,带有两个独立分布式校验方案的独立数据磁盘)是在RAID-5基础上,为了进一步加强数据保护而设计的一种RAID级别。与RAID-5的不同之处在于,RAID-6采用双重校验方式,能够防止两块成员盘故障而引起的数据丢失,因此RAID-6的数据冗余性能相当好。

但是,由于RAID-6增加了一个校验,所以数据写入的效率比RAID-5还要低很多,而且RAID控制器的设计也更为复杂。另外,RAID-6的磁盘空间利用率也比RAID-5低。

前文介绍过,RAID-6有很多的标准,包括Intel公司的P+Q双校验RAID-6、NetApp公司的双异或RAID-6(也称为RAID-DP)、X-Code编码RAID-6、ZZS编码RAID-6、Park编码RAID-6、EVENODD编码RAID-6等。本节将介绍这些RAID-6的结构。

P+Q双校验RAID-6数据组织原理

P+Q双校验RAID-6是指在RAID-6中除了采用RAID-5的异或校验以外,还增加了一个“Q”校验位,其数据组织结构如图15-41所示。

P+Q双校验RAID-6数据组织原理-数据恢复迷

图15-41 P+Q双校验RAID-6数据分布图

在图15-41中,D0、D1、D…是数据块,P0、P1、P2…是P校验块,Q0、Q1、Q2…是Q校验块。

P校验依然使用异或算法得出,即P0=D0⊕D1、P1=D2⊕D3。

Q校验使用基于伽罗华域(Galois Field,GF)的里德-所罗门(Reed-Solomon)编码计算得出,即Q0=GF(D0)⊕GF(D1)、Q1=GF(D2)⊕GF(D3),其中GF(D0)的含义是对D0进行伽罗华域的里德-所罗门编码变换。

里德-所罗门编码是欧文·里德(Irving Reed)和格斯·所罗门(Gus Solomon)于1960年发布的一种纠错编码,它使用伽罗华域运算法则。对于伽罗华域和里德-所罗门编码感兴趣的读者可以查看专业数学书籍。

P+Q双校验RAID-6在两块成员盘离线的情况下依然能够得到完整数据,具体算法分析如下:

一块成员盘离线

以图15-41为例,假设“物理盘3”离线,下面对每个条带组的数据分别进行分析。

(1)0号条带组。“物理盘3”离线后,0号条带组中缺失Q0校验块,不影响数据块D0和D1。

(2)1号条带组。“物理盘3”离线后,1号条带组中缺失D3数据块,RAID控制器可以通过计算式D2⊕P1得出D3。

(3)2号条带组。“物理盘3”离线后,2号条带组中缺失D5数据块,RAID控制器可以通过计算式D4⊕P2得出D5。

(4)3号条带组。“物理盘3”离线后,3号条带组中缺失P3校验块,不影响数据块D6和D7。

两块成员盘离线

以图15-41为例,假设“物理盘2”和“物理盘3”离线,RAID-6中只剩下“物理盘0”和“物理盘1”,下面对每个条带组的数据分别进行分析。

(1)0号条带组。“物理盘2”和“物理盘3”离线后,0号条带组中缺失P0和Q0校验块,不影响数据块D0和D1。

(2)1号条带组。“物理盘2”和“物理盘3”离线后,1号条带组中缺失Q1校验块和D3数据块,Q1校验块不用理会,RAID控制器可以通过计算式D2⊕P1得出D3。

(3)2号条带组。“物理盘2”和“物理盘3”离线后,2号条带组中缺失D4和D5数据块,只剩下P2和Q2两个校验块,RAID控制器可以通过以下方程式计算出D4和D5。

P+Q双校验RAID-6数据组织原理-数据恢复迷

(4)3号条带组。“物理盘2”和“物理盘3”离线后,3号条带组中缺失D7数据块和P3校验块,只剩下Q3校验块和D6数据块。对于P3校验块不用理会,而对于D7数据块,RAID控制器先计算出Q3⊕D6的结果,再通过GF(2^8)编码就可以得到D7的值。

NetApp双异或RAID-6(RAID-DP)数据组织原理

NetApp公司推出的双异或RAID-6也称为RAID-DP,它实际上也就是双RAID-4技术。所谓双RAID-4技术主要是说在同一磁盘阵列中组建两个独立的不同算法的校验磁盘,在单校验磁盘下工作原理与RAID-4一样,但增加了一个校验盘之后,则使整个磁盘阵列的安全性得到提高,能够允许两块盘同时离线。

构建RAID-DP最少需要4块物理盘才能实现。下面以6块物理盘为例进行说明,其数据分布情况如图15-42所示。

NetApp双异或RAID-6(RAID-DP)数据组织原理-数据恢复迷

图15-42 RAID-DP数据分布图

图15-42中P0、P1、P2、P3是第一个独立的校验信息,属于横向校验,其中:

P0=D0⊕D1⊕D2⊕D3

P1=D4⊕D5⊕D6⊕D7

P2=D8⊕D9⊕D10⊕D11

P3=D12⊕D13⊕D14⊕D15

图15-42中DP0、DP1、DP2、DP3是第二个独立的校验信息,属于斜向校验,其中:

DP0=D0⊕D5⊕D10⊕D15

DP1=D1⊕D6⊕D11⊕P3

DP2=D2⊕D7⊕P2⊕D12

DP3=D3⊕P1⊕D8⊕D13

因为有第二个独立的校验信息存在,所以理论上RAID-DP即使两块成员盘同时离线也不会出现故障。

下面来分析在两块成员盘同时离线的情况下,RAID-DP如何保持数据的完整性。

假设成员盘中的物理盘0和物理盘1同时离线,如图15-43所示。

NetApp双异或RAID-6(RAID-DP)数据组织原理-数据恢复迷

图15-43 物理盘0和物理盘1同时离线的RAID-DP

从图15-43可以看出,物理盘0和物理盘1同时离线后,数据块D0、D1、D4、D5、D8、D9、D12、D13丢失,在RAID-DP运行过程中,RAID控制器将用剩下的数据块和校验块计算出丢失的数据块,计算过程如下:

计算数据块D1

因为DP1=D1⊕D6⊕D11⊕P3,所以D1=DP1⊕D6⊕D11⊕P3,通过这个计算式将得到丢失的数据块D1,如图15-44所示。

NetApp双异或RAID-6(RAID-DP)数据组织原理-数据恢复迷

图15-44 计算出丢失的数据块D1

计算数据块D0

因为P0=D0⊕D1⊕D2⊕D3,所以D0=P0⊕D1⊕D2⊕D3,通过这个计算式将得到丢失的数据块D0,如图15-45所示。

NetApp双异或RAID-6(RAID-DP)数据组织原理-数据恢复迷

图15-45 计算出丢失的数据块D0

计算数据块D5

因为DP0=D0⊕D5⊕D10⊕D15,所以D5=D0⊕DP0⊕D10⊕D15,通过这个计算式将得到丢失的数据块D5,如图15-46所示。

NetApp双异或RAID-6(RAID-DP)数据组织原理-数据恢复迷

图15-46 计算出丢失的数据块D5

计算数据块D4

因为P1=D4⊕D5⊕D6⊕D7,所以D4=P1⊕D5⊕D6⊕D7,通过这个计算式将得到丢失的数据块D4,如图15-47所示。

NetApp双异或RAID-6(RAID-DP)数据组织原理-数据恢复迷

图15-47 计算出丢失的数据块D4

计算数据块D12

因为DP2=D2⊕D7⊕P2⊕D12,所以D12=D2⊕D7⊕P2⊕DP2,通过这个计算式将得到丢失的数据块D12,如图15-48所示。

NetApp双异或RAID-6(RAID-DP)数据组织原理-数据恢复迷

图15-48 计算出丢失的数据块D12

计算数据块D13

因为P3=D12⊕D13⊕D14⊕D15,所以D13=D12⊕P3⊕D14⊕D15,通过这个计算式将得到丢失的数据块D13,如图15-49所示。

NetApp双异或RAID-6(RAID-DP)数据组织原理-数据恢复迷

图15-49 计算出丢失的数据块D13

计算数据块D8

因为DP3=D3⊕P1⊕D8⊕D13,所以D8=D3⊕P1⊕DP3⊕D13,通过这个计算式将得到丢失的数据块D8,如图15-50所示。

NetApp双异或RAID-6(RAID-DP)数据组织原理-数据恢复迷

图15-50 计算出丢失的数据块D8

计算数据块D9

现在还剩下最后一个数据块D9需要计算。

因为P2=D8⊕D9⊕D10⊕D11,所以D9=D8⊕P2⊕D10⊕D11,通过这个计算式将得到丢失的数据块D9,如图15-51所示。

NetApp双异或RAID-6(RAID-DP)数据组织原理-数据恢复迷

图15-51 计算出丢失的数据块D9

到此为止,丢失的数据块D0、D1、D4、D5、D8、D9、D12、D13已经全部计算出来,物理盘0和物理盘1中的其他数据块也可以用同样方法算出。

X-Code编码RAID-6数据组织原理

X-Code编码RAID-6也是一种双异或RAID-6,不过它的异或值是竖向放置,所以也称为垂直异或。

构建X-Code编码RAID-6最少需要4块物理盘才能实现。下面以5块物理盘为例进行说明,其数据分布情况如图15-52所示。

X-Code编码RAID-6数据组织原理-数据恢复迷

图15-52 X-Code编码RAID-6数据分布图

图15-52中P0、P1、P2、P3是第一个独立的校验信息,属于斜向校验,其中:

P3=D0⊕D6⊕D12

P4=D1⊕D7⊕D13

P0=D2⊕D8⊕D14

P1=D3⊕D9⊕D10

P2=D4⊕D5⊕D11

图15-52中DP0、DP1、DP2、DP3是第二个独立的校验信息,属于另一个方向的斜向校验,其中:

DP0=D3⊕D7⊕D11

DP1=D4⊕D8⊕D12

DP2=D0⊕D9⊕P13

DP3=D1⊕P5⊕D14

DP4=D2⊕P6⊕D10

从以上的分析可以看出,X-Code编码RAID-6的异或算法对称度很高,各成员盘负载比较均衡。图15-52所示为以5块成员盘为例的X-Code编码RAID-6结构,阵列在运行时,以5个条带组为一个单元进行数据处理。如果是6块成员盘为例的X-Code编码RAID-6结构,则以6个条带组为一个单元进行数据处理,依此类推。

因为有两个独立的校验信息存在,所以理论上X-Code编码RAID-6即使两块成员盘同时离线也不会出现故障。

不过X-Code编码RAID-6也存在很多问题,如数据的重复异或运算较多,这就导致RAID控制器的计算量大以及磁盘空间浪费比较多。

ZZS编码RAID-6数据组织原理

ZZS是三个俄罗斯人名的首字母,这三个俄罗斯人在1983年共同提出了一种编码形式,被命名为ZZS编码,也称为俄罗斯编码。

将ZZS编码用于RAID-6中,要求成员盘的数目至少为4块,并且盘数必须为素数,所以ZZS编码RAID-6的成员盘数只能是5、7、11、13、17、19等数值。

不过,ZZS编码的算法中允许其中一块成员盘中数据全部为0,这样就可以在RAID控制器中虚拟一块全空的成员盘,从而使ZZS编码RAID-6的成员盘数目也可以是4、6、10、12、16、18等数值,即素数减去1。

ZZS编码的RAID-6规定:在成员盘数为n时,(n-1)/2个条带组作为一个运算单元,所以由7块成员盘组成的ZZS编码RAID-6,运算单元为3个条带组,其结构如图15-53所示。

ZZS编码RAID-6数据组织原理-数据恢复迷

图15-53 ZZS编码RAID-6数据分布图

ZZS编码RAID-6属于垂直校验形式,图15-53中3个条带组为一个运算单元,其中Z0、Z1、Z2、Z3、Z4、Z5、Z6分别是同一块成员盘中下面两个数据块经过ZZS算法计算出的校验值。

ZZS编码RAID-6中两块成员盘同时离线也不会影响数据的完整性,并且其数据重复计算量比X-Code编码RAID-6少一些。

Park编码RAID-6数据组织原理

Park是IBM公司的工程师,他通过计算机程序找到了一种应用于RAID-6的编码方式,能够支持的成员盘数是3~38,这种编码被命名为Park编码。

Park编码RAID-6都是以3个条带组为一个运算单元。下面以4块成员盘为例,其结构如图15-54所示。

Park编码RAID-6数据组织原理-数据恢复迷

图15-54 Park编码RAID-6数据分布图

Park编码RAID-6也属于垂直校验形式,图15-54中3个条带组为一个运算单元,其中P0、P1、P2、P3分别是同一块成员盘中下面两个数据块经过Park编码算法计算出的校验值,不过Park编码的各种分布方法之间没有任何联系,其具体数值只能在给定磁盘数量的情况下去查看Park编码表。

RAID-6故障原因分析

这里说的RAID-6故障,是指RAID-6逻辑盘丢失或不可访问。导致RAID-6故障的原因主要有以下几种:

1.RAID控制器出现物理故障

RAID控制器如果出现物理故障,将不能被计算机识别,也就无法完成对RAID-6中各个物理成员盘的控制。在这种情况下,通过RAID控制器虚拟出来的逻辑盘自然就不存在了。

2.RAID信息出错

RAID控制器将物理盘配置为RAID-6后,会生成一些参数,包括该RAID-6的盘序、条带大小、RAID在每块物理盘中的起始地址、校验的排列方式等,还会记录该RAID-6的相关信息,包括组成该RAID-6的物理盘数目、物理盘的容量大小等,所有这些信息和参数就被称为RAID信息,也称为RAID元数据。它们会被保存到RAID控制器中,有时候也会保存到RAID-6的成员盘中。

RAID信息出错就是指该RAID-6的配置信息和参数出现错误,导致RAID程序不能正确地组织管理RAID-6中的成员盘,从而导致RAID-6逻辑盘丢失或不能访问。

3.RAID-6成员盘出现物理故障

RAID-6可以允许其中两块成员盘离线而不影响数据的完整性,如果RAID-6中的某两块成员盘相继出现物理故障,剩下的成员盘可以利用校验值计算出离线成员盘中的数据,所以RAID-6还不会崩溃。

如果系统管理员没有及时替换出现故障的成员盘,当第三块成员盘再出现故障离线后,RAID-6将彻底崩溃。

4.人为误操作

如果误将RAID-6中三块以上成员盘同时拔出,或者给RAID-6除尘时将成员盘拔出后忘了原来的顺序,以及不小心删除RAID-6的配置信息等,都会造成RAID-6崩溃。

5.RAID控制器的稳定性

RAID-6的数据分布结构中存在两个校验值,当RAID-6中有成员盘离线时,尤其是当两块成员盘离线后,算法将变得非常复杂,RAID控制器将会工作在很吃力的状态。而RAID控制器的负载太重便会极大地增加数据读/写时出现I/O滞留的可能性,从而导致更多成员盘离线,或者导致RAID信息出错。

RAID-6数据恢复思路

这里以商业应用比较多的P+Q双校验RAID-6为例分析其数据恢复的思路。

RAID-6中数据的分布与RAID-5相比,每个条带组中多出一个Q校验,如图15-55中的Q0、Q1、Q2、Q3就是Q校验。

RAID-6数据恢复思路-数据恢复迷

图15-55 RAID-6的结构图

对RAID-6的数据进行重组,需要先把物理盘去RAID化,作为单盘进行分析,如图15-55中的4块物理盘,把4块物理盘中的数据按照D0、D1、D2、D3…的顺序拼接好,就是RAID-5逻辑盘中完整的数据。

因为RAID-5的每块物理盘中都有P校验块和Q校验块,所以分析RAID-6就需要比RAID-5多一个因素,即Q校验块的位置。另外,RAID-6与RAID-5一样,也有左异步、左同步、右异步、右同步之分,也就是说,RAID-6有五个因素需要分析:一是RAID中每个条带的大小,也就是D0或D1这些数据块所占用的扇区数;二是RAID中硬盘的排列顺序,也就是盘序;三是P校验块的循环方向;四是数据块的走向;五是Q校验块的位置。

以图15-55所示4块物理盘组成的RAID-6为例,假设条带的大小为32个扇区,物理盘的顺序就按照图中的排列顺序,那么只要到硬盘0中取0~31扇区的信息,再到硬盘1中取0~31扇区的信息,硬盘2的0~31扇区是P校验块,跳过不取,硬盘3中0~31扇区的信息是Q校验块,也跳过不取。接下来再回到硬盘0中取32~63扇区的信息,就这样依次按顺序取下去,把所有取出来的数据按照顺序衔接成一个镜像文件或者是镜像盘,这就成为完整的原RAID-6逻辑盘的结构了。直接访问这个重组出来的镜像文件或镜像盘,就得到了原RAID-6逻辑盘中的数据。

RAID-10数据组织原理

RAID 1+0也被称为RAID-10标准,实际是将RAID-1和RAID-0结合的产物,其数据分布情况如图15-21所示。

RAID-10数据组织原理-数据恢复迷

图15-21 RAID-10数据分布图

RAID-10至少需要4块硬盘才能构建,它的优点是同时拥有RAID-0的超凡速度和RAID-1的高数据可靠性,但是磁盘的利用率比较低。

RAID-10主要用于容量不大,但要求速度和差错控制的数据库中。

RAID-10故障原因分析

这里说的RAID-10故障,是指RAID-10逻辑盘丢失或不可访问。导致RAID-10故障的原因主要有以下几种:

1.RAID控制器出现物理故障

RAID控制器如果出现物理故障,将不能被计算机识别,也就无法完成对RAID-10中各个物理成员盘的控制。在这种情况下,通过RAID控制器虚拟出来的逻辑盘自然就不存在了。

2.RAID信息出错

RAID控制器将物理盘配置为RAID-10后,会生成一些参数,包括该RAID-10的盘序、条带大小、RAID-10在每块物理盘中的起始地址等,还会记录有关该RAID-10的相关信息,包括组成该RAID-10的物理盘数目、物理盘的容量大小等,所有这些信息和参数就被称为RAID信息,也称为RAID元数据。它们会被保存到RAID控制器中,有时候也会保存到RAID-10的成员盘中。

RAID信息出错就是指该RAID-10的配置信息和参数出现错误,导致RAID程序不能正确地组织管理RAID-10中的成员盘,从而导致RAID-10逻辑盘丢失或不能访问。

3.RAID-10成员盘出现物理故障

RAID-10其实是由多组RAID-1构成RAID-0,它可以允许每组RAID-1中的一块成员盘离线,如果某组RAID-1中的某一块成员盘出现物理故障,如电路损坏、磁头损坏、固件损坏、出现坏扇区等,该成员盘就不能正常使用,但该组RAID-1剩下的一块成员盘中的数据完好无损,RAID-10还不会崩溃。

如果系统管理员没有及时替换出现故障的成员盘,当同一组RAID-1中另一块成员盘再出现故障离线后,也就是一组RAID-1中的两块成员盘都出现故障,RAID-10将彻底崩溃。

4.人为误操作

如果误将RAID-10中同一组RAID-1的两块成员盘都拔出,或者给RAID-10除尘时将成员盘拔出后忘了原来的顺序,以及不小心删除了RAID-10的配置信息等,都会造成RAID-10崩溃。

RAID-10数据恢复思路

RAID-10是由多组RAID-1构成RAID-0,以图15-22所示的RAID-10结构为例,从图中可以看出,该RAID-10由两组RAID-1构成RAID-0,其中物理盘0与物理盘1是一组RAID-1,物理盘2与物理盘3是另一组RAID-1,这两组RAID-1又组成了RAID-0,整体就成为RAID-10。

RAID-10数据恢复思路-数据恢复迷

图15-22 本节讲解所用RAID-10结构图

如果是RAID控制器故障或RAID信息出错导致RAID-10的数据无法访问,只需从两组RAID-1中各拿出一块物理盘,用这两块物理盘按照前文讲解过的RAID-0恢复的思路进行恢复,就很容易将数据恢复出来。

如果RAID-10中某一组RAID-1的一块物理盘出现故障,理论上不会影响服务器的运行,只要把故障硬盘更换为一块好的硬盘就可以保证RAID-10的完整性。如果没有及时更换,导致该组RAID-1的第二块物理盘也出现故障,这时该组RAID-1就会失效,RAID-10也就崩溃了。因为先出现故障的硬盘中的数据已经不完整,所以不能以这一块硬盘为基准进行数据恢复,而应该用后出现故障的硬盘加上另一组RAID-1中的一块物理盘进行数据恢复,一般情况下都能够完全恢复出所有的数据。

HP双循环数据组织原理

HP双循环的数据组织结构大致如图15-40所示。

HP双循环数据组织原理-数据恢复迷

图15-40 HP双循环RAID-5

图15-40中的0、1、2…表示数据块,P0、P1、P2…表示校验块,从图中可以看出此阵列为内外双循环阵列,其存储结构的特点如下:

(1)阵列的起始扇区位于每块物理盘的1088扇区(大多数情况下起始于1088扇区,但不是所有情况);

(2)大结构是一个RAID-5阵列,条带大小是512个扇区(大多数情况下是512个扇区,但不是所有情况);

(3)在每一个512扇区单元内,每块物理盘又组成条带大小为32个扇区(大多数情况下是32个扇区,但不是所有情况)的RAID-4。

HP双循环故障原因分析

这里说的HP双循环故障,是指HP双循环逻辑盘丢失或不可访问。导致HP双循环故障的原因主要有以下几种:

1.RAID控制器出现物理故障

RAID控制器如果出现物理故障,将不能被计算机识别,也就无法完成对HP双循环中各个物理成员盘的控制。在这种情况下,通过RAID控制器虚拟出来的逻辑盘自然就不存在了。

2.RAID信息出错

RAID控制器将物理盘配置为HP双循环后,会生成一些参数,包括该HP双循环的盘序、条带大小、RAID在每块物理盘中的起始地址等,还会记录有关该HP双循环的相关信息,包括组成该HP双循环的物理盘数目、物理盘的容量大小等,所有这些信息和参数就被称为RAID信息,也称为RAID元数据。它们会被保存到RAID控制器中,有时候也会保存到HP双循环的成员盘中。

RAID信息出错就是指该HP双循环的配置信息和参数出现错误,导致RAID程序不能正确地组织管理HP双循环中的成员盘,从而导致HP双循环逻辑盘丢失或不能访问。

3.HP双循环成员盘出现物理故障

HP双循环可以允许其中一块成员盘离线而不影响数据的完整性,如果HP双循环中的某一块成员盘出现物理故障,如电路损坏、磁头损坏、固件损坏、出现坏扇区等,该成员盘就不能正常使用,但剩下的成员盘可以利用异或运算计算出离线成员盘中的数据,所以HP双循环还不会崩溃。

如果系统管理员没有及时替换出现故障的成员盘,当再有一块成员盘出现故障离线后,HP双循环将彻底崩溃。

4.人为误操作

如果误将HP双循环中两块以上成员盘同时拔出,或者给HP双循环除尘时将成员盘拔出后忘了原来的顺序,以及不小心删除了HP双循环的配置信息等,都会造成HP双循环崩溃。

5.RAID控制器的稳定性

HP双循环的数据分布结构中存在校验块,当HP双循环中有成员盘离线时,算法将变得更加复杂,RAID控制器将会工作在一个比较吃力的状态。而RAID控制器的负载太重便会极大地增加数据读/写时出现I/O滞留的可能性,从而导致更多成员盘离线,或者导致RAID信息出错。

HP双循环数据恢复思路

HP双循环是由RAID-5结构的外循环和RAID-4结构的内循环结合而成,所以在重组HP双循环的数据时,需要分析盘序、RAID-4结构内循环的条带大小、RAID-5结构外循环的条带大小等参数。

在分析完HP双循环的数据结构后,对于RAID-4结构的内循环,可以不理会校验所在成员盘,只对其他成员盘按照RAID-0的方式读取数据;然后再将读取出来的各个RAID-4结构内循环的数据按照RAID-5的方式衔接起来,做成一个镜像文件或者是镜像盘,这就成为完整的原HP双循环逻辑盘的结构了。直接访问这个重组出来的镜像文件或镜像盘,就得到了原HP双循环逻辑盘中的数据。

JBOD数据组织原理

构建JBOD至少需要两块物理盘,它的做法是将多个物理磁盘一个接一个串联到一起,从而组建为一个大的逻辑盘。

JBOD上的数据组织也很简单,它从第一个成员盘开始存储,当第一个成员盘的存储空间用完后,再依次从后面的成员盘开始存储数据。

以3块成员盘为例,其结构如图15-56所示。

JBOD数据组织原理-数据恢复迷

图15-56 JBOD数据分布图

JBOD的读/写性能完全等同于对单一物理盘的存取操作,同时JBOD也不提供数据安全保障,因为它没有任何冗余,它只是提供一种简单的利用磁盘空间的方法。JBOD的逻辑盘容量等于组成JBOD的所有物理盘的容量总和。

JBOD故障原因分析

这里说的JBOD故障,是指JBOD逻辑盘丢失或不可访问。导致JBOD故障的原因主要有以下几种:

1.RAID控制器出现物理故障

RAID控制器如果出现物理故障,将不能被计算机识别,也就无法完成对JBOD中各个物理成员盘的控制。在这种情况下,通过RAID控制器虚拟出来的逻辑盘自然就不存在了。

2.RAID信息出错

虽然JBOD不是真正意义上的RAID,但RAID控制器将物理盘配置为JBOD,也会生成一些参数,包括该JBOD的盘序、JBOD在每块物理盘中的起始地址、该JBOD的物理盘数目、物理盘的容量大小等。所有这些信息和参数会被保存到RAID控制器中,有时候也会保存到JBOD的成员盘中。

RAID信息出错就是指该JBOD的配置参数或者相关信息出现错误,导致RAID程序不能正确地组织JBOD中的成员盘,从而导致JBOD逻辑盘丢失或不能访问。

3.JBOD成员盘出现物理故障

JBOD不允许任何一块成员盘离线,如果JBOD中的某一块成员盘出现物理故障,如电路损坏、磁头损坏、固件损坏、出现坏扇区等,该成员盘就不能正常使用,从而导致JBOD崩溃。

4.人为误操作

如果误将JBOD中的成员盘拔出,或者给JBOD除尘时将成员盘拔出后忘了原来的顺序,以及不小心删除了JBOD的配置信息等,都会造成JBOD崩溃。

JBOD数据恢复思路

JBOD没有任何冗余性,其中任意一块成员盘出现故障,都会导致所有数据丢失,所以使用JBOD的风险很大。

JBOD出现故障后,要恢复其中的数据,必须先修复有故障的成员盘,或者将其做出完整的磁盘镜像,也就是说在恢复JBOD的数据时,全部成员盘不能有任何缺失。

这里以一个3块物理盘组成的JBOD(见图15-57)为例,讲解JBOD出现故障后数据恢复的思路。

JBOD数据恢复思路-数据恢复迷

图15-57 JBOD结构图

对JBOD原逻辑盘中的数据进行恢复,必须要把所有物理盘重组。因为JBOD已经不可用,所以先把物理盘从RAID控制器中取出来,即“去RAID化”,作为单盘进行分析。

JBOD结构并没有对数据进行条带化,所以不必分析条带大小,只需要分析成员盘的盘序即可,分析出成员盘的盘序后用程序将各成员盘按顺序首尾相接,就可以衔接成原有JBOD逻辑盘了。

不过在很多JBOD中,数据在每块物理盘的起始位置并不是硬盘的第一个扇区,数据在每块物理盘的结束位置也不是硬盘的最后一个扇区,往往在物理盘的前部会留有一些扇区,如图15-57中的F0、F1、F2部分;在物理盘的尾部也会留有一些扇区,如图15-57中的B0、B1、B2部分,中间的D0、D1、D2才是真正的数据。

对于这种情况,必须分析出F0、F1、F2和B0、B1、B2部分的扇区数,把物理盘掐头去尾,只把中间的D0、D1、D2按照盘序衔接起来,做成一个镜像文件或镜像盘,这就成为完整的原JBOD逻辑盘的结构了。直接访问这个重组出来的镜像文件或镜像盘,就得到了原JBOD逻辑盘中的数据。

本章介绍了各种级别RAID的数据结构、RAID故障的原因及RAID数据恢复的基本思路。RAID数据恢复的主要方法是将物理盘去RAID化后的虚拟重组,在重组之前最重要的工作是RAID结构分析,这也是RAID数据恢复中难度最大的工作。如果能够正确分析出RAID结构,虚拟重组这一步就可以交给工具软件去完成了。本书第16章将介绍RAID数据恢复的各种实用工具。

将RAID中的成员盘去RAID化

RAID是由RAID控制器构建的,RAID中的成员盘都被连接到RAID控制器上,再由RAID控制器配置为某种级别的RAID,从而形成一个虚拟的逻辑盘,供操作系统使用,也就是说,操作系统无法跨过RAID控制器直接访问RAID中的物理成员盘,而只能访问由RAID控制器组建出来的逻辑盘,这个结构如图16-1所示。

将RAID中的成员盘去RAID化-数据恢复迷

图16-1 RAID构建结构图

RAID出现故障后,由RAID控制器虚拟出来的逻辑盘就无法被操作系统识别了,这个时候物理盘可能部分有故障,也可能完全没有故障。为了恢复RAID逻辑盘中的数据,我们需要从每一块物理盘入手,这就要先把物理盘从服务器的槽位上取下来进行检测和分析。物理盘离开了服务器的槽位,也就离开了RAID控制器,这些物理盘就被“去RAID化”了。

把RAID中的成员盘抽离服务器槽位时,应该按照它们的槽位顺序编上号码,并标明在物理盘上,一般是用“硬盘1”、“硬盘2”这种名称进行标示,如果服务器槽位是有横有竖的多方向排列方式,也可以用“左上”、“右下”等名称标示物理盘的盘序。

下面看一个实际例子,一台DELL服务器,有6个硬盘槽位,如图16-2所示。

将RAID中的成员盘去RAID化-数据恢复迷

图16-2 6个硬盘槽位的服务器

这6个硬盘槽位可以按照它们的物理位置命名为左上、左下、中上、中下、右上、右下。

不过该服务器的6个槽位并没有都使用,而是只用了其中4个槽位,分别是左上、中上、中下、右下。将这4块物理盘从各自的槽位上拔出来,同时给每个物理盘贴上标签,标明其位置,如图16-3所示。

将RAID中的成员盘去RAID化-数据恢复迷

图16-3 给每个物理盘贴上位置标签

将RAID中的每块物理盘从各自的槽位上拔出来,同时给每个物理盘贴上标签,这就完成了给RAID成员盘去RAID化的过程。

服务器专用硬盘介绍

目前的硬盘按照接口类型分类一共有5种,分为IDE、SATA、SCSI、SAS和FC接口,每种接口协议拥有不同的技术规范,具备不同的传输速度,存取效率差异很大,所面对的实际应用和目标市场也各不相同。其中IDE和SATA硬盘主要用于个人计算机等低端市场,而SCSI、SAS和FC硬盘则用于专业服务器等高端市场。不过,由于SATA硬盘近几年发展迅速,容量大、价格低,所以也被一些中低端服务器采用。

有关SATA、SCSI、SAS和FC接口硬盘的技术指标及性能,本书第2章已详细介绍,此处不再重复。

多块服务器硬盘与工作机的连接方法

在恢复RAID数据的过程中,还有一个重要环节,就是将RAID成员盘去RAID化后如何连接到数据恢复工作机上。

因为RAID大多是在服务器中使用的,RAID中的硬盘也是专业硬盘,比如SCSI硬盘、SAS硬盘、FC硬盘等,也有一些稍微低端一些的服务器会采用非专业的STAT硬盘,但专业服务器一般都使用专业硬盘。

而我们用于恢复数据的计算机大多是PC,PC上一般只有IDE和SATA接口,基本没有专业硬盘的接口,那么该如何连接这些专业硬盘呢,特别是当RAID成员盘数目很多的时候,又该怎样把若干块专业硬盘同时连接在数据恢复工作机上进行RAID分析和恢复呢?下面分别说明。

SCSI硬盘的连接

如果SCSI硬盘的数目很少,比如只有两块,那么可以找一块SCSI卡插在数据恢复工作机的主板上,然后把两块硬盘直接连接在SCSI卡上,由数据恢复工作机自带的电源给SCSI硬盘供电,或者用一个独立的电源给SCSI硬盘供电,这样更稳定一些。

如果SCSI硬盘的数目很多,比如有3块以上,直接连在SCSI卡上就非常不方便了,也很不安全,那么可以准备一两套SCSI模组(见图16-4)来连接SCSI硬盘。

多块服务器硬盘与工作机的连接方法-数据恢复迷

图16-4 SCSI模组

每套SCSI模组内可以连接5块SCSI硬盘,所以准备两三套模组基本就够用了。模组的后部有独立的供电接口,并且有风扇给硬盘散热,很安全也很方便。

在图16-4所示的SCSI模组内插入了4块146GB的SCSI硬盘,将模组与计算机主机板上的SCSI卡连接,然后启动计算机,就能够检测到独立的4块146GB的SCSI硬盘了,如图16-5所示。

多块服务器硬盘与工作机的连接方法-数据恢复迷

图16-5 计算机检测到4块146GB的SCSI硬盘

SAS硬盘的连接

跟SCSI硬盘一样,如果硬盘数目比较少,可以直接用SAS卡连接。因为SAS电缆比SCSI电缆窄很多,所以用SAS卡直接连接多块硬盘也比较方便。

如果硬盘数目多的话,就用SAS模组进行连接,一个SAS模组也能够容纳4~5块硬盘。

FC硬盘的连接

FC硬盘是非常专业的硬盘,其外观如图16-6所示。

多块服务器硬盘与工作机的连接方法-数据恢复迷

图16-6 FC硬盘正面

FC硬盘比较特殊,它不能像SCSI硬盘、SAS硬盘那样能直接与SCSI卡、SAS卡连接。FC硬盘不能直接与FC卡连接,并且也没有相应的FC模组,只有比较大型的光纤柜。一般一个光纤柜都能够容纳10块以上FC硬盘。光纤柜如图16-7所示。

多块服务器硬盘与工作机的连接方法-数据恢复迷

图16-7 光纤柜

把面板打开里面就是FC硬盘的槽位,如图16-8所示。

多块服务器硬盘与工作机的连接方法-数据恢复迷

图16-8 FC硬盘的槽位

图16-8所示是光纤柜的正面,有7个FC硬盘槽位,光纤柜的背面还有7个槽位,也就是说该光纤柜能够连接14块FC硬盘。

将FC硬盘插入光纤柜之后,如何把光纤柜连在计算机上呢?这还需要一块光纤卡,把光纤卡插在计算机主板上,再把光纤柜通过光纤电缆连在光纤卡上,计算机就能识别到FC硬盘了。

光纤卡如图16-9所示。

多块服务器硬盘与工作机的连接方法-数据恢复迷

图16-9 光纤卡

光纤电缆如图16-10所示。

多块服务器硬盘与工作机的连接方法-数据恢复迷

图16-10 光纤电缆

RAID成员盘镜像的必要性

以下是对RAID成员盘做物理镜像的必要性分析。

1.成员盘有坏扇区

如果RAID成员盘存在坏扇区,直接在操作系统下读取该硬盘会比较困难,并且在常规操作系统下反复地、长时间地读取坏扇区很有可能导致硬盘中的坏扇区扩散,甚至导致硬盘无法识别。

所以,当RAID成员盘出现坏扇区时,应该用专业工具对其进行物理镜像。

2.避免成员盘数据二次破坏

RAID中的单块成员盘,在逻辑结构上对于操作系统来讲是不合理的,操作系统会认为它们是未初始化的磁盘。在这种状态下,成员盘很容易因误操作而被写入新的数据,从而覆盖了原有数据,造成对RAID数据的二次破坏。

另外,在做RAID结构分析时,如果操作不小心,也有可能将RAID成员盘写入不该写的数据。

3.避免RAID恢复过程中成员盘的损坏

RAID中成员盘数目一般都比较多,而且各成员盘大多是同一批次产品,如果服务器使用时间比较久,硬盘可能已经接近使用寿命,而在恢复RAID数据时,需要大量时间进行分析以及复制数据,在这个过程中很有可能发生多块成员盘同时损坏的情况,这种后果是非常致命的。

4.解决成员盘无法同时连接的困难

如果受条件所限,无法用模组、转换卡等设备将RAID成员盘同时与数据恢复工作机连接,也可以将每块成员盘做成文件镜像,保存在大硬盘中进行分析和恢复。

基于上述原因,在做RAID恢复之前,应该对每块RAID成员盘进行物理镜像。镜像时可以根据实际情况选择做成磁盘镜像或者文件镜像。

另外,针对RAID成员盘有无坏扇区,选择的镜像工具也有很大不同,这一点后文将详细分析。

RAID成员盘没有坏扇区的镜像方法

在RAID成员盘没有坏扇区的情况下,对成员盘做物理镜像非常方便,甚至不需要用专业镜像工具,只需常规的工具就可以实现。这里我们介绍用磁盘编辑器WinHex做物理镜像的方法。

第1步 把需要镜像的RAID成员盘连接到计算机上,这块硬盘称为源盘。如果要做成磁盘镜像,还需要再连接一块硬盘,这块硬盘称为目标盘。目标盘的容量需要大于等于源盘的容量,并且在镜像过程中目标盘的全部数据将被覆盖。

第2步 打开WinHex,选择“磁盘镜像”功能,有时也翻译为“磁盘克隆”,其界面如图16-11所示。

RAID成员盘没有坏扇区的镜像方法-数据恢复迷

图16-11 “磁盘镜像”界面

第3步 单击图16-11中①处的图标,选择源盘,单击后的界面,如图16-12所示。

RAID成员盘没有坏扇区的镜像方法-数据恢复迷

图16-12 选择源盘

我们选择HD1为源盘,然后单击“确定”按钮,源盘的型号信息就出现在选框中,如图16-13所示。

RAID成员盘没有坏扇区的镜像方法-数据恢复迷

图16-13 源盘的型号信息

第4步 选择目标盘。单击图16-11中③处的图标,选择目标盘,单击后的界面如图16-14所示。

RAID成员盘没有坏扇区的镜像方法-数据恢复迷

图16-14 选择目标盘

我们选择HD2为目标盘,然后单击“确定”按钮,目标盘的型号信息就出现在选框中,如图16-15所示。

RAID成员盘没有坏扇区的镜像方法-数据恢复迷

图16-15 目标盘的型号信息

第5步 在图16-15中界面的右侧可以选择源盘的起始扇区和目标盘的起始扇区,还可以设定需要镜像的扇区数,非常灵活。

现在我们需要把源盘完全镜像到目标盘上,所以在“完整复制存储介质”前打钩,WinHex将自动把源盘起始扇区设置为0,复制扇区数设置为源盘的总扇区数,并且不再允许修改,而目标盘的起始扇区还可以修改,如图16-16所示。

RAID成员盘没有坏扇区的镜像方法-数据恢复迷

图16-16 在“完整复制存储介质”前打钩

第6步 把目标盘的起始扇区也设置为0,然后单击“确定”按钮,就可以开始镜像了,镜像所需时间因源盘的大小不同而不同。

另外,WinHex也支持将源盘镜像为文件,或者将镜像文件再写入硬盘中,这可以通过选择图16-11中②和④处的图标来实现。

RAID成员盘有坏扇区的镜像方法

如果RAID成员盘有坏扇区,就不能用WinHex这类常规工具做镜像了,因为这类工具对坏扇区的读取能力比较差,只能用专业的坏扇区镜像工具才可以。专业工具包括HD Duplicator、PC3000 UDMA DE、PC3000 for SCSI等。

用HD Duplicator、PC3000 UDMA DE和PC3000 for SCSI做硬盘镜像的具体方法在本书12.3.3节~12.3.5节已详细讲解,此处不再重复。

判断RAID数据新鲜度的必要性及方法

判断RAID数据新鲜度的必要性

对于有冗余数据或者校验信息的RAID级别,当有成员盘离线后,RAID还能够继续使用,如RAID-1、RAID-10、RAID-1E、RAID-5、RAID-5EE、RAID-6等级别的RAID都能够实现在部分成员盘离线的情况下,数据完好无损并且RAID正常运行。

以RAID-5为例,假设一个RAID-5包含4块成员盘,某天其中一块成员盘“硬盘0”离线,但因为RAID-5依然能够正常使用,用户并没有发现有成员盘离线。

在“硬盘0”离线的状态下该RAID-5又使用了1个月,另一块成员盘“硬盘2”又突然离线了,这时RAID-5才真正崩溃而不能使用了。

这个RAID-5虽然有两块成员盘离线,但这两块成员盘不一定有物理故障,在实践中对很多离线的RAID成员盘进行检测,结果发现很多时候它们并没有任何物理故障。

对于这个RAID-5进行数据恢复时,即使4块成员盘都没有物理故障,也不能用这4块成员盘进行恢复,因为“硬盘0”早在一个月前就已离线,其中的数据跟其他3块成员盘有很大差距,我们称“硬盘0”为数据“不新鲜”的成员盘。如果把“硬盘0”加入都其他3块成员盘中一起恢复数据,那么恢复出来的数据必定不完整。

正确的做法是先从4块成员盘中挑出并剔除不新鲜的“硬盘0”,只用其他3块成员盘进行数据恢复,这样恢复出来的数据才完整。

判断RAID数据新鲜度的方法

判断RAID数据是否新鲜就是要判断RAID成员盘中是否有数据不新鲜的硬盘。在上面提到的例子中,“硬盘0”就属于数据不新鲜的成员盘。那么如何才能知道RAID成员盘中是否有这样的硬盘呢?

在RAID已经崩溃后,从服务器的指示灯上是无法判断出哪块成员盘先离线的,用户也往往无法提供这样的信息,所以我们只能依靠其他方法进行判断。这里提供一种用工具RAID Reconstructor进行判断的方法。

在RAID Reconstructor中有一项异或测试功能,可以检测RAID-5各成员盘之间是否符合异或运算。如果能够通过异或测试,说明RAID-5数据是新鲜的;如果不能通过异或测试,则说明RAID-5成员盘中可能有不新鲜的硬盘。

RAID Reconstructor的异或测试功能在“Tools”菜单栏中,如图16-17所示。

判断RAID数据新鲜度的必要性及方法-数据恢复迷

图16-17 “XOR Test”(异或测试)命令

用RAID Reconstructor打开RAID-5的全部成员盘,然后选择“XOR Test”,出现如图16-18所示的界面。

判断RAID数据新鲜度的必要性及方法-数据恢复迷

图16-18 XOR Test界面

单击“Start”按钮就可以开始测试了,测试完成之后的结果如图16-19所示。

判断RAID数据新鲜度的必要性及方法-数据恢复迷

图16-19 XOR Test的结果

异或测试结果会用三种颜色显示出来,绿色表示测试通过,红色表示测试失败,白色表示不确定。例如,全部成员盘在某个扇区的数据全部是0,就无法确定它们是否符合异或。

不过也会有特殊情况,如出现故障后的RAID-5被用户错误地做了同步操作,那么这个做过同步的RAID-5一定能通过异或测试,但并不是说其成员盘的数据就都是新鲜的。

挑出不新鲜的RAID成员盘

在上一篇中我们介绍了判断RAID数据新鲜度的方法。如果经过测试发现RAID数据不新鲜,该如何挑出数据不新鲜的成员盘呢?

这就需要从RAID成员盘入手进行实际分析了。因为先离线的成员盘只是部分数据不新鲜,并不是所有数据都不新鲜,所以用RAID Reconstructor做完异或测试后,只会有某些区域无法通过异或测试,显示红色,可以从红色区域所在的扇区入手,对所有成员盘的这些扇区进行比较分析,再结合文件系统结构,从数据的时间戳信息、数据的多寡等方面进行比较,就能够判断哪块成员盘的数据不新鲜了。

举例来说,一个3块成员盘组成的RAID-5,因两块成员盘先后离线而崩溃,在恢复数据时如果用3块成员盘进行恢复,发现有些数据是损坏的,需要挑出不新鲜的成员盘再进行恢复。

先用RAID Reconstructor做完异或测试,发现在22499136号扇区附近有大量无法通过异或测试的扇区,这时用WinHex同时打开3块成员盘,并用WinHex的“同步窗口”功能,把3块成员盘都跳转到22499136号扇区,其中的数据如图16-20所示。

挑出不新鲜的RAID成员盘-数据恢复迷

图16-20 三块成员盘22499136号扇区的数据

从图16-20中明显可以看出“硬盘1”和“硬盘3”的22499136号扇区内有数据,并且数据不相同,从RAID-5的数据组织方式上考虑,剩下的一块成员盘即“硬盘2”的22499136号扇区内的数据绝对不会全部为0,而事实上现在“硬盘2”的22499136号扇区内的数据全部都是0,这就可以断定“硬盘2”先离线了,所以后来更新的数据没有写进去。

从上面的分析可以得出“硬盘2”是数据不新鲜的成员盘,将“硬盘2”剔除,用“硬盘1”和“硬盘3”进行数据恢复,结果文件全部正常。

RAID数据恢复软件:WinHex操作介绍

WinHex是由X-Ways软件技术公司(官方网站http://www.)开发的一款专业的磁盘编辑工具。该工具是在Windows下运行的十六进制(hex)编辑软件,不但可以用来分析底层结构,也可以对RAID进行重组,功能确实很强大。

下面以4块146GB的SCSI硬盘创建的RAID-5为例,讲解用WinHex重组的过程。

第1步 打开磁盘。

把4块SCSI硬盘去RAID化,并与数据恢复工作机连接好,连接好以后就能在操作系统的磁盘管理中看见这4块SCSI硬盘了,如图16-21所示。

RAID数据恢复软件:WinHex操作介绍-数据恢复迷

图16-21 连接好的4块SCSI硬盘

选择WinHex的“Open Disk”菜单,这4块SCSI硬盘会显示在对话框中,如图16-22所示。

RAID数据恢复软件:WinHex操作介绍-数据恢复迷

图16-22 Open Disk菜单中的硬盘

第2步 组建RAID虚拟系统。

4块146GB的SCSI硬盘在系统中显示为137GB,将这4块硬盘依次打开,然后选择“Specialist”→“Reconstruct RAID System”命令,如图16-23所示。

RAID数据恢复软件:WinHex操作介绍-数据恢复迷

图16-23 “Specialist”→“Reconstruct RAID System”命令

第3步 配置RAID参数。

选择“Specialist”→“Reconstruct RAID System”命令后,界面如图16-24所示。

RAID数据恢复软件:WinHex操作介绍-数据恢复迷

图16-24 “Reconstruct RAID System”菜单界面

“Reconstruct RAID System”菜单界面的含义见图16-24中的标注,其中①、②、③、④是用来选择RAID成员盘的按钮,单击这些按钮依次把成员盘按照分析好的盘序加进来。在右面选项中选中该RAID-5的结构,并填入分析好的条带扇区数,如图16-25所示。

RAID数据恢复软件:WinHex操作介绍-数据恢复迷

图16-25 设置RAID-5的参数

第4步 查看数据。

参数设置完成后单击“OK”按钮,WinHex就按照这些参数自动对4块RAID成员盘按照条带顺序重组,组合成虚拟的RAID-5逻辑盘,如图16-26所示。

RAID数据恢复软件:WinHex操作介绍-数据恢复迷

图16-26 组合成的RAID-5逻辑盘

从图16-26中可以看到RAID-5逻辑盘的三个分区已经显现,打开存放数据的第三个分区,就能看到数据了,如图16-27所示。

RAID数据恢复软件:WinHex操作介绍-数据恢复迷

图16-27 分区中的数据

RAID数据恢复软件:Raid Reconstructor操作介绍

Raid Reconstructor是Runtime公司开发的专业RAID数据重组工具,其官方网站为http://www.。该工具不但可以重组RAID,还可以实现RAID结构的分析。前文已经介绍过用该工具进行RAID-5异或测试的功能,下面介绍这个工具的其他用法。

打开Raid Reconstructor,其界面如图16-28所示。

RAID数据恢复软件:Raid Reconstructor操作介绍-数据恢复迷

图16-28 “Raid Reconstructor”主界面

这个软件的用法非常简单,一共只需4个步骤,如图16-28中的1、2、3、4时,其中第4步很少用,前三步就可以实现参数的分析和镜像文件的生成。

第1步 选择RAID类型。

此工具软件支持RAID0和RAID5的分析,第1步就是用来选择RAID类型的。在“RAID type”下拉列表框中,可以选择需要分析的RAID类型“RAID-0”或“RAID-5”,如图16-29所示。

RAID数据恢复软件:Raid Reconstructor操作介绍-数据恢复迷

图16-29 选择RAID类型

Raid Reconstructor能支持14块RAID成员盘,RAID-5结构能支持“Forward(1-2-3)”、“Backward(3-2-1)”和“Backward(dyn.disk)”三种形式,如图16-30所示。

RAID数据恢复软件:Raid Reconstructor操作介绍-数据恢复迷

图16-30 三种RAID-5结构

其中“Forward(1-2-3)”是“右异步”,“Backward(3-2-1)”是指“左异步”,“Backward (dyn.disk)”是指“左同步”,可以看出,这个工具不能支持“右同步”。

第2步 自动分析。

在第1步中选择了RAID类型并把RAID中的硬盘或镜像文件添加后,单击“Open drivers”按钮就可以进入第2步开始分析。这里以3块盘组成的RAID-5作为例子进行讲解。单击“Analyze”按钮,出现如图16-31所示的对话框。

RAID数据恢复软件:Raid Reconstructor操作介绍-数据恢复迷

图16-31 参数分析的选择对话框

在对话框的上方列出了需要分析的参数,这里按照默认值就可以了。之后单击“Next”按钮就开始分析了。

分析完成之后列出如图16-32所示的结果。

RAID数据恢复软件:Raid Reconstructor操作介绍-数据恢复迷

图16-32 参数分析完成之后列出的结果

软件会列出所有分析的结果,并推荐一个最可能的结果,当前推荐的是11号结果,这就是该软件认为正确的参数值,单击“Finish”按钮就完成了“分析”这一步。

提示:这个工具对RAID结构分析的准确率不是很高,所以只可以作为参考,为保险起见,还是自行分析比较可靠。

第3步 生成镜像。

分析完成之后,就可以按照上面分析的结果将RAID-5的数据块按顺序生成完整的镜像了,在这里可以选择生成一块镜像硬盘,也可以生成一个镜像文件,如图16-33所示。

RAID数据恢复软件:Raid Reconstructor操作介绍-数据恢复迷

图16-33 将数据块生成镜像

做到这一步就已经把RAID-5中每块硬盘上分散的数据条带合成为一个整体了。下一步就可以用这个做好的镜像盘或镜像文件查看数据了。

RAID数据恢复软件:R-studio操作介绍

R-studio是一款非常专业的数据恢复软件,对RAID恢复支持非常好。下面使用R-studio对16.5.1节中的例子进行恢复。

第1步 打开磁盘。

打开R-studio后该工具自动会识别到当前系统下连接的硬盘,如图16-34所示。

RAID数据恢复软件:R-studio操作介绍-数据恢复迷

图16-34 R-studio识别到的硬盘

图16-34中选中的4块盘就是RAID-5的4块SCSI成员盘。

第2步 组建RAID虚拟系统。

R-studio跟WinHex一样,都需要先组建一个虚拟RAID系统。组建命令在“Create”菜单中,如图16-35所示。

RAID数据恢复软件:R-studio操作介绍-数据恢复迷

图16-35 组建虚拟RAID系统

图16-35中的“①”是指“创建虚拟卷集”,“②”是指“创建虚拟RAID-1”,“③”是指“创建虚拟条带RAID”。条带RAID是指以条带为操作单位的RAID系统,包括RAID-0、RAID-4、RAID-5、RAID-6等。

选择创建虚拟RAID-5,如图16-36所示。

RAID数据恢复软件:R-studio操作介绍-数据恢复迷

图16-36 创建虚拟RAID-5

第3步 配置RAID参数。

创建出虚拟RAID-5后把4块RAID-5成员盘按照分析好的顺序放入虚拟RAID-5中,如图16-37所示。

RAID数据恢复软件:R-studio操作介绍-数据恢复迷

图16-37 把成员盘按顺序放入虚拟RAID-5中

接下来设置RAID-5的条带大小,如图16-38所示。

RAID数据恢复软件:R-studio操作介绍-数据恢复迷

图16-38 设置RAID-5的条带大小

最后设置RAID-5结构,如图16-39所示。

RAID数据恢复软件:R-studio操作介绍-数据恢复迷

图16-39 设置RAID-5结构

图16-39中4种结构的含义:“①”为左同步;“②”为左异步;“③”为右同步;“④”为右异步。

第4步 查看数据。

参数全部配置完成以后,R-studio会直接显示出虚拟RAID-5的逻辑盘及其分区,如图16-40所示。

RAID数据恢复软件:R-studio操作介绍-数据恢复迷

图16-40 虚拟RAID-5的逻辑盘及其分区

双击重要数据所在的分区3,就能看到数据了,如图16-41所示。

RAID数据恢复软件:R-studio操作介绍-数据恢复迷

图16-41 分区中的数据

RAID数据恢复软件:FileScav操作介绍

FileScav全称为FileScavenger,是QueTek Consulting Corporation开发的数据恢复工具。QueTek公司的官方网站为http://www./。

运行FileScav后其主界面如图16-42所示。

RAID数据恢复软件:FileScav操作介绍-数据恢复迷

图16-42 FileScav主界面

FileScav的RAID恢复功能在图16-42左上角圈中的工具栏中,单击“Advanced”按钮后打开的对话框如图16-43所示。

RAID数据恢复软件:FileScav操作介绍-数据恢复迷

图16-43 RAID设置对话框

在图16-43中设置好RAID参数后单击“OK”按钮进入如图16-44所示的硬盘选择对话框。

RAID数据恢复软件:FileScav操作介绍-数据恢复迷

图16-44 硬盘选择对话框

将RAID-5的成员盘按照盘序依次选中,本例中是3个硬盘镜像,将它们按照事先分析好的盘序依次选中,同时设置好RAID开始扇区,然后单击“OK”按钮,进入到条带大小设置,如图16-45所示。

RAID数据恢复软件:FileScav操作介绍-数据恢复迷

图16-45 条带大小设置

按照事先分析好的条带大小在下拉菜单中选择正确的项,单击“OK”按钮后就回到了软件主界面,如图16-46所示。

RAID数据恢复软件:FileScav操作介绍-数据恢复迷

图16-46 RAID-5配置完成之后的界面

RAID配置完成之后还不能立刻看到数据,该软件需要做一下“搜索”工作,才能看到RAID逻辑盘中的数据。单击图16-46左上角的“Search”按钮,经过短暂的搜索之后就能看见数据了。

RAID数据恢复软件:UFS Explorer操作介绍

UFS Explorer是一款能够识别多文件系统的数据恢复软件,由SysDev Laboratories LLC开发,其官方网站为http://www./。

运行UFS Explorer后其主界面如图16-47所示。

RAID数据恢复软件:UFS Explorer操作介绍-数据恢复迷

图16-47 UfS Explorer主界面

要使用UFS Explorer的RAID恢复功能则选择“Tools”→“Build virtual RAID array”命令,如图16-48所示。

RAID数据恢复软件:UFS Explorer操作介绍-数据恢复迷

图16-48 创建虚拟RAID菜单

创建虚拟RAID功能首先要求用户选择RAID类型是硬RAID还是软RAID,如图16-49所示。

RAID数据恢复软件:UFS Explorer操作介绍-数据恢复迷

图16-49 选择RAID类型

本例是一个硬RAID,选择硬RAID后单击“Next”按钮进入设置对话框,如图16-50所示。

RAID数据恢复软件:UFS Explorer操作介绍-数据恢复迷

图16-50 RAID设置对话框

该软件的设置选项非常细致,功能比较强大。

按照图16-50中的标示设置完成之后,单击右下角的“Build”按钮,就能看见组建出来的虚拟RAID中的数据了。

RAID数据恢复软件:Getway Raid Recovery操纵介绍

Getway Raid Recovery是Getway Recovery公司开发的专业恢复RAID数据的产品,其官方网站为http://www./。

该工具具备RAID结构分析功能,并且能支持RAID-5E、RAID-5EE、RAID-6的恢复。下面简单介绍一下它的具体用法。

运行工具后的主界面如图16-51所示。

RAID数据恢复软件:Getway Raid Recovery操纵介绍-数据恢复迷

图16-51 Getway Raid Recovery主界面

在主界面中有三种恢复模式,分别为智能模式、手工模式和用户定义模式。智能模式基本不用人为干预,完全靠软件自行分析;手工模式需要用户自行设置参数;用户定义模式则灵活性更强,可设置的参数更多一些。

这里以手工模式为例讲解其用法。选择手工模式后单击“Next”按钮,进入设置界面,如图16-52所示。

RAID数据恢复软件:Getway Raid Recovery操纵介绍-数据恢复迷

图16-52 设置界面

在“Drive/Disk”下的区域单击鼠标右键把RAID成员盘或镜像文件按照分析好的顺序添加进来,并把左下角的参数设置正确,就可以单击“Next”按钮进入文件浏览界面了,如图16-53所示。

RAID数据恢复软件:Getway Raid Recovery操纵介绍-数据恢复迷

图16-53 文件浏览界面

在文件浏览界面中还不能直接看到数据,这里还需要单击“Analyze”按钮,即使刚才的参数设置都正确了,也需要软件再“分析”一下才能出结果。

单击“Analyze”按钮,在1秒钟之内就会出现结果,显示出RAID逻辑盘的信息,如图16-54所示。

RAID数据恢复软件:Getway Raid Recovery操纵介绍-数据恢复迷

图16-54 RAID逻辑盘的信息

选中显示出来的RAID逻辑盘,并单击右侧的“File View”按钮,就能看见逻辑盘中的文件了。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多