分享

RAID

 Taylor 2008-08-23
RAID是什么?
出处:PConline
责任编辑:sfman
[02-6-4 9:07]
作者:马杰

    RAID代表Redundant Array of Inexpensive (or Independent) Drive。RAID的优点在于三个方面即可用性(Availability)、容量(Capacity)及性能(Performance)。利用RAID技术于存储系统的好处主要有以下三种

  通过把多个磁盘组织在一起作为一个逻辑卷提供磁盘跨越功能
  通过把数据分成多个数据块(Block)并行写入/读出多个磁盘以提高访问磁盘的速度
  通过镜像或校验操作提供容错能力

  根据实际情况选择适当的RAID级别可以满足用户对存储系统可用性、性能和容量的要求。常用的RAID级别有以下几种:NRAID,JBOD,RAID0,RAID1,RAID0+1,RAID3,RAID5等。为提高可靠性和性能,常使用RAID5和RAID(0+1)。下面分别简要介绍各自的原理及特点:

  NRAID即Non-RAID,所有磁盘的容量组合成一个逻辑盘,没有数据块分条(no block stripping)。NRAID不提供数据冗余。要求至少一个磁盘。

  JBOD代表Just a Bunch of Drives,磁盘控制器把每个物理磁盘看作独立的磁盘,因此每个磁盘都是独立的逻辑盘。JBOD也不提供数据冗余。要求至少一个磁盘。

  RAID0即Data Stripping数据分条技术。整个逻辑盘的数据是被分条(stripped)分布在多个物理磁盘上,可以并行读/写,提供最快的速度,但没有冗余能力。要求至少两个磁盘。我们通过RAID 0可以获得更大的单个磁盘的容量,且通过对多个磁盘的同时读取获得更高的存取速度。RAID 0首先考虑的是磁盘的速度和容量,忽略了安全,只要其中一个磁盘住了问题,那么整个阵列的数据都会不保了。

  RAID 1,又称镜像方式,也就是数据的冗余。在整个镜像过程中,只有一半的磁盘容量是有效的(另一半磁盘容量用来存放同这一半完全一样的数据)。同RAID 0相比,RAID 1首
先考虑的是安全性,容量减半、速度不变。为了达到既高速又安全,出现了RAID 10(或者叫RAID 0+1),可以把RAID 10简单地理解成由多个磁盘组成的RAID 0阵列再进行镜像。

  RAID 3和RAID 5都是校验方式。RAID 3的工作方式是用一块磁盘存放校验数据。由于任何数据的改变都要修改相应的数据校验信息,存放数据的磁盘有好几个且并行工作,而存放校验数据的磁盘只有一个,这就带来了校验数据存放时的瓶颈。RAID 5的工作方式是将各个磁盘生成的数据校验切成块,分别存放到组成阵列的各个磁盘中去,这样就缓解了校验数据存放时所产生的瓶颈问题,但是分割数据及控制存放都要付出速度上的代价。RAID 30、RAID 50相对应的工作方式可以像RAID 10那样去理解。

  由此可见,使用RAID功能组成阵列,总能做到单个磁盘无法做到的功能,所以说RAID卡+多磁盘对我们来说是充满诱惑的。

 

 

         RAID ,为 Redundant Arrays of Independent Disks 的简称,中文为廉价冗余 磁盘阵列 磁盘阵列 其实也分为软阵列 (Software Raid) 和硬阵列 (Hardware Raid) 两种 . 软阵列即通过软件程序并由计算机的 CPU 提供运行能力所成 . 由于软件程式不是一个完整系统故只能提供最基本的 RAID 容错功能 . 其他如热备用硬盘的设置 , 远程管理等功能均一一欠奉 . 硬阵列是由独立操作的硬件提供整个 磁盘阵列 的控制和计算功能 . 不依靠系统的 CPU 资源 .
由于硬阵列是一个完整的系统 , 所有需要的功能均可以做进去 . 所以硬阵列所提供的功能和性能均比软阵列好 . 而且 , 如果你想把系统也做到 磁盘阵列 , 硬阵列是唯一的选择 . 故我们可以看市场上 RAID 5 级的磁盘阵列均为硬阵列 . 阵列只适用于 Raid 0 Raid 1. 对于我们做镜像用的镜像塔 , 肯定不会用 Raid 0 Raid 1 。作为高性能的存储系统,巳经得到了越来越广泛的应用。 RAID 的级别从 RAID 概念的提出到现在,巳经发展了六个级别, 其级别分别是 0 1 2 3 4 5 等。但是最常用的是 0 1 3 5 四个级别。下面就介绍这四个级别。

RAID 0 :将多个较小的磁盘合并成一个大的磁盘,不具有冗余,并行 I/O ,速度最快。 RAID 0 亦称为带区集。它是将多个 磁盘并列起来,成为一个大硬盘。在存放数据时,其将数据按磁盘的个数来进行分段,然后同时将这些数据写进这些盘中。 所以,在所有的级别中, RAID 0 的速度是最快的。但是 RAID 0 没有冗余功能的,如果一个磁盘(物理)损坏,则所有的数 据都无法使用。

RAID 1 :两组相同的磁盘系统互作镜像,速度没有提高,但是允许单个磁盘错,可靠性最高。 RAID 1 就是镜像。其原理为 在主硬盘上存放数据的同时也在镜像硬盘上写一样的数据。当主硬盘(物理)损坏时,镜像硬盘则代替主硬盘的工作。因 为有镜像硬盘做 数据备份 ,所以 RAID 1 的数据安全性在所有的 RAID 级别上来说是最好的。但是其磁盘的利用率却只有 50% 是所有 RAID 上磁盘利用率最低的一个级别。

RAID 3: RAID 3 存放数据的原理和 RAID0 RAID1 不同。 RAID 3 是以一个硬盘来存放数据的奇偶校验位,数据则分段存储于其余硬盘 中。它象 RAID 0 一样以并行的方式来存放数,但速度没有 RAID 0 快。如果数据盘(物理)损坏,只要将坏硬盘换掉, RAID
控制系统则会根据校验盘的数据校验位在新盘中重建坏盘上的数据。不过,如果校验盘(物理)损坏的话,则全部数据都 无法使用。利用单独的校验盘来保护数据虽然没有镜像的安全性高,但是硬盘利用率得到了很大的提高,为 n-1

RAID 5 :向阵列中的磁盘写数据,奇偶校验数据存放在阵列中的各个盘上,允许单个磁盘出错。 RAID 5 也是以数据的校验 位来保证数据的安全,但它不是以单独硬盘来存放数据的校验位,而是将数据段的校验位交互存放于各个硬盘上。这样, 任何一个硬盘损坏,都可以根据其它硬盘上的校验位来重建损坏的数据。硬盘的利用率为 n-1

RAID 0 1 :同时具有 RAID 0 RAID 1 的优点。

冗余:采用多个设备同时工作,当其中一个设备失效时,其它设备能够接替失效设备继续工作的体系。在 PC 服务器上,通 常在磁盘子系统、电源子系统采用冗余技术
 
 
本文将以一款服务器的磁盘阵列配置实例向大家介绍磁盘阵列的具体配置方法。当然,不同的阵列控制器的具体配置方法可能不完全一样,但基本步骤绝大部分是相同的,完全可以参考。

  说到磁盘阵列(RAID,Redundant Array of Independent Disks),现在几乎成了网管员所必须掌握的一门技术之一,特别是中小型企业,因为磁盘阵列应用非常广泛,它是当前数据备份的主要方案之一。然而,许多网管员只是在各种媒体上看到相关的理论知识介绍,却并没有看到一些实际的磁盘阵列配置方法,所以仍只是一知半解,到自己真正配置时,却无从下手。

  本文要以一个具体的磁盘阵列配置方法为例向大家介绍磁盘阵列的一些基本配置方法,给出一些关键界面,使各位对磁盘阵列的配置有一个理性认识。当然为了使各位对磁盘阵列有一个较全面的介绍,还是先来简要回顾一下有关磁盘阵列的理论知识,这样可以为实际的配置找到理论依据。

  一、磁盘阵列实现方式

  磁盘阵列有两种方式可以实现,那就是“软件阵列”与“硬件阵列”。

  软件阵列是指通过网络操作系统自身提供的磁盘管理功能将连接的普通SCSI卡上的多块硬盘配置成逻辑盘,组成阵列。如微软的Windows NT/2000 Server/Server 2003和NetVoll的NetWare两种操作系统都可以提供软件阵列功能,其中Windows NT/2000 Server/Server 2003可以提供RAID 0、RAID 1、RAID 5;NetWare操作系统可以实现RAID 1功能。软件阵列可以提供数据冗余功能,但是磁盘子系统的性能会有所降低,有的降代还比较大,达30%左右。

  硬件阵列是使用专门的磁盘阵列卡来实现的,这就是本文要介绍的对象。现在的非入门级服务器几乎都提供磁盘阵列卡,不管是集成在主板上或非集成的都能轻松实现阵列功能。硬件阵列能够提供在线扩容、动态修改阵列级别、自动数据恢复、驱动器漫游、超高速缓冲等功能。它能提供性能、数据保护、可靠性、可用性和可管理性的解决方案。

  磁盘阵列卡拥有一个专门的处理器,如Intel的I960芯片,HPT370A/372 、Silicon Image SIL3112A等,还拥有专门的存贮器,用于高速缓冲数据。这样一来,服务器对磁盘的操作就直接通过磁盘阵列卡来进行处理,因此不需要大量的CPU及系统内存资源,不会降低磁盘子系统的性能。阵列卡专用的处理单元来进行操作,它的性能要远远高于常规非阵列硬盘,并且更安全更稳定。
二、几种磁盘阵列技术

 

  RAID技术是一种工业标准,各厂商对RAID级别的定义也不尽相同。目前对RAID级别的定义可以获得业界广泛认同的有4种,RAID 0、RAID 1、RAID 0+1和RAID 5。

  RAID 0是无数据冗余的存储空间条带化,具有成本低、读写性能极高、存储空间利用率高等特点,适用于音、视频信号存储、临时文件的转储等对速度要求极其严格的特殊应用。但由于没有数据冗余,其安全性大大降低,构成阵列的任何一块硬盘的损坏都将带来灾难性的数据损失。这种方式其实没有冗余功能,没有安全保护,只是提高了磁盘读写性能和整个服务器的磁盘容量。一般只适用磁盘数较少、磁盘容易比较紧缺的应用环境中,如果在RAID 0中配置4块以上的硬盘,对于一般应用来说是不明智的。

  RAID 1是两块硬盘数据完全镜像,安全性好,技术简单,管理方便,读写性能均好。因为它是一一对应的,所以它无法单块硬盘扩展,要扩展,必须同时对镜像的双方进行同容量的扩展。因为这种冗余方式为了安全起见,实际上只利用了一半的磁盘容量,数据空间浪费大。

  RAID 0+1综合了RAID 0和RAID 1的特点,独立磁盘配置成RAID 0,两套完整的RAID 0互相镜像。它的读写性能出色,安全性高,但构建阵列的成本投入大,数据空间利用率低。

  RAID 5是目前应用最广泛的RAID技术。各块独立硬盘进行条带化分割,相同的条带区进行奇偶校验(异或运算),校验数据平均分布在每块硬盘上。以n块硬盘构建的RAID 5阵列可以有n-1块硬盘的容量,存储空间利用率非常高。任何一块硬盘上的数据丢失,均可以通过校验数据推算出来。它和RAID 3最大的区别在于校验数据是否平均分布到各块硬盘上。RAID 5具有数据安全、读写速度快,空间利用率高等优点,应用非常广泛,但不足之处是如果1块硬盘出现故障以后,整个系统的性能将大大降低。

  RAID 1、RAID 0+1、RAID 5阵列配合热插拔(也称热可替换)技术,可以实现数据的在线恢复,即当RAID阵列中的任何一块硬盘损坏时,不需要用户关机或停止应用服务,就可以更换故障硬盘,修复系统,恢复数据,对实现高可用系统具有重要的意义。
三、磁盘阵列配置实例

 

  当硬盘连接到阵列卡(RAID)上时,操作系统将不能直接看到物理的硬盘,因此需要创建成一个一个的被设置为RAID0、1或者5等的逻辑磁盘(也叫容器),这样系统才能够正确识别它。当然,逻辑磁盘(Logic Drive)、容器(Container)或虚拟磁盘(Virtual Drive)均表示一个意思,只是不同阵列卡产商的不同叫法。可参见以下配置的服务器有Dell Power Edge 7x0系列和Dell PowerEdge 1650服务器。

  磁盘阵列的配置通常是利用磁盘阵列卡的BIOS工具进行的,也有使用第三方提供的配置工具软件去实现对阵列卡的管理,如Dell Array Manager。本文要介绍的是在DELL服务器中如何利用阵列卡的BIOS工具进行磁盘阵列配置的方法。

  如果在您的DELL服务器中采用的是Adaptec磁盘阵列控制器(PERC2、PERC2/SI、PERC3/SI和PERC3/DI),在系统开机自检时将看到以下信息:

  Dell PowerEdge Expandable RAID Controller 3/Di, BIOS V2.7-x [Build xxxx](c) 1998-2002 Adaptec, Inc. All Rights Reserved.   <<< Press CTRL+A for Configuration Utility! >>>

  如果您的DELL服务器配置的是一块AMI/LSI磁盘阵列控制器(PERC2/SC、PERC2/DC、PERC3/SC、PERC3/DC、PERC4/DI和PERC4/DC),则在系统开机自检的时候将看到以下信息:

  Dell PowerEdge Expandable RAID Controller BIOS X.XX Jun 26.2001 Copyright (C) AMERICAN MEGATRENDS INC.

  Press CTRL+M to Run Configuration Utility or Press  CTRL+H for WebBios或者

  PowerEdge Expandable RAID Controller BIOS X.XX Feb 03,2003 Copyright (C) LSI Logic Corp.

  Press CTRL+M to Run Configuration Utility or Press CTRL+H for WebBios

  下面对以上两种情况分别予以介绍。

  1. 在Adaptec磁盘阵列控制器上创建Raid(容器)

  在这种阵列卡上创建容器的步骤如下(注意:请预先备份您服务器上的数据,配置磁盘阵列的过程将会删除服务器硬盘上的所有数据!):

  第1步,首先当系统在自检的过程中出现如(图1)提示时,同时按下“Ctrl+A”组合键。进入如(图2)所示的磁盘阵列卡的配置程序界面。

图1(点击看大图)

图2(点击看大图)

  第2步,然后选择“Container configuration utility”,进入如(图3)所示配置界面。

图3(点击看大图)

  第3步,选择“Initialize Drivers“选项去对新的或是需要重新创建容器的硬盘进行初始化(注意: 初始话硬盘将删去当前硬盘上的所有数据),按回车后进入如(图4)所示界面。在这个界面中出现了RAID卡的通道和连接到该通道上的硬盘,使用“Insert”键选中需要被初始化的硬盘(具体的使用方法参见界面底部的提示,下同)。

图4(点击看大图)

  第4步,全部选择完成所需加入阵列的磁盘后,按加车键,系统键弹出如(图5)所示警告提示框。提示框中提示进行初始化操作将全部删除所选硬盘中的数据,并中断所有正在使用这些硬盘的用户。

图5(点击看大图)

  第5步,按“Y”键确认即可,进入如(图6)所示配置主菜单(Main Menu)界面。硬盘初始化后就可以根据您的需要,创建相应阵列级别(RAID1,RAID0等)的容器了。这里我们以RAID5为例进行说明。在主菜单界面中选择“Create container”选项。

图6

  第6步,按回车键后进入如(图7)所示配置界面,用“insert”键选中需要用于创建Container(容器)的硬盘到右边的列表中去。然后按回车键。在弹出来的如(图8)所示配置界面中用回车选择RAID级别,输入Container的卷标和大小。其它均保持默认不变。然后在“Done”按钮上单击确认即可。

图7(点击看大图)

图8(点击看大图)

  第7步,这是系统会出现如(图9)所示提示,提示告诉用户当所创建的容器没有被成功完成“Scrub(清除)”之前,这个容器是没有冗余功能的。

图9(点击看大图)

  第8步,单击回车后返回到如(图6)所示主菜单配置界面,选中“Manage containers”选项,单击回车后即弹出当前的容器配置状态,如(图10)所示。选中相应的容器,检查这个容器的“Container Status”选项中的“Scrub”进程百分比。当它变为“Ok”后,这个新创建的Container便具有了冗余功能。

图10(点击看大图)

  第9步,容不得器创建好后,使用“ESC”键退出磁盘阵列配置界面,并重新启动计算机即可。
2. 在AIM/LSI磁盘阵列控制器上创建Logical Drive(逻辑磁盘)

 

  注意:请预先备份您服务器上的数据,配置磁盘阵列的过程将会删除您的硬盘上的所有数据!整个磁盘阵列配置过程与上面介绍的在Adaptec磁盘阵列控制器上创建容器的方法类似。具体如下:

  第1步,在开机自检过程中,出现如(图11)所示提示时,按下“Control+M”组合键,进入如(图12)所示的RAID的配置界面。

图11(点击看大图)

图12(点击看大图)

  第2步,按任意键继续,继续进入如(图13)所示管理主菜单(Management Menu)配置界面。选中“Configure”选项,然后按回车键,即弹出下级子菜单,如(图14)所示。

图13(点击看大图)

图14(点击看大图)

  第3步,如果需要重新配置一个RAID,请选中“New Configuration”;如果已经存在一个可以使用的逻辑磁盘,请选中“View/Add Configuration”,并按回车键。在此,我们以新建磁盘阵列为例进行介绍。选择“New Configuration”选项。按回车键后,弹出一个小对话框,如(图15)所示。

图15(点击看大图)

  第4步,选择“YES”项 ,并按回车键,进入如(图16)所示配置界面。使用空格键选中准备要创建逻辑磁盘的硬盘,当该逻辑磁盘里最后的一个硬盘被选中后,按回车键。

图16(点击看大图)

  第5步,如果您的服务器中的阵列卡类型是PERC4 DI/DC,此时在回车后,将显示如(图17)所示配置界面,否则请直接赶往第7步。

图17(点击看大图)

  第6步,按空格键选择阵列跨接信息,例如Span-1(跨接-1),出现在阵列框内。 可以创建多个阵列,然后选择将其跨接。

  第7步,按“F10”键配置逻辑磁盘。选择合适的RAID类型,其余接受默认值。选中“Accept”,并按回车键确认,即弹出如(图18)所示的最终配置信息提示框。

图18(点击看大图)

  第8步,刚创建的逻辑磁盘需要经过初始化才能使用。按ESC 键返回到如(图13)所示的主菜单,选中“Initialize”选项,并按回车键,进入如(图19)所示初始化逻辑磁盘界面。

图19(点击看大图)

  第9步,选中需要初始化的逻辑磁盘,按空格,弹出一个询问对话框,如(图20)所示。选中“YES”,并按回车键,弹出初始化进程(注意,初始化磁盘化损坏磁盘中的原有数据,需事先作好备份)。

图20(点击看大图)

  第10步,初始化完成后,按任意键继续,并重启系统,RAID配置完成。

 
 

一、RAID介绍

RAID是Redundent Array of Inexpensive Disks的缩写,直译为“廉价冗余磁盘阵列”,也简称为“磁盘阵列”。后来RAID中的字母I被改作了Independent,RAID就成了“独立冗余磁盘阵列”,但这只是名称的变化,实质性的内容并没有改变。可以把RAID理解成一种使用磁盘驱动器的方法,它将一组磁盘驱动器用某种逻辑方式联系起来,作为逻辑上的 一个磁盘驱动器来使用。

RAID的优点

1. 传输速率高。在部分RAID模式中,可以让很多磁盘驱动器同时传输数据,而这些磁盘驱动器在逻辑上又是一个磁盘驱动器,所以使用RAID可以达到单个的磁盘驱动器几倍的速率。因为CPU的速度增长很快,而磁盘驱动器的数据传输速率无法大幅提高,所以需要有一种方案解决二者之间的矛盾。

2. 更高的安全性。相较于普通磁盘驱动器很多RAID模式都提供了多种数据修复功能,当RAID中的某一磁盘驱动器出现严重故障无法使用时,可以通过RAID中的其他磁盘驱动器来恢复此驱动器中的数据,而普通磁盘驱动器无法实现,这是使用RAID的第二个原因。

RAID的分类

RAID 0,无冗余无校验的磁盘阵列。数据同时分布在各个磁盘上,没有容错能力,读写速度在RAID中最快,但因为任何一个磁盘损坏都会使整个RAID系统失效,所以安全系数反倒比单个的磁盘还要低。一般用在对数据安全要求不高,但对速度要求很高的场合,如:大型游戏、图形图像编辑等。此种RAID模式至少需要2个磁盘,而更多的磁盘则能提供更高效的数据传输。


RAID 1,镜象磁盘阵列。每一个磁盘都有一个镜像磁盘,镜像磁盘随时保持与原磁盘的内容一致。RAID1具有最高的安全性,但只有一半的磁盘空间被用来存储数据。主要用在对数据安全性要求很高,而且要求能够快速恢复被损坏的数据的场合。此种RAID模式每组仅需要2个磁盘



RAID 0+1,从其名称上就可以看出,它把RAID0和RAID1技术结合起来,数据除分布在多个磁盘上外,每个磁盘都有其物理镜像盘,提供全冗余能力,允许一个以下磁盘故障,而不影响数据可用性,并具有快速读写能力。但是RAID0+1至少需要4个磁盘才能组建。

RAID 5, 无独立校验盘的奇偶校验磁盘阵列。同样采用奇偶校验来检查错误,但没有独立的校验盘,而是使用了一种特殊的算法,可以计算出任何一个带区校验块的存放位置。这样就可以确保任何对校验块进行的读写操作都会在所有的RAID磁盘中进行均衡,既提高了系统可靠性也消除了产生瓶颈的可能,对大小数据量的读写都有很好的性能。为了能跨越数组里的所有磁盘来写入数据及校验码信息,RAID 5设定最少需要三个磁盘,因此在这种情况下,会有1/3的磁盘容量会被备份校验码占用而无法使用,当有四个磁盘时,则需要1/4的容量作为备份,才能让最坏情况的发生率降到最低。当磁盘的数目增多时,每个磁盘上被备份校验码占用的磁盘容量就会降低,但是磁盘故障的风险率也同时增加了,一但同时有两个磁盘故障,则无法进行数据恢复。

JBOD,JBOD(Just Bundle Of Disks)既简单磁盘捆绑。JBOD是在逻辑上把几个物理磁盘一个接一个串联到一起,从而提供一个大的逻辑磁盘。JBOD上的数据简单的从第一个磁盘开始存储, 当第一个磁盘的存储空间用完后, 再依次从后面的磁盘开始存储数据。JBOD存取性能完全等同于对单一磁盘的存取操作,也不提供数据安全保障。它只是简单的提供一种利用磁盘空间的方法,JBOD的存储容量等于组成JBOD的所有磁盘的容量的总和。

Matrix RAID,矩阵磁盘阵列。是Intel 新近创立的一种针对SATA接口的专利RAID模式,特点是能在2个磁盘上同时实现RAID 0与RAID 1两种模式,其工作原理是将2个磁盘中的每个磁盘的部分磁盘空间划分出来组成RAID 0或1,而将剩余空间组成RAID1或0。Matrix RAID还有一个功能:支持RAID 1阵列分区的“热备份”硬盘。通常支持Matrix RAID功能的主板具有四个SATA接口,而建立一组Matrix RAID只需要两块硬盘,使用两个SATA接口。另外两个闲置的SATA接口就可以插上硬盘,启动“热备份”功能。当Matrix RAID系统中的一块硬盘出现故障时,“热备份”硬盘便会立刻接替它的工作,以保证RAID 1阵列分区中数据的安全。由于RAID 0阵列分区中的数据在一块硬盘崩溃的时候就已经损毁了,所以“热备份”硬盘对RAID 0阵列是无效的。

以上是目前主流升技主板上搭载的RAID控制器所能支持的全部RAID模式,并且由于RAID控制器厂商和产品型号的不同,所能支持的RAID模式种类也各不相同,只有极少数主板能够全部支持上述的RAID模式,而每块主板具体所支持的RAID模式种类请至http://www. 升技官方主页的产品介绍当中核对查找。另有一些其他 RAID 模式基本用于专业服务器及工作站上使用,此处便不做介绍了。

RAID 模式下磁盘空间的使用

针对不同RAID 模式在实际运用中可以使用的磁盘空间分别有多少,在用列表举例说明:

* Matrix RAID由于其特殊的磁盘分配概念,所以在此单独举例说明:

例如,使用2 块 120G 的磁盘组成RAID 其总容量是240G,先建立一个RAID 0,并手动指定一个1至238G之间的RAID 0模式的磁盘容量,然后利用剩余磁盘空间建立一个RAID 1模式。如:

100G(RAID 0)+ 70G(RAID 1)或

50G (RAID 0)+ 95G(RAID 1)等等

具体如何分配RAID 0与RAID 1的磁盘大小可按使用需求决定。

二、RAID 制作

如何制作RAID呢?

第一步:一般板载RAID控制器在主板BIOS中都会有控制器的开启与关闭选项,以及制作RAID所必备的 RAID BIOS的开关选项,将他们设置开启并保存BIOS后,在开机自检时,在IDE设备检测结束后,会有RAID BIOS自检界面出现,按提示按特殊键进入RAID BIOS 进行创建、删除、数据恢复等操作。设置Block Size(区块大小),一般选64K至128K即可,区块大对于大文件的读取和大型游戏或程序的运行有益,而区块小,对于小文件读取或建立Web、BBS服务器等有益。然后保存RAID,要注意的是一担磁盘被组建成RAID后磁盘上原有的数据将全部被抹除;

第二步:在安装操作系统时要让操作系统能够正确识别已创建的RAID,并能在其上进行系统的安装,Windows 2000以前的操作系统由于架构关系在此及以下步骤就没有相关设置了,而Windows 2000 / XP / 2003等操作系统在安装一始就需要按提示按F6键告知安装程序,有RAID设备需要手动安装驱动程序。

第三步:按下F6后,系统没有任何提示,也不会中断系统的硬件检测过程,而是在全部自检完毕后,会进入手动驱动安装界面。此时,将主板附件中的软盘驱动程序放入软驱内,按S键开始手动驱动安装;

提示软驱内插入软盘,按回车键确认;

安装程序会读取软盘内的驱动,并以列表形式列出。

由于受到安装程序的限制,列表中的驱动最多只能显示四项,如驱动大于四项的,可按上下键移动显示框,来显示列表中的全部驱动。

加载完成后,继续操作系统安装过程时就能正确识别RAID和正确的磁盘容量,利用Windows安装程序自带的分区及格式化工具可进行分区及格式化并在RAID上安装操作系统。

注意:在Windows全部安装尚未完成时,切勿将软盘从软驱内取出,因为在安装过程中还要多次读取软盘上的驱动。

另外,如果出现以下画面是请不要紧张,按确定即可,这是由于某些旧版本的驱动程序尚未通过微软的徽标认证,但是不会对使用造成任何影响的。

等到操作系统安装全部完成并成功进入Windows后,检查磁盘盘符是否与分区设置时相符,相符即告成功。大部分RAID控制器在Windows 下可以通过该厂商推出的相应软件程序,可以在Windows中对RAID进行管理。以上就是制作RAID并在RAID上安装Windows操作系统得大体步骤,而由于板载RAID控制器的厂牌不尽相同,所以在具体设置的项目名称和设置上有略微的差异。

目前升技主板上板载的RAID控制器的厂牌主要有HighPoint、SiliconImage、intel、VIA、nVIDIA、ULi、SiS等,下面就按照不同厂牌的常用型号对RAID制作过程中的相关细节作介绍。

HighPoint 374

使用的主板型号有AT7、IT7、AT7-MAX2、IT7-MAX2。

首先,将BIOS中的RAID开关项开启并保存

随后在RAID BIOS自荐画面时按Ctrl+H键,进入RAID BIOS设置:

选Create Array创建RAID;

进入创建界面;

设置RAID 模式;

设置RAID 的名字(按自己喜好或RAID用户随便啦);

设置区块大小,然后保存设置;

RAID 组建后按操作系统对应加载驱动程序

操作系统成功安装完成即制作完成。

SiliconImage

升技主板使用过3112、3114、3132三种型号的控制器,对应型号如下:

虽然是三种不同的型号,但是BIOS设定和RAID BIOS界面大致相同,只是所支持的RAID 模式稍有不同,所以就一起来介绍了。

BIOS设定;

按Ctrl+S键进入RAID BIOS主界面;

创建RAID;

自动配置;

手动配置,配置区块大小;

选取磁盘;

确认磁盘容量;

保存退出;

驱动加载

3112、3114的加载

3132 驱动加载

操作系统成功安装完成即制作完成。

intel

目前升技主板使用的intel RAID 控制器 分别是 intel ICH5R、ICH6R、ICH7R南桥芯片中集成的SATA RAID 控制器。主板型号对应有以下几种:

它们的BIOS设定和RAID BIOS界面也大致相同,只是所支持的RAID 模式稍有不同,所以也一起来介绍了。

BIOS设定;

将On-Chip SATA 模式设定为 Enhanced Mode;

将On-Chip SATA Mode 设定为 RAID;

保存BIOS充启后,按Ctrl+I 进入RAID BIOS

创建RAID ;

确认创建;

RAID 0模式下磁盘信息;

Matrix RAID 模式下的磁盘信息(只有ICH6R、ICH7R能够组建Matrix RAID);

ICH5R(82801ER)与ICH6R(82801FR)软盘驱动加载;

ICH7R 软盘驱动加载;

组建成功Matrix RAID后,在安装程序中识别出的磁盘容量;

操作系统成功安装完成即制作完成。

VIA

由于VIA的8237及8237R南桥芯片集成了SATA RAID控制器,只要使用这两种南桥芯片的主板都是支持SATA RAID的,型号如下:

Socket 478 平台的 VI7、VT7;

Socket 462 平台的 KV7、KV7-V、KW7,VA-20;

Socket 754 平台的 KV8-MAX3、KV8、KV8PRO、KV8PRO-3rdEye、KV-80、KV-81、KV-85;

Socket 939 平台的AV8、AV8-3rdEye、RocketBoy AV8、RocketBoy AV8-3rdEye、AX8、AX8-V、AX8 V2.0、AX8-3rdEye。

由于都是使用的8237及8237R南桥,所以设置基本相同,只是由于RAID BIOS版本不同会稍有变化。

BIOS中的OnChip IDE Device下将OnChip SATA MODE Select设定为RAID,有的主板BIOS选项为OnChip SATA RAID ROOM,将其设为Enabled,保存重启即可;

按Tab键进入RAID BIOS,选则Create Array创建RAID;

进入RAID创建菜单;

选择RAID 模式;

在选取磁盘和区块大小后,选Start Create Process 进行创建动作,当提示Create New Array OK!时,表示创建成功;

退出RAID BIOS后,即可安装操作系统,安装时加载软盘驱动,绝大部分型号主板附带的软盘驱动都是ABIT整合驱动软盘,在进行下拉菜单项后即可选取VIA 的RAID 驱动;

但也有如AX8系列主板附带的软盘驱动稍有不同;

系统安装成功后即告组建RAID成功。

nVIDIA

目前板载RAID主要有nForce2 MCP-RAID南桥与nForce3、nForce4系列单芯片中集成,对应主板如下:

它们的BIOS设定和RAID BIOS界面也大致相同,只是所支持的RAID 模式稍有差异,所以也一起来介绍。

BIOS设定:

将RAID Function设置为Enabled,然后将接有准备组建RAID的磁盘的端口RAID模式设置为Enabled,保存即可;

保存BIOS并重启之后,按F10进入RAID BIOS,设置RAID 模式;

设置区块大小;

选取磁盘;

按F7结束,确认并保存后,按Ctrl+X退出;

加载驱动;

在这里要注意的是nVIDIA系列的RAID控制器在加载软盘驱动时需要连续加载同系列的NVIDIA RAID CLASS DRIVER与NVIDIA nForce Storage Controller两项驱动,只加载其中任意一项都会导致磁盘无法正确识别,而无法完成操作系统安装。

操作系统成功安装完成即制作完成。

ULi

升技目前所使用的ULi RAID 控制器只有M1689单芯片中所集成的SATA RAID控制器,对应的主板有KU8和UL8两款,RAID BIOS也完全相同。

BIOS设定;

保存BIOS重启后,按Ctrl+A进入RAID BIOS;

RAID BIOS相当简洁明了,几乎没有二、三级子菜单,前三项分别是组建不同的RAID模式,然后设定区块大小;

用左右方向键进行选择,然后保存退出,并在安装操作系统时加载软盘驱动;

操作系统成功安装完成即制作完成。

SiS

目前升技板载有SiS SATA RAID 控制器的型号有SG-80一款。

BIOS设定开启RAID;

保存重启后按Ctrl+S进入RAID BIOS

按 R 键开始编辑RAID;

按 A 键建立RAID;

按1 2 3 键选择RAID模式;

选择自动创建与手动创建;

设置区块大小;

选取磁盘;

此处提示的意思是:“您是否要将源盘数据保存到其他硬盘?”

选 Y 保存的话所要占用的时间会相当长,且如果是两个新硬盘的话也没有必要保存数据,所以一般不推荐用此种方法保存。而选 N 则可跳过此处。

通过以上步骤后创建操作已经完成,按 Q 键退出,此时会弹出提示是否保存此次操作,按 Y 键保存即可。

加载软盘驱动

成功安装操作系统后,安装Windows下的软件制作即告完成。

以上就是主流的带有RAID功能的升技主板基本的RAID创建过程的介绍,希望能够给对RAID有兴趣的升技主板用户有所帮助。
 
 
 
 
本文将向您介绍一款采用光纤通道协议实现RAID控制器的系统设计方案。我们将重点讨论如何使用安捷伦Tachyon 4 Gb/s 4端口光纤通道协议IC,把多个磁盘通道加入在一个提供RAID应用的计算系统中,并对使用RAID存储技术的整个系统进行简单介绍(包括光纤通道拓扑及选项、FC终端、磁盘通道和处理器功能)。

RAID系统架构概述

  数据存储的应用越来越广泛。过去的单一设备现在容纳或产生大量的数字信息。海量数据时代的到来加速了人们对信息安全存储的需求。光阴荏苒,人们保存了大量的数据,但是重新获得丢失的数据却要耗资巨大。为此,人们部署了可靠的数据存取系统来保存或存储数据。随着保护数据安全呼声的高涨,对RAID解决方案的需求也日益增加。RAID解决方案提供有多种有助于提高数据检索成功率的选择方案。尽管RAID技术现在已可以应用于实现可靠检索所需的任何数字存储介质上,当前人们还是普遍把数据存储在物理介质上。

在一个实施RAID技术的完备系统中,需要考虑下列事项:

  ● 带一个或多个CPU的控制处理机。

  ● 需要将一些磁盘与控制处理机相连接。通常采用专门用于附加驱动器的特殊协议实现磁盘连接。目前,有好几种流行的磁盘协议。这里我们将重点介绍在大多数高端存储阵列设计中使用的光纤通道协议。

  ● 驱动器和处理器间无法直接实现高效连接。为此,人们使用了协议转换器为一个接口上的处理器提供API,并实现与另一个接口上驱动器的连接。


                                                                        图1:RAID控制器功能最简单架构的典型系统示例
图1为典型系统示例,其中包括四个CPU,一个由内存控制器和接口设备组成的处理器组(Processor Complex)、一个协议控制器和多个光纤通道链路组成的阵列。对磁盘控制器架构的多样性和利弊,本文不作讨论。图1所示系统为最简单的通用架构,我们将用它来介绍RAID控制器的一般功能。

RAID概述

  RAID 实施方案这一概念并不仅仅包括以后检索所需的储存数据,它还涉及到采用下文介绍的一级或多机RAID架构。

RAID-0:数据分割(Striping)。数据分割不能增加系统安全性,但可以提高系统性能。一个文件被存储在多个驱动器上。文件被分成若干块,并被依次写入连续的磁盘中,这样就可以分摊单个驱动器的写反应时间并使多个写操作重迭进行。

  RAID-1:磁盘镜像(Mirroring)。将一个磁盘上的所有数据完全复制到另一个磁盘中。这需要将数据写入不同的磁盘中,涉及到两个单独的写操作。这两个磁盘无主次之分,一个磁盘是另一个磁盘100%的备份。已完成的写操作,必须是已同时在两个磁盘上完成了同样的写操作。如果一个磁盘故障,与之镜像的磁盘保持正常操作,不会造成中断。RAID-1提供了较好的管理能力,而且在正常操作或系统恢复时不需要占用太多的CPU。但这种方式成本很大:磁盘上需要保护的每千兆字节都会需要一个完全一模一样的千兆字节。换句话说,RAID-1所需要的磁盘空间是无保护磁盘空间的两倍。

  RAID-2:汉明码纠错(Hamming code error correction)。与ECC内存一样,RAID-2也使用了汉明码方法校验磁盘数据的正确性。

  RAID-3、RAID-4和RAID-5都使用了不同的奇偶校验方法。与RAID-1完全复制数据不同,这些等级的RAID通过添加一个附加磁盘将数据分散在几个磁盘上。附加磁盘上的数据是用其它磁盘的数据计算出来(使用Boolean XORs)。当磁盘组中任一个丢失时,可以用磁盘组中其它磁盘上的数据通过计算来恢复丢失的数据。由于这几种方法不需要RAID-1 100%磁盘备份的费用,因此它们所需成本比RAID-1要低。然而,由于磁盘上的数据是计算出来的,磁盘丢失后会影响与写操作和数据恢复相关的性能。

  RAID-3:虚拟磁盘块(Virtual disk blocks)。RAID 3会把数据写入操作分散到RAID阵列中的所有磁盘上进行(数据分割)。因为每次写操作要接触每个磁盘,阵列同时只能写入一块数据,因此导致整个RAID系统性能下降。RAID-3的性能因写操作性质的不同而不同:写入少量数据时因需要所有的磁盘工作,性能较差,而在写入大量数据时性能较好。

  RAID-4:专用奇偶盘(Dedicated parity disk)。在RAID-4阵列中,有一组数据盘,通常是4~5个数据盘(可以有更多数据盘,但会大大影响性能)和一个专门用来管理其它磁盘上数据奇偶性的特殊磁盘。因为每次写操作都需要访问奇偶盘,奇偶盘成了系统性能的瓶颈,降低了整个阵列中所有写操作的速度。

  RAID-5:磁盘分割(Striped parity)。RAID-5实际上与RAID-4一样,唯一不同的是:在RAID-4中,所有奇偶校验信息位于一个单一磁盘上,而在RAID-5中,对奇偶校验信息进行了分割,将其存放在阵列中各个磁盘上。这种共享可以均衡并减少RAID-4方法的性能影响。在常用的RAID-5软件实施方案中,由于写操作占用了15%以上的磁盘空间,系统速度会变得很慢,令人难以接受。

  要实施任意RAID组合,需要考虑几个功能。在实施0级以上的RAID方案时,通常要连接多个磁盘。为了实现数据分割、镜像和奇偶校验,采用了多种磁盘存取方式或操作。例如,为了实现RAID-1,需要连续向两个驱动器写入数据。磁盘的读或写操作通常被称之为磁盘输入/输出(I/O)。这可以是可与一个或多个驱动器实现通信的任意协议。这个功能可通过系统中一个或多个处理器上运行的软件实现。方法是在通过协议控制器API实现RAID技术和进行通信时,实现高级磁盘写入功能。

  最好使用一个可以管理多个磁盘通道的协议控制器,使处理控制机可以在RAID应用中和系统管理功能上工作。对于部署连接状态和多个驱动器通道的光纤通道等复杂协议而言,通常使用类似于Tachyon系列产品的高端控制器为系统提供最高等级的性能。

Tachyon架构

  Tachyon光纤通道协议控制器系列产品采用了1 Gb、2 Gb和4 Gb 光纤通道链路,并根据不同设备通过PCI、PCI-X或PCI Express接口与系统相连。

  尽管不论是光纤通道技术,还是系统总线互连技术都取得了重大进展,Tachyon协议引擎系统架构却是随着半导体工艺技术的发展而拓展。这一架构以FSM(Finite State Machine)设计为基础。在FSM设计中,采用了众多独立状态机,这些状态机并行运行,因此可以获得比固件或软件解决方案更高的性能。随着频率增加,Tachyon的性能也相应提高,而在基于固件的解决方案中,电路频率并不会直接改善算法的性能。

  Tachyon架构支持入局和出局数据通路独立和同步运行,因此可以在光纤通道链路全速率下实现全双工操作。此外,由于在数据移动的同时可以同步处理I/O操作的控制请求,Tachyon架构还可以实现数据移动设备的最佳利用。 FSM 的性能与时钟频率密切相关。FSM设计不但可以决定每个时钟周期,而且和嵌入式微处理器一样在发布指令和数据找取时对内存存取速度没有依赖性。除了随链路性能工艺技术的发展而升级,Tachyon还利用系统接口总线的技术改进来增加每秒I/O性能。

PCI Express的适用性

  过去,双向系统总线接口(如PCI和PCI-X)共享资源限制了Tachyon架构中的全双工功能。Tachyon产品中两个独立的数据移动设备争相占用PCI或PCI-X系统接口。

  带有独立Ingress和Egress数据通路链接的PCI Express非常适用于Tachyon架构。由于Express Ingress数据通路与Tachyon 出局数据通路以及Express Egress数据通路与Tachyon入局数据通路的结合使用,数据可以同时双向自由传输,这与Tachyon架构的初衷一致。

  从一个双向系统总线转变为一对单向链路还消除了与关联交易相关的丢失总线周期,此时,在总线中有一个等待返回数据的请求(即寄存器读)。此外,由于PCI Express 是一个串行链路技术,请求可以用管线技术处理。大量经过管线技术处理的请求可以较好地利用目标设备的性能。

  因为PCI Express与Tachyon 光纤通道控制器一样,可以提供成对的双向串行链路,所以可以用每秒每个链路方向传递的字节数来表示带宽连接性能。一路(lane)PCI Express 由两个速率为2.5Gb/s的单向串行链路组成,编解码后每个方向每秒可以处理250 Mbytes。应用PCI-E技术的 Tachyon系列产品(QX4和QX2)可以配置为1路、4路或8路PCI Express,所以可以提供高达4 Gbytes的互传带宽或单向2 Gbytes的带宽。表1所示为Tachyon系列产品的带宽需求与PCI Express性能的匹配情况:


                                                                         表1:Tachyon带宽要求与PCI Express性能的匹配情况
从上表可以看出,PCI Express接口的利用率达到了80%时,8路PCI Express理论上讲可以支持QX4 (4个4 Gb光纤通道链路)全链路速率下的所有4个功能。支持多个4路Express链路的PCI Express 根联合体(root complex)可以与两个QX2设备相连(每个设备4路PCI Express)并可以在所有8个端口上获得2 Gb/s的全光纤通道链路速率,利用率达到了80%。

  正是由于PCI Express的串行链路属性与Express的灵活性,PCI Express成为适用于Tachyon 光纤通道协议控制器系列产品的最佳系统接口总线。PCI Express 协议的向后兼容性因为可以实现驱动器兼容而简化了从PCI 或PCI-X系统接口总线转成PCI Express的决策过程。

  使用像Tachyon这样高度集成的设备,用现成的组件标准就可以构建高性能的RAID系统。利用处理器的可变性和内存设计,只要利用普通的系统软件投资,就可以调整目标系统应用解决方案的性能,使其从一个低端的SMB转变为高端数据中心阵列。

当前PCI Express的性能

  在上表中介绍了PCI Express总线的原始位率性能。其中,没有考虑与PCI Express相关的开销。PCI Express通信主要由处理层数据包(TLP)组成。每个处理层数据包(TLP)包含相关数据以及文件头和其它顺序跟踪/检错信息。除了处理层数据包(TLP)外,还有数据链路层数据包(DLLP)。数据链路层数据包(DLLP)主要用于ACK/NAK协议以及流控制机制(Flow Control Mechanisms)。此外,还有物理层数据包(PLP),但物理层数据包(PLP)主要用于低级功能和不良路径操作,如链路培训(link training)和省电模式。

  每个处理层数据包(TLP)系统开销较大。它由文件头、CRC和其它帧信息组成。由于每个处理层数据包(TLP)有固定的系统开销,较大的处理层数据包(TLP)可以较好地利用系统总线。如果假设与处理层数据包(TLP)的数量相比,数据链路层数据包(DLLP)和物理层数据包(PLP)的数量可以忽略不计,我们可以用处理层数据包(TLP)的大小计算PCI-Express的最大理论带宽。在表2中,我们对用PCI Express理论带宽所测得的QX4性能与即将可用(2005年1月)的PCI Express 根联合体(Root Complex)支持的各种处理层数据包(TLP)进行了对比。


                                                    表2:测得的QX4性能与各种不同大小处理层数据包的PCI-Express理论带宽之比较

  在表2中,假设没有与FCP通信、Tachyon数据结构或Tachyon寄存器存取相关的开销。这些理论数值还假设PCI-Express根联合体的等待时间为零。所测得的QX4 1.1数值包括FCP 流量开销、Tachyon 数据结构和寄存器存取开销以及PCI Express的等待时间。

  在半双工通信配置下(顶部的只向一个方向传输),链路控制数据链路层数据包(DLLP)被发送到数据处理层数据包(TLP)的相反方向,因此不会降低系统性能。引入全双工后,流程控制数据链路层数据包(DLLP)和数据处理层数据包可以共享相同的PCI Express 单工通道;任何一个流程控制数据链路层数据包(DLLP)都会引起数据处理层数据包(TLP)的传输延迟。再次重申,所有理论带宽都假设数据链路层数据包(DLLP)和物理层数据包(PLP)的影响忽略不计。

  上述有关带宽的讨论,阐述了如何根据4 Gb 光纤通道设备对PCI Express进行升级。并用一个设备在一秒钟内可以完成的512 字节 I/0这一数值对IOPS(每秒I/O)进行了定义。IOPS测量值也可随着PCI Express的升级而升级。

  我们使用当前可用的PCI Express芯片集和单个安捷伦QX4,发现IOPS的数值超过1.3 MIOPS(图3)。随着处理器速度变快以及可以支持更大的处理层数据包(TLP),预计我们可以看到更好的性能。


图2:用PCI Express提供的独立Ingress和Egress通路对PCI和PCI-X的双向总线系统接口进行对比。由于Express Ingress数据通路与Tachyon 出局数据通路以及Express Egress数据通路与Tachyon入局数据通路的结合使用,数据可以同时双向自由传输。


图3:使用一个安捷伦QX4 Tachyon 光纤通道控制器IC和目前可用的PCI Express芯片集所获得的I/O大小与按顺序读取IOPS之对比
 
 
 
         软阵列就是通过软件来实现阵列工作的方式,硬阵列就是通过添加硬件来实现阵列工作的方式,二者的区别在于,软阵列系统开销比较大,资源占用比较多,有些阵列级别不能充分利用.相反硬阵列的cost比较高,成本投入比较大. 
只有IDE硬盘才可以做软阵列吗?还是和具体的服务器有关?有什么好的软件做软阵列(操作简单的)?介绍我下载一个好吗? 
ide和scsi都可以做软阵列,不需要下载软件,在操作系统里就能做。

        如果是软阵列更换硬盘时是否很麻烦?
是比较麻烦,还有就是软阵列的Raid5 不能把系统分区做进去。因为软raid是建立在操作系统上的,所以你必须有一个系统分区,或者两块盘做镜像,硬阵列就可以直接用硬盘做raid5,然后再在raid5上装系统。

        软阵列可以实现扩容吗?比如现在已经有一块硬盘也装了系统,要加一块硬盘不丢系统的情况下做一个riad1,或者riad0,怎么做?
我没试过!不好说!我个人认为不能扩容,因为软阵列建立在操作系统上,要占用一定的系统资源,不像硬阵列有单独的处理芯片进行运算,有单独的内存(cache)。如果扩容那服务器就什么都不用干了!呵呵!
有道理!呵呵!要能那样扩容的话,做个简单的raid0,raid1就不必花钱买raid卡了!
那在系统里做软阵列是在磁盘管理器里直接添加吗?(例如装的系统是win2k) 

        软阵列中可以实现简单的RAID-1功能(软阵列中大部分人的选择),升级磁盘到动态,这样分区就变成了卷的概念了,两个硬盘的卷之间就进行镜像。

        如果坏掉一块硬盘,另一块硬盘一样可以启动,效果跟硬件做的一样,只是插入新硬盘后要手动同步数据,选择你要同步数据的卷即可进行数据同步,时间比较漫长,操作系统在做数据同步时,磁盘管理会显示进度,这时不要做其他操作,因为这时的资源都被生成阵列信息所耗尽,感觉做其它的操作反映非常慢,就跟中毒一样,呵呵!
 
 
http://www./wildon/
 
 
 

何謂 RAID

現今儲存業界所面臨的兩個主要挑戰為:藉由改善磁碟 I/O 的生產力以跟上電腦系統與日漸增之效能需求的腳步,以及在硬碟發生問題時提供資料的存取度。

RAID (獨立磁碟多重陣列) 的構想最先是由加州柏克萊大學的 David A. PattersonGarth Gibson Randy H. Katz 1988 年所提出的。RAID 的目的在於將相同的資料儲存在多個磁碟機中不同的地方,並且改善儲存子系統的效能。RAID 的優點為提供更好的生產力效能及/或資料錯誤容忍度。透過將工作量平行分散到多個實體磁碟機中可以達到較好的效能。而藉由資料多重操作,當一個 (或多個) 磁碟機或磁區發生問題時,可以在另一個磁碟機中找到資料的映射拷貝,則可達到錯誤容忍度。

 

RAID 在作業系統中顯示為一個單一的邏輯磁碟機。RAID 控制器控制資料如何在實體及邏輯陣列之間被儲存及存取。RAID 控制器協助使用者確保作業系統僅看得見邏輯磁碟機,同時使用者也不需要擔心如何管理此複雜的架構。

 

為了獲得最佳的結果,請選擇同一個磁碟機安裝在磁碟陣列。磁碟機的配對效能讓陣列能夠運作得比單一的磁碟機更好。

RAID 等級為何?

Striping / Span (RAID 0)

RAID 等級 0 是最快的磁碟陣列,它是一種效能導向的磁碟映射方法。陣列中的資料透過線性或不同的磁碟寫入以獲得較快的傳輸。此技術將資料切割,但不會造成資料的重複。它提供最佳的效能,但不具錯誤容忍度。資料磁區的讀寫在多個磁碟機之間進行。當任何一個磁碟機發生問題時,整個陣列皆會受到影響。它的效能優於單一個磁碟機,因為工作量平均分配於每一個陣列。此種陣列類型適用於需要高效能的系統。我們建議使用同一個磁碟機以獲得更好的效能及資料儲存效率。磁碟陣列容量等於磁碟機的數量乘以最小的磁碟機容量。例如:一個 40GB 及一個 60GB 的磁碟機將形成一個 80GB (40GBx2) 的磁碟陣列。

 

映射 (RAID 1)

RAID 等級 1 使用至少兩個相同的磁碟機並且在兩者中儲存完全相同的資訊區塊。此為錯誤容忍度最慢的類型,因為同時必須將資料複製到兩個磁碟機中。然而,此為提供高可靠度最簡單的方法。

如果其中一個映射磁碟機發生機械上的問題或沒有回應,另一個磁碟機將繼續運作並提供正確的資料。如果一個磁碟機發生實體磁區的問題,映射磁碟機將繼續運作。

因為重複的緣故,磁碟機的容量是整個磁碟機容量的一半。例如:總容量為 80GB 的兩個 40GB 的硬碟機擁有 40GB 的可用儲存量。因為有不同容量的磁碟機,在較大的磁碟機中可能會有未使用的容量。 RAID 1 在增加磁碟機建立陣列時,將會花費兩倍的成本。

 

使用映射進行 Striping (RAID 0+1)

如同名稱所建議的,RAID 0+1 striping 及映射的結合。此 RAID 結合了 RAID 0 RAID 1 最佳的優點。它採用一個使用兩個磁碟機的磁碟 stripe,並將其映射到另一磁碟組作為錯誤容忍度使用。資料被切割到許多的磁碟機,每一個磁碟機都伴隨著另一個擁有相同資料的磁碟機。您可以在 RAID 0 中獲得快速資料存取的效益,在 RAID 1 中獲得錯誤容忍度。此一類型的組態提供最佳的速度及可靠度。您需要兩倍的磁碟機數目作為一個 RAID 0,每一端的半數作為映射用。在執行 RAID 0+1 時至少需要 4 個磁碟機。除了上述介紹的 RAID 組態之外,還有其他的類型,但這些是業界中最常被應用的類型。

 

 

RAID 等級的硬碟機容量

 

 

              磁碟陣列 RAID(Redundant Array of Independent Disks)簡單的解釋,就是將多台硬碟透過RAID Controller (HardwareSoftware )結合成虛擬單台大容量的硬碟使用,其特色是多台硬碟同時讀取速度加快及提供 容錯性Fault Tolerant,所以 RAID 是當成平時主要存取資料的Storage,不是 Backup Solution

RAID有一基本概念稱為EDAP ( Extended Data Availability and Protection ) ,其強調擴充性及容錯機制, 也是各家廠商如: MylexIBMHPCompaqAdaptec Infortrend等訴求的重點,包括在不須停機情況下可處理以下動作:

1. RAID
磁碟陣列-自動偵測故障硬碟(RAID Auto Error Detection)
2. RAID
磁碟陣列-重建硬碟壞軌的資料(RAID Rebuild and Recovery)
3. RAID
磁碟陣列-支援不須停機的硬碟備援 Hot Spare(RAID Hot Spare)
4. RAID
磁碟陣列-支援不須停機的硬碟替換 Hot Swap(RAID Hot Swap)
5. RAID
磁碟陣列-擴充硬碟容量等(Raid Hot Expanding)

此文均以市面常用的 RAID 5 架構為討論主題。
磁碟陣列 RAID 的儲存原理是用Bit Striping及目前主流Block Striping的分割方式, 將資料分散儲存至各硬碟中,當硬碟有受損時則經由XOR運算,再將存在其他各硬碟內的Parity BlocksData Stripe磁區的Data Blocks進行計算而重建資料Rebuild

RAID-5
其圖解如下﹕

RAID-RAID 5 Degraded Mode 架構說明/RAID 磁碟陣列簡介/RAID 5,RAID-5,RAID5
RAID-RAID 5 ReBuild,Recovery 復原說明/RAID 磁碟陣列簡介/RAID 5,RAID-5,RAID5
RAID-RAID 5 Striping 架構說明/RAID 磁碟陣列簡介/RAID 5,RAID-5,RAID5

 
 

通过Ultra ATA 技术深入了解基于服务器的 RAID

Steve Hogge 和 Bo Zhou (March 2002)

A 虽然SCSI是基于服务器的RAID的主要技术,但一些高性能的标准,例如 Ultra ATA/100 ,已经为用户提供了新的选择。本文介绍了一种新的基于ATA的PCI控制器 - Dell®  CERC ATA 100/4 CH,它具有低成本、高性能的特点,是除SCSI RAID之外的一种新选择。

目前,在容错和基于服务器的RAID(冗余独立磁盘阵列)数据存储领域,主要采用SCSI I/O 和驱动器技术。随着ATA总线速度的提高和高密度、低成本驱动器的推出,高级技术附加(ATA)RAID正在成为SCSI RADI之外的另一个可行的选择。

Dell 公司现在推出了它第一个智能型外设部件互连(PCI)主机总线适配器(HBA)-- Dell®  Cost-Effective RAID Controller(高成本效率的RAID控制器),其四个ATA通道中,每个通道的吞吐率为 100 MB/秒 (CERC ATA100/4CH)。CERC HBA 包含了基于SCSI的Dell PowerEdge®  可扩展RAID控制器系列的许多特性,此外还具有低成本和高性能的优点,因此易于部署和维护。

RAID 为什么要使用 ATA ?

在考虑用CERC ATA100/4CH 实现RAID时,虽然成本不是唯一的原因,但确实是一个重要的原因。首先部署在Dell PowerEdge 500SC 和 PowerEdge 1400SC 服务器上的CERC ATA100/4CH,最多可分别具有三个和四个驱动器,它能够提供与SCSI相似的功能(参见后面的"CERC ATA100/4CH 的重要特性"),但具有较低的成本。

与SCSI的成本比较
根据需要存储的数据量的不同,SCSI和ATA 硬盘驱动器(HDD)的价格可以有很大的差别。例如,图 1表明,基于ATA的RAID盘硬件的零售价格与SCSI相比,可以节约大约60%的成本。

图1. 戴尔 RAID 替换产品的零售价比较
图 1. Dell RAID 替代产品的零售价格比较

相对于非RAID ATA 技术的优势
通过增加一块 CERC ATA100/4CH 卡,用户只需增加很小的成本就能够享受RAID的好处。

大大减少数据丢失。 利用任何可用的RAID级 ( RAID-0 除外),用户能够避免一个(RAID-1或RAID-5的情况下)或二个驱动器(如果两个故障的驱动器都在不同的RAID-1组,在RAID-10的情况下 )故障造成的数据丢失。

延长服务器的正常运行时间。 采用RAID(RAID-0除外)进行数据存储,可以承受至少一个磁盘的数据丢失,而无需强制关闭服务器。因此,管理员可以在运行的非高峰时间安排停机检修。热备份功能进一步提高了容错性,因为管理员可以分配一个或多个驱动器自动替换故障的驱动器。例如,对于 PowerEdge 1400SC,管理员可以为RAID-5阵列分配三个驱动器,并将第四个驱动器作为热备份。

减少平均修复时间。 管理员可以通过终止服务器、更换故障驱动器、然后重新启动服务器的方法,在CERC卡的控制下维修性能下降的磁盘阵列,而无需从磁带或其它备份介质上重新加载。该卡能够在几小时内重建磁盘阵列,并将其完全恢复到正常状态。

挖掘潜能,提高系统的整体性能。 CERC 卡是一个智能型I/O控制器,其自身的微处理器能够执行数据存储到磁盘的 RAID 功能。通过将RAID任务交给一个专用的处理器, CERC 使主服务器的 CPU 能够集中完成其它的任务,从而最大限度地提高了整个系统的性能。例如,RAID-5 奇偶校验计算是CPU密集型运算,因为每个写磁盘操作都需要重新计算奇偶性。此外,RAID阵列通过将I/O操作分配到多个驱动器,能够每秒执行更多的I/O操作。

部署的考虑
尽管低成本是ATA系统的优势,但与成本有关的使用寿命也是一个重要因素。图 2 表明,部署在PowerEdge 500SC 和 PowerEdge 1400SC 服务器上的 CERC ATA100/4CH 和 PERC 3/SC (PERC 第 3 版, 单通道)之间存在差别。

图2. CERC ATA100/4CH 与 PERC 3/SC 之间的差异
图 2. CERC ATA100/4CH 和 PERC 3/SC之间的区别

通常,SCSI硬盘驱动器的平均使用寿命长于ATA驱动器。例如, Seagate® Cheetah®  X15 36LP 15K RPM 的平均故障间隔时间 (MTBF) 为120万小时,而 Seagate Barracuda®  ATA IV 7.5K RPM 的平均故障间隔时间( MTBF )为60万小时。此外,SCSI 的优良性能还表现在较高的I/O总线速度、快速的硬盘驱动器存取及其它一些方面。

SCSI RAID 的一种替代解决方案

随着 I/O技术的发展,将会为客户继续提供 RAID 的其它解决方案,从而优化客户的系统,提高性能,降低成本。目前,部署在Dell PowerEdge 500SC 和 PowerEdge 1400SC 上的 CERC ATA100/4CH,其容错性和数据存储性能已经达到了SCSI技术的水平, 因此能够使客户以较低的价格获得到高性能的解决方案。

Steve Hogge (steve_hogge@) 是 Dell公司一位基于服务器RAID的产品经理,从事了五年的硬件和固件工程设计及全球产品的管理。Steve 获得Old Dominion 大学的计算机工程学士学位。

Bo Zhou (bo_zhou@) 是一位系统工程师,在 Dell RAID II 开发部从事ATA RAID 控制器的开发工作。Bo 在计算机体系结构建模、仿真和PC存储子系统设计方面,具有多年的工作经验。他获得华中理工大学的计算机工程学士学位,之后又获得了路易斯安那技术大学计算机科学的硕士学位。
 
 
 

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多