Figure5. metaLUN里面的存储的初始化分布
注意到在图5,每一个metaLUN由一个对应一个RAID组的LUN组成。因此,每一个LUN的负载是分布在所有在那个set里的RAID组。但是,这些metaLUN是和对其他RAID组的set的数据访问是分隔开的。
为什么要使用RAID组的set?如果我们不允许一个metaLUN来扩展到自己的set以外,我们可以做出一定级别的隔离,将这种影响控制在磁盘的级别。例如,一个RAID组的set可能为一大群文件服务器所设立,而另一个RAID组的set是为RDBMS的数据目录----这时一对普通的RAID1组可能被使用作为RDBMS的日志设备。图6展示了这一点。
21
图6:用RAID组的set和metaLUN来做数据分隔的例子
在图6里面显示的例子,通过访问到NFS的共享metaLUN,并不会干涉到Oracle服务器访问他们自己的数据目录或者日志。 扩展模式的的扩展程序
下一步是建立扩展的策略。扩展的目标:
维持扩越很多磁盘的分布 ? 更有效的利用容量
?
达致这个目标的途径
当容量对metaLUN来说是可以预计的,把磁盘增加到set已经出现的RAID组里面。 ? 对metaLUN里的set里面的RAID组进行扩展 ? 对metaLUN里增加扩展的LUN作为一个新的
stripe的component
?
MetaLUN的扩展例子
这个例子里使用的途径,和metaLUN配置的原始的目标是紧密结合的----I/O分布在所有的磁盘上。
22
第一步,IS部门确定Meta A的容量使用率超过了他的警戒线—85%--同时也会告知用户要注意这个metaLUN。在周末的时候,IS接受一个外加160GB请求。这个系统的操作员增加2个磁盘,到metaLUN A 所在的set里的每一个RAID组。RAID组的扩展被设置成中等优先级别,这对性能影响会非常小。每一个组的存储增加了一个磁盘的容量(66GB),如图7所示。
图7. 对metaLUN的扩展:第一步
下一步是对metaLUN set的每一个RAID组绑定一个LUN。他们必须要扩展的总的容量是160GB,而我们在这个metaLUN set里面有四个RAID组,所以160/4=40。一个40GB的LUN必须限定在set里的每一个RAID组。
最后一部是使用 4个建立的LUN,来扩展metaLUN。操作员指派要被增加的LUN并且把扩展设置为concatenate的方式。因为扩展的LUN都是一样的大小,所以navisphere concatenate一个新的stripe的component到metaLUN,来组成这些LUN。(图8)
图8:MetaLUN的扩展:第二步
接下来的是一个CLI方式(命令行)的命令的例子:通过concatenate一个新的stripe component来扩展metaLUN。这个metaLUN的identifier是30。FLARE LUN 34,35,36,37都有一样的RAID的类型和容量:
23
metalun –expand –base 30 –lus 34 35 36 37 –type c
扩展的类型被设置成C,代表concatenate的方式。Navishpere会以stripe方式把LUN捆绑成一个新的component,然后加到已经出现的metaLUN,metaLUN 30上面去。
基于LUN堆叠的metaLun
正如前面的例子那样,当从一个set的RAID组里建立多个metaLUN,掉转你为每一个metaLUN定位的base LUN里的RAID组。这可以把磁盘组里的数据库,文件系统,甚至是一个备份的过程里的hot edge分布开去,如图9所示。每一中颜色的stripe表示不同的metaLUN;每一个meta的base LUN在不同的RAID组里面。
图9:基于LUN堆叠的metaLUN [编辑]
7.存储控制器的影响
这个章节指导用户怎样使用CLARiiON的硬件来匹配相对应的性能要求。 [编辑]
A. CLARiiON的存储控制器
EMC的CX系列阵列的存储控制器跟以前的型号不同的地方,是他们支持了连接到前端主机和后段磁盘的4Gb/s和2Gb/s的速度;事实上,在同一个存储系统,两种速度都可以实现。相对低端的产品,CX3-20和CX3-40,当使用了4Gb的硬盘的时候,在带宽方面的性能跟我们老的CX500和CX700相对应。如果配置成2Gb的硬盘,会导致只有一半的可用的带宽,因而工作的负载应该在只升级SP的时候仔细的调研。基于磁盘的OLTP应用受到后段的loop speed的影响很小,所以我们应该把大部分注意力放在备份和DSS的带宽状况尚。 CX3存储器家族的参数特点如下:
24
针对Rlease22的新的架构和调整,相当地改进了rebuild的时间。在(4+1)Raid5的测试中,如果没有负载的情况下,对hot spare的4Gb 15k 73G硬盘的rebuild大概需要30分钟,比CX700少了50%。如果持续的8KB随机负载
(Read/Write=2 :1)占用了70%的磁盘利用率(典型的OLTP负载),则这个过程需要55分钟。吞吐量下降了大概50%。High,Medium和Low三种设置相对应的rebuild时间是6,12和18小时,这对主机的负载很小。 [编辑]
B. 磁盘的级别和性能
CLARiiON存储系统通常使用RAID5来做数据保护和性能的应用。当适当的时候,也会使用RAID1/0,但使用RAID1/0往往不是基于性能方面的考虑。我们可以通过CLARiiON Block Storage Fundamentals 白皮书来了解为什么RAID5会有更好的性能。 什么时候使用RAID5
消息,数据挖掘,中等性能的流媒体服务,和在DBA使用read-ahead和
write-behind策略的RDBMS应用,使用RAID5是能获得比较好的性能的。如果主机的OS和HBA可以支持大于64KB的transfer的时候,RAID5是不二的选择。 以下的应用类型,使用RAID5是比较理想的:
有适度的IO/s-per-gigabyte要求的随机的
工作负载
? 当写操作只占用了30%或者更少的工作负载
时的高性能随机I/O
? 一个顺序访问的决策支持系统(DSS)的数据
库(计算销售记录的统计分析)
?
25