对于那些会使用snapshot,clone,MirrowView的镜像构成的LUN来说,这个方法比 LUN对齐位移方法更加适用。这对SAN Copy中的sources和targets是一样适用的
对于VMWare的磁盘分区调整 VMware会更加复杂,因为会有两种情况存在。 当对齐raw disk或者Raw Device Mapping(RDM)卷,实在虚拟主机(VM)层次上来实现对齐的。例如,在 windows的虚拟主机上使用diskpar来实现对齐。 对于VMFS卷,会在ESX Server的层次上使用fdisk来实现对齐,正如diskpar在VM层次。这是因为不管是 ESX Server还是客户端都会把MBR放到LUN上面去。ESX必须对齐VMFS卷,而客户系统必需对其他们的虚拟磁盘。
对齐ESX Server: On service console, execute \sd
通过把分区类型声明为fb,ESX Server会将这个分区认为一个没有被格式化的VMFS卷。你应该能够使用MUI或者vmkfstools,把一个VMFS文件系统放上去。对于Linux的虚拟主机,按照上面列出的程序步骤来做。对于windows的虚拟主机,也是按照上面的程序步骤来做。 [编辑]
G.Linux的I/O fragementing
对于linux来说,避免对一个LUN上的多个大文件的并发访问是很重要的。否则,这回造成来自不同的线程的许多个访问,使用不同的虚假设备来访问同一个潜在的设备。这种冲突减少了写操作的coalescing。最好还是使用很多个小的LUN,每一个有一个单一的大的文件。 动态LUN的融合和偏移
如果你使用一个基于主机的分区工具来对齐数据,在你融合几个LUN的时候,这个对齐也会被保留。这是假设所有LUN的LUN stripe size是一致的。假如Navisphere Bind Offset被融合的源LUN所使用,那么目标LUN,在bound用来调整stripe对齐的时候,必须要使用Bind Offset。 [编辑]
11
4.卷管理器Volume Managers
对卷管理器的主要性能影响因素,是CLARiiON LUN使用了stripe的方式(我们所说的plaid或者stripe on stripe)。
我们要避免使用基于主机RAID而且使用校验(如Raid3,Raid5)的应用。这会消耗掉主机的资源来实现这一服务(校验保护),而这其实让存储系统来实现这个服务会更加好。
图三显示了在以下章节中讨论到的三种不同plaid技术
对于所有的情形,都会遵从以下规则: [编辑]
A. Plaid 应该做的
把主机管理器的stripe深度(stripe element)设成CLARiiON LUN的stripe size。你可以使用整数倍的,但最好还是把stripe element设定在512KB或者1MB。
简而言之,从基本的CLARiiON LUN上来考虑建立逐级管理器的stripe。 从分开的磁盘组来使用LUN;这个组应该有相同的参数(stripe size,disk count,RAID type,等等)。 [编辑]
B. Plaid 不应该做的
千万不要在同一个RAID group里把多个LUN stripe(译者注:stripe和
concatenate都是meteLUN的一种方式,下文中的英文部分的stripe都是特指
12
这个)在一起。这是因为会造成大量的磁盘寻道。如果你从一个磁盘组需要捆绑多个LUN,使用concatenate来实现-千万不要使用striping的方式。 不要使主机的stripe element比CLARiiON的RAID stripe size小。 不要对那些具有不同RAID type和stripe size的RAID Group,或者根本不同磁盘组的LUN,使用plaid的方式在一起。结果并不一定是灾难性的,但很可能会出现未知的因素。 [编辑]
C. Plaid 为高带宽的设置
plaid在以下几个原因使用在高带宽的应用里面: plaid可以增加存储系统的协作(并行访问)。 plaid允许多于一个的主机HBA卡和CLARiiON的存储运算器(SP)共同为一个volume所用。非常大的卷可以被分布到多于一个的CLARiiON系统之上。 增加协作
Plaid在应用是单线程(也就是说,读一个单一的大文件)的时候会比较有用。如果应用的I/O的大小正好跟卷管理器的条带大小一致,那么卷管理器可以访问那些可以包装成卷的并发的LUN。 从多个存储器分布式访问
跨越存储系统,正如在图三的配置B里面所演示那样,仅仅当文件系统的大小和带宽要求需要这样的一个设计的时候,才被建议使用。例如,一个30TB的地质信息系统数据库,要求的写的带宽超过了一个array所能达到的极限,将会是一个多系统plaid的候选者。必须注意的是,一个软件的更新或者任何存储系统的出错—-例如因为一个存储系统上的一个组件的出错而导致的写缓存的停用—-将会影响到整个文件系统。 [编辑]
D. Plaids and OLTP
OLTP应用是难以去分析,也难以去忍受一些热点。Plaids是一种有效的策略来使I/O从多个轴来分布式访问。一个可以让很多个磁盘处于忙碌状态的应用,将会从多个硬盘数中得益。
注意一些卷的管理建议小的主机stripe(16KB到64KB)。这对使用一种stripe的Raid type的CLARiiON来说并不正确。对于OLTP,卷管理器的stripe element应该跟CLARiiON的stripe size(典型来说是128KB到512KB)。Plaid对于OLTP主要的开销,在于大部分的用户以跨plaid的方式结束。
13
跨plaid
磁盘—-连同磁盘组—-会变得更大;因此,用户也常常会因为好几个主机卷被同一个CLARiiON的Raid groups所创立(一个跨plaid—看图三中的配置C)而结束。
这个设计的基本原理是在于以下的情况:对于任何一个卷组的随机行为的爆发,将会分布到多个磁盘上去。这个的不足之处在于测定卷之间的相互作用,是相当困难的。
但是,一个跨plaid也有可能是有效率的,当以下情况存在的时候: . I/O sizes比较小(8KB或更小)和随机的访问 . 卷是受制于一天中不同时间的爆发,而不是同一时刻。 [编辑]
5. 主机HBA的影响
用来实现主机附加的拓扑,取决于系统的目标。高可用性要求双HBA卡和到存储器的双路径。双路径对性能的影响,主要看管理者如何去从系统资源里得到负载均衡的能力。
在对存储系统调优的时候,必须牢记HBA卡和驱动的作用。EMC的E-Lab提供了设置磁盘和固件的建议,而我们必须要按这些建议来操作。 [编辑]
A. HBA卡的限制
HBA卡的固件,HBA卡使用的驱动的版本,和主机的操作系统,都可以影响到在存储阵列中的最大量的I/O size和并发访问的程度。 [编辑] B. Powerpath
如果操作系统可以使用,Powerpath这个软件应该总是要使用的—-不管是对于一个单一连接到一个交换机的系统(允许主机继续访问,当软件升级的时候)还是在一个完全冗余的系统。
除了基本的failover之外,Powerpath还允许主机通过多个存储处理器(SP)的端口来连接到一个LUN上面—--一种我们通常称之为多路径的技术。
Powerpath通过负载均衡算,来优化多路径访问LUN。Powerpath提供了几种负
14
载均衡的算法,默认的那种----ClarOpt----是我们所推荐的。ClarOpt可以调整传输byte的数量,正如队列的深度一样。
连接到所有目前的CLARiiON的型号的主机,都可以从多路径中获益。直接连接的多路径需要至少两张HBA卡;实际的SAN多路径需要两张HBA卡,其中的每一个都会被分配到多于一个SP端口的区域。多路径的好处在于:
在同一个SP中,可以从一个端口failover到另一个端口,修复一个事件的系统工作。 ? 在SP的端口和主机HBA卡中的负载均衡 ? 从主机到存储系统中获得更高的带宽(假设
主机里,路径能使用足够多的HBA卡)
?
当Powerpath提供了所有可行路径的负载均衡,这会带来一些附加的开销:
一些主机的CPU资源会被一般的操作所使用,正如会被failover的时候使用。
? 在一些情形下,活跃的路径会增加一些时间
来failover。(Powerpath在尝试几条路径之后,才会trespass一个LUN从一个SP到另一个SP)
?
因为这些事实,活跃的路径应该受到限制,通过zoning,到两个存储系统的端口对应一个HBA卡来影射到一个被主机绑定的存储系统。一个例外是,在从其它共享存储系统端口的主机所爆发的环境,是不可预知和严峻的。在这个情形下,四个存储系统的端口都有一个各自的HBA卡,这是可以实现的。 [编辑]
6. MetaLUNs
MetaLUN是一个所有CLARiiON系列存储系统都特有的功能。我们从好几个方面来讨论什么时候和怎么用metaLUN。 [编辑]
A. 对比metaLUN和卷管理器
在一个CLARiiON存储系统,metaLUN被当作一个在RAID引擎之上的层,在功能上来说相似于主机上的一个卷管理器。但是,在metaLUN和卷管理器之间还是有很多重要的明显的区别。
单一的SCSI目标 对比 很多的SCSI目标
15