SVC实施(3)

2019-03-28 13:08

thin-provisioned卷。

1.3. SVC Cluster

集群是一组共同提供资源给用户的服务器集合,客户不会感知集群的底层物理硬件。如果集群中的一个节点失效或者太忙而不能响应请求时,请求会透明的传送给其他可用节点。

SVC集群是一组可以高达8个节点的集合,管理员可以单点控制这些节点来进行配置和服务管理。

所有活动节点知道它们是集群的成员,这是很重要的一点。特别是在split-brain场景中,当个别节点失去与其他节点的联系时,有一个可靠的机制来决定哪些节点组成活动的集群。最差的场景就是一个集群分裂为2个单独的集群。

在SVC集群内,voting set和quorum disk负责保持集群的完整性。如果有节点加入集群,它们加入到voting set;如果有节点移除,从voting set中移除。SVC集群实施一个动态quorum,在丢失一些节点后,如果集群能继续运行,集群将调整quorum需求,使得以后可以容忍节点失效。

在一个集群中的lowest Node Unique ID成为boss节点,由它决定是否节点能组成集群操作。这个节点最多2个集群IP地址来进行集群的管理。

1.3.1. Quorum disk

集群使用quorum disk有2个目的:

? 当集群遇到SAN错误,还有一半节点可用时,用作tie breaker ? 保存集群配置数据的copy

Quorum disk需要256M以上保留空间。在一个集群中只有一个活动quorum disk,然而有3个MDisk作为quorum disk的候选者。集群从quorum disk候选者池中自动选择活动quorum disk。

当MDisk加入到SVC集群中,SVC检查MDisk是否能用作quorum disk,如果满足要求,SVC将加入集群的前3个MDisk用作quorum disk候选者,其中一个作为活动的quorum disk。 备注:成为quorum disk的LUN必须满足以下条件: ? 存储子系统提供的LUN必须支持quorum disk ? 使用svctask chcontroller -allow_quorum yes命令来手工允许成为quorum disk

11

? 必须是managed模式 ? 必须有足够的空余extent来存放集群信息 ? 集群内节点必须都能看见

如果可能的话,SVC将把quorum disk候选者放在不同的存储子系统上。在quorum disk初始分配完成后通过svcinfo lsquorum命令查看。

当quorum disk选定以后就固定了,其他MDisk要成为quorum disk需要满足以下条件之一:

? 当管理员使用命令svctask setquorum来指定一个MDisk成为quorum disk ? 当quorum disk从存储池删除 ? 当quorum disk变更为image mode 备注:没有quorum disk的SVC集群严重影响操作,缺少可用的quorum disk来存储元数据会导致无法迁移。另外没有可用的quorum disk导致镜像卷离线,因为镜像卷的同步状态记录在quorum disk上。

在集群的正常运行期间,节点能够互相通信。如果一个节点空闲,那就会发送一个心跳信号来确保与集群的连通性。如果一个节点失效,那么这个节点上的负载全部被其他节点托管,直到这个节点重启来重新加入集群。

当节点分布在不同sites,集群节点配置如下:

? Site1 包含一半SVC集群节点和一个quorum disk候选者 ? Site2 包含一半SVC集群节点和一个quorum disk候选者 ? Site3 包含一个激活的quorum disk

尽量将Quorum disk分布在不同的存储子系统中。即使只有一个存储子系统,也尽量将Quorum disk分布于不同的存储池,利用不同存储池来自不同阵列的分配方式,使Quorum disk位于不同的阵列,防止因为阵列失效导致所有3个Quorum disk都失效。

Quorum disk查看:svcinfo lsquorum

Quorum disk移动:svctask chquorum

12

如图所示quorum index2对应的quorum disk从ITSO-4700的MDisk2移动到了ITSO-XIV的MDisk9。

1.3.2. Cache

存储缓存的主要目的就是提高I/O响应时间。2145-CF8节点配合SVC6.1提供每个节点24GB内存,每个I/O组48GB。节点内存能用于读或写缓存,写缓存的大小限制为12GB,根据节点的I/O情况,24GB内存能够全部用于读缓存。

缓存分配是以4KB segment为单位。

当服务器进行写数据时,优先节点先保存数据在自己的缓存中,然后copy到备用节点,copy完成之后才通知服务器写操作完成。

如果卷在最近2分钟内没有接受到写更新,则自动将所有修改的数据destaged to disk。

如果I/O组的一个节点失效,备用节点将清空它的写缓存,运行在操作模式,也就是write-through模式。运行在write-through模式的节点直接写数据到磁盘,然后发送一个I/O完成状态信息到服务器。运行在这个模式下I/O组的性能降低。

写缓存是以存储池进行划分的,这个特性限制了集群内一个存储池能够分配的最大写缓存量。下表显示了集群中单个存储池使用的写缓存上限:

当外部电源中断时,物理内存被copy到节点内置盘上的文件中,这样在电源恢复供应时能恢复数据。不间断电源确保足够的电力来完成这样的dump操作,在dump内存数据到盘上后,SVC节点关闭。

13

2. SVC计划和配置

2.1. 逻辑设计 2.1.1. SAN Zoning

SAN fabric可以配置2个或至多8个SVC节点,组成SVC集群。SVC节点,存储子系统,服务器连接到SAN fabric,在SAN fabric中进行zone划分,使得SVC能看见各自节点和存储子系统,服务器能看见SVC。服务器是不能直接看见或操作存储子系统的LUNs。在一个集群内的SVC节点必须能够互相通信,且能够看见集群内所有存储。

SVC6.1支持2Gbps,4Gbps,8Gbps的FC fabric。在一个存在多种速度交换机的fabric中,最好是将SVC和存储子系统连接到最高速度的交换机。

SVC集群中的所有SVC节点连接到同一个SAN,由SVC将卷呈现给主机,这些卷从存储池创建,存储池是由存储子系统提供的MDisk组成。在SAN网络中必须有3个zone: ? SVC集群zone

? 主机zone:host访问SVC集群中的存储 ? 存储zone:SVC访问存储子系统

zone配置遵循以下指南:

14

? LUNs(MDisk)必须是单个集群独占访问,不能与其他SVC集群共享 ? 在一个集群内的所有节点port必须以相同的速度运行

? ISLs不能用于SVC集群内节点之间通信或者节点对存储控制器的访问

? 相似主机的HBA卡或者同一主机的相似HBA卡应该划分在各自的zone中。例如,如

果有AIX和microsoft主机,那需要划分在各自zone。这是一个SAN操作性问题,不是专门针对SVC的。

? Host zone只能包含一个initiator(host端的HBA卡),SVC节点口则根据需要进行配置。

可以使用svcinfo lsfabric命令生成报告,显示节点和存储控制器,主机的连接。 Attention: ? 在集群内的节点间采用ISL通信对集群有负面影响,由于SVC集群需要依赖这些链路维护心跳和集群管理服务 ? 在SVC节点访问存储之间使用ISL会导致port congestion,影响SAN的性能和可靠性 ? 集群间通信使用不同的port speed导致port congestion,因此不支持混合的port speed 2.1.2. SVC集群配置

为了确保SVC的高可用性,在设计SVC的SAN网络时考虑以下事项:

? 集群中所有节点必须位于相同的LAN网段。如果计划用每个节点的第二个网口,则可

以配置与网口1不同的LAN网段。也就是所有节点的网口1在一个网段,网口2在另外网段

? 为了保证应用的连续性,SVC节点总是成对部署,如果一个节点失效,剩下节点运行在

降级模式,但是仍然是有效配置。剩下节点运行在write-through模式,意味着数据直接写到存储子系统(写缓存不可用)。

? 在SVC节点与交换机之间采用光纤连接,运行在2/4/8Gbps,根据SVC和交换机硬

件决定。SVC节点是auto-negotiate

? SVC节点port必须连接到FC fabric,SVC与host或存储子系统的直连是不支持

? 2个SVC集群不能访问存储子系统中相同的LUN

? SVC使用3个MDisk用作quorum disk,最好是每个quorum disk位于不同的存

储子系统。

分离集群配置

? 分离集群配置的I/O组的2个节点之间的最大距离为10KM

? 使用分离集群配置结合卷镜像可以实现高可用性。在镜像卷配置后使用svcinfo

15


SVC实施(3).doc 将本文的Word文档下载到电脑 下载失败或者文档不完整,请联系客服人员解决!

下一篇:曾国藩日记

相关阅读
本类排行
× 注册会员免费下载(下载后可以自由复制和排版)

马上注册会员

注:下载文档有可能“只有目录或者内容不全”等情况,请下载之前注意辨别,如果您已付费且无法下载或内容有问题,请联系我们协助你处理。
微信: QQ: