二、 集群系统容量扩展方式
在40G平台上系统容量扩容的方式:
目前CRS-1系统为40G平台,其系统容量扩容采用扩展线卡机箱的方式进行,每台线卡机箱的端口容量(单向)为640G(每槽位单向40Gbps)。CRS-1系统最大可以支持72个线卡机箱,目前,CRS-1 (IOS-XR 3.6 及以后)最大支持到4+4 系统,即支持4个线卡机箱。在即将推出的IOS-XR 3.8以后,可以支持4+8 多机系统,即支持8个线卡机箱。
扩展到100G平台的方式:
目前的CRS-1 40G平台可以平滑扩展到100G平台。扩展时只需更换目前40G平台的交换卡即可,即把目前系统的(线卡机箱和交换机箱)40G交换卡更换成100G交换卡,CRS-1系统即完成40G平台到100G平台的升级。在配置新的100G线卡(前卡)时,需要相应配置新的100G MSC卡(后卡)。新的100G线卡(前、后卡)和原40G线卡(前、后卡)可以共存。思科公司在积极推动100G标准的最终形成,并着手研制相应的100G产品,但由于 100G标准尚未正式出台,所以,CRS-1 的100G产品的发布时间没有正式公布。
列明集群容量扩展时对软件版本的要求:
见在40G平台上系统容量扩容的方式和扩展到100G平台的方式详细内容。
11
三、 集群各类端口有效容量
CRS-1 线卡自身支持Netflow和BFD功能,不需要额外的业务板卡。CRS-1系统40G/10G POS/10GE/2.5G POS/GE 端口的有效容量见以下表格: 端口类型 OC768 POS OC192 POS 10GE OC48 POS GE 每线卡机箱 16 64 64 256 640 2+2 多机系统 32 128 128 512 1280 端口数量 2+4多机系统 4+2 多机系统 64 256 256 1024 2560 32 128 128 512 1280 4+4多机系统 64 256 256 1024 2560 注:1. GE、10GE端口数量为可保证限速转发的端口数量 2. 多机统一采用交换机箱 + 线卡机箱写法
CRS-1针对每种类型的端口均可支持每槽位40Gbps(单向)的配置,所以,CRS-1系统40G/10G POS/10GE/2.5G POS/GE 端口的有效容量为:单机640Gbps;2+2、4+2多机 1280Gbps;2+4、4+4多机 2560Gbps。
12
四、 集群系统连接方式
以VISIO图表示。
CRS集群系统线缆链接
CRS-1 MC多机箱系统有两个层面的通讯路径:以太控制网络通道(control Ethernet network path)和交换矩阵通道(fabric path)。所有的机箱都是通过这两条路径来通讯的,其中:
1. 控制层面:LCC0, LCC1,LCC2和LCC3 通过LCC RP上的GE接口连接到FCC上集
成的GE交换模块上,构成以太控制网络通道。连接时采用全冗余的方式。
SCGE0 指的是插在 FCC机箱上部槽位的卡 , SCGE1则是位于FCC机箱的下面部分槽位的卡。
2. 数据转发层面:通过光纤阵列线缆(optical array cables called fabric cables) 来连
接所有LCCs 和 FCCs上的矩阵卡来构成的数据转发通道。每个线卡机箱的8个转发平面都和矩阵机箱上的8个交换平面一一相对应连接。
S2 的矩阵连接器在OIM 卡上, OIM 和相应的FCC 上的S2 卡相连,每个OIM 卡有9个连接器,其标识为J0到J8。LCC 机箱上的S13卡的连接器必须和S2卡上的连接器的按同样的顺序连接。
S2卡应该均匀地分布在多个FCC中。FCC 电源分布系统将24个 S2卡的槽位分成几个供电区域。为了让多系统能够操作,至少有一个奇数,一个偶数平面被激活。为了达到最大的系统冗余能力,S2卡应该被平均分布在多个供电区域,以免一个供电区域的失效不至于让所有的奇数或者偶数交换片面不能使用。
在一个 fabric cable的 LCC 端, 其所属的交换平面由线缆所连接的槽位来确定 ,其另外一端必须连接到同一个平面的FCC S2 fabric card上。
以后的版本将会支持更多的LCC,对于每一个fabric plane来说,意味着需要增加额外的S2卡。建议保留相邻的空槽位,便于将来为在同一个fabric平面上增加新的S2卡用。
集群系统连线比较复杂,难以用VISIO图形表示,所以,提供Excel 表格详细描述CRS-1 集群系统的连线方式。详细参见附件“附件1-1.CRS-1集群系统连线”和“附件1-2.CRS MC connection”
附件1-1.CRS-1集群系统连线.xls
13
附件1-2.CRS MC connection.ppt
转发层面连接:线卡框交换卡->交换框光子卡,精确到每块卡。
针对CRS-1 2+2/2+4/4+2/4+4分别说明
由于转发层面光缆都为设备厂商自带,若有关于互联光缆的详细布放要求,要求设备厂家提供详细说明。
详细参见附件“附件1.CRS-1集群系统连线”。
控制层面连接:RP间连接,交换矩阵框间连接,有没有其他连接。还需说明每种连接的作用。
针对CRS-1 2+2/2+4/4+2/4+4分别说明 详细参见附件“附件1.CRS-1集群系统连线”。
14
五、 集群系统链路设计方案
每个线卡框都有一些上行链路和下行链路,上、下行链路尽量均分在各个线卡框,这样
一个框掉电也不会影响太大,避免同方向所有链路都在一个线卡框上。
保证集群各线卡框上行带宽基本一致?
在安排各个线卡机框的链路带宽时,建议上行链路带宽均匀分布在不同线卡机框上;建
议各个线卡机框承载的总带宽基本均衡。相似功能的板卡尽量分布在不同线卡框。比如出口40G连路需要分布LCC0和LLC1上。在同一线卡框内,板卡尽量分布在不同的供电区域内,特别是功能相似的板卡。
40G和10G混排,N*40G和N*4*10G作为等价路径。同城内彩光的应用。 可以补充其他链路编排的建议。
40G和10G链路混排,由于IGP(ISIS、OSPF)无法支持不同链路带宽的负载均衡,
所以,建议在安排40G和10G链路时可以考虑同方向路由器中同一节点使用同一类型的链路,如都是10G或40G链路。如下图,PoP1中的路由器R11、R12分别和PoP2中的路由器R21、R22通过N x 40G 和 N x 10G 链路连接,那么R11到R21、R12到R22间的流量就可以平均分布在N条40G链路和N条10G链路上。
PoP2R21R22N x 40GN x 10GR11PoP1R12
在40G、10G链路混排时(同一方向),可以考虑使用MPLS TE tunnel实现不同链
路带宽的负载均衡,如在10G与40G链路之间实现1:4比例的流量负载分担。
如下图所示,如果在路由器R11和R21之间采用1条40G和3条10G链路连接,
15