产品测试 思科的FabricPath技术

科技2020-03-04 17:55:34
导读 思科系统公司(Cisco SystemsInc )为网络架构师提供了三个词来发展他们的数据中心:更快。【拼盘】更简单。这家设备制造商说,它的Fabric Path技术体现了所有三种品质,它比可敬

思科系统公司(Cisco SystemsInc.)为网络架构师提供了三个词来发展他们的数据中心:更快。【拼盘】更简单。

这家设备制造商说,它的Fabric Path技术体现了所有三种品质,它比可敬的生成树协议(S TP)更好地利用了数据中心交换机之间的连接。

在这个独家测试中,我们评估了Fabric Path提高带宽、改变故障路由和简化网络管理的能力。在所有三个领域,Fabric Path交付:思科的标准前承担IE TF的即将到来的TRIL L(透明互连的大量链接)规范显示了真正的改进,而不是基于STP的设计。

有一个陷阱:思科Nexus7000数据中心交换机的最新1/10千兆以太网线卡是第一个,而且到目前为止只是使用Fabric Path的产品。随着Cisco扩展Fabric Path支持(它在最近宣布的Nexus5500中得到了支持)和更多的供应商发布TRILL实现,这可能会发生变化。

测试结果,加上未来几个月可能出现更多的TRILL解决方案,为数据中心网络设计提供了一个平坦的未来。

实质上,Fabric Path是链路层路由的一种形式..支持Fabric Path的交换机在两方面不同于传统的以太网对应机:它们使用通过IS-IS携带的控制消息计算层-2路径,路由协议,并且它们用Fabric Path报头封装传入的以太网帧。此报头包含可路由的源和目标交换机地址以及用于循环预防的实时字段。

Fabric Path涉及最小的额外配置,不需要了解IS-IS。在交换机配置中启用Fabric Path需要两行;唯一的其他强制性要求是区分Fabric端口和边缘端口(每个面向Fabric接口上的单个命令)。在测试中,我们还使用可选的命令来分配交换机ID和设置流量使用的散列算法;这些都需要一条线。

与STP相比,Fabric Path在带宽和设计通用性方面的最大优势。STP提供冗余并防止循环,但它使用活动/备用模型来这样做。因此,STP网络为任何流提供了两条潜在的路径,其中只有一条可以转发流量。生成树设计通过要求路由器在广播域之间移动流量来进一步限制带宽和增加复杂性。路由器反过来增加延迟,并需要额外的连接冗余。

相反,Fabric Path在所有参与的交换机上创建了一个单一的交换机结构,增加了单层-2域内的可用带宽。Fabric Path使用等成本多路径(ECMP)路由在所有可用链路上分配流量,使其成为一种主动/主动技术。

一个扩展的第二层域也需要更少的第三层路由跳,减少延迟,并使迁移服务变得更简单,如VMware的Vmotion。更大的层-2域简化了更改管理,因为移动附加主机不再需要IP地址和/或VLAN配置更改。

Fabric Path还减少了广播泛滥和媒体访问控制(MAC)地址表大小,这两个众所周知的问题与大型层-2网络。Fabric Path交换机使用组播而不是水浸来转发发送到未知目的地的帧,并计算路由表,其中包含从每个边缘交换机上学习的Fabric和源MAC地址中学到的信息。

此外,使用一种称为“会话学习”的方法,交换机只为实际参与对话的端口填充MAC地址表。这不同于传统的交换机,交换机在一个广播域中看到所有被淹没的流量,并将每个地址放入MAC表中。相反,Fabric Path交换机不需要庞大的MAC地址表,即使第二层域包含数万个主机。

思科声称Fabric Path扩展到256个活动路径,每个路径包括多达16个链接使用链接聚合(或Ether Channel,在思科的术语)。我们没有核实这一说法;这样做将需要近10,000个测试端口。然而,我们确实验证了两个用于进行此声明的构建块-一个交换机支持16个并发活动路径的能力,以及支持每个路径多达16个链接的能力。

Fabric Path最大的缺点是可用性有限:在9月的测试时,它只使用CiscoNexus7000交换机,并且只有在配备F132端口1/10千兆以太网卡时才能工作。思科表示,最近宣布的Nexus5500将支持Fabric Path在2011年的一个软件版本。除此之外,还不可能将Fabric Path扩展到其他思科交换机,更不用说来自其他供应商的交换机了。

此外,虽然Fabric Path在这第一次看来做得非常好,但它并不是唯一的衡量数据中心切换的指标。因为我们在这个测试中只关注Fabric Path功能,所以我们没有进入其他关键问题,如可伸缩性和延迟。我们已经注意到这些关注在过去的测试中切换,并计划在即将到来的Nexus评估中返回到这些区域,其中涉及到一个更大的测试床。我们还计划在其他TRILL实现可用时测试它们。

另一个问题是定价,尽管这不一定是负面的。起初脸红的时候,这张150万美元的试床的标价是一个下巴下降。但这涵盖了一个非常大的设置(6个Nexus7010底盘和384个10G以太网端口与光学),以展示可伸缩性。现有的Nexus7000客户可以增加F1Fabric Path功能的线路卡,每张35,000美元(当然,很少有买家支付清单价格)。

令人印象深刻的性能我们的测试以五种方式检查Fabric Path功能。所有这些涉及6个Nexus7010底盘连接,以创建一个Fabric Path网络连接12,800个模拟主机。螺旋通信测试中心流量发生器/分析器每个端口模拟100个主机,在六个交换机中的两个交换机上为128个10G以太网端口提供流量。

在第一次测试中,我们试图验证Fabric Path将支持交换机之间的16条冗余路径。在用16个Ether Channel接口配置了两个边缘交换机之后,每个接口都有四个链接,我们使用SpirentTestCenter在所有仿机之间发送通信量5分钟。

在此测试中,交换机以零帧损耗转发了所有流量,验证了Fabric Path在16个冗余连接上加载共享的能力。

虽然Ether Channel组的数量很重要,但每个组中的链接数量也很重要。涉及主机间大规模数据传输的应用程序需要大管道,所以这是这里的重点。我们使用了与第一次测试相同的物理拓扑,但这次将每个边缘交换机配置为四个Ether Channel,每个以太网链路包括16个10G以太网链路。同样,系统交付了所有帧而没有丢失。

在同一测试中,我们还检查了Fabric Path如何公平地处理主机MAC地址。在以前的测试中,我们已经看到了一些问题,其中交换机的散列算法导致了测试流量在多个链路上的非常不均匀的分布。由于Fabric Path使用ECMP,我们看到了0.07%或更少的变化跨越以太通道。然后,我们使用一组完全不同的伪随机MAC地址重复了测试,并得到了几乎相同的结果。这验证了ECMP中的“相等”;交换机应该能够散列任何模式的MAC地址,并在所有核心链路上统一分配它们。

没有组播性能惩罚Cisco还声称Fabric Path负载共享多播源接收树跨越多个脊柱交换机,与单一树形成的STP网络。我们用一个非常大的组播设置来进行测试。螺旋TestCenter代表两个边缘交换机上每个端口上的100个多播源(共128个端口);每个边缘交换机上的每个端口也加入了来自另一个边缘交换机上所有端口的50个组。这是相当于640,000多播路由的第二层(128个边缘端口乘以50组乘以100个源)。

为了确定Fabric Path是否会加载共享组播通信量,我们在每次测试后检查了每个Ether Channel接口的分组计数。与单播流量相比,有更多的变化,但只是略有变化;最多,分组计数在不同的以太通道之间相差约2.5%。

然后,我们用单播和组播通信量的组合重复了相同的测试;同样,Fabric Path或多或少地在交换机之间的链路上均匀分布了所有帧。事实上,在混合类测试中,单播和多播分组计数的方差是完全相同的,就好像我们只提供单播或只提供多播。这表明,将多播添加到携带单播(或反之亦然)的Fabric Path网络不会对负载分担产生不利影响。

快速织物故障转移对于一般的网络,特别是数据中心,弹性是一个甚至比高性能更重要的考虑因素。对于Fabric Path和STP,关键问题是网络在失败的链路或交换机周围重新路由流量的速度。在快速生成树失败后,网络收敛大约需要1到3秒,标准生成树则需要45到60秒。那么,自然的后续问题是Fabric Path在失败后收敛得多快。

为了找出这一点,我们提供了与上面描述的四路16链路测试相同的流量,但对其中一个脊柱开关造成了断电,并从帧丢失中导出了故障转移时间。我们重复了四次测试,一次关闭脊柱开关。

结果表明,Fabric Path收敛速度远快于生成树。平均而言,系统在162毫秒内将流量重新路由到一个失败的脊柱开关,这比快速生成树的1到3秒收敛时间有了很大的改进。

我们还测试了在Fabric Path网络中添加一个开关时的收敛时间,方法是每次一个向下的脊柱开关。在此测试中,收敛时间为零。IS-IS协议识别了每条新路径,并开始对其进行路由,但在每条路由重新计算期间或之后,系统没有删除任何帧。

数据中心网络管理器我们的最后一组测试检查了Cisco的数据中心网络管理器(D CNM)软件配置和监视Fabric Path网络的能力。DCNM使用简单对象访问协议(SOAP),这是一种基于XML的表示数据的方法,允许任何第三方Web服务应用程序调用它。思科通过对XML输入和输出到DCNM服务器的功能测试来证明这一点。

在我们的测试中,我们集中在DCNM执行常见Fabric Path管理任务的能力上。所有测试的任务都包含在DCNM的基本版本中,免费提供给管理Nexus交换机。一些额外的功能,如配置历史管理,是以额外的成本可用的,但我们没有测试这些。此外,DCNM主要用于Nexus交换机管理;虽然它可以使用Cisco Discovery Proto col(CDP)发现非Nexus交换机,但它管理的信息仅限于CDP提供的信息。有了Nexus设备,管理工具包就更加广泛了。

在我们的第一次测试中,我们配置了DCNM来发现六个Nexus交换机并填充其数据库。第二,当Fabric Path链接上的流量超过80%的利用率时,我们配置了DCNM来发送文本和电子邮件。第三,我们配置了DCNM来显示链路故障的警报(通过物理上移除边缘和脊柱开关之间的电缆来触发)。最后,我们将DCNM配置为将加权随机早期检测排队应用于所有交换机配置,然后删除所有交换机配置的WRED部分。DCNM成功地完成了所有这些任务.

虽然我们希望看到Fabric Path在不止一个交换机上实现,但毫无疑问,它代表了网络技术的一个重大进步。正如这些测试表明,Fabric Path简化了网络设计,同时提高了可伸缩性和弹性。对于希望扩展其数据中心的网络架构师来说,用Fabric Path扁平化网络现在是一个真正的选择。

免责声明:本文由用户上传,如有侵权请联系删除!