您的位置: 网界网 > 网络学院-数据中心 > 正文

VDI应用环境下HP Flex 10和VMware vSphere网络IO功能对比

2014年03月31日 11:55:29 | 作者:佚名 | 来源:TechTarget中国 | 查看本文手机版

摘要:【CNW.com.cn资讯】 我曾经是HP Virtual Connect Flex-10 10Gb以太网模块的狂热粉丝,但在了解VMware vSphere 5新的增强功能后,我不认为我应该继续在虚拟化环境推荐该模块。如果你必须进行物理服务器的部署的话,将2个板载网卡...

标签
vSphere
Flex-10VMware
5数据中心厂商dcvendor

【CNW.com.cn资讯】 我曾经是HP Virtual Connect Flex-10 10Gb以太网模块的狂热粉丝,但在了解VMware vSphere 5新的增强功能后,我不认为我应该继续在虚拟化环境推荐该模块。如果你必须进行物理服务器的部署的话,将2个板载网卡划分成8个网卡到目前仍是项非常强大的功能。我当然知道有HP也有Virtual Connect FlexFabric 10 Gb/24端口模块,但我的工作环境是iSCSI和NFS的地盘,所以它就不在我的讨论范围。

从vSphere 5.0开始,VMware改进其VMware虚拟分布式交换机(VDS)的功能和整体联网能力,所以现在是收回一些硬件方面投资的时机了。我遇到的拥有装满刀片服务器的机架的大多数人很可能都已经拥有了VMware Enterprise Plus许可证,所以他们已经有权启用 VDS 功能,但是你可能还不知道获得VMware View Premier许可的客户同样也有权使用VDS。在VMware VDS 5中的一些最新功能包括:

  • 支持NetFlow v5
  • 端口镜像
  • 支持LLDP (不限于思科!)
  • QoS
  • 改进的VM流量优先级处理
  • NFS网络I/O控制(NIOC)

最后一个功能就是让我觉得不再需要用到HP Flex-10的原因。网络I/O控制(NIOC)允许你对共享网络接口的流量设置优先级,以动态的方式管制拥塞。我特别喜欢NIOC,因为Flex 10的硬性分配和限制会造成带宽浪费。在VDI的世界中,工作负载变得更加具有突发性。我们可以在使用vMotion时看到这种影响。当我在一个虚拟化环境中执行维护工作时,使用带宽超过2 GBit/s 的连接来迁移用户桌面就很不错了——然而,当你不得不迁移每个刀片服务器上超过50个桌面时,你就只能坐在那里干等一阵子了。当然,这是您的设计,你愿意等是因为你不会希望在白天会因为缺乏带宽而拖累服务性能。

一个典型的Flex 10配置可能会对板载NIC进行如下划分:

 

而使用Vmware NIOC进行类似的设置(+微信关注网络世界),结果大概就是下面这样:

 

上面的共享份额加起来应该是:5 50 40 20 = 115

在此示例中,FT, iSCSI和复制不需要纳入统计,因为这里不会用到它们。以上带宽分配比例只有在产生争用时才会被实施。这些共享带宽分配也只在对应的通信流量实际存在的时候才会应用。多个vMotion进程开始动作时,带宽很容易被占满,我认为这就是限制vMotion流量的最佳途径。我觉得 8000Mbps会是一个很合理的限制(已经超过Flex 10配额4倍了)。

管理:5个共享; (5/115) X 10 Gb = 434.78 Mbps

NFS:50个共享; (50/115) X 10 Gb = 4347 Mbps

虚拟机:40个共享; (40/115) X 10 Gb = 3478 Mbps

vMotion:20个共享; (20/115) X 10 Gb = 1739 Mbps

有效带宽的提升,再加上节省的成本,我认为NIOC配合10GB方案值得推广。下面是2011年11月28日的一些列表价格:你会选择哪一个?

Flex-10

 

HP_6120G XG

 

Dwayne是BladesMadeSimple.com的最新贡献者,也是IT Blood Pressure (http://itbloodpressure.com/)的专题作家,他提供虚拟桌面技巧,并给出医疗保健行业的IT最佳实践建议。Dwayne的正式工作是:加拿大西部的医疗保健和能源部IT基础设施专家。

【CNW.com.cn资讯】
【CNW.com.cn资讯】

[责任编辑:孙可 sun_ke@cnw.com.cn]