InfiniBand旭日初升
本文作者:admin
点击:
2006-11-08 00:00
前言:
计算机互连技术的推陈出新在业界并不常见,这一点从以太网络技术的发展便可窥知一二。以太网络已主宰市场超过20年的时间—以太网络的第一个标准规格于1983年时通过审核,快速以太网络(Fast Ethernet)在1995年问市,千兆以太网络(Gigabit Ethernet, Gig-E)在1999年推出,而10 Gigabit以太网络(10Gbe)则是2002年发布的最新标准规格。以太网络的竞争对手──Token Ring,有段时间发展得有声有色,但近年来却逐渐走下坡。虽然市场上仍有如FDDI等竞争技术,但市场份额接近100%的以太网络,发展脚步却从未停止。2000年,一项名为InfiniBand的高速互连标准正式发表,并且在初期就已锁定10 Gigabit(10Gb)市场。到现在,许多厂商已推出支持60Gb的产品,甚至120Gb的InfiniBand产品也即将问市。由此看来,以太网络产品供货商是否该担心未来的发展呢?
理想的投资
许多对InfiniBand技术抱持反对意见的人认为,既然现有的千兆以太网络或光纤信道(Fibre Channel, FC)就已经可以满足所有应用对效能的需求,那么为何需要移转至InfiniBand?然而,这个问题忽略了一个重点,那就是并非每项技术采购计划的目的都是为了追求效能。举例来说,当2Gb光纤信道问市之际,原本的1Gb光纤信道基础架构的效能,也尚未被大多数厂商充份利用。虽然如此,我们在市面上却已经很难找到新推出的1Gb产品。同样的道理,在4Gb光纤信道产品问市、且价格与2Gb拉近后,2Gb光纤信道产品亦越发少见。可以预见的是,在未来6个月间,市场上将更难买到2Gb的光纤信道产品。由此可见,决定购买4Gb光纤信道产品的客户,考量的绝对不只是效能这一项单一因素。
“效能”固然是其中企业采购的要素之一,但更重要的理由却是“既有投资的保障”。如果2Gb光纤信道产品很快就会在市面上消失,那么厂商之前针对2Gb光纤信道基础建设的投资,就无法获得保障。10Gbe的以太网络产品,是以太网络技术发展后期推出的解决方案,但10Gbe的InfiniBand产品却是InfiniBand技术的新兴产品。Sun Microelectronic已宣布旗下的Utility Computing Grid产品,将运用InfiniBand技术,IBM的刀片系统也采用InfiniBand、HPC市场先锋,同时也是最重要的厂商SGI公司,已将InfiniBand技术整合至Altix服务器及TP9700存储设备。而这些只是众多实例中的一小部份。从上述例子中可以得知,采用InfiniBand技术对厂商而言,将能够确保先前的投资不会因为技术淘汰而浪费。
既然10Gbe这项技术不会很快被淘汰,那么何不直接购买10Gbe的产品就好?最主要的原因是10Gbe成本相当昂贵,其交换器、路由器等基础建设的成本非常高。即使是现今功能最强大的服务器,若没有安装TCP/IP处理引擎(TOE)适配卡,也很难趋动10 Gbe。也就是说,对10Gbe技术而言,TOE适配卡不但所费不赀,而且还是必备的设备。因此,所谓的“升级”至10 Gbe,其实是整个基础建设彻底更新,而非仅是单纯的升级。
反观InfiniBand的成本就低廉许多,其主机信道配接器(Host Channels Adapters, HCA)与交换器的成本均较10 Gbe TOE适配卡及10 Gbe交换器的成本来得低。许多服务器已内建原生型的InfiniBand支持功能,因此不需HCA。而许多刀片服务器也已推出InfiniBand的刀片机箱。若用户考虑将基础建设更换成InfiniBand或10Gbe,InfiniBand将会是成本较为低廉的解决方案选择。
InfiniBand推出的时间比10 Gbe还要早两年,目前市面上已安装有数百万个运用InfiniBand技术的产品,操作系统已支持原生型InfiniBand技术,许多一线大厂亦着手开发支持InfiniBand的技术。
除了投资保障与极富吸引力的价位外,InfiniBand的低复杂度特性,更提供另一方面的成本节省效益。典型的运作服务器通常有3个、甚至3个以上的网络连接端口。每部服务器都有一个网络联机(以太网络)来建构局域网络,使其它计算机能与其进行通信,而这是必备的配备。有些服务器甚至会设计一个专属的网络联机(以太网络)来支持备份数据传输。第三种常见的网络联机就是连接至存储局域网络(Storage Area Network, SAN)的光纤信道,用来存取高速、智能型的磁盘存储设备。由于服务器必须支持相当多的连接,因此集群服务器通常还有另一个专属的网络联机,来进行集群内部的通信。随着服务器走向轻薄短小的设计,这些网络连接端口必须占用更为宝贵的机体空间。
然而,在InfiniBand的协助下,只需要一个InfiniBand连接端口就能取代上述所有连接端口。对于已搭载原生型InfiniBand连接端口的服务器而言,在不需增加成本的情况下就能连接至InfiniBand网络。同时,InfiniBand亦将网络基础建设的数量精简成一部服务器:以往必需使用3个以太网络交换连接端口以及一个光纤信道连接端口,现在只要一个InfiniBand连接端口就能取而代之,预期将大幅节省交换器、网络线、耗电及冷却方面的成本。
锁定市场
InfiniBand并非一项适用于任何市场的技术。对于许多数据中心而言,现有的基础建设已能充份满足效能需求,因此须进行升级。而对于考虑升级至10 Gbe的用户而言,就应该考虑InfiniBand。由于InfiniBand经常与高效能运算环境相提并论,因而常被忽略。但InfiniBand的优点不仅只于此,在下面的情况中,InfiniBand都能够发挥极大的效益:
灾难复原
任何强固的灾难复原计划都是以快速、可靠的备份为基础。大多数备份仍是从应用服务器开始,透过局域网络或是专属的局域网络,将数据传送至备份服务器。备份服务器通常有多个网络卡,能处理来自多部服务器的备份数据。
通过采用InfiniBand来取代主力运转局域网络与备援局域网络,能节省成本(省下主机与交换器网络的连接端口)、提升应用服务器的效能(使用速度更快、延迟更低的网络),以及缩短备份的时间。对于已在存储局域网络上建置磁盘对磁盘备份解决方案的用户而言,InfiniBand存储设备带来更高的效能,可进一步缩短完成备份所需的时间。
过去几年来,企业级资料复制解决方案在中端市场大放异彩。愈来愈多企业现今在各个存储设备之间复制数据,针对其灾难复原计划提供另一层保护机制。相较于现今的光纤信道SAN,内含原生型InfiniBand支持能力的存储设备能更有效率地在设备之间复制数据。
集群
建置集群式服务器解决方案有两项理由。第一,最常见的因素就是防止单一服务器故障造成运作停摆。当某部服务器故障时,集群中其余的服务器就能立即承接其原先的作业。第二项因素则是提高在集群系统中各项应用的效能。现今的集群通常利用一条专属网络来传送数据、连接集群中的各个节点。这类通信虽对带宽没有很高的需求,但要求低延迟的效率。而InfiniBand的延迟远低于以太网络,正是这类网络的最佳选择。小型集群(两个节点)可能还不需要InfiniBand,但随着日益大型化的Oracle RAC逐渐普及,对于InfiniBand等级的延迟效率需求就会越发显著。
另一项市场趋势就是共享档案系统的概念。NFS已主宰市场一段时日;现今也有愈来愈多客户采用SAN共享式档案系统。虽然从技术层面来说,共享档案系统并不属于集群,但它的确能让服务器分享资源,并和集群系统一样依赖TCP/IP网络(通常是以太网络)来管理资源的分享。运用低延迟的InfiniBand解决方案来取代这种网络,将大幅改进共享档案系统的效能,并让这些解决方案的效能更接近非分享式的档案系统。
网格运算
随着愈来愈多企业体认到网格解决方案的利益,网格运算成为一项热门的新兴技术。网格运算不是一项实体的产品,而是一种分享运算资源的观念。就广义的定义而言,在网格环境中,所有运算资源(服务器与存储设备)都汇整在一个大型区间内进行分享。网格解决方案基本上是一个大型集群,内含共享的档案系统,适合支持高效能的运算环境,能协助企业提高运算资源的使用效率。这种低延迟以及最少的基础建设(布线、交换器等)的环境对于InfiniBand而言,是极为理想的解决方案。
别忽略InfiniBand是一种高效能运算解决方案的特性。InfiniBand的效能从起初开始发展的10 Gb/sec,到目前已有60 Gb/sec的解决方案问市,未来也有业者将会开发120 Gb/sec的解决方案,卓越的效能仅是InfiniBand的优点之一。InfiniBand亦提供相当诱人的节省成本优势,以及极具吸引力的投资报酬潜力。许多人相当满意以太网络解决方案的性能,并看好10 Gb/sec将成为下一波升级的目标。另外一些分析专家则认为10Gbe能满足所有人未来的需求。一般民众对于Gig-E也抱持相同的看法。现今,NFS与iSCSI解决方案正将Gig-E推向极限。不久后,一般使用者就会普遍使用10 Gbe产品。当有更强解决方案问市时,期待继续仰赖进步速度迟缓的以太网络,可能就不是所有人的最佳选择。InfiniBand针对集群、通信,以及存储等系统提供单一整合式互联路径。若您需要更高的效能,并希望降低网络的复杂度,或是正考虑转移至10 Gbe,InfiniBand将是一个能够满足,甚至超越预期效益的选择。