飘云阁

 找回密码
 加入我们

QQ登录

只需一步,快速开始

查看: 4155|回复: 10

网络学堂之服务器篇

[复制链接]

该用户从未签到

发表于 2005-4-17 17:02:08 | 显示全部楼层 |阅读模式
认识服务器                                                           作者:王达 出处: 天极

在教程的前几篇中我们已对各主要网络设备,如网卡、集线器、交换机、路由器和防火墙都一一进行了详细的介绍。在网络中,还有一个最最重要的设备,那就是服务器。它在整个网络的重要性相信不用我来介绍,大家都早已有了深刻地了解。本篇笔者就要向大家介绍服务器的一些基础知识,使大家从对服务器有一个初步的感性认识。

  一、服务器的主要性能特点

  服务器英文名称为“Server”,指的是在网络环境中为客户机(Client)提供各种服务的、特殊的专用计算机。在网络中,服务器承担着数据的存储、转发、发布等关键任务,是各类基于客户机/服务器(C/S)模式网络中不可或缺的重要组成部分。其实对于服务器硬件并没有一定硬性的规定,特别是在中、小型企业,它们的服务器可能就是一台性能较好的PC机,不同的只是其中安装了专门的服务器操作系统,所以使得这样一台PC机就担当了服务器的角色,俗称PC服务器,由它来完成各种所需的服务器任务。当然由于PC机与专门的服务器在性能方面差距较远,所以可以想象由PC机担当的服务器无论是在网络连接性能,还是在稳定性等其它各方面都不能承担高负荷任务,只能适用于小型,且任务简单的网络。本文及后面各篇所介绍的不是这种PC服务器,而是各种专门的服务器。

  不过,话又说回来,服务器说到底其实也是一种计算机,它也是由PC机发展过来的。在早期网络不是很普及的时候,并没有服务器这个名称,当时在整个计算机领域只有大型计算机和微型计算机两大类。只不过随着网络,特别是局域网的发展和普及,“服务器”这个中间层次的计算机开始得到业界的接受,并随着网络的普及和发展不断得到发展。尽管如此,服务器与我们普通所见的计算机又不完全一样,要不然,在我国这么多服务器厂商中竟然还没有几家能真正生产中、高档服务器,就连全球也只有像IBM、HP、SUN等那么少数几家有这个实力,DELL也只能生产一些中低档服务器,那都是因为服务器的特殊性要求所致,这就是服务器的四大主要特性(通常称之为“四性”)。虽然服务器也与PC机一样是诸如主板、CPU、内存、硬盘等组成,但这些硬件均不是普通PC机所用的,都是专门开发,用于服务器环境的,尽管外观上基本类似。也正因如此,服务器的价格通常非常高,中档的服务器都在几万元左右,高档的达几十、上百万。当然,目前我们也见到了许多标价仅几千元的名牌服务器,如DELL和HP都有这样的服务器。但这些服务器都属于入门级的服务器档次,在性能方面仅相当于一台高性能PC机,可以称之为“PC服务器”,这是为了满足一些小型企业对专用服务器的需求而开发的。正因如此,这些服务器也只具有很少部分服务器性能。

  随着PC计算机技术的不断发展,服务器和PC技术之间出现了一些反常现象,原来一直以来都是PC技术落后服务器技术,PC机的许多技术都是从服务器中移植过来,但现在发生了一些改变。因为PC机中许多性能都得到了极大的提高,如CPU高主频、800MHz总线频率、SATA串行磁盘接口、PCI-Express接口和超线程技术等,这些新技术对于服务器来说同样是从未有过的,而且其相应性能要好于服务器原有对应性能,所以这些技术也很快在当前最新的服务器中得到广泛应用。当然,服务器仍还有许多其先进的特殊性能。

  作为一台服务器首先要求的是它必须可靠,即“可用性”。因为服务器所面对的是整个网络的用户,而不是本机登录用户,只要网络中有用户,服务器就不能断。在一些特殊应用领域,即使没用户使用有些服务器也得不间断地工作,因为它必须持续地为用户提供连接服务,而不管是在上班,还是下班,也不管是工作日,还是休息、节假日,这就是为什么服务器首先必须要求具备极高的稳定性能的根本原因。一般来说专门的服务器都需要7X24小时不间断工作,特别是像一些大型的网络服务器,如大公司所用服务器、网站服务器以及提供公众服务器的Web服务器等。这些服务器也许真正工作开机的次数只有一次,那就是它刚买回来全面安装配置好后投入正式使用的那一次,一直到它彻底报废。如果动不动出毛病,这样的网络能保持长久正常运作吗?这可算是服务器的最关键性能,也是作为能担当服务器角色的前提,哪怕是一台PC机。

还有,服务器要为这么多用户提供服务,没有高的连接和运算性能是无法承受的,这就是指的服务器“可利用性”。我们平时一人用一台机都老是觉得慢,如果服务器也像我们平常所用的PC一样,那这么多用户请求又如何能及时得到计算机的响应和完成呢?所以服务器在性能和速度方面也是与普通PC机有很大区别的。为了实现高速,一般服务器是通过采用对称多处理器安装、插入大量的高速内存等方面来保证,这样也就决定服务器在硬件配置方面也与普通的计算机有着本质的区别。它的主板上可以同时安装几个甚至几十、上百个(如SUN的FIRE 15K可以支持到106个CPU)服务器专用CPU。这些CPU与普通PC机中的CPU是完全一样。我们知道普通CPU最重要的参数是主频,主频越高,运算速度越快,但在服务器CPU中却远不是这样的,通常服务器CPU的主频比较低,如现在Intel的服务器CPU主频通常在P4 2.0GHz左右,远低于PC机CPU快3.6GHz的主频,其它品牌的服务器CPU主频则更低了,但这些服务器CPU都具有非常好的运算性能。一则CPU主频越高,工作时所散发的热量就越高,给服务器带来最大的不稳定因素;另一方面,服务器运算性能的提高,不仅通过主频的提高来达到的,而是通常在其它参数方面加强得到的,而且多数中、高档服务器还可通过对称多处理器系统来大幅提高服务器的整体运算性能,根本没必要在单个CPU中通过主频的提高来提高运算性能。在CPU配置方面还要注意的一点就是,服务器的CPU个数一定是双数,即所谓的“对称多处理器系统”。在内存方面的配置也一样,无论是在内存容量,还是性能、技术等方面都与普通PC机所用内存有根本的区别,具体将在本教程后续篇中详细介绍。

  另外,服务器还须具有一定的“可扩展性”,那是因为网络不可能长久不变,如果没有一定的可扩展性,当用户一增多,就不能胜任的话,一台几万,甚至几十万的服务器如果在短时间内就要遭到淘汰的话,这是许多企业都无法随的。为了保持高的可扩展性,通常需要在服务器上具备一定的可扩展空间和冗余件(如磁盘矩阵位、PCI和内存条插槽位等)。当然在硬件方面的配置远不止这些,具体我们将在后面的篇中具体介绍。

  在服务器的主要特点方面,还有一个重要方面,那就是服务器必须具备一定的自动报警,并配有相应的冗余、备份、在线诊断和恢复系统,以备出现故障时及时恢复服务器的运作,那“可管理性”。虽然我们说服务器需要不间断持续工作,但再好的产品都有可能出现故障的一天,拿人们常说的一句话来说就是:不是不知道它可能坏,而是不知道它何时坏。服务器虽然在稳定性方面有足够的保障,但一旦出现故障的话怎么办,如果像我们平时所用的计算机一样停下进行维修,对于一个大型的服务器来说是不可能的事,这样就很可能造成整个网络的瘫痪,所带的损失是无法用金钱来衡量的。服务器生产厂商为了解决这一难题提出了许多新的技术,如冗余技术、系统备份、在线诊断技术、故障预报警技术、内存查纠错技术、热插拨技术和远程诊断技术等,使绝大多数故障能够在不停机的情况得到及时修复。

  以上介绍的服务器“四性”,“可扩展性、可用性、可管理性和可利用性”,也即我们经常所见的服务器“SUMA”。具体这“四性”非常复杂,我们将在后面篇中具体介绍。

 
PYG19周年生日快乐!

该用户从未签到

 楼主| 发表于 2005-4-17 17:03:54 | 显示全部楼层
二、服务器的主要外观特点

  上面介绍了服务器在性能方面的主要特点,这些性能对于一个刚刚接触服务器的读者朋友来说也只能是囫囵吞枣,根本还摸不清是怎么回事。这并不奇怪,因为服务器这个计算机网络中技术最为复杂的网络产品,不可能通过上面几段简单的文字就能说得清楚,讲得明白。况且上面说的这些服务器主要特点,对于许多读者来说根本不容易接触到,服务器有没有一些比较容易理解的外在表现呢?有,而且还非常明显。下面从外观上介绍服务器的一些主要特点,以使各位对服务器有一个更加鲜明的感性认识,非常便于理解。以下就是服务器几个外观特点:

1、机箱大

  从外观结构上看,服务器的机箱一般比较大,有的虽然外观上看似与普通PC机差不多,实际上还是要大些,哪怕是入门级的PC服务器,如图1左图所示的是DELL PowerEdge 400SC入门级服务器(目前价格仅5808元)。对于一些中高档的专业服务器,机箱的差别就更大了,有的还是一个高高的柜子式的机柜,如图1右图所示的是IBM RS/6000系列的S80型号高档服务器。


图1

  当然,服务器的机箱大不是为了误导消费者,它有大的理由。一方面是由于服务器需要安装、连接的设备多,需占用较大空间,同时还要准备一些备用设备安置位,如磁带机、磁盘阵列、多PCI或PCI-X插卡等,也需要占用空间。服务器通常要与许多设备进行连接,如在服务器主板或专用板卡中要插上许多适配器卡,有的还要安装几个可热插拨的硬盘和电源(俗称“冗余电源”),一般还安装有供系统备份和恢复用的磁带机。另外,由于安装、连接的设备多,工作时发热量也非常大,必须有足够的空间来散热,以确保服务器能长时间稳定工作。以上这些都决定了服务器的机箱架构就必须要比普通PC机要大,即便是一些媒体所说的DIY PC服务器,为了保证服务器长期稳定工作,也必须加大机箱,在选购或配置PC服务器时一定要注意。

  当然以上所说的机箱大,只是针对综合型塔式服务器而言的。随着近几年服务器应用的细化,各大服务器厂商针对各种具体应用推出了专门的功能型服务器,如一些针对空间密集型环境应用推出的服务器产品向机架式服务器,刀片式服务器等在占用空间方面做了特别的优化,大大减小了机箱所占空间。如图2所示的就是一款刀片式机架功能服务器。


图2

  2、硬盘、内存容量大

  这一点也很容易理解,服务器要面对众多的用户,接受所有用户的请求,而且还必须安装、保存许多大容量的服务器专用系统、软件,以及其它一些数据库文件,这都要求服务器的硬盘容量要足够大。以前因为硬盘容量比较小(早期的才几百兆),所以通常采取磁盘矩阵,在服务器的磁盘架上并列安装许多磁盘,虽然这不仅是用于提高整个服务器磁盘容量,但这在当时提高磁盘容量也是主要目的之一。目前的硬盘容量有了非常大提高,最高的已有200GB以上,所以目前一般的中小企业网络服务器,在容量上只需一块硬盘就足够了,采用磁盘矩阵的主要目的是为了提高磁盘存取性能和安全恢复。当然对于大型的网络服务器,如一些门户网站服务器,其磁盘容量在目前来说仍不可能由一块硬盘来满足,因为这种服务器通常所需的磁盘容量都在TB级(1TB=1000GB)的,这时也可能采用多块磁盘,或者磁盘矩阵。而且还要注意的是,为了提高磁盘的存取速度,服务器硬盘通常采用SCSI接口,并且转速在10000ppm以上的快速硬盘。

  在内存容量方面主要是考虑到服务器的用户访问速度要求,我们知道内存在很大程度上决定了系统的运行速度,服务器网络越大、越复杂、数据流量越高,内存的需求就越多。现在一般中小企业服务器都在1GB以上,一些高档的服务器可以支持到上TB的内存容量。当然服务器在内存方面的要求远不止容量方面,在内存存取速度和纠错性能方面都有特殊要求,这些也将在后面具体介绍。
3、主板大

  一般来说服务器主板要比PC机主板大许多,这主要是因为在它之中要安装比PC机多许多的组件,如更多的PCI(5条以上)、PCI-X、内存插槽(4条以上),还可能有多个CPU插座。如图3所示的是华硕的一款i875P芯片组的双CPU插座服务器主板,如果是支持4路或者8路以上CPU的主板则更大了。有的为了节省主板的空间,把部分比较集中的功能件用另外一块单独的板卡提供,如有的服务器就把所有PCI或PCI-X插槽集中在一块板中旋转在机箱外面单独一个盒子中,然后通过一条数据电缆与主板进行连接。

  当然这也是针对常见的综合类服务器而言,对于像刀片功能服务器,其主板也可能是不大的,这一点要注意,它并不是绝对的。


图3

  4、有“无用”部件?

  在一些较高档的服务器中,我们可以看到一些奇怪的现象,那就是怎么在一台机中会有两个电源,还有两个风扇,还装有一些并没有真正连接的网卡,当然还有硬盘也好象没有用。其实这些都不是没有用,只是当前不用而已,它们都是用于当正在工作的相同部件出现故障时接替它们工作的,俗称“冗余件”。有了这些冗余件,即使这些部件出现了故障(有的甚至是当工作中的部件未出现正式故障前,由系统发现一些不正常后即替换),不致于造成服务器停止工作,使整个网络保持继续正常运行。这对确保服务器的高稳定性不简断工作非常重要。电源、风扇和网卡冗余可能大家都好理解,直接替换即可。而对于硬盘冗余,一般来说用于冗余的硬盘也要定期对正在工作的硬盘进行备份,只有这样才可以使冗余硬盘接替后立即可以当前最新的网络系统配置提供服务。

  5、支持热插拨

  “热插拨”虽然是一种技术,但是它仍然可以通过我们平常的操作从感观上对这项技术进行认识、识别,因为采用这项技术的设备通常比较贵,所以在PC中当然就不具备这项特性了。热插拔技术主要是方便了对服务器的维护(这也是服务器所必须的),如发现硬盘不够容量了,或者是发现某个硬盘损坏了,如果硬盘支持热插拨的话我们只需要把新的硬盘插上服务器预留的位置,或者把坏的硬盘从服务器直接拨下来进行维修,这一切操作都不需要关闭服务器系统,这样就保证了服务器的不间断运行。目前主要支持热插拨技术的有硬盘、电源、风扇、PCI适配卡(主要是指网卡)等。目前还有些较高档的服务器支持内存、CPU的热插拨,凡是支持热插拨技术的都可以在线(不关闭服务器电源)的情况下直接插上新的部件或者从服务器上拨下旧的部件,这样极大地方便了服务器的维护,确保服务器恒久运行。

  以上是从服务性能和外观两方面介绍了服务器的一些基本特点,使大家对服务器有了一相基本的了解,最重要的是外观感性认识。不过如果想要对服务器的复杂技术有进一步的了解的话,那还得继续关注本教程,后面的几篇中都将针对本篇中所介绍的服务器特点进行深入而又全面的介绍,使你真正掌握服务器,并可对服务器进行基本的网络管理。下一篇将介绍服务器的分类,这同样属于服务器的基础知识。
PYG19周年生日快乐!

该用户从未签到

 楼主| 发表于 2005-4-17 17:07:42 | 显示全部楼层
服务器的分类

在上一篇我们简单地介绍服务器的一些基础知识,本篇要向大家介绍的是服务器的各种不同分类。从这些不同的分类标准中,我们可以了解整个服务器市场的各种服务器概况,对正确选购服务器非常有用。

  服务器发展到了今天,服务器的种类也是多种多样的,适应于各种不同功能、不同应用环境下的特定服务器不断涌现。以下是几个主要的服务器分类标准。

  一、按应用层次划分

  按应用层次划分通常也称为“按服务器档次划分”或“按网络规模”分,是服务器最为普遍的一种划分方法,它主要根据服务器在网络中应用的层次(或服务器的档次来)来划分的。要注意的是这里所指的服务器档次并不是按服务器CPU主频高低来划分,而是依据整个服务器的综合性能,特别是所采用的一些服务器专用技术来衡量的。按这种划分方法,服务器可分为:入门级服务器、工作组级服务器、部门级服务器、企业级服务器。

  1、入门级服务器

  这类服务器是最基础的一类服务器,也是最低档的服务器。随着PC技术的日益提高,现在许多入门级服务器与PC机的配置差不多,所以目前也有部分人认为入门级服务器与“PC服务器”等同。。

  这类服务器所包含的服务器特性并不是很多,通常只具备以下几方面特性:

  ·有一些基本硬件的冗余,如硬盘、电源、风扇等,但不是必须的;
  ·通常采用SCSI接口硬盘,现在也有采用SATA串行接口的;
  ·部分部件支持热插拨,如硬盘和内存等,这些也不是必须的;
  ·通常只有一个CPU,但不是绝对,如SUN的入门级服务顺有的就可支持到2个处理器的;
  ·内存容量也不会很大,一般在1GB以内,但通常会采用带ECC纠错技术的服务器专用内存。

  这类服务器主要采用Windows或者NetWare网络操作系统,可以充分满足办公室型的中小型网络用户的文件共享、数据处理、Internet接入及简单数据库应用的需求。这种服务器与一般的PC机很相似,有很多小型公司干脆就用一台高性能的品牌PC机作为服务器,所以这种服务器无论在性能上,还是价格上都与一台高性能PC品牌机相差无几,如DELL最新的PowerEdge4000 SC的价格仅5808元,HP也有类似配置和价格的入门级服务器。

  入门级服务器所连的终端比较有限(通常为20台左右),况且在稳定性、可扩展性以及容错冗余性能较差,仅适用于没有大型数据库数据交换、日常工作网络流量不大,无需长期不间断开机的小型企业。不过要说明的一点就是目前有的比较大型的服务器开发、生产厂商在后面我们要讲的企业级服务器中也划分出几个档次,其中最低档的一个企业级服务器档次就是称之为“入门级企业级服务器”,这里所讲的入门级并不是与我们上面所讲的“入门级”具有相同的含义,不过这种划分的还是比较少。还有一点就是,这种服务器一般采用Intel的专用服务器CPU芯片,是基于Intel架构(俗称“IA结构”)的,当然这并不一种硬性标准规定,而是由于服务器的应用层次需要和价位的限制。图1左图所示的是一款老式的Sun Enterprise 2入门级服务器产品示意图。从外观上看它与一台普通对路式PC机没有什么区别;而图1右图所示的是HP Server TC2110,它的机箱是目前普遍采用的立式机箱。


图1
2、工作组服务器

  工作组服务器是一个比入门级高一个层次的服务器,但仍属于低档服务器之类。从这个名字也可以看出,它只能连接一个工作组(50台左右)那么多用户,网络规模较小,服务器的稳定性也不像下面我们要讲的企业级服务器那样高的应用环境,当然在其它性能方面的要求也相应要低一些。工作组服务器具有以下几方面的主要特点:

  ·通常仅支持单或双CPU结构的应用服务器(但也不是绝对的,特别是SUN的工作组服务器就有能支持多达4个处理器的工作组服务器,当然这类型的服务器价格方面也就有些不同了);
  ·可支持大容量的ECC内存和增强服务器管理功能的SM总线;
  ·功能较全面、可管理性强,且易于维护;
  ·采用Intel服务器CPU和Windows/NetWare网络操作系统,但也有一部分是采用UNIX系列操作系统的;
  ·可以满足中小型网络用户的数据处理、文件共享、Internet接入及简单数据库应用的需求。

  工作组服务器较入门级服务器来说性能有所提高,功能有所增强,有一定的可扩展性,但容错和冗余性能仍不完善、也不能满足大型数据库系统的应用,但价格也经前者贵许多,一般相当于2 ̄3台高性能的PC品牌机总价。如图2左图所示的为HP LC2000工作组服务器,该系列服务器针对小型企业的计算需求和预算而设计,性能和可扩展性使其可以随着应用的需要,如文件和打印,电子邮件,订单处理和电子贸易等的需要而扩展。图2左图所示的是联想最新的万全T200 2100工作组服务器,它采用双路Intel Xeon 533MHz处理器,并采用了PC机中最新的SATA 技术;右图为HP的ProLiant ML350G3工作组服务器,它可采用1 ̄2个Intel 2.0GHz-512KB的Xeon服务器专用CPU,并支持超线程技术。


图2
 3、部门级服务器

  这类服务器是属于中档服务器之列,一般都是支持双CPU以上的对称处理器结构,具备比较完全的硬件配置,如磁盘阵列、存储托架等。部门级服务器的最大特点就是,除了具有工作组服务器全部服务器特点外,还集成了大量的监测及管理电路,具有全面的服务器管理能力,可监测如温度、电压、风扇、机箱等状态参数,结合标准服务器管理软件,使管理人员及时了解服务器的工作状况。同时,大多数部门级服务器具有优良的系统扩展性,能够满足用户在业务量迅速增大时能够及时在线升级系统,充分保护了用户的投资。它是企业网络中分散的各基层数据采集单位与最高层的数据中心保持顺利连通的必要环节,一般为中型企业的首选,也可用于金融、邮电等行业。

  部门级服务器一般采用IBM、SUN和HP各自开发的CPU芯片,这类芯片一般是RISC结构,所采用的操作系统一般是UNIX系列操作系统,现在的LINUX也在部门级服务器中得到了广泛应用。以前能生产部门级服务器的厂商通常只有IBM、HP、SUN、COMPAQ(现在也已并入HP)这么几家,不过现在随着其它一些服务器厂商开发技术的提高,现在能开发、生产部门级服务器的厂商比以前多了许多。国内也有好几家具备这个实力,如联想、曙光、浪潮等。当然因为并没有一个行业标准来规定什么样的服务器配置才能算得上部门级服务器,所以现在也有许多实力并不雄厚的企业也声称其拥有部门级服务器,但其产品配置却基本上与入门级服务器没什么差别,用户要注意了。

  部门级服务器可连接100个左右的计算机用户、适用于对处理速度和系统可靠性高一些的中小型企业网络,其硬件配置相对较高,其可靠性比工作组级服务器要高一些,当然其价格也较高(通常为5台左右高性能PC机价格总和)。由于这类服务器需要安装比较多的部件,所以机箱通常较大,采用机柜式的,如图3左图所示的为IBM @server xSeries 230部门级服务器产品示意图。从这款服务器的外观来看就与普通PC机就有很大的区别了。图3右图所示的是DELL PowerEdge 4600部门级服务器,它最多可以安装 2 个 1.8GHz 至 3.0GHz 英特尔 至强 处理器,它的机箱虽然不是柜式的,但也比一般入门或工作组服务器的机箱要大。


图3
4、企业级服务器

  企业级服务器是属于高档服务器行列,正因如此,能生产这种服务器的企业也不是很多,但同样因没有行业标准硬件规定企业级服务器需达到什么水平,所以现在也看到了许多本不具备开发、生产企业级服务器水平的企业声称自己有了企业级服务器。企业级服务器最起码是采用4个以上CPU的对称处理器结构,有的高达几十个。另外一般还具有独立的双PCI通道和内存扩展板设计,具有高内存带宽、大容量热插拔硬盘和热插拔电源、超强的数据处理能力和群集性能等。这种企业级服务器的机箱就更大了,一般为机柜式的,有的还由几个机柜来组成,像大型机一样。

  企业级服务器产品除了具有部门级服务器全部服务器特性外,最大的特点就是它还具有高度的容错能力、优良的扩展性能、故障预报警功能、在线诊断和RAM、PCI、CPU等具有热插拨性能。有的企业级服务器还引入了大型计算机的许多优良特性,如IBM和SUN公司的企业级服务器。这类服务器所采用的芯片也都是几大服务器开发、生产厂商自己开发的独有CPU芯片,所采用的操作系统一般也是UNIX(Solaris)或LINUX。目前在全球范围内能生产高档企业级服务器的厂商也只有IBM、HP、SUN这么几家,绝大多数国内外厂家的企业级服务器都只能算是中、低档企业级服务器。企业级服务器适合运行在需要处理大量数据、高处理速度和对可靠性要求极高的金融、证券、交通、邮电、通信或大型企业。

  企业级服务器用于联网计算机在数百台以上、对处理速度和数据安全要求非常高的大型网络。企业级服务器的硬件配置最高,系统可靠性也最强。如图4左图所示的为IBM RS/6000 S80企业级服务器,它是第一个采用RS64 Ⅲ微处理器的RS 6000平台机型,它的多处理器系统可以支持到24个对称处理器,而且该芯片是基于IBM出色的铜技术,使处理器的速度更快,可靠性更高。而如图4右图所示的是SUN的一款Fire TM 15K的高档企业级服务器产品可支持到106个UltraSPARC III Cu 900-MHz 对称处理器,内存可达到1/2TB。


图4

  上面我们对服务器从宏观分类上进行了简单的分类介绍,需要注意的是,这四种类型服务器之间的界限并不是绝对的,并且会随着服务器技术的发展,各种层次的服务器技术也在不断地变化发展,也许目前在部门级才有的技术将来某一天在入门级服务器中也必须具有。而且这几类服务器在业界也没有一个硬性标准来严格划分它们,多数来说它们是针对各自不同生产厂家的整个服务器产品线来说的。由于服务器的型号非常多,硬件配置也有较大差别,因此,用户不必拘泥于某某级服务器,而是应当根据自己网络的规模和服务的需要,并适当考虑相对的冗余和系统的扩展能力,这一点相当重要。因为一个企业随着企业规模的扩大,对服务器的要求也会随着不断增长,如果服务器具有较强的扩展能力的话,那就不会出现较短时间内要重新购买服务器,我们只需购买一些扩展部件怒可完成对服务器性能的升级。如IBM的企业级x架构服务器中就具有一种“按需扩展”或者称之为“Pay as you grow(随着您的成长支付)”的理念,就能实现您这样的愿望。其实有类似理念的还有HP的“按使用支付”理念,当然这两种理念之间还是有较大区别的,IBM的“按需支付”就是您现在可以不购买将来才用得上的服务器组件,在将来您需要了再另外购买,这样就就减少了企业用于设备上的投资风险。而HP的“按使用支付”则是HP先把整套服务器设备卖给您,如果您认为有些组件目前用不上,而又有可能是您单位将来用得上的,则您单位在目前只需要支付您目前用得上的部分费用,至于暂时用不上的可以先不支付,等您认为用得上了,再为您安装上,您再付费,其实用途与上面IBM的“按需支付”一样,都是想减少客户的设备投资风险。
PYG19周年生日快乐!

该用户从未签到

 楼主| 发表于 2005-4-17 17:11:29 | 显示全部楼层
二、按处理器架构划分

  无论是PC领域,还是本文所要介绍的服务器领域,关于CPU类型的术语都非常之多,如IA-32、IA-64、x86-32、x86-64、RISC、CISC、EPIC、VLIW等,到底这些术语之间有什么联系和区别,许多朋友都分不清。其实以上这些术语总体是属于两种分类标准,其中之一就是处理器的架构,如IA-32、IA-64、x86-32、x86-64;另一个就是处理的指令执行方式,如RISC、CISC、VLIW、EPIC。本文仅对以上术语的分类方法进行简单介绍,具体的技术和产品将在后面篇详细介绍。本节先来介绍按处理器架构的划分方法。

  1、x86

  虽然上面说了按处理器架构分的话,目前就术语本身来说主要有四种说法,即IA-32、IA-64、x86-32、x86-64,但是其实它们分属于两类,IA-32、x86-32、x86-64都属于x86,即英特尔的32位x86架构,x86-64是AMD在其最新的Athlon 64处理器系列中采用的新架构,但这一处理器基础架构还是IA-32(因英特尔的x86架构并未申请专利保护,所以绝大多数处理器厂商为了保持与Intel的主流处理器兼容,都不得不采用这一x86架构),只是在此架构基础之上作了一些扩展,以支持64位程序的应用,进一步提高处理器的运算性能。x86-64相比Intel的64位服务器处理器产品Itanium和 Itanium 2系列处理器产品来说最大的优点就是可以全面兼容以前的32位x86架构的应用程序,保护以用户以前的投资;而Intel的Itanium和 Itanium 2系列处理器需要另外通过软件或硬件来实现对以前32位程序的兼容。

  正因如此,以后我们看到诸如IA-32、x86-32、x86-64要清楚,其实它们都是一类型的,都属于x86架构的。如Intel的32位服务器Xeon(至强)处理器系列、AMD的全系列,还有VIA的全系列处理器产品都属于x86架构的。

  2、 IA-64

  IA-64架构是英特尔为了全面提高以前IA-32位处理器的运算性能,是Intel和Hp共同开发了6年的64位CPU架构,是专为服务器市场开发的一种全新的处理器架构,它放弃了以前的x86架构,认为它严重阻碍了处理器的性能提高。它的最初应用是英特尔的Itanium(安腾)系列服务器处理器,现在最新的Itanium 2系列处理器也是采用这一架构的。由于它不能很好地解决与以前32位应用程序的兼容,所以应用受到较大的限制,尽管目前Intel采取了各种软、硬方法来弥补这一不足,但随着AMD Operon处理器的全面投入,Intel的IA-64架构的这两款处理器前景不容乐观。

  3、RISC架构

  除了以上所介绍的两类IA架构的服务器处理器外,还有一种主流的处理器架构,也可称之为“RISC”(其实它是一种按处理器指令执行方式划分的类型)。采用这一架构的仍是IBM、SUN和HP等。不过近几年由于这一处理器架构标准没有完全统一、处理器的发展和应用非常缓慢,使得原来本占有的绝大多数中高档服务器市场被IA架构瓜分了大部分江山,已是日趋衰落。目前连这几家服务器厂商也开始了自己放弃,转投IA旗下,推出越来越多的IA架构服务器,以保生存。

  目前采用这一架构的主要服务器处理器有IBM的Power4、Compaq Alpha 21364、HP PA-8X00、Sun的UltraSPARC III、SGI的MIPS 64 20Kc等。

三、按处理器的指令执行方式分

  前面介绍了按处理器架构旬分的方法,下面再介绍一下按处理呖呖指令执行方式划分的标准。在前面已经介绍到,目前服务器处理器的指令执行方式主要有RISC、CISC、VLIW和EPIC这几种。也有人把Intel的EPIC归为VLIW。

  1、CISC架构服务器

  CISC的英文全称为“Complex Instruction Set Computer”,即“复杂指令系统计算机”。自PC机诞生以来,32位以前的处理器都采用CISC指令集方式。

  在CISC微处理器中,程序的各条指令是按顺序串行执行的,每条指令中的各个操作也是按顺序串行执行的。顺序执行的优点是控制简单,但机器各部分的利用率不高,执行速度慢。由于这种指令系统的指令不等长,指令的条数比较多,编程和设计处理器时都较为麻烦。但基于CISC指令架构系统设计的软件已非常普遍,所以微处理器厂商一直在走CISC的发展之路,包括Intel、AMD,还有其他一些现已更名的厂商,如TI、Cyrix,以及现在的VIA等的32位以前处理器。在服务器处理器方面,CISC架构服务器CPU主要有Intel的32位及以前Xeon(至强)的P Ⅲ、PⅡ处理器等,AMD的全系列等。

  2、RISC架构服务器

  RISC的英文全称为“Reduced Instruction Set Computing”,中文名为“精简指令集计算”。有人对CISC机进行测试表明,各种指令的使用频度相当悬殊,最常使用的是一些比较简单的指令,它们仅占指令总数的20%,但在程序中出现的频度却占80%。复杂的指令系统必然增加微处理器的复杂性,使微处理器研制时间长、成本高。复杂指令需要复杂的操作,从而降低了机器的速度。70年代末,John Cocke提出精简指令的想法。80年代初斯坦福大学研制出MIPS机,为精简指令系统计算机(RISC)的诞生与发展起了很大作用。RISC微处理器不仅精简了指令系统,还采用超标量和超流水线结构,大大增强了并行处理能力。1987年Sun Microsystem公司推出的SPARC芯片就是一种超标量结构的RISC处理器。而SGI公司推出的MIPS处理器则采用超流水线结构,这些RISC处理器在构建并行精简指令系统多处理机中起着核心的作用。

  由于RISC处理器指令简单、采用硬布线控制逻辑、处理能力强、速度快,世界上绝大部分UNIX工作站和服务器厂商均采用RISC芯片作CPU用。如原DEC的Alpha 21364、IBM的Power PC G4、HP的PA-8900、SGI的R12000A和SUN Microsystem公司的Ultra SPARC II。这些RISC芯片的工作频率一般较低,功率消耗少,温升也少,机器不易发生故障和老化,提高了系统的可靠性。如SGI的R12000A微处理器主要靠改进微处理器的体系结构来提高处理器的总体性能,使运行应用程序时速度加快。目前中、高档服务器中也是绝大多数是采用RISC指令系统的,RISC微处理器取得成功的主要是由于指令集简化后,流水线以及常用指令均可用硬件执行,采用大量的寄存器,使大部分指令操作都在寄存器之间进行,提高了处理速度。另一方面是RISC指令系统采用“缓存-主存-外存”三级存储结构,使取数与存数指令分开执行,使处理器可以完成尽可能多的工作,且不因从存储器存取信息而放慢处理速度。
PYG19周年生日快乐!

该用户从未签到

 楼主| 发表于 2005-4-17 17:13:06 | 显示全部楼层
3、VLIW架构服务器

  VLIW的英文全称为“Very Long Instruction Word”,中文名为“超长指令集字”,它是美国Multiflow和Cydrome公司于20世纪80年代设计的体系结构,目前主要应用于Trimedia(全美达)公司的Crusoe和Efficeon系列处理器中。AMD最新的的Athlon 64处理器系列也是采用这一指令系统,包括其服务器处理器版本Operon。同样Intel最新的IA-64架构中的EPIC(清晰并行指令计算,下面将详细介绍)也是从VLIW指令系统中分离出来的。

  VLIW指令集字采用了先进的EPIC设计,每时钟周期可运行20条指令,而CISC通常只能运行1到3条指令,RISC是4条指令,可见VLIW要比CISC和RISC强大得多。VLIW的最大优点是简化了处理器的结构,删除了处理器内部许多复杂的控制电路,这些电路通常是超标量芯片(CISC和RISC)协调并行工作时必须使用的,VLIW将所有的这类工作交给编译器去完成。VLIW的结构简单,也能够使其芯片制造成本降低,价格低廉,能耗少,而且性能也要比超标量芯片高得多。VLIW是简化处理器的最新途径,VLIW芯片不需要超标量芯片在运行时间协调并行执行时所必须使用的许多复杂的控制电路。而是将许多这类负担交给了编译器去承担。但基于VLIW指令集字的CPU芯片使得程序变得很大,需要更多的内存。更重要的是编译器必须更聪明,一个低劣的VLIW编译器对性能造成的负面影响远比一个低劣的RISC或CISC编译器造成的影响要大。 

  4、EPIC

  EPIC是“清晰并行指令计算”的简称,它最重要的思想就是“并行处理”。以前处理器必须动态分析代码,以判断最佳执行路径。而采用并行技术后,EPIC处理器可让编译器提前完成代码的排序,代码已明确排布好了,直接执行便可。正因如此,EPIC处理器必须能并行处理大量数据。这种处理器需要采用多个指令管道,一般还需要多个寄存器、很宽的数据通路以及其他专门技术(如数据预装等),确保代码能顺畅执行,避免由于处理器造成瓶颈。显然,EPIC最大的一个优点就是它的效率。尽管效率也在很大程度上取决于编译器,但EPIC处理器无论何时都能将充分发挥自己的能力,完成有意义的运算,而非消极的等待指令,或者等待管道刷新等等。此外,由于采用了指令断定、数据预装以及显式并行技术,也显著减少了分支预测的错误,因为大多数代码都在执行前组织好了。采用这一指令技术的处理器就是Intel的IA-64架构的Itanium和Itanium 2系列。不过也有人把这一指令架构归为VLIW类型,因为它是从VLIW中分离出来的。

  基于EPIC设的计处理器并行处理方式与以往的IA-32架构的并行处理并不一样。由编译器产生连续的机器编码,而硬件来解释这些机器编码并做指令的并行处理。但是,由于硬件不能够完全有效地确定并行处理指令的时机,所以就还需要一些其他技术来优化并行处理;而这些技术的应用虽然在一定程度上增进了并行处理的能力,但却也产生了一些诸如打断指令数据流等问题。Intel与Hewlett-Packard公司共同开发的EPIC技术通过更加有效地为微处理器提供反馈数据,改进了处理器与应用程序之间的配合。

  目前IA-32架构的处理器由编译器产生连续的机器编码,然后由硬件来解释这些机器编码并做指令的并行处理。但是,由于硬件不能够完全有效地确定并行处理指令的时机,所以就还需要一些其他技术来优化并行处理;而这些技术的应用虽然在一定程度上增进了并行处理的能力,但却也产生了一些诸如打断指令数据流等的问题。

  IA-64的EPIC指令集正可有效地解决这一问题。借助于EPIC技术,编译器在保证并行处理指令时可以更加有效。EPIC编译器首先分析源代码,以确定哪些指令可以做并行处理,优化这些代码,然后,产生合适的机器码。实际上,由编译器来告诉微处理器哪些指令来做并行处理,而不是在程序处理时消耗微处理器的时间。
四、按用途划分

  由于网络的多样化发展,服务器市场也是越来越细,现在除了出现上面我们所划分的服务器类型外,又出现了为了满足各种特定功能而开发、生产的功能型服务器。如果按照这种划分标准,我们可以分为通用型服务器和专用型服务器。这功能型服务器主要是依据服务器的具体应用来划分的,如Web、FTP、EMAIL、DNS服务器等。

  1、通用型服务器

  通用型服务器是不是为某种特殊服务专门设计的、可以全面提供各种基本服务功能的服务器。当前大多数服务器是通用型服务器。因为这类服务器不是专为某一功能而设计,在设计时就要兼顾多方面的应用需求,所以这样服务器的结构就相对较为复杂,而且价格也较贵。

  2、专用型服务器

  专用型(或称“功能型”)服务器是专门为某一种或某几种功能专门设计的服务器。如光盘镜像服务器主要是用来存放光盘镜像文件的,在服务器性能上也就需要具有相应的功能与之相适应了,那就是需要配备大容量、高速的硬盘以及光盘镜像软件。FTP服务器主要用于在网上(包括Intranet和Internet)进行文件传输,这样就要求服务器在硬盘稳定性、存取速度、I/O带宽方面具有明显优势。而Email服务器则主要是要求服务器配置高速带宽上网上具,硬盘容量要大等。

  这种功能型的服务器一般来说在性能上要求比较低,因为它只需要满足某些需要的功能应用即可,所以结构相对来说简单许多,一般都只需要采用单CPU结构、单层IU架构。这类服务器在稳定性、扩展性等方面都要求不是很高,当然价格也便宜许多,一般是相当于2台左右的高性能PC机价格。

  五、按服务器结构分

  如果我们按服务器的机箱结构来划分的话,我们可以把服务器划分为“台式服务器”、“机架式服务器”和“机柜式服务器”三种。

  台式服务器也称为“塔式服务器”。有的台式服务器采用大小与立式PC台式机大致相当的机箱,有的采用大容量的机箱,像一个硕大的柜子一样。低档服务器由于功能较弱,决定了整个服务器的内部结构不是很复杂,所以机箱一般来说不大,都采用台式机箱结构。但是要注意我们这里所讲的台式,不是我们平时在PC机中所讲的台式,立式机箱也属于台式机范围,目前这类服务器在整个服务器市场中占有相当大的份额。

  机架式服务器的外形看起来不象计算机,而是像交换机,有1U(1U=1.75英寸)、2U、4U等规格,主要是为了便于在机架中与其它网络设备一起安装。机架式服务器安装在标准的19英寸机柜里面。这种结构的多为功能型服务器居多,如图5左图所示的是HP的一款应用型功能服务器产品示意图,它的机箱只有1U单位高。但有的部门级或企业级服务器也采用这种机架式的机箱结构,如图5右图所示为IBM @server xSeries 350企业级服务器。该系列服务器是一款高性能4路基于Intel处理器的企业级服务器,采用瘦高稳固的4U外形设计,专为高速和可靠性技术性能而设计,成为需要数据库、电子交易、安全管理、数据挖掘和目录服务应用的企业理想选择。


图5

  而在一些高档企业级服务器中由于内部结构复杂,内部设备较多,有的还具有许多不同的设备单元或几个服务器都放在一个机柜中,所以服务器的机箱就需要做的很大,整个机箱就象一个大柜子,这就是机柜式的服务器。图6左图所示的是IBM 的p690机柜式服务器;右图所示的是HP bh7800企业级服务器。

图6

  以上介绍了几种典型的服务器划分方法,其实还有多种不同的划分方法,在此就不再一一介绍了。从这些不贩划分的方法中,可以看出,随着服务器市场的成熟,各种特定功能的服务器也随之出现,满足各种特定的应用环境。而且整个服务器市场也发生了一些明显的变化,最具代表性的就是其于Intel公司的IA架构服务器逐渐增多,原来采用UNIX和LINUX系统的中高档服务器,现在也有采用IA架构的。另一方面,整个服务器市场的竞争正在加剧,因为现在除了Intel公司外,AMD和Trimedia公司也有比较先进的服务器CPU开发成功,特别是AMD基于64位的的Opteron服务器处理器早在今年4月份就成功推出。
PYG19周年生日快乐!

该用户从未签到

 楼主| 发表于 2005-4-17 17:16:42 | 显示全部楼层
服务器的可扩展性

在前面篇中我们介绍到了服务器的“四性”,即“Scalability(可扩展性)”、“Usability(可用性)”、“Managbility(可管理性)”、“Availability(可利用性)”,简称“SUMA”。那么在服务器中的的表现又将如何呢?本节就要以一个实例介绍服务器的第一个特性--可扩展性。

  服务器的可扩展性是指服务器的硬件配置可以根据需要灵活配置,如内存、适配器、硬盘、处理器等,因为服务器的硬件配置可能是根据不同时期的网络配置而改变。服务器通常因为要连接多个板卡,如网卡,所以需要具有较多的PCI、PCI-X插槽;因为需要高容量磁盘来存储服务器数据,所以需要有较多的驱动器支架。一般的服务器机箱都设有七八个硬盘托架,可以放置更多的硬盘。如图1左图所示的为IBM @server xSeries 250部门级服务器,该款服务器拥有10个热插拔扩展托架,最多可安装14块硬盘,其中10块硬盘支持热插拔。图1右图所示的服务器主板上具有8条内存插槽。


图1

  同样,因服务器需要高的内容容量来满足服务器的高性能连接和运算,所以需要较多的内存插槽。这些结构并不需要在一开始配置时就全部到位,而是在需要时购买相应部件安装在相应的插槽或支架上即可。同时为了确保服务器的高度可靠性,通常还提供冗余电源、冗余风扇,这样同时也使得用户的网络扩充时,服务器也能满足新的需求,保护用户的投资。以上这些就是许多品牌服务器所提出的“按需扩展”理念。“按需扩展”就是在购买服务器初期并不需要购买全部的组件,只要认为暂时用不上的,都可以先不购买,等的网络发展到需要用得上这些组件时再购买那些组件,直接插在原来的服务器或通过相应技术与服务器连接即可轻松实现原来服务器系统的升级、扩展。如在IBM 企业级x架构服务器技术中所提出的“XpandOnDemand”就是这样一种技术 。

  对于以上所说的扩展性,无论如何都是非常有限的。因为这些扩展插槽和支架都需要在服务器机箱中,而服务器的机箱不可能太大,一则不便于安装,另一方面,机箱中部件太多,容量造成服务器机箱中温度上升,给服务器带来不稳定因素。虽然现在也有一些服务器把许多PCI设备从机箱中移到机箱外单独的一个柜子中,通过一个特制的电缆来与服务器进行连接,这样一则可以节省服务器机箱的空间,再则可以使服务器的PCI设备具有更大的扩展空间。这种技术在IBM 中就称之为“Remote I/O”技术。但大目前来说,它所能扩展的性能也是非常有限的,所以现在许多中高档服务器的扩展性都不是在机箱内部解决,而是通过相应的技术在服务器外部解决。其中应用最广,也是扩展性能最佳的就是服务器的群集(Cluster)技术,目前几乎所有的服务器操作系统都支持群集技术,其中包括中高档服务器常用的UNIX、LINUIX,也包括中低档服器所用的微软Windows 2000/2003。

  群集技术是使单独服务器实现物理和程序上的连接,并在服务器之间进行协同通讯,以使它们能够执行共同的任务。即便某一台服务器停止运行,故障应急进程会自动将该服务器的工作负载转移至另一台服务器,以保证提供持续不断的服务。除故障应急程序之外,某些形式的群集也使用负载均衡功能,该功能可使计算负载在联网的计算机间得以分配。目前一般来说比中高档的服务器可以实现4、6、8、12路,甚至16路对称扩展,每一路都具有独立的CPU、RAM和PCI等设备。

  为了更直接地说明服务器的可扩展性能,现分别以IBM企业级服务器X架构的“按需扩展”和群集技术对以上两种扩展方法进行简要说明。

一、XpandOnDemand(按需扩展)技术

  由于I/O总线拥塞以及内存不能得到有效利用,传统的多处理器服务器设计在向4路以上扩展时开始遇到一些障碍。IBM的Summit(顶峰)技术通过一个强化的4路SMP构件块,能够有效地向4路以上的SMP(对称多处理系统)扩展。通过利用这种4路构件块创建新的计算“节点”,为系统从4路扩展到8路、12路,甚至16路SMP提供了一种有效的途径。当客户在拥有4路处理器架构情况下,因业务增长需要扩充其系统时,只需要在原有4路处理器架构基础上增加节点,扩展到8路、12路或16路处理器架构。而Summit芯片组具有物理分区功能,能够灵活地划分工作量并分配给不同的处理器节点。例如,一个16路服务器可以划分成4路节点,每个节点包括独立的处理器、内存和I/O支持,各节点可以运行一种不同的操作系统执行不同的任务。

  IBM企业级服务器X架构“按需扩展(XpandOnDemand)”技术合得服务器结构得到进一步优化,它通过提供新的内存和I/O(输入/输出)子系统使新的处理器体系结构能够充分发挥服务器的潜能。传统的服务器在设计上遇到的第一个性能瓶颈就是由于处理器和I/O总线堵塞,以及内存的低效利用而导致4向并行处理技术的向前发展。企业级服务器X架构的设计提供了先进的I/O和内存体系机构和一个高速共享缓存体系机构。工业标准服务器在使用了增强的、高性能的SMP(对称多处理器)架构模块技术后,IBM企业级服务器X架构平台后扩展性得到了新的提高,从而实现了4路并行性能的有效扩展。

  SMP(对称多处理器)技术是使用从4路到8路,再到12路,甚至是16路并行处理扩展技术来扩展企业的计算节点,可扩展的企业节点包括处理器、内存、I/O支持、存储器和其它设备。每个节点就像一台独立的计算机一样一体化运作,可以运行不同的操作系统,甚至不同分区的多个节点的工作可以镜像分配到一个系统中。节点之间通过一种称之为“对称多功处理器扩展端口”来实现设备间的高速连接和顶峰性能的资源共享。这就使服务器在运行多个节点时就像一个大的、单一节点的组合,或者像两个或者更多的小单元,甚至到可以在以后需要时重新配置。

  在IBM企业级服务器X架构中还有一种技术更加充分地保证了服务器的扩展性能,那就是“Remote I/O(远程输入/输出)”技术,这个技术我们在前面已经提到过,现在我们来具体看看它的实现过程和优势所在。

  在工业规范中有一个限制,那就是所有PCI和PCI-X适配器插槽都必须在主机箱中。一方面设计者总想在有限的机箱空间中设计最大量的适配器插槽,同时他们又想通过使服务器组件变得越来越小来尽量缩小服务器的大小,以满足用户在减小服务器架构空间大小方面的需求。不管怎样,减小服务器的大小也就意味着要牺牲一定的适配器插槽为代价。(这就是为什么服务器生产商所提供的服务器中要么是有多个适配器插槽,而减少驱动器架,要么是有多驱动器架,而提供的插槽较少。否则就得增加服务器的尺寸,那势必会造成用户拥挤的数据中心出现其它问题。)

一个非常明显的解决方案就是限制在机箱中的适配器数量,同时增加一个外置的“插件箱”来安装这些适配器。把适配器的插槽从主机中引到服务器机箱外面,这样服务器就可做得更小了。不幸的是PCI-X总线技术并没有明确地支持这种外置输入/输出接口。

  在IBM企业级服务器架构中的远程输入/输出(Remote I/O)技术支持下,它可以使在单个服务器中通过外置的I/O扩展箱添加12个PCI/PCI-X的适配器插槽,提供极其强大的I/O扩展性能。这在一方面就解释了“随着的增长支付”这个全新的支付理念了。只需要购买现在需要的输入/输出组件,当需要另外的组件时再到时另外购买即可,这种性能就可以使IBM通过增加I/O外置扩展单元来自由升级的服务器。

  远程I/O可为每个服务器提供更多可用的适配器插槽,但它同样具有非常高的可靠性。因为这个远程的I/O组件是用与插件箱分开的独立电源来供电,在电源中还有冗余的风扇,它比在一个服务器主机箱内安装这么多适配器和驱动器所散发的热量更少。另一方面的优点就是扩展外置的I/O插件箱同样可以被多个服务器共享。如图2所示。


图2

  远程I/O在IBM p系列和I系列服务器(以前个另的IBM RS/6000和AS/400机)是用来进行实时连接的。远程I/O结合按需扩展系统节点的设计原理,允许在有序、受控的方式下扩展的系统。
 
  在过去为了确保的服务器高性能不断提高,必须花费巨资去买一个带有许多处理器插槽、适配器插槽和驱动器架的主机,或许所买的服务器中有的组件永远都用不上,但只想通过这种方式确保的服务器有足够高的扩展性能。现在,在IBM企业级服务器X架构的扩展性设计方案下,可以从单个小小的节点组件开始。随后在工业标准架构中随着的需要增加节点、I/O扩展插件箱和磁盘扩展单元(在的预算允许范围内)。不仅企业级服务器X架构中的远程I/O给非常好的扩展性,而且它的性能也是非常高的。远程I/O扩展单元是通过独占的2Gbps带宽的连接速度与系统进行连接。

  IBM的“按需扩展”的性能在基于Intel体系架构上的服务器上表现出革命性的先进性,可以在不需要任何停机的情况下扩大的服务器性能:增加(或者删除)节点并不需要关掉其它节点(按正确的操作程序)。另外模块化节点设计可以通过节点间的相互切换来实现效率的最大化。IBM企业级服务器X架构的配置允许向上扩展(Scale up),群集排列使向外扩展(Scale out),事实上,群集一个8路、12路或者16路IBM企业级服务器X架构系统以上两种群集方法都可以用。
PYG19周年生日快乐!

该用户从未签到

 楼主| 发表于 2005-4-17 17:18:13 | 显示全部楼层
二、群集扩展原理

  IBM企业级服务器x架构的群集扩展技术使得我们对服务器扩展变得非常容易。为了能更清楚地说明问题,我们先从一个简单、廉价的4路对称多处理节点开始。

  在IBM企业级服务器x架构的群集技术中,如果以后发现需要更多的处理器系统时,只需要简单地增加第二个4路并行处理节点,并用简单的一根数据线进行连接来就可以建立一个8路并行处理服务器(如果认为所建立的8路并行处理服务器没有为提供足够多的插槽和总线时,还可以插入一个像IBM EXP300一样的外置的远端I/O扩展单元、记录设备和远端存储单元来满足),这样,随着需求的增加,三个4路并行处理节点就能够配置成一个12路并行处理系统,最后4个4路并行处理节点能够组合成一个16路并行处理服务器。图3左图显示的是一个通过上述方法组成的16路并行处理服务器。在实际中,各节点是由一个框架来堆叠的。图3右图显示的是连接两种不同SMP扩展端口系统的图示,只需要一条电缆,第二条电缆是用来当系统有双倍吞吐量时分担工作量平衡系统,第三个扩展端口是用于4路并行节点的配置。

图3

  如果有时认为有些节点需要改变,不再需要8路或16路并行处理服务器,这些节点也能够重新分离成一个单独的4路并行处理系统。这种模块设计使自由地决定如何去一步步提高的IT组织,并不需要在事先就要作出一切决定,而不像原来的工业标准设计一样需要一步到位。

  IBM企业级服务器X架构的设计提供了在所有处理器与内存之间的互访,不受它们各自的节点的限制,减少了彼此间的总线争夺。不仅如此,还增加了一倍的芯片组、前端总线、PCI总线、以及其它资源来分担数据交换的负担,而这些仅是两个节点完成的,更多的节点能够转换成更宽的系统带宽。这样的连接和资源问题在传统的12路或16路对称多处理系统中开始产生,IBM企业级服务器X架构的设计可以轻松地实现超负荷运作,就像用16路并行处理系统来完成8路处理系统的工作一样。需要时仅需加入一个新的4路并行处理节点,而在最开始并不需要预算所有的资金,采购是可以分成若干个分离的预算周期来完成的。

  在上面所指的设计中不仅是指处理器需要增加,在整个平衡体系中所需的所有资源都需要增加。在每一个4路到16路的转换配置中,所有节点间的连接都既能在一个操作系统和应用程序场合中当作单个分区使用,也可以划分成多个独立的分区。同样,连接带切换功能的群集服务器就像连接两个、三个或者四个节点一样容易,只需在连接的节点之间使用同样的对称多处理器扩展端口连接电缆即可。对于这样的扩展群集,在节点之间的建立高速的连接不需要复杂的以太网设置,因为那已通过对称多处理端口自动设置了。

三、IBM群集扩展优势

  上面介绍了一些在IBM企业级服务器X架构中的群集扩展原理,那么这种扩展方式与标准的分布式群集相比又有哪能些优势呢?

  在前面我们了解了在IBM企业级服务器X架构中是如何实现系统扩展的,或许会认为这些灵活性都是以牺牲性能为代价,可实际上绝对不是那样。事实上,IBM企业级服务器X架构中的高速对称多处理扩展端口不仅为我们提供灵活的扩展性能,同时还为我们在Intel体系机构领域中提供了最优良的性能。那么用4个节点方式连接组成的服务器系统的扩展性能比用简单的4个单独的4路并行处理系统连在一起去实现传统的四个服务器群集有哪能些好处呢?它们有共同之处,但又有哪能些重大的差别呢?下面就是答案:

  4个4路并行处理的IBM企业级服务器X架构使能得到充分的扩展自由,可以配置成2个8路并行处理服器、1个8路和2个4路并行处理服务器、1个12路和1个4路并行处理服务器,或者为一个单一的16路并行处理服务器。即使已连接成了某种连接方式,如果想改变仍可以通过一个简单的控制命令重新配置成其它的排列,不会像传统的群集方式一样局限于某一种特殊的配置。

  IBM的“系统分区(System Partitioning)”技术允许用一个操作系统和应用软件系统的复制在整个四个节点分区中使用,这就比在传统的群集解决方案中一个个去设置方便许多。

  SMP扩展端口允许节点间在每个连接间运用进行双向32GB/s的速度进行实时对话,每个节点可与其它3个节点进行连接。32GB就相当于32倍千兆以太网的连接速度(或者16倍于通过局域网交换机进行双向操作的速度)。另外,这样的网络结构再也不需要为仅少数几个地方需要支持千兆以太网而进行重新配置,也就是说不再需要在这些群集服务器中配置全部的千兆以太网集线器、路由器、交换机或者适配器。如果不用千兆以太网,通常认为对称多处理扩展端口的速度相当于320倍的100Mbps以太网。除了在服务器已安装的以太网端口外,剩下的可用端口都是用于一般网络的连接的。

  因为SMP扩展端口在节点间允许处理器对处理器直接通信,并没有占用任何被操作系统处理过程中的适配器总线和网络交换总线,这样就在系统之间提供了更好的吞吐量。

  在节点间共享I/O带宽的意思就是在同一时刻一种环境下的操作系统可以进入所有节点的所有外部或内部适配器插槽访问,能够提供比任何单个服务器之间的连接更多的I/O吞吐量(换句话说,如果有一台服务器有6个适配器插槽,再另外加两个外置各带12个插槽,那么就会有30个插槽在操作系统上显示,就像在这台服务器架安装的一样)。

  如果发现工作量不平衡(有的服务器超负荷,而有的未充分利用),就可以简单地从一个服务器上断开一个节点到接到另外一个服务器上。这种可按照需要迅速重新调整资源的灵活性,在当今变化频繁的电子商务时代尤其重要。在的软件系统支持下,协议许可条件可能使使用单独1个16路并行处理分区比4个分离的4路并行处理服务器更加实惠。

  也许可能更加愿意把4个节点群集成4个分离的服务器,那么这对称多处理端口也能够用在高速的进程通信之间,只需要用对称多处理扩展端口电缆进行简单的连接即可,无需复杂的设置。在大范围存储系统或者区域网络存储组织中,IBM企业级服务器X架构可以为具有访问多个数据库系统的能力,或者提供多点访问单一数据库的能力。同样的,在一个群集配置中它可以使执行一个或多个环境下的数据库管理工具。

  好了,以上通过对IBM企业级服务器x架构中的按需扩展技术和群集技术对服务器的可扩展性能作了一个综合介绍,通过这样一个例子我们完全可以看出服务器的可扩展性能的重要性。其实其它品牌的服务器也有相类似的技术,在此就不一一介绍了。下一篇将介绍服务器的另一个重要特性--Usability(可用性)。
PYG19周年生日快乐!

该用户从未签到

 楼主| 发表于 2005-4-17 17:26:08 | 显示全部楼层
服务器的可用性


服务器的可用性(Usability)其实就是要求服务器具有高的可靠性,具有高稳定性,不要时不时死机、出故障,尽量少出现停机待修现象。服务器因为多数情况下是要求连续工作的,所以它的可靠非常重要,普通的PC死机了大不了重启,数据的丢失损失也仅限于单台电脑;服务器则完全不同,许多重要的数据都保存在服务器上,许多网络服务都在服务器上运行,一旦服务器发生故障,将会造成大量数据丢失、许多重要业务和停顿,如代理上网、安全验证、电子邮件服务等都将失效,造成整个网络的瘫痪,其损失是难以估量的。各种品牌的服务器都有自己的一套独特的提高服务器可靠性的技术方法,但也有一些方法是属于标准性的方法,被大家共同采用。

  目前,提高可靠性的一个普遍做法是部件的冗余配置和内存查、纠错技术。如服务器一般采用具有查、纠错能力的ECC内存,IBM的服务器有的还采用了专门的具有ChipKill超强查、纠错能力的内存、RAID技术、热插拔技术、冗余电源、冗余风扇、等方法使服务器具备容错能力、安全保护能力,从而提高可靠性。

  硬件的设备冗余通常支持热插拔功能,如冗余CPU、RAM、PCI适配器、电源、风扇等,可以在单个部件失效的情况下自动切换到备用设备上,保证系统运行。RAID技术可保证硬盘出现问题时在线更换,保证数据的完整性。此外,独特的硬件管理总线(I2C)技术利用专门的硬件管理机制,可在系统出现异常情况时(如机箱温度超标、内存出错、机箱被异常开启等)迅速提出警报和予以处理。一般来说,PC服务器的冗余方案主要是磁盘、电源、网卡和风扇等冗余配置,有些产品还支持操作系统和应用软件的备份,并包含有用于数据紧急恢复的系统模块,从而大大提高了系统的可用性。

  一、硬件冗余

  在上面所讲的一些提高服务器可用性的方法中有一部分是通过硬件的冗余技术来实现的,这是一种比较基础,但却非常实用的方法,已被广泛采用。下面我们就来具体看看这几个方面。

  1. 磁盘冗余技术

  磁盘冗余实际上就是指RAID(磁盘陈列)技术,它的英文"Redundant Array of Independent Disks"的缩写,中文名为"独立磁盘冗余阵列",或简称磁盘阵列。简单的说,RAID是一种把多块独立的硬盘(物理硬盘)按不同方式组合起来形成一个硬盘组(逻辑硬盘),从而提供比单个硬盘更高的存储性能和提供数据冗余的技术。组成磁盘阵列的不同方式成为不同的RAID级别(RAID Levels),或RDID类型。

  RAID技术经过不断的发展,现在已拥有了从 RAID 0 到 6 七种基本的RAID 级别,但最常用的是RAID 0、RAID 1、RAID0+1、RAID 5等几种方式。另外,还有一些基本RAID级别的组合形式,如RAID 10(RAID 0与RAID 1的组合),RAID 50(RAID 0与RAID 5的组合)等。不同RAID 级别代表着不同的存储性能、数据安全性和存储成本。下面就针对上述一些最为常用的 RAID级别做简单介绍。

  RAID 0:RAID 0又称为Stripe或Striping(无差错控制磁盘阵列),它代表了所有RAID级别中最高的存储性能。RAID 0提高存储性能的原理是把连续的数据分散到多个磁盘上存取,这样,系统有数据请求就可以被多个磁盘并行的执行,每个磁盘执行属于它自己的那部分数据请求。这种数据上的并行操作可以充分利用总线的带宽,显著提高磁盘整体存取性能。

  图1显示的一个具有3个逻辑磁盘(Disk 0、Dsik 1、Disk 2)的数据存储的过程,系统向三个磁盘组成的逻辑硬盘(RADI 0 磁盘组)发出的I/O数据请求时整个数据存储过程被分成3部分,原先顺序的数据文件片段(D0、D1、D2、D3…)被分散到所有的三块硬盘中同时执行。从理论上讲,三块硬盘的并行操作使同一时间内磁盘读写速度提升了3倍。 但由于总线带宽等多种因素的影响,实际的提升速率肯定会低于理论值,但是,大量数据并行传输与串行传输比较,提速效果是显著的。

图1

  但RAID 0方案并不提供数据冗余,因此一旦用户数据损坏,损坏的数据仍将无法得到一个备份数据进行恢复。它所实现数据冗余的功能是在用户某个硬盘上的数据一旦发生损坏后,利用其它两个硬盘上冗余信息可以使损坏数据得以恢复,从而保障了用户数据的安全性,但我们可以知道这种冗余技术在数据恢复方面安全性较低。

RAID 1:RAID 1又称为Mirror或Mirroring(镜象磁盘阵列),它的宗旨是最大限度的保证用户数据的可用性和可修复性。 RAID 1的操作方式是把用户写入硬盘Disk 0的数据百分之百地自动复制到另外一个硬盘Disk 1上。当读取数据时,系统先从Disk 0的源盘读取数据,如果读取数据成功,则系统不去管备份盘Disk 1上的数据;如果读取源盘数据失败,则系统自动转而读取备份盘上的数据,不会造成用户工作任务的中断,如图2所示。当然,我们应当及时地更换损坏的硬盘并利用备份数据重新建立Mirror,避免备份盘在发生损坏时,造成不可挽回的数据损失。

图2

  由于对存储的数据进行百分之百的备份,在所有RAID级别中,RAID 1提供最高的数据安全保障。同样,由于数据的百分之百备份,备份数据占了总存储空间的一半,因而Mirror阵列方案中磁盘空间的利用率较低,存储成本高。Mirror方案虽不能提高存储性能,但由于其具有的高数据安全性,使其尤其适用于存放重要数据,如服务器和数据库存储等领域。

  RAID 0+1:正如其名字一样,RAID 0+1就是RAID 0和RAID 1两种方案的组合形式,也称为RAID 10。以四个磁盘组成的RAID 0+1为例,数据在存储时不仅分文件片形式顺序保存在两个RAID 0中的Disk 0与Disk 2,或Disk 1与Disk 3中,同时还会用Disk 1与Disk 3 或者Disk 0与Disk 2完全备份保存Disk 0与Disk 2或Disk 1与Disk 3中的数据(整个数据备份过程如图3所示)。RAID 0+1是存储性能和数据安全兼顾的方案,它在提供与RAID 1一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。

图3

  由于RAID 0+1也通过数据的100%备份提供数据安全保障,因此RAID 0+1的磁盘空间利用率与RAID 1相同,存储成本高。RAID 0+1的特点使其特别适用于既有大量数据需要存取,同时又对数据安全性要求严格的领域,如银行、金融、商业超市、仓储库房、各种档案管理等。

 RAID 2:又称为"纠错明码磁盘阵列。磁盘驱动器组中的第一个、第二个、第四个……第2n个磁盘驱动器是专门的校验盘,用于校验和纠错,例如七个磁盘驱动器的RAID2,第一、二、四个磁盘驱动器是纠错盘,其余的用于存放数据。使用的磁盘驱动器越多,校验盘在其中占的百分比越少。RAID2对大数据量的输入输出有很高的性能,但少量数据的输入输出时性能不好。RAID2很少实际使用。

  RAID 3和RAID 4:又称"奇校验或偶校验的磁盘阵列"。不论有多少数据盘,均使用一个校验盘,采用奇偶校验的方法检查错误,任何一个单独的磁盘驱动器损坏都可以恢复。RAID3和RAID4的数据读取速度很快,但写数据时要计算校验位的值以写入校验盘,速度有所下降。RAID3和RAID4的使用也不多。

  RAID 5:RAID 5是一种存储性能、数据安全和存储成本兼顾的存储解决方案。仍以四个硬盘组成的RAID 5为例,它的数据存储方式如下图4所示:图中,P0为D0,D1和D2的奇偶校验信息,P1为D3、D4的奇偶校验信息,其它以此类推。

  由图中可以看出,RAID 5不对存储的数据进行备份,而是把数据和相对应的奇偶校验信息存储到组成RAID5的各个磁盘上,并且奇偶校验信息和相对应的数据分别存储于不同的磁盘上。当RAID5的一个磁盘数据发生损坏后,利用剩下的数据和相应的奇偶校验信息去恢复被损坏的数据。

  RAID 5可以理解为是RAID 0和RAID 1的折衷方案。RAID 5可以为系统提供数据安全保障,但保障程度要比Mirror低而磁盘空间利用率要比Mirror高。RAID 5具有和RAID 0相近似的数据读取速度,只是多了一个奇偶校验信息,写入数据的速度比对单个磁盘进行写入操作稍慢。同时由于多个数据对应一个奇偶校验信息,RAID 5的磁盘空间利用率要比RAID 1高,存储成本相对较低。

图4

  好了,关于磁盘的冗余技术就简单介绍到这里了。采用磁盘陈列技术后,在用户看起来,组成的磁盘组就像是一个硬盘,用户可以对它进行分区,格式化等等。总之,对磁盘阵列的操作与单个硬盘一模一样,不同的是,磁盘阵列的存储性能要比单个硬盘高很多,而且可以提供数据冗余。

  2. 电源冗余

  服务器的电源冗余一般是指配备双份或多份支持热插拔的电源。这种电源在正常工作时,各台电源各输出一部分功率,从而使每台电源都处于轻松的负荷状态,这样有利于电源稳定工作。若其中一台发生故障,则另外几台就会在没有任何影响的情况下接替服务器的工作,并通过灯光或声音告警。此时,系统管理员可以在不关闭系统的前提下更换损坏的电源,所以采用热插拔冗余电源可以避免系统因电源损坏而产生的停机现象。如图5左图所示的为双冗余的服务器电源;右图所示的为一台具有双电源的服务器。

图5

  3. 风扇冗余

  风扇冗余是指在服务器的关键发热部件上配置的降温风扇有主、备件两套,这两套风扇都具有自动切换功能,并支持风扇转速的实时监测、发现故障时可自动报警并启用备用风扇等功能。若系统正常,则备用风扇不工作,而当主风扇出现故障或转速低于规定要求时,备用风扇马上自动启动,从而避免由于系统风扇损坏而导致系统内部温度升高,使得服务器工作不稳定或停机。如图6为冗余散热风扇。

图6

  其实在硬件冗余技术上有的品牌还提供了RAM、PCI适配器、网卡冗余等技术,在此就不一一细讲了。在服务器的可靠性方面,不仅体现在硬件的冗余上,还体现在一些硬件在线诊断技术上,因为硬件的冗余毕竟有限,我们不可能对所有配件都进行冗余,那样会大增加服务器的成本。在硬件在线诊断技术上我们仍以IBM的几项新技术为例来作一个详细的介绍。
PYG19周年生日快乐!

该用户从未签到

 楼主| 发表于 2005-4-17 17:28:12 | 显示全部楼层
 二、硬件在线诊断技术

  硬件在线诊断技术主要包括热插拔技术、内存保护、内存检查和纠错技术、内存镜像技术,内存热添加/交换技术、活动PCI技术,活动诊断技术等,下面我们分别介绍。

  1. 热插拔技术

  热插拔技术就是指有些部件可以在系统带电的情况下对部件进行插、拨操作。这非常重要,因为有时我们发现一些部件已损坏,但因为提供了硬件冗余,所以系统仍能继续保持良好运行。损坏的设备需要更换下来,这时如果这些硬件不支持热插拔技术,则必须关掉服务器的电源才能进行,这样就会严重影响服务器所管网络的正常长期不间断运行。一般来说具有热插拔性能的硬件主要有:硬盘、CPU、RAM、电源、风扇、PCI适配器、网卡等。

  2. 内存查纠错技术

  服务器中的内存我们知道一般来是采用带有ECC技术的,ECC的英文全称是“ Error Checking and Correcting”,中文名为“错误检查和纠正”,从这个名称就可以看出它的主要功能就是“发现并纠正错误”。

  ECC比以前的奇偶校正技术更先进的方面体现在它不仅能发现错误,而且能纠正这些错误,这些错误纠正之后计算机才能正确执行下面的任务,确保服务器的正常运行。但要注意的是它不是一种内存型号,是一种内存技术,不仅以前的EDO内存可以有、SD内存也可有,现在主流的DDR内存同样可以有。那是因为并不是一种影响内存结构和存储速度的技术,它可以应用到不同的内存类型之中,就象我们在前讲到的“奇遇校正”内存。但ECC技术只能纠正单比特的内存错误,IBM还有一种更先进的特殊内存纠错技术,那就是ChipKill内存技术。

  Chipkill内存最初是由20年前的IBM大型机发展过来的,ChipKill最初是为美国航空航天局(NASA)的“探路者”探测器赴火星探险而研制。它是IBM公司为了解决目前服务器内存中ECC技术的不足而开发的,是一种新的ECC内存保护标准。

  ECC内存可以同时检测和纠正单一比特错误,但如果同时检测出两个以上比特的数据有错误,则一般不能纠正。但随着基于Intel处理器架构的服务器的CPU性能在以几何级的倍数提高,而硬盘驱动器的性能同期只提高了5倍,因此为了获得足够的性能。服务器需要大量的内存来临时保存在CPU上读取的数据,这样大的数据访问量就导致单一内存芯片上每次访问时通常要提供4(32位)或8(64位)比特以上的数据。一次性读取这么多数据,出现多位数据错误的可能性会大大地提高,而ECC又不能纠正双比特以上的错误,这样就很可能造成全部比特数据的丢失,系统就很快崩溃了。IBM的Chipkill技术是利用内存的子结构方法来解决这一难题。

  Chipkill技术内存子系统的设计原理是这样的,单一芯片,无论数据宽度是多少,只对于一个给定的ECC识别码,它的影响最多为一比特。举个例子来说明的就是,如果使用4比特宽的DRAM,4比特中的每一位的奇偶性将分别组成不同的ECC识别码,每个ECC单元可单独用一个数据位来保存的,也就是说保存在不同的内存空间地址。因此,即使整个内存芯片出了故障,每个ECC单元也将最多出现一比特坏数据。这种情况完全可以通过ECC逻辑修复,从而保证内存子系统的容错性,保证了服务器在出现故障时,有强大的自我恢复能力。采用这种Chipkill内存技术的内存可以同时检查并修复4个错误数据位。

3. 内存保护(Memory ProteXion)

  IBM的内存保护技术就是保护由于意外的内存错误而带来的损失,它比ECC内存错误纠正技术有效得多,同时它使用的是标准的ECC 168内存。它的工作方式有点像在Windows NT的NTFS文件系统下的在线备份磁盘扇区一样,当操作系统在磁盘上检测到坏的磁盘扇区时,它将在另外的扇区中写下这些数据放一边留作备用,我们可以认为内存保护就是提供在线备份数据位。这内存错误的纠正是通过内存控制器来完成的,所以不会增加操作系统的工作量,也不需要操作系统来提供支持,完全与操作系统无关。因为这是在标准的ECC 168线内存起作用的,无需为这种保护增加另外的开支。

  内存保护(在其它系统中也有称“多余的数据位”)技术最初的发展是在IBM大型机上,而且在Z系列和I系列服务器上使用了许多年。IBM的高可靠性测试和分析使得带有内存保护技术的服务器每年因内存出错的机会比使用标准的ECC内存的少200倍。举个例子,给同样8GB内存的服务器多台,用户希望经过测试每132台使用ECC内存的服务器中每年只允许1台出现错误,而使用内存保护后就会看到每26042台服务器中每年只有1台因内存出错。

  在一个2路交叉存取的内存系统中,每2片168线ECC内存包含144位,但是只有140位是用于数据存取和校验的。余下的4位是没有用上的,标准的ECC内存可以检测出2位的数据错误,但它只能纠正一位错误。如果在同时内存上有多位出错,那么这整个内存读取就失败了,此时唯有使系统临时挂起来,以尽量减少内存容量的需求,直到这个节点被更换。如果具有内存保护,那么就可以立即隔离这个失效的内存,重写数据在空余的数据位。通过这种方法可以在每4对(1个内存控制器,有的服务器不止包括一个内存控制器)168线内存中修复4个4位连续的内存错误。当服务器下次重启就会重新检查内存的状态,如果是内存软错误(临时的),系统重启后内存的这些用于在线数据备份的数据位就重新释放了,恢复空的状态。如果是属于硬故障,这些在线备份数据位还会继续用来备份,直到更换为止。这种先进技术可以使减少停机机时间,使服务器持续保持高效的计算平台。这对于大型的数据库系统中尤其重要。

  4. 内存镜像 (Memory Mirroring)

  另一种防止服务器因内存错误的发生而导致整个服务器不稳定性事件发生的措施就是内存镜像。或许有可能服务器不知什么原因遇到了许多内存保护和Chipkill修复技术都不能完全修复的情况,此时内存镜像就会开始在系统中运行。

  内存镜像很像磁盘镜像,就是将数据同时写入到两个独立的内存卡中(每个内存卡的配置者是一样的),平时的内存数据读取只从激活的内存卡中进行。如图7所示的是CPU同时把数据写入到两片内存中的示意图。



图7

  在图7中如果一个内存中有足以引起系统报警的软故障,频繁报告系统管理员警告说这个内存条将要出故障,或者整个内存条都要彻底损坏,服务器就会自动地切换到使用镜像内存卡,直到这个有故障的内存被更换。允许系统照常运行,直到方便的时候对出故障的内存单元进行检测。镜像内存允许进行热交换和在线添加内存(因为镜像内存的存在,所以对于软件系统来说也就只有整个内存的一半容量是可用的,如果不希望镜像,在BIOS中进行禁止即可。)

  5. 内存热添加/热交换 (Hot-add/Hot swap Memory)

  热交换技术就是允许在服务器运行中将失效的内存进行更换,热添加就是在需要的时候允许在服务器运行状态下添加新的内存。IBM X系列服务器已经允许服务人员在需要时在线进行热添加新的驱动器、适配器、电源和风扇。

在一个服务器上安装的内存越多,在系统中发生与内存有关的错误的可能性也就越大。现在,由于服务器可以容纳几十上百GB的内存,可靠性就显得比以前更重要了。就像磁盘容量的增加一样,现在的磁盘容量远远超过20年前用户希望寻找方法来提高硬盘性能和保护他们的数据时所作的希望。这些都需要一个确切的方法,如离线存储、磁带驱动器一样。Chipkill修复技术、内存保护、内存镜像和热交换性能属于纯硬件方法,并没有依靠操作系统,而内存热添加技术需要进一步的软件支持。

  这些内存保护机制都是经过试验为可靠的技术,已在IBM大型机和其它大型系统中经过几年的考验。最重要的一点就是这些技术都在普通的工业标准ECC 168线内存实现的,所以内存也不会特别贵。

  6. Active PCI-X(活动PCI-X)技术

  在说明这一技术之前我们要明白什么是PCI-X,它是一种新的过渡型的总线标准,它的主频带宽可以比原来的PCI总线宽一倍,可以提供更高的I/O访问速度,现有一种更新的总线技术PCI-Express接口将全面替代PCI和PCI-X接口,当然不是现在。IBM在成功实现Active PCI(活动PCI)技术的基础之上,在基于企业级服务器X架构设计的一些X系列服务器中引入同时支持PCI和PCI-X两种适配器接口的Active PCI-X(活动PCI-X)技术。活动PCI-X总线技术就为IBM提供了提升服务器总体性能的另一个解决方案。活动PCI-X的主要特性如下:

  ·热交换 (Hot Swap)——允许在不用关闭和重启服务器的情况下更换适配器。

  ·热添加(Hot add)——提供了一种容易的升级方式,允许在服务器运行的状态下添加新的适配器(在工业标准中IBM是第一个提供这种性能的)。

  ·切换(Failover)——允许在主适配器出现故障的情况下极快地用另一个备用适配器接替原来适配器的工作继续运行。

  7. Active Diagnostics(活动诊断)技术

  活动诊断是IBM企业级服务器X架构的另一个特征,这种特征将会在使用这种芯片的服务器上得到整合提供。基于在通用信息模块的分布式任务管理面,活动诊断技术允许管理员在用户在工作的时候在系统上实施诊断,所以提高了系统的开机时间,使IBM客户真正接近“永远计算”的高性能水平。这在工业服务器市场中是很少见的特性,而这个空白被IBM企业级X架构技术填补了。

  IBM在1999年与Intel 、PC-Doctor公司一起努力,引入工业标准中的扩展技术到通用信息模块来支持协作诊断。这个通用诊断模块是如何通过操作系统去分界面协同诊断标准化(也称“当前操作系统诊断”,或者叫做“在线诊断”),使所有通用信息模块诊断应用常规化。因为现在诊断扩展到通用信息模块,IBM正在与独立的硬件生产厂商一起努力去重新定义这种方法,建立协同诊断的工具,以使X系列服务器永远运行。IBM活动诊断是用通用诊断模块来执行的,结合IBM的预先失效分析技术,活动诊断和热交换组件那就意味着再也不必关闭的X系列服务器去运行诊断或者更换热交换部件。活动诊断可以通过IBM Director 管理软件来提供一致的、非常容易地用管理界面来控制许多系统功能。

  以上通过IBM服务器的一些特性介绍了服务器的可用性特性的实现方法,通过这些技术可以看出,服务器与我们常用的PC机之间的确存在非常大的区别。下一篇将继续介绍服务器的另两个重要特性——Managbility(可管理性)和可利用性(Availability),敬请关注。
PYG19周年生日快乐!

该用户从未签到

 楼主| 发表于 2005-4-17 17:31:27 | 显示全部楼层
服务器的可管理性和可利用性

在前面两篇中介绍了服务器的可扩展性和可用性这两个主要特性,本篇要向大家介绍的是服务器的另两个重要特性--可管理性和可利用性。

  一、服务器的可管理性

  服务器的可管理性特性就是使得服务器具有非常高的可管理性能,可为用户提供十分方便、及时的网络管理。这其中就包括硬件和软件两方面,但主要是软件方面。下面分别予以介绍。

  1. 服务器硬方件面的可管理性

  在服务器硬件方面的可管理性方面,多数是在服务器主板上集成了各种传感器,用于检测服务器上的各种硬件设备,同时配合相应管理软件,可以远程监测服务器,从而使网络管理员对服务器系统进行及时有效的管理。如采用Intel的服务器主板的服务器,就有一种称之为ISC(Intel Server Control,Intel服务器控制)技术,它就是一种网络监控技术,不过只适用于使用Intel架构的带有集成管理功能主板的服务器。采用这种技术后,用户在一台普通的客户机上,就可以监测网络上所有使用Intel 主板的服务器,监控和判断服务器是否"健康"。一旦服务器中机箱、电源、风扇、内存、处理器、系统信息、温度、电压或第三方硬件中的任何一项出现错误,就会报警提示管理人员。值得一提的是,监测端和服务器端之间的网络可以是局域网也可以是广域网,可直接通过网络对服务器进行启动、关闭或重新置位,极大地方便了管理和维护工作。

  EMP(Emergency Management Port,应急管理端口)技术也是一种服务器管理技术。EMP是服务器主板上所带的一个用于远程管理服务器的接口,远程控制机可以通过Modem与服务器相连,控制软件安装于控制机上。远程控制机通过EMP 控制界面对服务器进行打开或关闭服务器的电源、重新设置服务器(甚至包括主板BIOS和CMOS的参数)、监测服务器内部情况(如温度、电压、风扇情况等)。

  2. 服务器方面的可管理性

  服务器的可管理性主要体现在软件方面。在服务器的软件可管理性方面除了网络操作系统自身所具有的各种可管理性外,服务器厂商还可针对特定需求或者硬件结构设计开发特定的管理软件。为了说明服务器在软件系统方面的可管理性要求,下面介绍一款IBM在中、高档服务器中的服务器系统管理软件--IBM Director 。

  IBM Director软件是一套非常适用于包括在IBM x系列服务器在内的功能非常强大的工具组合。在工业标准下,IBM Director是基于Intel环境下的服务器而设计的,它支持不同的操作系统,包括Windows系统、IBM OS/2系统、Novell的NetWare系统、Linux系统和SCO UnixWare系统。同时IBM Director又支持不同的工业标准,如DMI、CIM、WBEM、WMI、MPM、TCP/IP、IPX、SNA、NetBIOS、SLIP、XML和HTTP,以及其它标准。

  IBM Director正在进行升级以使它支持企业级服务器X架构性能,它可以在节点与分区之间进行区分,所以系统硬件管理报警可以在节点和分区之间得到精确查出。

  IBM Director由三个主要组成部分:服务管理、控制台和代理商管理,另加四个可选项,服务器扩展,如图1所示是IBM Director的控制台界面。


图1
IBM Director扩展服务通常被称之为生命周期工具。这些程序能扩展管理您的服务器整个生命周期中的硬件系统,帮助您有效地去配置、发展、管理和维护IBM x系列服务器。现在IBM Director的服务范围包括以下几个方面:

  ·Software Rejuvenation(软件恢复)
  ·Rack Manager(架构管理器)
  ·System Availability(系统实用性管理)
  ·Advanced Systems Management(先进的系统管理器)
  ·Capacity Manager(容量管理器)
  ·Cluster Manager(群集管理器)
  ·RAID Manager(虚拟管理器)

  IBM Director在新的企业级X架构x系列服务器中升级增加了如下服务:

  ·系统分区管理器

  系统分区管理器为建立隔离提供图形界面。这就允许系统管理员远程登录系统,在启动系统后对服务器进行详细地配置。系统分区管理器使用网络连接到系统管理处理器,在节点间建立关联。这种关联在当前数据库系统中是始终保持的,可以在任何时候通过图形界面调用和激活这种关联。它是整个用来管理正在运行分区管理组织的一部分,图2中显示的是一个早期版本的系统分区管理器。


图2


  ·活动PCI插槽管理器

  活动PCI插槽管理器可以通过指导您安装最好的PCI和PCI-X适配器来对I/O性能进行优化。它也可以帮助您决定在您的服务器内或者远程输入/输出(Remote I/O)扩展单元中哪能些适配器最适合您的服务器。如图3所示是一款正在发展的终极版活动PCI插槽管理器。


图3

  以上所介绍的是服务器厂商专门为服务器管理所开发的软件,其实许多管理性工作都在服务器操作系统中得到实现,如微软的Windows 2000 Server和Windows Server 2003中所具有各种服务和管理工具都可以实现对服务呖呖的各方面灵活管理,在此就不多介绍了。

  二、服务器的可利用性(Availability)

  服务器的可利用性能是从服务器的处理能力上来说的,因为服务器所负担的负荷都比较重,要面对整个网络,所以多数情况下我们讲服务器要求具有高的运算处理能力,处理效率要高。

  在服务器的处理能力上各家开发、生产厂家专家们也是绞尽脑汁,想尽办法,目前最主要的技术是通过采用对称多处理技术和群集技术来实现的。其实这时所讲的这两个技术在前面的"可扩展性"特性方面也作了简述,那是因为所采用的这些措施是相互联系的,各种性能之间也没有一个必然的界线。
 1. SMP(对称多处理器)技术

  (SMP)技术的英文全称为"Symmetric Multi-Processing",是指在一个计算机上汇集了多个处理器(多CPU),各CPU之间共享内存子系统以及总线结构。虽然同时使用多个CPU,但是从管理的角度来看,它们的表现就像一台单机一样。但要注意的是,所用CPU必须是成对出现的,也就是必须是如2、4、6、8之类的双数,当然除单CPU的服务器外。

  随着用户应用水平的提高,只使用单个的处理器确实已经很难满足实际应用的需求,因而各服务器厂商纷纷通过采用对称多处理系统来解决这一矛盾。PC服务器中最常见的对称多处理系统通常采用2路、4路、6路或8路处理器。目前UNIX服务器可支持最多106个CPU的系统,如Sun的Fire 15K。SMP系统中最关键的技术是如何更好地解决多个处理器的相互通讯和协调问题。如图4所示为一块支持双路CPU的服务器主板截图。

图4

  目前在服务器中广泛采用的多处理(MP)系统有以下几种:

  (1)非共享 MP(纯群集)

  非共享MP是指每个处理器都是一个完全独立的机器,运行操作系统的一个副本。处理器之间没有共享的部分(每一个都有自己的内存,高速缓存和磁盘),但是它们是互联的。通过LAN连接时,处理器之间是松散耦合的。而通过转换器连接时,处理器之间是紧密耦合的。处理器之间的通信是通过消息传送来实现的。

  这种多处理器系统的优点是它具有很好的可伸缩性和高可用性;而缺点则是该系统是一个不为人熟悉的编程模型(消息传送)。

  (2)共享磁盘 MP

  共享磁盘MP类型是处理器拥有自身的内存和高速缓存,处理器并行运行并共享磁盘。每个处理器都运行操作系统的一份副本,并且处理器之间是松散耦合的(通过 LAN 连接)。处理器之间的通信是通过信息传送实现的。

  共享磁盘的优点是保留了熟悉的编程模型的一部分(磁盘数据是可寻址和连续的,而内存则不是),而且与共享内存的系统相比,这种系统更容易实现高可用性;缺点是由于在对共享数据进行物理和逻辑访问时存在瓶颈,它的可伸缩性受到限制。

  (3)共享内存群集(SMC)

  一个共享内存群集中的所有处理器有自己的资源(主存储器、磁盘和 I/0),并且每个处理器运行一份操作系统的副本。处理器之间是紧密耦合的(通过一个转换器连接),处理器之间的通信是通过共享内存实现的。

  (4)共享内存 MP

  共享内存MP类型是所有处理器通过一条高速总线或者一个转换器在同一机器中紧密耦合,处理器共享同样的全局内存、磁盘和 I/0 设备,只有一份操作系统的副本跨所有处理器运行,并且操作系统必须设计为能利用这种体系结构(多线程操作系统)。

  SMP系统中最关键的技术是如何更好地解决多个处理器的相互通讯和协调问题。虽然系统同时使用多个CPU,但是从管理的角度来看,它们的表现就像一台单机-样。系统将任务队列对称地分布于多个CPU之上,从而大大地提高了整个系统的数据处理能力。

  目前支持SMP的服务器主要是RISC架构和Intel的IA架构,AMD新推出的Opteron目前也可支持多达8路对称多处理器系统。
PYG19周年生日快乐!
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

快速回复 返回顶部 返回列表