Serveurs Windows NT L'âge de la maturitéLes serveurs sous Windows NT font désormais jeu égal avec Unix jusqu'au milieu de gamme. Leur puissance paraît promise à un doublement rapide grâce au prochain processeur d'Intel, le Deschutes, ainsi qu'aux avancées du" clustering ".

Publié le

Enquête

Serveurs Windows NT L'âge de la maturité

Les serveurs sous Windows NT font désormais jeu égal avec Unix jusqu'au milieu de gamme. Leur puissance paraît promise à un doublement rapide grâce au prochain processeur d'Intel, le Deschutes, ainsi qu'aux avancées du

" clustering ".



Hier encore cantonnés au rôle de serveurs de fichiers, les serveurs Windows NT sont aujourd'hui taillés pour les applications dites critiques, dont dépend le fonctionnement des entreprises, comme les ERP, ou la gestion de bases de données. Les configurations les plus puissantes disponibles depuis le début de cette année, comme celles de Hewlett-Packard, Data General ou Unisys, pour ne citer qu'eux, peuvent supporter jusqu'à huit processeurs Pentium Pro à 200 mégahertz, 1 mégaoctet de cache, 4 ou 8 gigaoctets de mémoire centrale. Unisys monte jusqu'à dix processeurs, avec une architecture particulière, dont notamment un bus propriétaire au débit de 533 mégaoctets par seconde. Dernière " alternative " pour Windows NT à Intel, Digital propose également dix processeurs sur ses serveurs équipés de puces Alpha à 440 mégahertz. " Le véritable démarrage des serveurs NT remonte à mi-1996 ", rappelle Michel Lalliard, chef de produits serveurs chez Compaq. Depuis, leur puissance a doublé. Sans prendre des risques inconsidérés, tous peuvent prédire qu'elle sera encore multipliée par deux au cours des dix-huit prochains mois - des prévisions à plus long terme tiendraient de la science-fiction. La première des échéances attendues est le lancement du processeur Deschutes Slot2 (la version serveur du futur Deschutes), prévu pour le milieu de cette année par Intel. Il est attendu avec impatience, car la fréquence du Pentium Pro n'évoluera plus. Quant au Pentium II, limité par des contraintes physiques liées au packaging, il convient surtout pour les serveurs de fichiers. Cadencé à 450 mégahertz, Deschutes/S2 devrait autoriser les constructeurs à monter jusqu'à 16 gigaoctets de RAM et à 2 mégaoctets de cache. La taille élevée du cache, qui accroît la vitesse de traitement des instructions, est l'une des conditions pour héberger les applications les plus exigeantes. Certains constructeurs espèrent également profiter du Deschutes pour augmenter le nombre de processeurs à seize. Pour autant que les délais soient tenus, les premiers serveurs quadriprocesseurs Deschutes devraient apparaître d'ici à l'été prochain, et Compaq prévoit le lancement d'une ma-chine octoprocesseur à la fin du troisième trimestre. Deschutes sera accompagné d'un double bus PCI 64 bits à 66 mégahertz, d'où un débit théorique quatre fois supérieur à celui de l'actuel PCI.

Le " clustering " en pleine évolution

Autre grande étape, l'évolution du " clustering ". Les prosélytes du monde Unix reprochent à Windows NT de n'offrir que du cluster " Canada Dry " avec son outil MSCS (Microsoft Cluster Server), plus connu sous le nom de Wolfpack. Contrairement au monde Unix, la mise en cluster de deux serveurs NT ne génère pas, à l'heure actuelle, de gain de puissance. Le cluster NT reste cantonné à une fonction de " mirroring " ou de tolérance de pannes : en cas de défaillance d'une machine, la seconde prend le relais et assure ainsi la disponibilité du système. Seul le logiciel Oracle Parallel Server, dont c'est la vocation, assure une évolutivité en termes de puissance. De plus, les clusters NT sont limités à deux noeuds, contre huit pour Unix (et quatre-vingt seize sous VMS de DEC). Prévue pour 1999, la prochaine version de Wolfpack introduira du " vrai " cluster, avec une répartition de la charge entre les serveurs. Les constructeurs espèrent augmenter le nombre de noeuds, en mettant huit, douze, voire seize machines en cluster. Ironie de l'histoire, ces clusters de PC rendent un hommage indirect aux produits qu'ils sont censés remplacer : tous les grands constructeurs recourent à une panoplie de solutions de gestion et d'administration, dont la technologie est héritée de leur savoir-faire dans les grands et moyens systèmes, de l'AS/400 ou du System 390 pour IBM, de la technologie de Tandem chez Compaq.

Jusqu'à 4 téraoctets de données en ligne

Les clusters sont également synonymes de capacités de stockage en hausse. Les disques de 18 gigaoctets (Seagate, Quantum) sont disponibles, leur vitesse s'accélère - le lancement des 10 000 tours par minute est imminent - et contribuent à atteindre la barre symbolique du téraoctet (1 000 gigaoctets). Mais ce chiffre reste plus théorique qu'applicatif, car des problèmes de gestion des entrées et sorties restent notamment à résoudre à de tels volumes. L'introduction en cours de produits Fibre Channel, conformes au standard du même nom qui définit une interface de transfert de données à haut débit, appor- tera un bol d'air aux systèmes embouteillés (la gestion de ces capacités de stockage). Pour l'utilisateur, la souplesse de configuration et la modularité du Fibre Channel se traduira notamment par la possibilité de stocker les données jusqu'à 10 kilomètres du serveur et de mettre jusqu'à 4 téraoctets de données en ligne. Ces perspectives, déjà vertigineuses, paraîtront à coup sûr dépassées dans deux ans... La prochaine révolution est déjà plani-fiée avec le lancement du Merced, le processeur 64 bits développé conjointement par Intel et Hewlett-Packard. Destiné à se substituer au Pentium, il sera d'abord implanté sur les serveurs, assure-t-on chez Hewlett-Packard. D'ici là, les constructeurs ont beau jeu d'avancer, et tous le font, que les seules limitations sont dans le domaine du logiciel, où il n'y a pas de loi de Moore qui vaille. Une bonne manière de renvoyer la balle dans le camp de Microsoft, dont le version 5 de Windows NT Server est attendue, ainsi que dans celui des éditeurs, qui doivent se dépêcher d'optimiser leurs solutions pour la prochaine génération de serveurs.



Hewlett-Packard, IBM et les autres, futurs OEM de Microsoft ?

Dernier des Mohicans, seul résistant à Microsoft parmi les grands constructeurs, Sun affiche une condescendance de bon ton à l'égard des serveurs Intel-Windows NT. Certes, ils conviennent pour des serveurs de fichiers et d'imprimantes, reconnaît-on chez Sun. Mais gare aux applications critiques ! Sun - dont les machines Unix font d'ailleurs d'excellents serveurs de réseaux de PC - se pose désormais comme la seule solution crédible pour des concurrents prêts à " devenir des OEM de Microsoft "... Sun ne nie cependant pas la menace, puisqu'il a lancé des serveurs sous Solaris (sa version d'Unix), dont le positionnement et le prix attaquent frontalement les serveurs Windows NT. " Nous avons décidé de réagir et nous ne céderons pas un seul pouce de terrain au monde PC ", proclame-t-on chez le constructeur. Qui dit vrai ? Personne, en fait. Les analystes estiment certes que les serveurs Unix possèdent de bonnes chances de garder une longueur d'avance au moins pendant les cinq prochaines années, voire même de conserver une suprématie sur certaines niches de haut de gamme, les serveurs poursuivant leur propre évolution technologique. Cependant, une convergence se dessine nettement, notamment grâce à la perspective du Merced. Outre une diminition de l'écart de puissance entre les familles de processeurs, le Merced supportera Solaris. Le portage par Sun de son système d'exploitation sur une plate-forme matérielle Intel instaurera une solution de remplacement sérieuse à Windows NT. Dans le domaine des serveurs, où Solaris bénéficie déjà d'une forte notoriété, elle pourrait signer la fin du monopole Wintel.



L'atout prix-performances pour Windows NT

Selon l'indice de performance " tpmC " (transactions par minute), normalisé par le consortium indépendant TPC (Transaction Processing Performance Council), les serveurs NT les plus puissants se situent aujourd'hui dans une fourchette de 12 000 à 13 000 tpmC, contre 6 000 il y a un an et demi. A la même époque, les serveurs Unix atteignaient 8 000 tpmC. L'arrivée du processeur Deschutes devrait donner un nouveau coup d'accélérateur. Les 20 000 tpmC sont prévus avec deux serveurs à quatre Deschutes en cluster. L'objectif de 25 000 tpmC avec de l'octoprocesseur Deschutes est même en ligne de mire. Normalisé autour d'une opération de débit de crédit, le banc d'essai du TPC ne peut être taxé de subjectivité. Traduit en dollars par tpmC, les ratios montrent que les serveurs NT sont, à performances équivalentes, deux fois moins chers que des serveurs Unix.







Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte