- Infiniband
-
InfiniBand
L'infiniBand est un bus d'ordinateur à haut-débit. Il est destiné aussi bien aux communications internes qu'externes. Il est le fruit de la fusion de deux technologies concurrentes, Future I/O, développée par Compaq, IBM, et Hewlett-Packard, avec Next Generation I/O (ngio), développée par Intel, Microsoft, et Sun Microsystems. Pendant un bref temps avant l'adoption de son nom définitif, il fut aussi nommé System I/O. Intel s'est depuis ré-investi dans une technologie quasiment alternative, le bus PCI Express, exprimant ses doutes sur le futur de l'infiniBand.
L'infiniBand utilise un bus bi-directionnel à faible coût, et bénéficiant d'une latence faible. Mais il reste malgré tout fort rapide, puisqu'il fournit un débit de 10 Gbit/s dans chaque direction. L'infiniBand utilise une technologie permettant à plusieurs périphériques d'accéder en même temps au réseau. Les données sont transmises sous la forme de paquets, qui, rassemblés, forment des messages.
L'infiniBand est aujourd'hui très utilisé dans le monde du HPC (High Performance Computing) sous forme de cartes PCI-X ou PCI-Express nommées HCA (Host Channel Adapter) fonctionnant à 10 Gbit/s (SDR, Single Data Rate), 20 Gbit/s (DDR, Double Data Rate) ou 40 Gbit/s (QDR, Quad Data Rate). Ce réseau spécialisé nécessite aussi l'utilisation de switchs (ou commutateurs) InfiniBand ainsi que des câbles cuivre de types CX4 ou Fibre pour les longues distances (en utilisant un adaptateur CX4 vers Fibre).
Le protocole InfiniBand permet d'utiliser ces cartes de façon native en faisant usage du protocole VERBS ou avec des surcouches logicielles :
- IPoIB (IP sur InfiniBand) qui présente une couche Ethernet au-dessus de l'infiniband et donc la possibilité de configurer un réseau IP sur les ports InfiniBand.
- SDP (Sockets Direct Protocol) qui présente une couche socket au-dessus de l'infiniband.
- SRP (SCSI RDMA Protocol) qui permet d'encapsuler des trames SCSI à travers l'infiniband. Certains constructeurs proposent des baies de stockage reliées en InfiniBand plutôt qu'en Fiber Channel.
Ces surcouches offrent des performances inférieures au protocole natif, mais sont plus faciles à utiliser car elles ne nécessitent pas le redéveloppement des applications pour utiliser le réseau InfiniBand. Dans le monde du HPC les librairies MPI (Message Passing Interface) utilisent en général la couche native VERBS directement pour offrir les meilleures performances possibles.
Aujourd'hui chaque constructeur de matériel InfiniBand propose sa propre couche de pilote et de protocole. Mais il est possible d'utiliser la couche standard OpenIB (présente de base dans les noyaux Linux récents et dans certaines distributions Gnu/Linux), qui est compatible avec toutes les cartes InfiniBand.
Liens externes
- (en) Une introduction à l'architecture infiniBand
- (en) Le site officiel de la InfiniBand Trade Association
- (en) Le projet concernant l'implantation dans Linux
- (en) OpenFabrics Alliance
- (en) Wiki OpenIB, accès aux développements OpenIB, plus accès à la bibliothèque MPI (mpich) pour Infiniband → MVAPICH
Catégorie : Bus informatique
Wikimedia Foundation. 2010.