Diferencia entre revisiones de «InfiniBand»

Contenido eliminado Contenido añadido
Jdelatorr (discusión · contribs.)
Jdelatorr (discusión · contribs.)
Línea 37:
Sin embargo, el uso dado a Infiniband ha sido incluso menor. Hoy en día se usa en su mayor parte para [[Cluster (informática)|clústeres]] de alto rendimiento, aunque ha habido esfuerzos para adaptar el estándar a conexiones entre máquinas de bajo coste para aplicaciones comerciales y técnicas más usuales. Del [[TOP500]] de Supercomputadores, unas cuantas han usado Infiniband incluyendo el [[System X]] de Virginia Tech.
 
A pesar de no haberse convertido en la tecnología de red multiuso, Infiniband está teniendo más éxito que otras soluciones de conexión entre computadoras, como [[Quadrics]] ([[:en:QsNet|QsNet]]) y [[Myricom]] ([[Myrinet]]). En el segmento de las supercomputadoras, la competencia de Infiniband sigue siendo el bajo costo y relativa difusión de [[Gigabit Ethernet]]. Además, los profesionales de redes e informática poseen un vasto conocimiento y experiencia en instalación de Ethernet. Conforme gigabit Ethernet evolucione hacia 10-gigabit Ethernet, Infiniband se enfrentará a una competencia aún más dura. Infiniband conservará un throughput máximo global mayor (en hardware QDR), pero al nivel de 10 Gbit/s y niveles inferiores, la ventaja principal de Infiniband es su arquitectura (más que su velocidad). Otros competidores con Infiniband son las diversas TCP y Ethernet mejoradas, como [[:en:TCP offload engine|TCP Offload Engine]], y [[Remote Direct Memory Access | RDMA]] Ethernet.
Recientemente, [[Silicon Graphics|SGI]] ha presentado productos de almacenamiento con "adaptadores objetivo" Infiband.