Nvidia lance la plate-forme de serveur cloud

Pour unifier l’IA et l’informatique haute performance

Espérant maintenir la haute performance en matière d’intelligence artificielle et de calcul haute performance, Nvidia Corp. a lancé mardi dernier une nouvelle architecture informatique qui, selon elle, va unifier les deux secteurs à croissance rapide de l’industrie.

L’annonce de la plate-forme cloud serveur HGX-2 (photo) , réalisée par le directeur général de Nvidia Jensen Huang lors de sa conférence GPU Technology à Taipei, Taiwan, vise de nombreuses nouvelles applications combinant AI et HPC.

"Nous pensons que l’avenir nécessite une plate-forme unifiée pour l’IA et l’informatique haute performance", a déclaré Paresh Kharya, responsable du marketing produit pour le groupe de calcul accéléré de Nvidia, lors d’un appel à la presse mardi.

D’autres sont d’accord. "Je pense que l’ IA va révolutionner le HPC ", a déclaré Karl Freund, analyste senior chez Moor Insights & Strategy, à SiliconANGLE. "Je soupçonne de nombreux centres de calcul intensif de déployer HGX2 car il peut ajouter une capacité de calcul dramatique à la fois pour HPC et AI."

Plus précisément, la nouvelle architecture permet des applications impliquant des calculs scientifiques et des simulations, telles que la prévision météorologique, ainsi que la formation et le fonctionnement de modèles IA tels que les réseaux neuronaux d’apprentissage profonds pour la reconnaissance de l’image et de la parole. des voitures. "Ces modèles sont mis à jour à un rythme sans précédent", parfois aussi souvent que toutes les heures, a déclaré Kharya.

L’ architecture HGX , alimentée par les unités de traitement graphique ou GPU de Nvidia, est un centre de données utilisé dans l’ initiative Project Olympus de Microsoft , les systèmes Big Basin de Facebook Inc. et les supercalculateurs DGX-1 AI de Nvidia, ainsi que des services. du leader du cloud computing public Amazon Web Services Inc. La première version de l’architecture, la HGX-1, a été annoncée il y a un an.

Essentiellement, le HGX-2, qui se compose de 16 des GPU V100 haut de gamme de Nvidia, fournit un bloc de construction pour les fabricants d’ordinateurs pour créer les systèmes qui. En utilisant le système d’interconnexion de puces NVLink de NVIDIA, les 16 GPU ressemblent à un, selon la société, offrant 2 pétaflops, soit 2 quadrillions d’opérations en virgule flottante par seconde, une mesure de vitesse de calcul standard.

"Fondamentalement, vous pouvez maintenant utiliser HGX comme un pool de 16 GPU comme s’il s’agissait d’une seule ressource de calcul très grande", a expliqué Freund.

Nvidia a également déclaré aujourd’hui que son propre supercalculateur DGX-2 AI récemment annoncé était le premier système à utiliser HGX-2. Il se vendra 399 000 $ lorsqu’il sera disponible au troisième trimestre. Huang a blagué sur un livestream de sa conférence keynote que c’est une « grande valeur », bien qu’il ait semblé le signifier aussi bien.

Nvidia a créé trois classes de serveurs qui mélangent des unités centrales de traitement avec des GPU dans des configurations optimales pour la formation IA, pour l’inférence IA ou l’exécution des modèles et pour le calcul intensif.

Kharya a cherché à positionner l’architecture HGX comme similaire au développement par Intel Corp. et Microsoft de la norme de configuration de la carte mère d’ordinateur personnel ATX, ce qui a conduit à une explosion de composants système compatibles fabriqués par de nombreuses entreprises.

Parmi les entreprises qui ont annoncé mardi leurs plans pour construire les systèmes HGX-2, on trouve les fabricants de serveurs Lenovo Group Ltd., Quanta Cloud Technology ou QTC, Super Micro Computer Inc. et Wiwynn Corp. Aussi, les fabricants de design dits Hon Hai Precision Industry Co Foxconn), Inventec Corp., Quanta Computer Inc. et Wistron Corp., dont les systèmes sont utilisés par certains des plus grands centres de données en nuage au monde, ont annoncé qu’ils livreront des systèmes HGX-2 plus tard cette année.

Pendant ce temps, Intel intensifie ses efforts pour étendre sa présence dans le domaine de l’IA, avec une nouvelle puce prévue la semaine dernière et devant sortir fin 2019, que le fabricant de puces a déclaré être conçue pour fabriquer des modèles AI beaucoup plus rapidement. Naveen Rao, directeur du groupe IA d’Intel, a tenté de convaincre Nvidia que les GPU sont bien plus rapides que les derniers processeurs Xeon d’Intel, un « mythe ».

Dans la même rubrique

| 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | ... | 22 |

Actu en image