De l’intégration de rack à l’IA et aux systèmes en nuage : MSI présente une gamme complète de serveurs au COMPUTEX 2025

TAIPEI, 20 mai 2025 /PRNewswire/ — MSI, leader mondial des solutions de serveurs haute performance, revient au COMPUTEX 2025 (Stand J0506) avec sa gamme la plus complète à ce jour. Avec son intégration au niveau du rack, son infrastructure cloud modulaire, ses systèmes GPU optimisés pour l’IA et ses plateformes de serveurs d’entreprise, MSI présente des racks EIA, OCP ORv3 et NVIDIA MGX entièrement intégrés, des serveurs Core Compute basés sur DC-MHS et la nouvelle station NVIDIA DGX. Ensemble, ces systèmes soulignent la capacité croissante de MSI à proposer des infrastructures prêtes au déploiement et adaptées aux charges de travail dans des environnements hyperscale, cloud et d’entreprise.

« L’avenir de l’infrastructure de données est modulaire, ouvert et optimisé en fonction des charges de travail », a déclaré Danny Hsu, directeur général de MSI’s Enterprise Platform Solutions. « Au COMPUTEX 2025, nous montrons dans quelle mesure MSI a vocation à devenir un fournisseur de serveur généraliste, en proposant des plateformes intégrées qui aident nos clients à mettre à l’échelle les déploiements d’IA, de cloud et d’entreprise avec plus d’efficacité et de flexibilité. »

Intégration complète du cloud aux centres de données d’IA
MSI démontre son expertise en matière d’intégration au niveau des racks avec des racks EIA 19″, OCP ORv3 21″ et IA entièrement configurés et optimisés par NVIDIA MGX, conçus pour alimenter les infrastructures modernes, du calcul cloud natif aux déploiements optimisés pour l’IA. Pré-intégré et optimisé d’un point de vue thermique, chaque rack est prêt à être déployé et adapté à des charges de travail spécifiques. Ensemble, ils mettent en évidence la capacité de MSI à proposer une infrastructure complète et optimisée en fonction des charges de travail, de la conception au déploiement.

  • Le rack EIA assure une densité de calcul pour les environnements de cloud privé et de virtualisation, en intégrant l’infrastructure de base dans un format standard de 19 pouces.
  • Le rack OCP ORv3 est doté d’un châssis ouvert de 21 pouces, permettant une plus grande densité de calcul et de stockage, une alimentation efficace de 48 V et une gestion compatible OpenBMC, idéale pour les centres de données hyperscale et définis par logiciel.
  • Le rack d’IA d’entreprise avec NVIDIA MGX, reposant sur l’architecture de référence d’entreprise de NVIDIA, permet une infrastructure de GPU évolutive pour l’IA et le calcul de haute performance. Doté d’unités modulaires et d’une mise en réseau à haut débit optimisée par NVIDIA Spectrum™-X, il prend en charge les déploiements d’unités évolutives multi-nœuds optimisées pour l’entraînement à grande échelle, l’inférence et les charges de travail hybrides.

Serveurs Core Compute et Open Compute pour une infrastructure Cloud modulaire
MSI élargit sa gamme Core Compute avec six serveurs DC-MHS équipés de processeurs AMD EPYC 9005 Series et Intel Xeon 6 dans des configurations 2U4N et 2U2N. Conçue pour des déploiements cloud évolutifs, la gamme comprend des nœuds à haute densité avec refroidissement par liquide ou par air et des systèmes compacts optimisés en termes d’efficacité énergétique et d’encombrement. Avec la prise en charge de l’OCP DC-SCM, du PCIe 5.0 et de la DRAM DDR5, ces serveurs permettent une intégration modulaire et multiplateforme, ainsi qu’une gestion simplifiée dans les environnements de cloud privé, hybride et périphérique.

Pour améliorer encore la flexibilité des déploiements Open Compute, MSI présente le CD281-S4051-X2, un serveur Open Compute 2OU 2 nœuds ORv3 reposant sur l’architecture DC-MHS. Optimisé pour les infrastructures cloud hyperscale, il prend en charge un seul processeur AMD EPYC 9005 par nœud, offre une importante densité de stockage avec douze racks E3.S NVMe par nœud, et intègre une alimentation efficace de 48 V et une gestion compatible OpenBMC, ce qui en fait la solution idéale pour les environnements cloud définis par logiciel et à faible consommation d’énergie.

Plateforme basée sur le processeur AMD EPYC 9005 pour une virtualisation dense et des charges de travail évolutives

  • CD270-S4051-X4 (refroidissement liquide)

    Serveur 2U 4 nœuds à refroidissement liquide prenant en charge un TDP de 500 W. Chaque nœud dispose de 12 emplacements DIMM DDR5 et de 2 baies de disque NVMe U.2, idéales pour les calculs denses dans les déploiements cloud soumis à des contraintes thermiques.
  • CD270-S4051-X4 (refroidissement par air)

    Ce système 2U 4 nœuds à refroidissement par air prend en charge un TDP de 400 W et assure un calcul économe en énergie, avec 12 emplacements DIMM DDR5 et 3 baies NVMe U.2 par nœud. Conçu pour la virtualisation, l’hébergement de conteneurs et les clusters de clouds privés.
  • CD270-S4051-X2

    Serveur 2U à 2 nœuds optimisé pour l’optimisation de l’espace et la densité de calcul. Chaque nœud comprend 12 emplacements DIMM DDR5 et 6 baies NVMe U.2, ce qui le rend adapté à la virtualisation polyvalente et aux nœuds cloud de périphérie.

Plateforme basée sur le processeur Intel Xeon 6 pour les services cloud conteneurisés et à usage général

  • CD270-S3061-X4

    Serveur 2U 4 nœuds Intel Xeon 6700/6500 prenant en charge 16 emplacements DIMM DDR5 et 3 baies NVMe U.2 par nœud. Idéal pour les services conteneurisés et les charges de travail cloud mixtes nécessitant une densité de calcul équilibrée.
  • CD270-S3061-X2

    Ce système compact 2U à 2 nœuds Intel Xeon 6700/6500 dispose de 16 emplacements DIMM DDR5 et de 6 baies NVMe U.2 par nœud, offrant de solides capacités de calcul et de stockage pour l’infrastructure de base et les services cloud évolutifs.
  • CD270-S3071-X2

    Système 2U à 2 nœuds Intel Xeon 6900 conçu pour les charges de travail lourdes en E/S, avec 12 emplacements DIMM DDR5 et 6 baies U.2 par nœud. Convient aux applications axées sur le stockage et aux applications à forte intensité de données dans le cloud.

Plateformes d’IA avec NVIDIA MGX et station DGX pour le déploiement de l’IA
MSI présente une gamme complète de plateformes prêtes pour l’IA, y compris des serveurs basés sur NVIDIA MGX et la station DGX reposant sur l’architecture NVIDIA Grace et Blackwell. La gamme MGX comprend des facteurs de forme 4U et 2U optimisés pour l’entraînement et l’inférence IA à haute densité, tandis que la station DGX offre des performances dignes d’un centre de données dans un châssis de bureau pour le développement de modèles sur site et le déploiement de l’IA en périphérie.

Plateformes d’IA avec NVIDIA MGX

  • CG480-S5063 (Intel) / CG480-S6053 (AMD)

    Le serveur 4U MGX GPU est disponible en deux configurations CPU, CG480-S5063 avec deux processeurs Intel Xeon 6700/6500, et CG480-S6053 avec deux processeurs AMD EPYC 9005 Series, offrant une flexibilité à travers les écosystèmes CPU. Les deux systèmes prennent en charge jusqu’à 8 GPU PCIe 5.0 double largeur FHFL dans des environnements de centre de données refroidis par air, ce qui en fait la solution idéale pour l’entraînement Deep Learning, l’IA générative et l’inférence à haut débit.

    Le CG480-S5063 Intel dispose de 32 emplacements DIMM DDR5 et prend en charge jusqu’à 20 baies NVMe E1.S en façade, idéales pour les pipelines Deep Learning à forte intensité de mémoire et d’E/S, notamment les charges de travail LLM à grande échelle, NVIDIA OVX™ et les simulations de jumeaux numériques.

  • CG290-S3063

    Serveur MGX compact 2U équipé d’un seul processeur Intel Xeon 6700/6500, prenant en charge 16 emplacements DIMM DDR5 et 4 emplacements GPU FHFL double largeur. Conçu pour l’inférence de périphérie et l’entraînement d’IA léger, il convient aux déploiements limités en espace où la latence d’inférence et l’efficacité énergétique sont essentielles.

Station DGX 

La CT60-S8060 est une station d’IA haute performance équipée de la puce NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip, délivrant jusqu’à 20 pétaflops de performances IA et 784 Go de mémoire unifiée. Elle est également équipée du SuperNIC NVIDIA ConnectX-8, qui permet une mise en réseau jusqu’à 800 Gb/s pour un transfert de données à grande vitesse et une mise à l’échelle multi-nœuds. Conçu pour l’entraînement et l’inférence de modèles sur site, le système assure des charges de travail multi-utilisateurs et peut fonctionner comme une station de travail d’IA autonome ou comme une ressource informatique centralisée pour les équipes de recherche et développement.

Photo – https://mma.prnewswire.com/media/2688106/From_Rack_Integration_to_AI_and_Cloud_Systems_MSI_Debuts_Full_Spectrum_Server_Portfolio_at_COMPUTEX.jpg


Go to Source