Van rackintegratie tot AI- en cloudsystemen: MSI presenteert een full-spectrum serverportfolio tijdens COMPUTEX 2025

TAIPEI, 20 mei 2025 /PRNewswire/ — MSI, een wereldleider in serveroplossingen met hoogwaardige prestaties, zal op COMPUTEX 2025 opnieuw aanwezig zijn (Stand #J0506) met haar meest uitgebreide line-up tot nu toe. MSI demonstreert er integratie op rack-niveau, modulaire cloud-infrastructuur, met AI geoptimaliseerde GPU-systemen en serverplatformen voor bedrijven en presenteert volledig geïntegreerde EIA, OCP ORv3 en NVIDIA MGX racks, op DC-MHS gebaseerde Core Compute-servers en het nieuwe NVIDIA DGX Station. Samen benadrukken deze systemen MSI’s groeiende capaciteit om implementatieklare, op workloads afgestemde infrastructuren te leveren voor hyperscale-, cloud- en bedrijfsomgevingen.

“De toekomst van data-infrastructuur is modulair, open en geoptimaliseerd voor workloads,” verklaart Danny Hsu, algemeen directeur van MSI’s Enterprise Platform Solutions. “Op COMPUTEX 2025 laten we zien hoe MSI zich ontwikkelt tot een full-stack serverprovider, die geïntegreerde platformen levert die onze klanten helpen AI-, cloud- en bedrijfsimplementaties efficiënter en flexibeler op schaal te brengen.”

Volledige rackintegratie van cloud tot AI-datacenters
MSI bewijst haar expertise op gebied van rackintegratie met volledig geconfigureerde EIA 19″, OCP ORv3 21″ en AI-racks aangestuurd door NVIDIA MGX, ontworpen om moderne infrastructuren aan te drijven, van op de cloud gebaseerde computerverwerkingen tot met AI geoptimaliseerde implementaties. Elke rack is vooraf geïntegreerd en thermisch geoptimaliseerd, klaar voor implementatie en afgestemd op specifieke workloads. Samen benadrukken ze MSI’s vermogen om een complete, voor workloads geoptimaliseerde infrastructuur te leveren, van ontwerp tot implementatie.

  • De EIA-rack levert dichte computerverwerking voor privé cloud- en virtualisatieomgevingen en integreert kerninfrastructuur in een standaard 19″ formaat.
  • De OCP ORv3-rack heeft een 21″ open chassis, waardoor een hogere computerverwerkings- en opslagdichtheid, efficiënte 48V-voeding en OpenBMC-compatibel beheer mogelijk zijn, ideaal voor hyperscale en softwaregedefinieerde datacenters.
  • De Enterprise AI-rack met NVIDIA MGX, gebouwd op de NVIDIA Enterprise Reference Architecture, maakt schaalbare GPU-infrastructuur voor AI en HPC mogelijk. Met modulaire eenheden en netwerken voor grote doorvoer aangestuurd door NVIDIA Spectrum™-X, ondersteunt het multi-node schaalbare eenheidimplementaties geoptimaliseerd voor grootschalige training, inferentie en hybride workloads.

Core Compute- en Open Compute-servers voor modulaire cloudinfrastructuur
MSI breidt haar Core Compute-assortiment uit met zes DC-MHS-servers aangestuurd door AMD EPYC 9005 Series- en Intel Xeon 6-processoren in 2U4N- en 2U2N-configuraties. De portfolio is ontworpen voor schaalbare cloudimplementaties en omvat nodes met hoge dichtheid en vloeistof- of luchtkoeling en compacte systemen die geoptimaliseerd zijn voor een efficiënt gebruik van stroom en ruimte. Met ondersteuning voor OCP DC-SCM, PCIe 5.0 en DDR5 DRAM, maken deze servers modulaire, platformoverschrijdende integratie en vereenvoudigd beheer mogelijk in privé, hybride en edge cloudomgevingen.

Om de integratieflexibiliteit van Open Compute verder te vergroten, introduceert MSI de CD281-S4051-X2, een 2OU 2-Node ORv3 Open Compute-server gebaseerd op DC-MHS architectuur. Geoptimaliseerd voor hyperscale cloudinfrastructuur, ondersteunt het een enkele AMD EPYC 9005-processor per node, biedt het hoge opslagdichtheid met twaalf E3.S NVMe-stations per node en integreert het efficiënte 48V-voeding en OpenBMC-compatibel beheer, waardoor het ideaal is voor via software gedefinieerde en energiebewuste cloudomgevingen.

AMD EPYC 9005-serie op processor gebaseerd platform voor dichte virtualisatie en schaalvergrotende workloads

  • CD270-S4051-X4 (vloeistofkoeling)

    Een vloeistofgekoelde 2U 4-Node server met ondersteuning tot 500W TDP. Elk node heeft 12 DDR5 DIMM-slots en 2 U.2 NVMe-schijfstations, ideaal voor dichte computerverwerking in cloud-implementaties met thermische beperkingen.
  • CD270-S4051-X4 (luchtkoeling)

    Dit luchtgekoelde 2U 4-Node systeem ondersteunt tot 400 W TDP en levert energiezuinige computerverwerking, met 12 DDR5 DIMM-slots en 3 U.2 NVMe-stations per node. Ontworpen voor virtualisatie, containerhosting en privé cloudclusters.
  • CD270-S4051-X2

    Een 2U 2-Node server geoptimaliseerd voor ruimtebesparing en computerverwerkingsdichtheid. Elke node bevat 12 DDR5 DIMM-slots en 6 U.2 NVMe-stations, waardoor het geschikt is voor universele virtualisatie- en edge cloud-knooppunten.

Intel Xeon 6 op processor gebaseerd platform voor gecontaineriseerde en universele cloudservices

  • CD270-S3061-X4

    Een 2U 4-Node Intel Xeon 6700/6500-server met ondersteuning voor 16 DDR5 DIMM-slots en 3 U.2 NVMe-stations per node. Ideaal voor gecontaineriseerde services en gemengde cloudworkloads die evenwichtige computerverwerkingsdichtheid vereisen.
  • CD270-S3061-X2

    Dit compacte 2U 2-Node Intel Xeon 6700/6500-systeem heeft 16 DDR5 DIMM-slots en 6 U.2 NVMe-stations per node, en levert krachtige computerverwerkings- en opslagmogelijkheden voor kerninfrastructuur en schaalbare cloudservices.
  • CD270-S3071-X2

    Een 2U 2-Node Intel Xeon 6900-systeem ontworpen voor I/O-zware workloads, met 12 DDR5 DIMM-slots en 6 U.2-stations per node. Geschikt voor opslaggerichte toepassingen en gegevensintensieve toepassingen in de cloud.

AI-platformen met NVIDIA MGX & DGX Station voor AI-implementatie
MSI presenteert een uitgebreide reeks platformen uitgerust voor AI, waaronder op NVIDIA MGX gebaseerde servers en het DGX Station gebouwd op NVIDIA Grace en Blackwell-architectuur. Het MGX-assortiment omvat 4U en 2U vormfactoren geoptimaliseerd voor AI training en inferentie met hoge densiteit, terwijl het DGX Station prestaties van datacenter-klasse levert in een desktopchassis voor on-premise modelontwikkeling en edge AI-integratie.

AI-platformen met NVIDIA MGX

  • CG480-S5063 (Intel) / CG480-S6053 (AMD)

    De 4U MGX GPU-server is beschikbaar in twee CPU-configuraties, CG480-S5063 met dual Intel Xeon 6700/6500-processors en CG480-S6053 met dual AMD EPYC 9005 serie-processors, wat flexibiliteit in CPU-ecosystemen verzekert. Beide systemen ondersteunen tot 8 FHFL PCIe 5.0 GPU’s met dubbele bandbreedte in luchtgekoelde datacenteromgevingen, waardoor ze ideaal zijn voor deep learning-training, generatieve AI en inferentie met hoge doorvoer.

    De op Intel gebaseerde CG480-S5063 heeft 32 DDR5 DIMM-slots en ondersteunt tot 20 E1.S NVMe-stations aan de voorzijde, ideaal voor geheugen- en I/O-intensieve deep learning-pijplijnen, waaronder grootschalige LLM-workloads, NVIDIA OVX™ en digital twin-simulaties.

  • CG290-S3063

    Een compacte 2U MGX-server met één Intel Xeon 6700/6500-processor, die 16 DDR5 DIMM-slots en 4 FHFL GPU-slots met dubbele breedte ondersteunt. Ontworpen voor edge-inferenties en lichte AI-training, is het geschikt voor ontplooiingen met beperkte ruimte waar inferentielatentie en energiezuinigheid van groot belang zijn.

DGX Station 

De CT60-S8060 is een krachtig AI-station met hoogwaardige prestaties, gebouwd op de NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip die tot 20 PFLOPS aan AI-prestaties en 784 GB aan verenigd geheugen voorziet. Het is ook uitgerust met de NVIDIA ConnectX-8 SuperNIC, die netwerken tot 800 GB/s mogelijk maakt voor snelle gegevensoverdracht en schaalbaarheid voor meerdere knooppunten. Het systeem is ontworpen voor on-premise modeltraining en inferentie, het ondersteunt workloads van meerdere gebruikers en kan werken als een standalone AI-werkstation of een gecentraliseerde computerverwerkingsbron voor R&D-teams.

Foto – https://mma.prnewswire.com/media/2688106/From_Rack_Integration_to_AI_and_Cloud_Systems_MSI_Debuts_Full_Spectrum_Server_Portfolio_at_COMPUTEX.jpg


Go to Source