Extrema SG 8000A-E13

Architettura MGX: scalabilità fluida e massima flessibilità

Extrema SG 8000A-E13P è un server GPU 4U modulare conforme a NVIDIA MGX per AI e HPC enterprise

È un server GPU di nuova generazione progettato per supportare infrastrutture AI enterprise, training di modelli, inferenza LLM e High Performance Computing.
Grazie alla conformità con l’architettura NVIDIA MGX, offre un design modulare e flessibile che consente configurazioni personalizzate e deployment rapidi in ambienti data center su larga scala.

La piattaforma combina potenza CPU di ultima generazione, interconnessioni GPU accelerate e un’infrastruttura di rete ottimizzata per i workload più intensivi.

Configurazione GPU definibile

Scegli la configurazione desiderata tra le più potenti GPU NVIDIA per il Deep Learning e il Rendering:

Fino a 8x NVIDIA H100

NVIDIA H100 è l’ammiraglia della generazione di processori NVIDIA Hopper e il successore delle comuni schede di accelerazione NVIDIA A100. La NVIDIA H100 è basata sul processore GH-100 in produzione TSMC 4N con 14.592 core CUDA, 456 core Tensor di quarta generazione e 80 GB di memoria HBM2. Una singola GPU NVIDIA H100 supera già la barriera delle prestazioni peta-fp16. Otto acceleratori di questo tipo sommano fino a più di 6.000 teraFLOPS tf32 e fino a 72.000 teraTOPS fp8 performance.

NVIDIA H100 è attualmente la scheda di accelerazione di deep learning più efficiente e veloce disponibile.

L’H100 è anche la prima scheda acceleratore che beneficia di velocità di trasferimento fino a 64 GB/s attraverso il bus PCIe 5.0 dell’Extrema SG 8000A-E13.

Fino a 8x NVIDIA A100

La NVIDIA A100 è l’ammiraglia della generazione di processori NVIDIA Ampere e il successore delle leggendarie schede di accelerazione NVIDIA Tesla V100. La NVIDIA A100 è basata sul processore GA-100 in produzione a 7 nm con 6.912 core CUDA, 432 core Tensor di terza generazione e 40 o 80 GB di memoria HBM2 con le più alte velocità di trasferimento dati. Una singola GPU NVIDIA A100 supera già la barriera delle prestazioni peta-TOPS. Otto acceleratori di questo tipo si sommano a oltre 2.000 teraFLOPS fp32 di prestazioni.

Fino a 8x NVIDIA L40S da 48 GB

La NVIDIA L40S è costruita sulla più recente architettura GPU NVIDIA: Ada Lovelace. È il diretto successore della RTX A40 e la versione a raffreddamento passivo della RTX 6000 Ada. L’L40S combina 568 Tensor Core di quarta generazione e 18.176 core CUDA® di nuova generazione con 48 GB di memoria grafica GDDR6 per prestazioni di rendering, intelligenza artificiale, grafica e calcolo senza precedenti.

Fino a 8x NVIDIA RTX 6000 Ada

La RTX™ 6000 Ada è costruita sulla più recente architettura GPU NVIDIA: Ada Lovelace. È il diretto successore della RTX A6000 e della Quadro RTX 8000. L’RTX 6000 Ada combina 568 Tensor Core di quarta generazione e 18.176 core CUDA® di nuova generazione con 48 GB di memoria grafica per prestazioni di rendering, intelligenza artificiale, grafica e calcolo senza precedenti.

Fino a 8x NVIDIA RTX 5000 Ada

La RTX™ 5000 Ada è costruita sulla più recente architettura GPU NVIDIA: Ada Lovelace. È il diretto successore della RTX A5000/A5500 e della Quadro RTX 6000. L’RTX 5000 Ada combina 400 Tensor Core di quarta generazione e 12.800 core CUDA® di nuova generazione con 32 GB di memoria grafica per prestazioni di rendering, intelligenza artificiale, grafica e calcolo convincenti.

Fino a 8x NVIDIA RTX A5000

Con i suoi 8.192 CUDA e 256 core Tensor della generazione Ampere, la NVIDIA RTX A5000 ha circa le prestazioni di una RTX 3090. Tuttavia, con i suoi 230 watt di consumo energetico e 24 GB di memoria, è una scheda acceleratore molto efficiente e soprattutto per le attività di inferenza un’opzione molto interessante.

Tutte le GPU NVIDIA sono supportate dall’SDK AI CUDA-X di NVIDIA, inclusi cuDNN e TensorRT, che alimentano quasi tutti i framework di deep learning più diffusi.

Accelerazione GPU ad alta densità e interconnessioni avanzate

Extrema SG 8000A-E13P, conforme all’architettura NVIDIA MGX, è progettato per offrire una topologia ottimizzata CPU–GPU–DPU e supporta fino a otto GPU a doppio slot da 600 W collegate tramite PCIe Gen5, con possibilità di integrazione di NVIDIA® NVLink™ Bridge a 2 o 4 vie per aumentare la banda di comunicazione tra GPU.

  • elevata larghezza di banda tra GPU e CPU
  • riduzione della latenza nelle comunicazioni inter-GPU
  • maggiore efficienza nei carichi di lavoro AI e HPC

La piattaforma supporta inoltre NIC ad alta velocità e NVIDIA BlueField®-3 DPU, rendendola ideale per cluster di calcolo e infrastrutture AI distribuite.

Potenza CPU di nuova generazione con AMD EPYC

Extrema SG 8000A-E13P integra due socket SP5 per processori AMD EPYC™ serie 9005/9004, offrendo:

  • fino a 192 core Zen 5/5c per CPU
  • supporto a DDR5 fino a 6400 MT/s
  • capacità di memoria fino a 3 TB su 24 slot DIMM

Questa configurazione garantisce un’elevata capacità di elaborazione per la gestione dei flussi dati, la pre-elaborazione e l’orchestrazione efficiente dei carichi di lavoro GPU in ambienti enterprise e HPC.

Storage NVMe ad alte prestazioni e flessibilità di configurazione

Il server supporta configurazioni storage basate su SSD NVMe ad alte prestazioni con bay frontali hot-swap e supporto a controller HBA/RAID, consentendo di bilanciare capacità, throughput e resilienza in base alle esigenze applicative.

  • supporto a storage NVMe per dataset di grandi dimensioni
  • possibilità di configurazioni con controller RAID hardware
  • tempi di accesso ridotti per training e inferenza AI

Questa architettura è ideale per la gestione di dataset estesi, checkpoint di training e workload I/O intensivi.

Progettato per il data center: affidabilità e gestione remota

Extrema SG 8000A-E13P è progettato per ambienti mission-critical e integra:

  • gestione remota out-of-band ASMB12-iKVM con BMC AST2600
  • alimentatori ridondanti 3+1 da 3200 W certificati 80 PLUS Titanium
  • moduli di ventilazione hot-swap ad alta efficienza

Il design tool-less esclusivo ASUS consente interventi rapidi di manutenzione, riducendo i tempi di fermo e semplificando la gestione operativa nei data center su larga scala.

Ideale per

Extrema SG 8000A-E13P è la piattaforma ideale per:

  • AI Training su larga scala
  • Inferenza LLM ad alte prestazioni
  • High Performance Computing (HPC)
  • Cluster GPU e infrastrutture AI enterprise

Una soluzione progettata per supportare la crescita delle infrastrutture AI con modularità, scalabilità e affidabilità operativa.

Richiedi un preventivo

















    SiComputer si impegna a proteggere e rispettare la privacy degli utenti: le informazioni personali raccolte vengono utilizzate solo per amministrare gli account e fornire i prodotti e servizi richiesti. Gli utenti potrebbero essere contatti con suggerimenti su prodotti, servizi o altri contenuti che a nostro giudizio potrebbero interessare loro.

    Se non accetti non potremo dare seguito alla tua richiesta. Puoi annullare l'iscrizione alle comunicazioni in qualsiasi momento. Per ulteriori informazioni su come eseguire questa operazione, consultare la nostra policy sulla protezione e rispetto della privacy, leggi la nostra Informativa sulla privacy.
    Facendo clic sul pulsante "Richiedi una quotazione", si consente a SiComputer di archiviare e utilizzare le informazioni per fornire il contenuto richiesto.
    Inserisci i seguenti caratteri per dimostrare che non sei un bot: captcha