Extrema SG 4000A-E11
Server rack HPC multi GPU
L’Extrema SG 4000A-E11 è un server enterprise per il Deep Learning, configurabile con un massimo di 4 dei più avanzati acceleratori e GPU per il deep learning, capace di raggiungere prestazioni HPC superiori a 4 Peta TensorOps. Con un form factor compatto che ospita 2 unità in altezza, offre prestazioni straordinarie grazie alle CPU EPYCe alla velocità di bus PCI 4.0 e connettività di rete fino a 100 GBit.
Progettato per funzionare 24/7, garantendo la massima affidabilità nelle prestazioni di calcolo ad alta potenza, è ideale per il data center interno, in co-location o come soluzione ospitata.
Extrema SG 4000A-E11 – Deep Learning Server
Se sei alla ricerca di un server ottimizzato per offrire massime prestazioni di addestramento e inferenza del deep learning con elevate esigenze di elaborazione HPC, il server Extrema SG 4000-E11 multi-GPU 2U è un’ottima soluzione.
L’Extrema SG 4000-E11 è basato sull’ASUS ESC4000A-E11 barebone che è alimentato da un processore AMD EPYC™ 7003 con un massimo di 64 core, 128 thread.
Il suo design ottimizzato per GPU con raffreddamento ad alto flusso d’aria consente l’uso di quattro GPU a doppio slot di fascia alta come i modelli NVIDIA A100, Tesla o Quadro.
Configurazione GPU
Scegli la configurazione desiderata tra le GPU NVIDIA più potenti per Deep Learning:
Fino a 4x NVIDIA A100
La NVIDIA A100 è l’ammiraglia della generazione di processori NVIDIA Ampere e l’attuale successore delle leggendarie schede di accelerazione NVIDIA Tesla. La NVIDIA A100 è basata sul processore GA-100 in produzione a 7 nm con 6912 core CUDA, 432 core Tensor di terza generazione e 40 o 80 GB di memoria HBM2 con le più alte velocità di trasferimento dati. Una singola GPU NVIDIA A100 supera già la barriera delle prestazioni peta-TOPS. Quattro acceleratori di questo tipo sommano prestazioni di oltre 1000 teraFLOPS fp32.
NVIDIA A100 è attualmente la scheda di accelerazione di deep learning più efficiente e veloce disponibile.
Fino a 4x NVIDIA RTX 6000 Ada
La RTX ™ 6000 Ada è costruita sulla più recente architettura GPU NVIDIA: Ada Lovelace. È il diretto successore della RTX A6000 e della Quadro RTX 6000. L’RTX 6000 Ada combina 568 Tensor Core di quarta generazione e 18.176 core CUDA® di nuova generazione con 48 GB di memoria grafica per prestazioni di rendering, intelligenza artificiale, grafica e calcolo senza precedenti.
Fino a 4x NVIDIA RTX 3090 Turbo
Costruita sull’architettura NVIDIA Ampere RTX di 2a generazione, la GeForce RTX™ 3090 raddoppia le prestazioni dell’IA con 10496 core CUDA e 328 core Tensor. Offre prestazioni precedentemente disponibili solo dalle GPU di classe NVIDIA Titan. L’RTX 3090 è dotato di 24 GB di memoria GDDR6X. L’Extrema SG 4000-E11 utilizza versioni Turbo della RTX 3090 compatibili con i server.
Fino a 4x NVIDIA RTX A6000
La NVIDIA RTX A6000 è il successore della serie NVIDIA Quadro basato su Ampere. È dotato dello stesso processore GPU (GA-102) dell’RTX 3090, ma tutti i core del processore GA-102 sono abilitati. Supera la RTX 3090 con i suoi core 10752 CUDA e 336 Gen 3 Tensor. Dotato di 48 GB GDDR6 ECC, il doppio della quantità di memoria GPU rispetto al predecessore della Quadro RTX 6000 e della RTX 3090. La NVIDIA RTX A6000 è attualmente la seconda GPU NVIDIA più veloce disponibile, battuta solo dalla NVIDIA A100. È più adatto per le attività che richiedono molta memoria.
Fino a 4x NVIDIA RTX A5000
Con i suoi 8.192 CUDA e 256 core Tensor di 3a generazione, la NVIDIA RTX A5000 è meno potente di una RTX 3090. Tuttavia, con i suoi 230 watt di consumo energetico e 24 GB di memoria, è una scheda acceleratore molto efficiente e soprattutto per le attività di inferenza un’opzione molto interessante.
Tutte le GPU NVIDIA sono supportate da CUDA-X AI SDK di NVIDIA, inclusi cuDNN e TensorRT che alimentano quasi tutti i framework di deep learning più diffusi.
Prestazioni della CPU EPYC
La CPU AMD EPYC di fascia alta progettata per i server offre fino a 64 core con un totale di 128 thread per CPU con un rapporto qualità-prezzo imbattibile.
Le 128 corsie PCI 4.0 disponibili della CPU AMD EPYC consentono la massima interconnessione e velocità di trasferimento dati tra la CPU e le GPU e garantiscono che tutte le GPU siano collegate con una larghezza di banda PCI 4.0 x16 completa.
Una grande quantità di core CPU disponibili può migliorare notevolmente le prestazioni nel caso in cui la CPU venga utilizzata per la pre-elaborazione e la consegna dei dati per alimentare in modo ottimale le GPU con carichi di lavoro.
Fino a 32 TB di storage SSD ad alta velocità
Il Deep Learning è spesso legato a un’elevata quantità di dati da elaborare e archiviare. Un’elevata produttività e velocità di accesso ai dati sono essenziali per tempi di consegna rapidi.
Extrema SG 4000-E11 può essere configurato con un massimo di quattro SSD U.2 NVMe triple level cell (TLC) intercambiabili con una capacità fino a 8 TB ciascuno, che si aggiunge a una capacità totale di 32 TB di storage SSD più veloce. (da verificare perché il configuratore consente di scegliere 3 SSD)
Poiché ciascuno degli SSD è collegato direttamente alla CPU e alla memoria principale tramite corsie PCI 4.0, raggiungono elevate e costanti velocità di lettura e scrittura di 3000 MB/s.
Interfaccia di gestione e connettività elevata
Grazie all’opzione QSFP28 da 100 Gbit/s, è possibile ottenere connessioni ultraveloci alle risorse NAS e ai big data. Inoltre, per lo scambio di dati in un cluster di calcolo distribuito, avere la connettività LAN più veloce è essenziale.
L’Extrema SG 4000-E11 è completamente gestibile con ASMB9 (out-of-band) e ASUS Control Center (in-band) rende possibile un’integrazione di successo dell’Extrema SG 4000-E11 in cluster di server più grandi.
Ottimizzato per applicazioni server multi GPU
L’Extrema SG 4000-E11 offre efficienza energetica con alimentatori ridondanti di grado Platino, che consentono un funzionamento a prova di guasto per lunghi periodi.
La sua tecnologia di controllo termico offre un consumo energetico più efficiente per ambienti su larga scala.