KI-Workflow - von Inferenzen
Supermicro erweitert das Portfolio an Edge-to-Cloud-KI-Systemen mit beschleunigtem Inferencing und neuer Intelligent-Fabric-Unterstützung
GPU-Systeme ermöglichen KI-Innovationen mit 10-mal schnellerem Data Center to Edge Inferencing und 3-mal schnellerem Training - entscheidend für autonomes Fahren, Fabrikhallen, Video-Streaming und Cloud-Gaming-Anwendungen
Super Micro Computer, Anbieterin von Unternehmenscomputern, Speicher- und Netzwerklösungen sowie grüner Computertechnologie, kündigt die Erweiterung des umfangreichsten Portfolios an GPU-Servern für künstliche Intelligenz (KI) an, die neue NVIDIA-GPUs der Ampere-Familie integrieren, darunter die NVIDIA A100, A30 und A2. Die neuesten NVIDIA-zertifizierten Systeme von Supermicro bieten eine zehnmal höhere KI-Inferenzleistung als frühere Generationen und stellen sicher, dass KI-fähige Anwendungen wie Bildklassifizierung, Objekterkennung, Reinforcement Learning, Empfehlungen, Verarbeitung natürlicher Sprache (NLP) und automatische Spracherkennung (ASR) schnellere Erkenntnisse bei drastisch niedrigeren Kosten liefern können.
Zusätzlich zum Inferencing liefert Supermicros leistungsstarke Auswahl an A100 HGX 8-GPU- und 4-GPU-Servern eine dreimal höhere KI-Trainingsleistung und eine achtmal schnellere Leistung bei Big Data-Analysen im Vergleich zu Systemen der vorherigen Generation. (Super Micro Computer: ra)
eingetragen: 12.11.21
Newsletterlauf: 04.02.22
Sie wollen mehr erfahren?
Gesamtlösung für Cloud-Gaming bietet bis zu 12 Single-Width-GPUs in einem 2U-2-Node-System für überragende Dichte und Effizienz.
Super Micro Computer: Kontakt und Steckbrief
Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.
Ihr PMK-Verlags-Newsletter hier >>>>>>