24 Zen 4 CPU-Kerne, 146 Milliarden Transistoren, 128 GB HBM3, bis zu 8x schneller als MI250X

AMD hat gerade seine Spezifikationen bestätigt MI300 Instinkt CDNA 3-Beschleuniger, der 4 Zen-CPU-Kerne in einem 5-nm-3D-Chipsatzpaket verwendet.

AMD Instinct MI300 „CDNA 3“-Spezifikationen: 5-nm-Chiplet-Design, 146 Milliarden Transistoren, 24-Kern-Zen-4-CPU, 128 GB HBM3

Die neuesten enthüllten Spezifikationen des AMD Instinct MI300-Beschleunigers bestätigen, dass diese APU ein Biest eines Chipdesigns sein wird. Die CPU wird mehrere 5-nm-3D-Chippakete enthalten, die alle zusammen 146 Milliarden Transistoren beherbergen. Diese Transistoren umfassen viele grundlegende IP-Adressen, Speicherschnittstellen, Verbindungen und vieles mehr. Die CDNA 3-Architektur ist die Kern-DNA des Instinct MI300, aber die APU verfügt auch über insgesamt 24 Zen 4-Rechenzentren und 128 GB HBM3-Speicher der nächsten Generation, die in einer 8192-Bit-breiten Buskonfiguration ausgeführt werden, was wirklich ziemlich durchgebrannt ist.

Während des AMD Financial Day 2022 bestätigte das Unternehmen, dass der MI300 ein Multi-Chip- und Multi-IP-Instinct-Beschleuniger sein wird, der nicht nur über CDNA-3-GPU-Kerne der nächsten Generation verfügt, sondern auch mit Zen-4-CPU-Kernen der nächsten Generation ausgestattet ist.

Um mehr als 2 Exaflops Dual-Precision-Rechenleistung zu ermöglichen, haben sich das US-Energieministerium, das Lawrence Livermore National Laboratory und HPE mit AMD zusammengetan, um El Capitan zu entwickeln, der voraussichtlich der schnellste Supercomputer der Welt sein wird und Anfang 2023 ausgeliefert werden soll El Capitan wird die Vorteile von El Capitan-Produkten nutzen.Next Generation enthält Verbesserungen von Frontiers benutzerdefiniertem Prozessordesign.

  • Die nächste Generation von AMD EPYC-Prozessoren mit dem Codenamen „Genoa“ wird über einen „Zen 4“-Prozessorkern verfügen, um Speicher- und I/O-Subsysteme der nächsten Generation für KI- und HPC-Workloads zu unterstützen.
  • AMD Instinct GPUs der nächsten Generation, die auf einer neuen rechenoptimierten Architektur für HPC- und KI-Workloads basieren, werden Speicher der nächsten Generation mit hoher Bandbreite für optimale Deep-Learning-Leistung verwenden.

Dieses Design wird sich durch die Analyse von KI- und maschinellen Lerndaten auszeichnen, um Modelle zu erstellen, die schneller und genauer sind und in der Lage sind, die Unsicherheit in ihren Vorhersagen zu messen.

über AMD

In seinem neuesten Leistungsvergleich gibt AMD an, dass das Instinct Mi300 eine 8-fache Steigerung der KI-Leistung (TFLOPs) und eine 5-fache KI-Leistung pro Watt (TFLOPs/Watt) gegenüber dem Instinct MI250X bietet.

Siehe auch  Chinesische Social-Media-Nutzer verspotten Videos zum Versagen von KI auf urkomische Weise

AMD wird sowohl die 5-nm- als auch die 6-nm-Prozessknoten für die Instinct MI300 „CDNA 3“-CPUs verwenden. Der Chip wird mit dem Infinity Cache der nächsten Generation ausgestattet sein und über die Infinity-Architektur der vierten Generation verfügen, die die Unterstützung des CXL 3.0-Ökosystems ermöglicht. Der Instinct MI300-Beschleuniger wird die einheitliche Speicherarchitektur der APU und mathematische neue Formate rocken und eine 5-fache Leistung pro Watt gegenüber CDNA 2 ermöglichen, was enorm ist. Gegenüber den auf CDNA 2 basierenden Beschleunigern Instinct MI250X senkt AMD auch die KI-Leistung um mehr als das 8-Fache.

Die AMD Instinct MI300 APU-Beschleuniger werden voraussichtlich Ende 2023 verfügbar sein, was ungefähr zum Zeitpunkt der Veröffentlichung des oben genannten El Capitan-Supercomputers ist.

Teilen Sie diese Geschichte

Facebook

Twitter

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert