Google stellt seinen neuesten Supercomputer mit künstlicher Intelligenz vor und behauptet, Nvidia zu übertreffen

Hauptsitz von Google in Mountain View, Kalifornien, USA, am 26. September 2022.

Tayfun Coskun | Anadolu Agentur | Getty Images

Google hat Details dazu veröffentlicht Einer seiner Supercomputer für künstliche Intelligenz am Mittwoch und sagte, es sei schneller und effizienter als konkurrierende Nvidia-Systeme, da leistungshungrige Modelle für maschinelles Lernen der heißeste Teil der Technologiebranche bleiben.

Während der Markt für das Training und den Einsatz von KI-Modellen von Nvidia mit mehr als 90 % des Marktes dominiert wird, entwickelt und implementiert Google seit 2016 KI-Chips namens Tensor Processing Units oder TPUs.

Google ist ein führendes Unternehmen auf dem Gebiet der künstlichen Intelligenz, und seine Mitarbeiter haben in den letzten zehn Jahren einige der bedeutendsten Entwicklungen auf diesem Gebiet entwickelt. Einige glauben jedoch, dass es bei der Kommerzialisierung seiner Erfindungen ins Hintertreffen geraten ist, und intern hat das Unternehmen versucht, Produkte auf den Markt zu bringen und zu beweisen, dass es seinen Fortschritt nicht vergeudet hat, ein „Code Red“-Status im Unternehmen, wie CNBC zuvor berichtete.

KI-Modelle und -Produkte wie Googles Bard oder OpenAIs ChatGPT – powered by A100-Chips von Nvidia – erfordert viele Computer und Hunderte oder Tausende von Chips, die zusammenarbeiten, um die Modelle zu trainieren, da Computer wochen- oder monatelang rund um die Uhr arbeiten.

Google sagte am Dienstag, dass es ein System mit mehr als 4.000 TPUs gebaut hat, die mit benutzerdefinierten Komponenten verknüpft sind, die zum Ausführen und Trainieren von Modellen künstlicher Intelligenz entwickelt wurden. Es ist seit 2020 in Betrieb und wurde verwendet, um Googles PaLM-Modell, das mit dem GPT-Modell von OpenAI konkurriert, über 50 Tage zu trainieren.

Siehe auch  Die Aktien schlossen am Donnerstag niedriger, wobei der Dow und der S&P 500 einen dritten Tag lang Verluste verzeichneten

Googles TPU-basierter Supercomputer namens TPU v4 ist „1,2- bis 1,7-mal schneller und verbraucht 1,3- bis 1,9-mal weniger Strom als der Nvidia A100“, schreiben Google-Forscher.

„Die Leistung, Skalierbarkeit und Verfügbarkeit machen TPU v4-Supercomputer zu den Geschäftseinheiten großer Sprachmodelle“, so die Forscher weiter.

Die TPU-Ergebnisse von Google wurden jedoch nicht mit dem neuesten KI-Chip von Nvidia, dem H100, verglichen, da er neuer ist und mit fortschrittlicherer Fertigungstechnologie hergestellt wird, sagten Google-Forscher.

Ein Nvidia-Sprecher lehnte eine Stellungnahme ab. Ergebnisse und Rankings aus einem branchenweiten KI-Chiptest genannt MLperf Sie werden voraussichtlich am Mittwoch entlassen.

Die große Menge an Computerleistung, die für KI benötigt wird, ist teuer, und ein Großteil der Branche konzentriert sich auf die Entwicklung neuer Chips, Komponenten wie optische Verbindungen oder die Entwicklung von Softwaretechnologien, die die erforderliche Computerleistung reduzieren.

Der Leistungsbedarf von KI ist auch ein Segen für Cloud-Anbieter wie Google, Microsoft und Amazon, die Computerverarbeitung stundenweise mieten und Start-ups Kredite oder Rechenzeit für den Aufbau von Beziehungen zur Verfügung stellen können. (Google Cloud verkauft auch Zeit auf Nvidia-Chips.) Zum Beispiel sagte Google, dass Midjourney, ein KI-Bildersteller, auf seinen TPU-Chips trainiert wurde.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert