(Bloomberg) – Microsoft arbeitet mit Advanced Micro Devices Inc. Der Chiphersteller expandiert laut mit der Situation vertrauten Personen im Rahmen einer mehrgleisigen Strategie zur Sicherung begehrterer Komponenten in den Bereich der KI-Prozessoren.
Meistgelesen von Bloomberg
Die Personen, die darum baten, nicht identifiziert zu werden, da die Angelegenheit privat sei, sagten, dass die Unternehmen zusammenarbeiten, um eine Alternative zu Nvidia Corp. , das den Markt für KI-fähige Chips namens GPUs dominiert. Der Softwareriese unterstützt AMDs Bemühungen finanziell und arbeitet mit dem Chiphersteller an einem nativen Microsoft-Prozessor für KI-Workloads mit dem Codenamen Athena.
AMD-Aktien stiegen am Donnerstag um mehr als 6,5 % und Microsoft legte um etwa 1 % zu. Vertreter der beiden Unternehmen lehnten eine Stellungnahme ab. Die Nvidia-Aktie fiel um 1,9 %.
Die Vereinbarung ist Teil eines umfassenderen Vorstoßes zur Erhöhung der KI-Rechenleistung, die nach der Explosion von Chatbots wie ChatGPT und anderen technologiebasierten Diensten dringend benötigt wird. Microsoft ist der größte Anbieter von Cloud-Computing-Diensten und eine treibende Kraft beim Einsatz künstlicher Intelligenz. Das Unternehmen hat 10 Milliarden US-Dollar in OpenAI für die ChatGPT-Branche gesteckt und versprochen, solche Funktionen zu seiner gesamten Software-Suite hinzuzufügen.
Lesen Sie mehr: Microsoft bringt OpenAI-Chatbot-Technologie in Office-Apps
Der Schritt spiegelt auch das starke Engagement von Microsoft in der Chipindustrie wider. Das Unternehmen hat in den letzten Jahren unter dem ehemaligen CEO von Intel Corp, Rani Purkar, die Siliziumsparte aufgebaut, und die Gruppe hat jetzt fast 1.000 Mitarbeiter. Informationen, die im vergangenen Monat über Microsofts Entwicklung des Athena-KI-Chips gemeldet wurden.
Mehrere Hundert solcher Mitarbeiter arbeiten an Project Athena, und Microsoft hat laut einer Person etwa 2 Milliarden US-Dollar für seine Bemühungen um Chips ausgegeben. Doch die Zusage läutet keine Trennung von Nvidia ein. Microsoft beabsichtigt, weiterhin eng mit diesem Unternehmen zusammenzuarbeiten, dessen Chips Tricks für das Training und den Betrieb von KI-Systemen ausführen. Es wird auch versucht, Wege zu finden, um mehr Nvidia-Prozessoren zu bekommen, was den dringenden Mangel unterstreicht, mit dem Microsoft und andere konfrontiert sind.
Die Beziehung von Microsoft zu OpenAI – und seine neu eingeführte Reihe von KI-Diensten – erfordert Rechenleistung auf einem Niveau, das über das hinausgeht, was das Unternehmen erwartet hatte, als es Chips bestellte und Rechenzentren baute. Der ChatGPT-Dienst von OpenAI hat das Interesse von Unternehmen geweckt, die ihn als Teil ihrer eigenen Produkte oder Unternehmensanwendungen verwenden möchten, und Microsoft hat eine chatbasierte Version von Bing und KI-erweiterte Office-Tools eingeführt.
Es aktualisiert auch ältere Produkte wie das Codegenerierungstool von GitHub. Alle diese KI-Programme laufen in Microsofts Azure-Cloud und erfordern teure und leistungsstarke Nvidia-Prozessoren.
Die Region ist auch eine wichtige Priorität für AMD. „Wir freuen uns sehr über unsere Chance im KI-Bereich – das ist unsere strategische Priorität Nr. 1“, sagte CEO Lisa Su während der Telefonkonferenz des Unternehmens am Dienstag. „Wir befinden uns in den sehr frühen Stadien des Computerzeitalters der KI, und die Akzeptanz- und Wachstumsrate ist schneller als bei jeder anderen Technologie in der jüngeren Geschichte.“
Su sagte auch, dass AMD die Möglichkeit hat, teilweise kundenspezifische Chips für seine größten Kunden herzustellen, die sie in ihren KI-Rechenzentren verwenden können.
Aus Bloomberg Businessweek: Tun, nicht nur chatten, ist die nächste Stufe im KI-Hype-Zyklus
Borkars Team bei Microsoft, das auch an Chips für Server und Surface-PCs gearbeitet hat, priorisiert nun Project Athena. Es entwickelt eine GPU, mit der KI-Modelle trainiert und ausgeführt werden können. Eine Person sagte, das Produkt werde bereits intern getestet und könnte bereits im nächsten Jahr allgemein verfügbar sein.
Die Leute sagten, dass selbst wenn das Projekt diesen Zeitplan einhält, die erste Veröffentlichung nur ein Anfangspunkt ist. Es dauert Jahre, einen guten Chip zu bauen, und Nvidia hat einen Vorsprung. Nvidia ist der Chiplieferant der Wahl für viele Anbieter von generativen KI-Tools, einschließlich Amazon.com Inc. und AWS und Google Cloud, von denen sich Elon Musk laut Berichten Tausende für sein junges KI-Geschäft gesichert hat.
Eine Alternative zu Nvidias Aufstellung zu schaffen, wird eine schwierige Aufgabe sein. Dieses Unternehmen bietet ein Paket aus Software und Hardware an, die zusammenarbeiten – einschließlich Chips, Programmiersprache, Netzwerkausrüstung und Server – und es Kunden ermöglichen, ihre Fähigkeiten schnell zu erweitern.
Dies ist einer der Gründe, warum Nvidia so dominant geworden ist. Aber Microsoft ist nicht der Einzige, der versucht, eigene KI-Prozessoren zu entwickeln. Der Cloud-Rivale Amazon hat 2016 Annapurna Labs übernommen und zwei verschiedene KI-Prozessoren entwickelt. Auch Google von Alphabet Inc. hat einen eigenen Trainingschip.
(Aktualisierungen mit Aktienkursen im dritten Absatz.)
Meistgelesen von Bloomberg Businessweek
© 2023 Bloomberg-LP
„Web-Fan. Neigt zu Apathieanfällen. Bierfanatiker. Möchtegern-Denker.“