TechSpielWelt

Nvidia und Meta: Großauftrag über Millionen von KI-Chips

Nvidia und Meta schließen eine mehrjährige Partnerschaft über Millionen von Blackwell- und Rubin-Chips sowie Grace- und Vera-CPUs für Rechenzentren ab.


19.02.2026 09:57|0|3|Google News
Nvidia und Meta: Großauftrag über Millionen von KI-Chips

Nvidia hat eine mehrjährige und generationenübergreifende strategische Zusammenarbeit mit Meta angekündigt, die sich auf die Infrastruktur für künstliche Intelligenz konzentriert. Im Rahmen der Vereinbarung wird Meta Millionen von Nvidia-KI-Chips der aktuellen und nächsten Generation in seinen Rechenzentren einsetzen. Die Partnerschaft umfasst interne Systeme, Cloud-Infrastrukturen und groß angelegte KI-Cluster.

Nvidia und Meta: Großauftrag über Millionen von KI-Chips

Die Vereinbarung, deren finanzielles Volumen nicht bekannt gegeben wurde, umfasst Nvidias Blackwell-GPUs, die sich in der Entwicklung befindliche Rubin-GPU-Architektur sowie die für eigenständige Installationen geeigneten Grace- und Vera-Zentraleinheiten (CPUs). Diese Prozessoren stehen in direktem Wettbewerb mit den Rechenzentrumslösungen von Intel und AMD.

Blackwell- und Rubin-GPUs in Meta-Rechenzentren

Meta plant, seine Hyperscale-Rechenzentren so umzustrukturieren, dass sie sowohl für das KI-Training als auch für Inferenzprozesse optimiert sind. In diesem Zusammenhang werden Nvidia GB300-basierte Systeme implementiert und eine einheitliche Architektur geschaffen, die sowohl interne Rechenzentren als auch die Infrastruktur der Nvidia Cloud Partner umfasst.

Nvidia und Meta: Großauftrag über Millionen von KI-Chips

Nvidia-CEO Jensen Huang betonte, dass Meta eine KI-Infrastruktur im industriellen Maßstab für Personalisierungs- und Empfehlungssysteme aufbaut, die Milliarden von Nutzern bedienen. Er erklärte, dass dank tiefgreifender Co-Design-Arbeiten auf CPU-, GPU-, Netzwerk- und Softwareebene die gesamte Nvidia-Plattform den Forschern und Ingenieuren von Meta zur Verfügung stehe.


Meta-CEO Mark Zuckerberg erklärte hingegen, dass die Zusammenarbeit die Vision einer „persönlichen Superintelligenz“ auf globaler Ebene unterstützen werde, die durch Cluster der nächsten Generation rund um die Vera-Rubin-Plattform realisiert wird.

Effizienzziele mit Grace- und Vera-CPUs

Einer der bemerkenswerten Aspekte der Vereinbarung sind die Arm-basierten Zentraleinheiten von Nvidia. Die Grace-CPUs, die erstmals 2023 als Begleitlösungen für KI-Beschleuniger vorgestellt wurden, werden nun auch für eigenständige Rechenzentrumsaufgaben positioniert.


Ian Buck, Leiter der Hyperscale- und HPC-Abteilung bei Nvidia, sagte, dass Grace-Prozessoren gängige Aufgaben wie den Datenbankbetrieb mit der Hälfte des Stromverbrauchs vergleichbarer Workloads bewältigen können. Mit der Vera-CPU wird eine weitere Steigerung der Effizienz erwartet. Es wurde berichtet, dass Meta bestimmte Workloads auf Vera testet und die ersten Ergebnisse vielversprechend sind. Die Unternehmen streben einen großflächigen Einsatz von Vera bis 2027 an. Diese Zusammenarbeit ist zudem der erste großflächige Einsatz von reinen Grace-CPUs.

Teilen:

Das könnte Sie auch interessieren

Kommentare (0)

Kommentare werden geladen...

Einen Kommentar hinterlassen

Kategorien

Yükleniyor...

Folge uns

👍