Nvidia hat eine mehrjährige und generationenübergreifende strategische Zusammenarbeit mit Meta angekündigt, die sich auf die Infrastruktur für künstliche Intelligenz konzentriert. Im Rahmen der Vereinbarung wird Meta Millionen von Nvidia-KI-Chips der aktuellen und nächsten Generation in seinen Rechenzentren einsetzen. Die Partnerschaft umfasst interne Systeme, Cloud-Infrastrukturen und groß angelegte KI-Cluster.
Die Vereinbarung, deren finanzielles Volumen nicht bekannt gegeben wurde, umfasst Nvidias Blackwell-GPUs, die sich in der Entwicklung befindliche Rubin-GPU-Architektur sowie die für eigenständige Installationen geeigneten Grace- und Vera-Zentraleinheiten (CPUs). Diese Prozessoren stehen in direktem Wettbewerb mit den Rechenzentrumslösungen von Intel und AMD.
Blackwell- und Rubin-GPUs in Meta-Rechenzentren
Meta plant, seine Hyperscale-Rechenzentren so umzustrukturieren, dass sie sowohl für das KI-Training als auch für Inferenzprozesse optimiert sind. In diesem Zusammenhang werden Nvidia GB300-basierte Systeme implementiert und eine einheitliche Architektur geschaffen, die sowohl interne Rechenzentren als auch die Infrastruktur der Nvidia Cloud Partner umfasst.
Nvidia-CEO Jensen Huang betonte, dass Meta eine KI-Infrastruktur im industriellen Maßstab für Personalisierungs- und Empfehlungssysteme aufbaut, die Milliarden von Nutzern bedienen. Er erklärte, dass dank tiefgreifender Co-Design-Arbeiten auf CPU-, GPU-, Netzwerk- und Softwareebene die gesamte Nvidia-Plattform den Forschern und Ingenieuren von Meta zur Verfügung stehe.
Meta-CEO Mark Zuckerberg erklärte hingegen, dass die Zusammenarbeit die Vision einer „persönlichen Superintelligenz“ auf globaler Ebene unterstützen werde, die durch Cluster der nächsten Generation rund um die Vera-Rubin-Plattform realisiert wird.
Effizienzziele mit Grace- und Vera-CPUs
Einer der bemerkenswerten Aspekte der Vereinbarung sind die Arm-basierten Zentraleinheiten von Nvidia. Die Grace-CPUs, die erstmals 2023 als Begleitlösungen für KI-Beschleuniger vorgestellt wurden, werden nun auch für eigenständige Rechenzentrumsaufgaben positioniert.
Ian Buck, Leiter der Hyperscale- und HPC-Abteilung bei Nvidia, sagte, dass Grace-Prozessoren gängige Aufgaben wie den Datenbankbetrieb mit der Hälfte des Stromverbrauchs vergleichbarer Workloads bewältigen können. Mit der Vera-CPU wird eine weitere Steigerung der Effizienz erwartet. Es wurde berichtet, dass Meta bestimmte Workloads auf Vera testet und die ersten Ergebnisse vielversprechend sind. Die Unternehmen streben einen großflächigen Einsatz von Vera bis 2027 an. Diese Zusammenarbeit ist zudem der erste großflächige Einsatz von reinen Grace-CPUs.





