Wird Dual-GPU-Gaming jemals wiederkehren?
Hardware
2024-03-24T12:00:14Z
Wichtigste Erkenntnisse
- GPU SLI und CrossFire sind aufgrund zahlreicher Probleme und abnehmender Erträge veraltet, aber Multi-Chip-GPUs bieten Hoffnung für zukünftige Verbesserungen.
- DirectX 12 Ultimate bietet explizite Multi-GPU-Unterstützung, aber nur wenige Spiele nutzen diese Funktion aufgrund der Herausforderungen für Entwickler tatsächlich.
- Die innovative Lösung von Apple, mehrere diskrete GPUs in einem System-on-a-Chip zu verbinden, führte zu einem fast nahtlosen Erlebnis für die Benutzer.
Wenn eine GPU gut ist, dann sind zwei GPUs sicher noch besser? Während eines Großteils der GPU-Geschichte war dies der Fall, aber heutzutage kann man nicht einfach eine zweite Grafikkarte in den PC einbauen, um die Bildrate zu erhöhen. Warum eigentlich? Und wann können wir das wieder tun?
Wie SLI und (auch) SLI das Dual-GPU-Gaming einführten
Der frühe Grafikbeschleuniger-Pionier Voodoo führte in den 90er Jahren SLI oder "Scan-Line Interleave" ein. Damit können Sie zwei Voodoo-Grafikkarten (die identisch sein müssen) miteinander verbinden, so dass jede Karte abwechselnd eine Zeile des Bildes wiedergibt. Theoretisch würde sich dadurch die Rendering-Leistung verdoppeln, aber in der Praxis war die Steigerung nie so linear.
Mit dem Ende von Voodoo (und der Übernahme der Technologie durch NVIDIA) kehrte SLI mit den NVIDIA-Grafikprozessoren zurück, aber diesmal war es die Abkürzung für "Scalable Link Interface" ATi (jetzt AMD) war und ist der Hauptkonkurrent von NVIDIA, und seine entsprechende Technologie CrossFire tat so ziemlich das Gleiche. Die Karten, oder manchmal auch zwei bis vier GPUs auf derselben Karte, wurden über einen speziellen Bus mit hoher Bandbreite verbunden, über den sie schnell Informationen austauschen und so die Rendering-Arbeitslast teilen konnten.
Die genaue Art und Weise, wie dies funktionierte, hing von der Implementierung ab, aber normalerweise renderten die Grafikprozessoren abwechselnd Frames oder jedes Frame wurde in ein Schachbrettmuster von Regionen aufgeteilt, und die Grafikprozessoren arbeiteten jeweils an ihrem Anteil an den Patches.
Der Tag, an dem SLI und Crossfire starben
Wenn SLI oder CrossFire funktionierten, ermöglichten sie eine schnellere Leistung als jede einzelne GPU, aber es gab auch allgemeine Probleme. Sogenannte "Mikro"-Ruckler, die durch Synchronisierungsprobleme und Bandbreitenbeschränkungen verursacht wurden, konnten das Spielerlebnis ruinieren, selbst wenn der FPS-Zähler hoch war. Außerdem machte die Leistungsskalierung die Kosten-Leistungs-Rechnung für die meisten Leute unhaltbar. Eine zweite Karte würde die Leistung nicht verdoppeln, sondern vielleicht um 70 % steigern, wenn man Glück hat. Eine dritte oder vierte Karte würde den Ertrag noch mehr schmälern. In vielen Fällen würde die vierte Karte buchstäblich nichts bewirken!
Dennoch waren Enthusiasten immer noch bereit, alles zu zahlen, um die beste Leistung zu erhalten, so dass SLI als Funktion weiterlebte, aber sein Todesurteil kam, als Spiele es nicht mehr unterstützten. Die Implementierung von SLI bedeutet nicht nur zusätzliche Arbeit für einen Entwickler, der nur einen winzigen Teil seines Marktes bedient, sondern auch die Art und Weise, wie Spiele gerendert werden, ist für SLI nicht mehr geeignet.
Moderne Spiele-Engines verwenden oft Daten aus vergangenen Frames, um aktuelle Frames zu verbessern oder zu rendern, mit verschiedenen Puffern und Unmengen von Daten, die verschoben werden müssen. Das Endergebnis ist, dass SLI und Crossfire für die Funktionsweise dieser Spiele-Engines schlecht geeignet sind, weil die Daten aus der Vergangenheit oder der Inhalt dieser Puffer nicht schnell genug verschoben werden können.
Apple kann GPUs zusammenkleben
Zwei Grafikkarten mit einem Kabel miteinander zu verbinden, ist vielleicht nicht gut genug, damit die Multi-GPU-Technologie in modernen Spielen oder 3D-Anwendungen gut funktioniert, aber Apple scheint dieses Problem gelöst zu haben, indem es eine wahnsinnig schnelle Verbindung zwischen seinen GPUs geschaffen hat. Durch die Verwendung mehrerer Kopien der Apple Silicon System-on-a-Chip-Module und das Zusammenkleben dieser Module mit Edge-Connectoren mit extrem hoher Bandbreite ist das Problem so gut wie gelöst.
Noch besser ist, dass die Softwareentwickler dies nicht berücksichtigen müssen. Für ein Spiel oder eine andere Anwendung sieht alles wie eine große logische GPU aus, auch wenn in einem Apple M1 Ultra oder M3 Max mehrere diskrete GPUs stecken. Die Skalierung ist nicht perfekt, es gibt immer noch einen gewissen Overhead, aber je nach Anwendung ist sie nicht weit davon entfernt.
Directx 12 unterstützt Multi-GPU
Techniken wie SLI werden von den Treibern und der Implementierung der GPU-Hersteller gehandhabt. Ein Entwickler muss seine Spiel-Engine auf SLI abstimmen, aber auf die eigentliche Aufteilung der Arbeit zwischen den Karten unter der Haube hat er keinen Einfluss.
Die neueste Version von DirectX ist DirectX 12 Ultimate, und diese API (Application Programming Interface) hat eine Funktion, die als "explizite" Multi-GPU-Unterstützung bekannt ist. Das heißt, wenn ein Computer mehr als einen Grafikprozessor hat, kann der Entwickler genau steuern, welche Arbeit jedem Chip zugewiesen wird und wie alles zusammengefügt wird.
Die GPUs müssen nicht das gleiche Modell oder sogar die gleiche Marke sein! Auf dem Papier hört sich das fantastisch an, aber obwohl dies in DirectX 12 integriert ist, haben nur sehr wenige Spiele diese Funktion unterstützt. Ich kann nur vermuten, dass es für die Entwickler eine große Belastung ist, wieder einmal eine kleine Gruppe von Leuten zu bedienen, die mehrere GPUs besitzen. Obwohl technisch gesehen Laptops mit integrierter und dedizierter GPU zählen würden, würde die integrierte GPU wahrscheinlich nicht genug helfen, um die technische Komplexität wert zu sein.
Multi-Chip-GPUs sind im Kommen!
Im August 2022 schrieb ich, dass Multi-Chip Module (MCM) GPUs die Zukunft der Grafik sein könnten. Ähnlich wie AMDs"Chiplet"-Design für seine CPUs enthalten diese GPU-Chips mehrere diskrete GPUs, die über eine extrem schnelle Verbindung miteinander verbunden sind, ähnlich wie bei der Lösung von Apple.
NVIDIAs Blackwell B200-GPU ist offiziell die erste NVIDIA-MCM-GPU, die hoffentlich auch in Consumer-Karten Einzug halten wird, und auch AMD hat Patente für Chiplet-GPUs angemeldet. Dies wird sich hoffentlich auf die Kosten höherwertiger Karten auswirken und einen völlig neuen Bereich der Leistungssteigerung für GPUs eröffnen, da die Praxis der Herstellung immer größerer Chips mit hohen Ausfallraten eindeutig in eine Sackgasse führt.
Die Zeiten, in denen mehrere Grafikprozessoren für das Rendering benötigt wurden (für andere Aufgaben ist das immer noch der Fall) oder zwei diskrete Chips auf einer einzigen Karte untergebracht waren, werden wohl nie wieder kommen.