Nvidia Geforce GTX 750 Ti im Test: Maxwell, Meister der Energieeffizienz [Update mit "Free Boost"]

228
Test Carsten Spille Raffael Vötter
Nvidia Geforce GTX 750 Ti im Test: Maxwell, Meister der Energieeffizienz

Die Leistung des jungen Maxwell oder: Geforce GTX 750 Ti im Test. Nvidia führt mit der Geforce GTX 750 und Geforce GTX 750 Ti die auf hohe Energieeffizienz getrimmte Maxwell-Architektur ein. Was der GM107-Chip leistet, ob er Kepler in Grund und Boden rechnet und ob sich AMD fürchten muss, erfahren Sie im PCGH-Test der Geforce GTX 750 Ti.

Geforce GTX 750 Ti im PCGH-Test

Update 2: Da - wie in Update 1 beschrieben - Fragen aufgekommen sind, haben wir nun die Benchmark-Werte auf Seite 2 um die Geforce GTX 750 Ti "Free Boost" (Referenzmodell) ergänzt. Die Ergebnisbalken sind grün markiert. Wie Sie diesen entnehmen können, sind die Ergebnisse der "Free Boost" nur marginal besser ALS unsere Ergebnisse mit fixem Takt von 1.085 MHz. Wir hoffen, dass so mehr klarheit geschaffen werden kann. Den Test der Hersteller-Designs, die deutlich höhere Leistungszuwächse versprechen, finden Sie im kommenden Heft 04/2014. Als kleines Goodie haben wir den Benchmark-Diagrammen zudem Ergebnisse von der AMD Radeon R7 265/2G hinzugefügt.

Update 1: Nachdem es Unklarheiten darüber gab, wie schnell eine Geforce GTX 750 Ti nun wirklich ist, wollten wir dazu noch ein paar Worte verlieren. Wir haben für den Test eine Nvidia-Referenzkarte verwendet und dabei den Takt angelegt, den Nvidia selbst als "typisch" bezeichnet. Das sind 1.085 MHz Boost-Takt. Dieser Takt wird nach unseren Messungen auch in den meisten Spielen erreicht, allerdings gibt es mit Anno 2070 auch ein Spiel, wo der Takt eben nicht erreicht wird. Wer eine günstige Karte auf Basis des Referenzdesigns kauft, erhält die von uns gemessene Leistung also mindestens - wer in eine teurere Karte mit Herstellerdesign investiert, erhält durch Taktungen bis 1.300 MHz eine entsprechend höhere Leistung, wie unten auch ausgeführt. Der Boost ist abhängig von der "Qualität" der Grafikkarte und wird nicht garantiert - deshalb wollen wir auch nicht nur im Best Case benchen.

Wissenswert: Die wichtigsten Tests zur aktuellen Grafikkartengeneration von Nvidia und AMD

Auf der anderen Seite schaffen Herstellerdesigns auch deutlich mehr Fps als das Referenzdesign. Nach ersten Tests sind beispielsweise in Crysis 3 durchaus bis zu 15 Prozent mehr drin.
________________________________________

Mit Preisempfehlungen von rund 135 respektive 110 Euro zielt Nvidia zum Launch der Maxwell-Architektur mit der Geforce GTX 750 Ti und der Geforce GTX 750 eindeutig auf die untere Mittelklasse - ein Novum für eine neue Architektur. Man wolle, so Nvidia, dank bewährter 28-nm-Prozesstechnik dieses Mal die Masse der Kunden zuerst bedienen. Diese Masse entspricht zwar nicht dem Gros der PCGH-Leser - regelmäßigen Umfragen zufolge schlagen die meisten im Preisbereich über 200 Euro zu, um eine voll spieletaugliche Grafikkarte zu erhalten -, allerdings gibt der kleine Maxwell-Chip GM107 eine Vorschau auf das, was Nvidia im Laufe des Jahres auszubauen gedenkt. Hohe Energieeffizienz ist eines der Steckenpferde. Neugierig? Werfen wir zunächst einen Blick auf das Referenzdesign der Geforce GTX 750 Ti und auf das, was die Partner daraus machen:

03:37
Geforce GTX 750 Ti: Drei Herstellerdesigns im Testlabor - teils mit mehr als 1,3 GHz

Geforce GTX 750 Ti im Test: Technik und Spezifikationen

Kepler vs Maxwell Nvidia Quelle: Nvidia Kepler vs Maxwell Nvidia Noch nie gab sich Nvidia im Vorfeld so zugeknöpft, was die technischen Details angeht, wie bei Maxwell. Der Chip selbst im gleichen 28-nm-Prozess hergestellt wie die Kepler-Generation und Antworten auf unsere Fragen bezüglich einiger Details trafen erst kurz vor Toresschluss ein. Für 20-nm-Fertigung bei TSMC sei die Zeit einfach noch nicht reif gewesen. Der erprobte Prozess und die damit mögliche hohe Ausbeute und Stückzahl sind die Gründe, warum Nvidia mit Maxwell zuerst eine GPU der unteren Mittelklasse auf den Markt bringt anstatt wie früher einen Performance- oder gar High-End-Chip als Speerspitze zu nutzen.

Die heute vorgestellte Maxwell-GPU ist die erste Generation der neuen Chips, später werden sowohl von der Architektur als auch vom Fertigungsprozess her weiter entwickelte Versionen folgen. Im GM107, welcher die Fräsung -400-A2 trägt, befinden sich fünf der neuen Shader-Multiprozessoren (SMM), jedoch nur ein übergeordneter Graphics Processing Cluster (GPC). Doch der Reihe nach.

Die Basiseinheit, der Shader-Multiprozessor (kurz SM), bekommt den Maxwell-Zusatz M und wird so zum SMM. Nvidia-intern hießen die SMs in Kepler bereits SMK anstelle des vermarkteten SMX. Die einzelnen SMMs wurden im Vergleich zu Kepler gründlich entschlackt, allerdings nicht so grundlegend umgebaut, wie Nvidias nebenstehendes Diagramm suggeriert (in dem Kepler zudem mit 256 anstelle von 192 ALUs angegeben wird). Denn bereits die Kepler-GPUs verfügten über eine Trennung der einzelnen Einheiten, von denen alle fest einem Scheduler-Pärchen, die meisten sogar einem einzelnen Scheduler zugeordnet waren. Wir haben uns diesbezüglich ebenfalls an einem Diagramm versucht, welches Sie im Folgenden sehen.

Geforce GTX 750 Ti im Test: Blockdiagramm neu interpretiert

(Einige, nur unregelmäßig auftauchende Einheiten haben wir der Übersicht zuliebe nicht mit aufgeführt. Bitte beachten Sie, dass die hohe DP-Rate des GK110-Diagrammes dem geplanten Einsatzgebiet im HPC-Bereich geschuldet ist. Die Gaming-Keplers besitzen lediglich zwei DP-Einheiten pro Scheduler.)

Wirklich neu ist am SMM, dass die Anzahl der Shader-ALUs nun auch dem entspricht, was durch Scheduler und vor allem Register-File bedient werden kann. So erklärt sich auch die Rechnung, die Nvidia hier aufmacht und einem Maxwell-SM 135 % Performance pro (Kepler)-Core zuspricht, beziehungsweise mit einem Maxwell-SM 90% der Leistung eines Kepler-SM erreichen will. Denn im Umkehrschluss ergibt sich aus der Rechnung, dass die beiden zusätzlichen FP32-Blöcke in Kepler nicht 50, sondern lediglich knapp 20 Prozent Performance erbrachten - weil sie eben nur unter bestimmten Voraussetzungen genutzt werden konnten. In unseren Messungen haben wir besonders beim Absetzen von Vec2-Anweisungen eine rund 50 % höhere Effiizenz gegenüber Kepler feststellen können. Gegenüber Kepler wandern die L/S- sowie die SFU-Einheiten in den festen Zuständigkeitsbereich eines Schedulers, dafür teilen sich jeweils zwei Scheduler eine Quad-TMU; pro SM sind zwei dieser Quad-TMUs vorhanden. Double-Precision ist in den Gaming-Chips nach wie vor ein Pro-Forma-Feature und wird mit 1/32-stel des Single-Precision-Durchsatzes ausgeführt. Wie in Kepler zeichnen dafür separate Einheiten verantwortlich.

Auf Chip-Ebene gibt es nur noch ein GPC - Graphics Processing Cluster, welcher unter anderem die Rasterisierungseinheit enthält. Diese wurde von Fermi über Kepler auf Maxwell in ihrer Pro-Takt-Leistung abermals verdoppelt, sodass der einzelne GPC 16 Pixel pro Takt aus den stetigen Geometriedaten ins Pixelraster überträgt. Die Dreiecksleistung, welche an den einzelnen SMs, genauer an deren integrierten "Polymorph"-Engines hängt, liegt bei einem Dreieck pro Takt - jeder Polymorph benötigt also fünf Takte pro geometrischem Primitive.

Beim Speicherinterface bleibt Nvidia GDDR5-RAM, einem moderaten Speichertakt und 128 parallelen Datenleitungen treu. Neu ist allerdings ein für GPU-Verhältnisse riesiger Level-2-Cache, welcher pro Quad-ROP 1.024 kiB umfasst - der GM107-Chip verfügt mit 2 MiB über einen größeren L2-Cache als der mächtige GK110 in der Geforce GTX Titan/780. Besonders Aufgaben mit unvorhersehbaren Zugriffsmustern auf Speicher profitieren von größeren Caches.

In Sachen Funktionalität steht weiterhin Direct X 11.0 auf dem Papier - ob das nun tiefgreifende technische Hintergründe hat oder ob Nvidia aus politischen Gründen DX11.1/.2-Chips keinen Aufwind verleihen will, ist unklar. Der GM107-Chip unterstützt zumindest wegen G-Sync Display Port 1.2, die Implementierung ist den Boardpartnern jedoch freigestellt. HDMI 2.0 fand dagegen keinen Einzug in Nvidias neues Pferd im Stall. Den integrierten Video-Encoder für Shadowplay und die Verwendung in den hauseigenen Grid-Produkten haben die Kalifornier jedoch überarbeitet. Beim Encoding arbeitet er nun 50 bis 100 Prozent schneller und erreicht für H.264-Full-HD-Streams nun 6-8 anstelle 4-facher Leistung. Auch das Decoding wurde laut Angaben Nvidias unter anderem durch einen Decoder-Cache verbessert. Ein neuer Power-State soll auch während der Video-Wiedergabe helfen, Strom zu sparen - unsere Messwerte beim Blu-ray-Playback untermauern das mit einstelligen Wattzahlen.

Neben der Geforce GTX 750 Ti debütiert am heutigen Tage auch die Geforce GTX 750 ohne Ti-Suffix: Sie muss mit einem SMM weniger auskommen (512 statt 640 ALUs), büßt 200 MHz Speichertakt ein (2.500 statt 2.700 MHz) und wird laut Nvidia gewöhnlich mit nur 1.024 anstelle von 2.048 MiByte GDDR5-Speicher bestückt. Mangels Testmuster bleiben wir Ihnen die Leistungswerte der GTX 750 schuldig. Die GTX 750 Ti und GTX 750 im Vergleich mit anderen Einsteiger-Grafikkarten:

ModellGTX 750 TiGTX 750GTX 660GTX 650 TiR7 260XHD 7770 v2
Circa-Preis (Euro)140,-110,-150,-100,-100,-90,-
CodenameGM107GM107GK106GK106Bonaire XTCape Verde XT
Direct-X-Version11.011.011.011.011.211.1
Chipgröße148 mm²148 mm²221 mm²221 mm²160 mm² 123 mm²
Transistoren Grafikchip (Mio.)1.8701.8702.5402.5402.0801.500
Shader-/SIMD-/Textureinheiten640/5/40512/4/32960/5/80768/4/64896/14/56640/10/40
Raster-Endstufen (ROPs)161624161616
GPU-Basistakt (Megahertz)1.0201.0209809281.1001.100
GPU-Boost-Takt (Megahertz)1.0851.0851.0339281.1001.100
Rechenleistung SP/DP (GFLOPS)*1.305/40,81.305/40,81.882/78,41.425/59,41.792/1121.408/88
Durchsatz Pixel/Texel (Mrd./s)*16,3/40,816,3/40,819,6/78,414,8/59,417,6/61,617,6/44,0
Dreiecksdurchsatz (Mio./s)*1.0201.0202.4501.8562.2001.100
Takt Grafikspeicher (MHz)*2.7002.5003.0042.7003.2502.250
Speicheranbindung (parallele Bit)128128192128128128
Speicherübertragungsrate (GB/s)86,480,0144,286,4104,072,0
Übliche Speichermenge (MiB)2.048/1.0241.0242.0481.0242.0481.024
PCI-Express-Stromanschlüssekeinerkeiner1x 6-polig1x 6-polig1x 6-polig1x 6-polig

*Bei GPU-Basistakt

Geforce GTX 750 Ti im Test: Kühlung, Lautheit und Leistungsaufnahme

Die von Nvidia angegebene Thermal Design Power (TDP) von 60 Watt verrät bereits, dass die Geforce GTX 750 Ti kaum Abwärme erzeugt und dementsprechend ohne wuchtige Kühlsysteme auskommt. Der Referenzkühler unterstreicht diese Theorie: Ein kompakter Aluminiumfächer mit Dual-Slot-Höhe und einfacher Axialbelüftung ist den Anforderungen gewachsen. Subjektiv ist die Geforce GTX 750 Ti mit diesem Kühler im Leerlauf sehr leise und unter Volllast immer noch leise; die Geräuschcharakteristik entspricht einem dezent pfeifenden Surren. Die von uns gemessene maximale Leistungsaufnahme beträgt 65 Watt beim Spielen und 69 Watt im Ernstfall bei höchstens 66 °C Kerntemperatur - das ist kurioserweise höher als die von Nvidia angegebenen 60 Watt, darf aber mit Gewissheit als sparsam bezeichnet werden.

LautstärkeNvidia GTX 750 TiNvidia GTX 660Nvidia GTX 650 TiAMD HD 7850AMD HD 7770 (v1)
Leerlauf0,3 Sone0,9 Sone0,9 Sone0,8 Sone0,8 Sone
Battlefield: Bad Company 20,6 Sone2,2 Sone0,9 Sone2,6 Sone1,3 Sone
Leistungsaufnahme     
Leerlauf7,5 Watt10 Watt9 Watt10 Watt10 Watt
Battlefield: Bad Company 265 Watt118 Watt73 Watt98 Watt64 Watt

PCGH testet mit Powertune (AMD) respektive Power Target (Nvidia) auf Standard.

Geforce GTX 750 Ti im Test: Overclocking

Ohne Zutun boostet unsere Referenzkarte in Spielen auf bis zu 1.163 MHz, fällt dann aber rasch und anhaltend auf einen Wert knapp über 1.100 MHz - das passt zum von Nvidia angegebenen "Typical Boost" von 1.085 MHz, den für für die nachfolgenden Benchmarks anstreben werden. Doch es steckt mehr im GM107: Unser Sample der Geforce GTX 750 Ti erreicht mit maximiertem Temperature Target per Takt-Offset bis zu 1.250 MHz Kern- und 3.200 MHz Speichertakt. Die uns bereits vorliegenden, kräftigen Herstellerdesigns von Evga, MSI und Palit bieten bereits ab Werk deutlich erhöhte Frequenzen: Evga stattet seine GTX 750 Ti FTW mit 1.189 MHz Basis- sowie 2.700 MHz (Referenz-)Speichertakt aus, MSIs GTX 750 Ti Gaming bringt neben der starken Kühlung 1.085/2.700 MHz auf die Waage und Palits GTX 750 Ti Storm X Dual führt gar stattliche 1.202/3.004 MHz ins Feld. Die Boost-Frequenzen liegen stets über 1.150 MHz (MSI), teilweise sogar über 1.300 MHz (Evga, Palit). Weitere Eindrücke und Testwerte zu diesen Karten finden Sie in der PCGH 04/2014, welche ab dem 5. März erhältlich ist.

Palit Geforce GTX 750 Ti Storm X Dual Quelle: PC Games Hardware Palit Geforce GTX 750 Ti Storm X Dual

      • Von flozn Freizeitschrauber(in)
        Zitat von Skysnake
        Und das hat jetzt genau was mit CUDA zu tun? Richtig gar nichts.
        Kruzifixhalleluja, wir reden aneinander vorbei.

        Du sagst, CUDA hat nichts mit Rendering zu tun. Ich gebe dir eines von vielen Beispielen eines CUDA-Renderers. -> Du sagst, das hätte nichts mit CUDA zu tun. Ich schüttle meinen Kopf ...

        Noch einmal: Versuche doch, Blenders Cycles auf einer Nicht-CUDA-GPU laufen zu lassen und du wirst sehen, dass es nach CUDA verlangt, also sehr wohl etwas mit CUDA zu tun hat ...

        Ist jetzt klar, was ich meinte? Ich habe nie gesagt, dass CUDA dieses oder jenes wäre, sondern es etwas mit Renderern zu tun hat, welche - was mein ursprünglicher Punkt war - auf der 750 Ti angesichts ihrer TDP VERDAMMT schnell laufen, was diese Karte zu einem kleinen Computing-Monster machen.

        Hier ein Zitat von DingTo - einem Blender-Entwickler bzgl. OpenCL:
        Zitat
        1) Der Fehler liegt zu >95% auf AMDs Seite. Unser OpenCL Code funktioniert auf anderen GPU und CPU Plattformen.
        2) Die meisten kommerziellen GPU Render Engines setzen auf CUDA und nicht auf OpenCL. Warum wohl? :idea:
        Und die Engines die auch OpenCL benutzen, sind meistens nur Hybriden (Ray Tracing auf GPU), das Shading etc. findet weiterhin auf CPU statt.

        Luxrender ist hier eine Ausnahme, weil sie ihr Programm in kleinere Kernel aufgeteilt haben. Das hat Vor und Nachteile. Dennoch haben auch die Probleme mit AMD. Du musst mal Jens fragen (einer der Lux Entwickler), der ist gar nicht gut auf AMD und deren OpenCL Compiler zu sprechen.

        Ich bestreite ja gar nicht, dass wir auf unserer Seite den OpenCL Code verbessern können, aber ohne funktionierende AMD Treiber macht das wenig Sinn. AMD hat in den letzten Wochen nachgelegt, aber wir sind dennoch noch nicht am Ziel. :|
      • Von flozn Freizeitschrauber(in)
        Zitat von Skysnake
        Und das hat jetzt genau was mit CUDA zu tun? Richtig gar nichts.
        Kruzifixhalleluja, wir reden aneinander vorbei.

        Du sagst, CUDA hat nichts mit Rendering zu tun. Ich gebe dir eines von vielen Beispielen eines CUDA-Renderers. -> Du sagst, das hätte nichts mit CUDA zu tun. Ich schüttle meinen Kopf ...

        Noch einmal: Versuche doch, Blenders Cycles auf einer Nicht-CUDA-GPU laufen zu lassen und du wirst sehen, dass es nach CUDA verlangt, also sehr wohl etwas mit CUDA zu tun hat ...

        Ist jetzt klar, was ich meinte? Ich habe nie gesagt, dass CUDA dieses oder jenes wäre, sondern es etwas mit Renderern zu tun hat, welche - was mein ursprünglicher Punkt war - auf der 750 Ti angesichts ihrer TDP VERDAMMT schnell laufen, was diese Karte zu einem kleinen Computing-Monster machen.

        Hier ein Zitat von DingTo - einem Blender-Entwickler bzgl. OpenCL:
        Zitat
        1) Der Fehler liegt zu >95% auf AMDs Seite. Unser OpenCL Code funktioniert auf anderen GPU und CPU Plattformen.
        2) Die meisten kommerziellen GPU Render Engines setzen auf CUDA und nicht auf OpenCL. Warum wohl? :idea:
        Und die Engines die auch OpenCL benutzen, sind meistens nur Hybriden (Ray Tracing auf GPU), das Shading etc. findet weiterhin auf CPU statt.

        Luxrender ist hier eine Ausnahme, weil sie ihr Programm in kleinere Kernel aufgeteilt haben. Das hat Vor und Nachteile. Dennoch haben auch die Probleme mit AMD. Du musst mal Jens fragen (einer der Lux Entwickler), der ist gar nicht gut auf AMD und deren OpenCL Compiler zu sprechen.

        Ich bestreite ja gar nicht, dass wir auf unserer Seite den OpenCL Code verbessern können, aber ohne funktionierende AMD Treiber macht das wenig Sinn. AMD hat in den letzten Wochen nachgelegt, aber wir sind dennoch noch nicht am Ziel. :|
      • Von BigBubby Lötkolbengott/-göttin
        Ich selber nutze weder CUDA noch sonst irgend eine GPGPU aktiv. Ich kann nur wiedergeben, was einige Programmierer aus meinen Kreisen sagen und die sind mehrhaltig auch der Meinung, dass Cuda und Nvidia-Karten für sie angenehmer sind, einfacher zu handhaben und stabiler sind. Ich kann es wie gesagt nicht bewerten in dem Bereich, sondern nur weitergeben, was andere sagen, die täglich damit arbeiten müssen.
      • Von Skysnake Lötkolbengott/-göttin
        Zitat von flozn
        Uff ... noch nie etwas von GPU Rendering gehört?! https://render.otoy.com/i... z.B.
        Und das hat jetzt genau was mit CUDA zu tun? Richtig gar nichts.

        CUDA ist eine API/Programmiersprache, wie C/C++ oder auch Java eine ist. Damit kann man einen Renderer schreiben, wobei mit CUDA man nur einen Beschleunigen kann. C/C++ bzw. Java usw braucht man ja dennoch für das ganze Geraffel außen rum.

        Es gibt auch genug andere Renderer, die auf allen möglichen APIs aufsetzen. Meist zwar C/C++, es gibt aber z.B. auch eine OpenGL Erweiterung, die dir aus OpenGL einen Raytracer baut, mit dem man ganz nette Ergebnisse bekommt. Verwendet heutzutage nur fast keine sau mehr. Blender, Luxx und eben das von dir genannte Octane sind da viel viel viel verbreitertet und heutzutage mehr oder weniger die Standardware.

        Zitat
        Diese benutzen kein DP
        Ähm...

        NOT. Sorry, aber natürlich verwenden auch Renderer DP, bzw. unterstützen. Man muss es halt nur einschalten, was aber die wenigsten machen, da der Performancehit die Qualitäts"verbesserung" nicht rechtfertigt. Im Normalfall wird man schlicht keinen Unterschied sehen als Laie.

        Zitat
        und da CUDA viel ausgereifter als OpenCL ist,
        Ach so!!!

        Natürlich, CUDA ist ausgereifter. Wie konnte ich das nur vergessen? Wobei wait!

        Wie kommst du denn darauf? Was ist denn "ausgereifter" an CUDA? Und vor allem warum?

        Zitat
        kommt man hier nicht an Nvidia-Karten vorbei.
        Das stimmt allerdings. Denn CUDA gibt es da propritär, eben nur mit nem nVidia Produkt... Das sagt aber rein gar nichts über die Qualität aus...

        Zitat
        Edit: Bitte das nächste Mal informieren und dann erst posten.
        Hättest du es doch nur bei der PM belassen, ich hätte es dir in Ruhe erklärt, wo dein Denkfehler ist.

        Ich weiß nicht, wieviel du mit GPGPU am Hut hast, aber ich befürchte eher weniger.
      • Von BigBubby Lötkolbengott/-göttin
        Außerdem, welche Firma holt sich wirklich eine Mittelklasse Grafikkarte, um damit zu Rendern? Die Arbeitszeit, die dadurch verloren geht, wäre mehrfach ein Highendmodel wert gewesen...
      • Von M4xw0lf Lötkolbengott/-göttin
        Zitat von flozn
        Uff ... noch nie etwas von GPU Rendering gehört?! https://render.otoy.com/i... z.B.

        Diese benutzen kein DP und da CUDA viel ausgereifter als OpenCL ist, kommt man hier nicht an Nvidia-Karten vorbei.

        Edit: Bitte das nächste Mal informieren und dann erst posten.

        Lol. Ohne Worte
  • Print / Abo
    Apps
    PCGH Magazin 05/2024 PC Games 04/2024 PC Games MMore 04/2024 play5 05/2024 Games Aktuell 01/2024
    PCGH Magazin 05/2024 PC Games 04/2024 PC Games MMORE Computec Kiosk