NVidia Leistungsaufnahme: TDP, TBP und TGP bei Nvidia und AMD-Grafikkarten entmystifiziert und nachgerechnet |igorsLAB

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
2.452
Punkte
114
Alter
55
Standort
Labor


Igor Wallossek submitted a new blog post
Was steckt wirklich hinter den Angaben zu Thermal Design Parameter (TDP) bzw. GPU Power sowie Total Board Power (TBP) bzw. Total Graphics Power (TGP), bei den Grafikkarten von AMD und Nvidia und wer hält sich wie an die selbst gesteckten Vorgaben? Hier gibt es jetzt die Antworten...
Continue reading the Original Blog Post.
 

Maxminator

Neuling
Mitglied seit
Jun 14, 2019
Beiträge
1
Punkte
1
Hallo Igor,
super Artikel mit nützlichen Infos!
Das mit Induktivität als Bauelement hast du natürlich recht: bei gleichem Bauvolumen und gleichem ferritmaterial (Kernamterial + dieser hat noch ein Luftspalt was die Induktivität extrem verkleinert) bleibt nur die Windungzahl, die den kostbaren Induktivitätswert erhöhen kann :) Und die einzelne Windung hat nun mal dann einen begrenzten Raum für sein "persönlichen" Drahtquerschnitt. Und der geht umgekehrtproportional in die Widerstandsberechnung ein!

zu den werten aus der INVIDIA Folie:
Bei 5700XT, wäre es dann 225W-180W = 45W krass wenig! NVIDIA gibt also indirekt zu, dass AMD die Physik besser im Griff hat als NVIDIA? Aber die Verluste sind nun für alle gleich wie auch die Phhysik (Physik ist auf dem Plateneten Erde genau so wie in andromeda Galaxy)
Also MUSS der wert 180 min. um 20Watt zu viel angesetzt worden sein!
NVIDIA setzen 6

Oder bei 5700 ist es noch krasser: 180W-150W = 30Watt... Wahnsinn! Hier passen deine angenommene 122W wesentlich besser!
 
Zuletzt bearbeitet :

Case39

Urgestein
Mitglied seit
Sep 21, 2018
Beiträge
848
Punkte
42
Nun, wenn die Performance und der Preis der 5700XT, die der 2070 erreicht, hat AMD ein ebenbürtiges Produkt auf dem Markt. Sehr schön.
Ob dann die Super Varianten der 20X0 Serie den gleichen Verbrauch hinbekommen, wäre dann fraglich.
 
P

Plitz

Guest
Und jetzt das ganze mit der AMD Folie und dem CS:GO Benchmark! Aber irgendwas sagt mir, dass dies nicht geschehen wird ...
 

Moeppel

Veteran
Mitglied seit
Jul 23, 2018
Beiträge
257
Punkte
27
Gibt AMD nicht einfach immer den Wert an, der maximal möglich ist? Also im Grunde PCI-E Versorgung + Max. Versorgung durch alle verfügbaren 6/8 Pin-Konnektoren

So wirkte es zumindest zu Polaris-Zeiten.

Was tatsächlich dabei rumkommt zeigen dann meist die Reviews und was mit ein wenig Aufwand möglich ist, die finetuning Brigade ;)
 

gr3if

Mitglied
Mitglied seit
Sep 14, 2018
Beiträge
11
Punkte
2
So war es oft: nach dem Motto: die Platine kann 8pin+6pin+75, viel Spass damit.

@igor: Riesendank geiler Artikel!
 

Deridex

Urgestein
Mitglied seit
Dez 2, 2018
Beiträge
585
Punkte
42
Schöner Artikel. Von technischer Seite habe ich da nichts einzuwenden. Aber eine kleine Kritik habe ich dennoch: Du verwendest viele Begriffe die für mich zwar klar sind, aber bei dem ein oder anderen für Gesichter in Form eines Fragezeichens sorgen könnten. Ich würde daher zu einem Glossar (eventuell Webseitenweit, bei Bedarf ergänzt) raten.
 

geist4711

Mitglied
Mitglied seit
Jul 22, 2018
Beiträge
61
Punkte
7
Alter
54
Standort
Hamburg
schöner artikel sehr informativ.
es relativiert nebenbei sogar die 'sehr hohen verbräuche' bei AMD ;-)
 

buri2

Veteran
Mitglied seit
Okt 21, 2018
Beiträge
123
Punkte
17
Schöner Artikel. Was mich aber mal sehr interessieren würde, und wozu es leider noch keinen gibt, ist das Thema Energiehunger AMD VS Nvidea. Alle sagen ja immer nur "Kauf Nvidea die sind sparsamer". Ich würde das aber auch Grund von Beobachtungen sehr bezweifeln. Denn ja, die AMD hat unter max Last einen größeren Hunger als die Nvidea, aber im Idel viel weniger. So ist meine Vega z.B. im Idle (wie jetzt) mit 3W unterwegs, die 1070 meines Kumpels geht nie unter 80W. Daher wäre es echt mal interessant zu messen, was in einem durchschnittlich Tag so anfällt. Wenn der PC X STD läuft davon einige Surfen, einige Game (verschiedene Games). Denn gerade auch bei Games sehe ich das meine AMD kleinere Schritte macht als die Nvidea. Somit könnte es, als Theorie, gut sein das die AMD am Ende weniger Strom frisst als die Nvidea im Mittel (außer man misst halt echt nur max Last). So ne Messreihe wäre mal echt gut finde ich.
 

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
2.452
Punkte
114
Alter
55
Standort
Labor
Du kannst die 3 Watt gar nicht messen, GPU-Z ist ein Spielzeug, mehr nicht ;)

Ich habe dazu in jedem Grafikkarten-Artikel einen Idle-Wert und viele diverse Teillasten erfasst. :)
 

gr3if

Mitglied
Mitglied seit
Sep 14, 2018
Beiträge
11
Punkte
2
Dazu kommt wenn du 2 Monitore mit unterschiedlichen Auflösungen hast dann geht deine Karte nie in den tiefsten Step
 

Genie_???

Mitglied
Mitglied seit
Jan 13, 2019
Beiträge
89
Punkte
7
Auch von mir Vielen Dank für den wirklich informativen Artikel.
Jetzt weiß ich auch sofort wieder, warum ich Manschetten habe bei NVIDIA einzukaufen.

Die machen Technisch hochwertige Sachen. Keine Frage.
Aber warum müssen die immer bescheißen??? Das haben die doch eigentlich überhaupt nicht nötig?
Das zieht sich durch ihre Firmengeschichte, wie ein roter Faden.
Da werden Benchmarks gefälscht, Kartenhersteller und die Presse genötigt, Korrekte Angaben zur (Speicher)Ausstattung verschwiegen etc.
Hauptsache den Wettbewerber schlecht(er) dastehen lassen als er wirklich ist und vielleicht noch ein paar extra Ct rausquetschen.

Bei AMD kann ich mir wenigstens sicher sein, das selbst eine Uralt Karte Treibermäßig nicht einfach hinten runter fällt. Bei NVIDIA bin ich wie das 5. Rad am Wagen, sobald die neue Generation auf dem Markt ist.
 
P

Plitz

Guest
Computerbase hat erst kürzlich den Test gemacht und bei Nvidia werden alte Karten nicht per Treiber gedrosselt. Wo kommt eigentlich diese Geschichte her und wieso hält sie sich so penetrant bei den Schöngeistern im Kopf? Erinnert mich dran wie Nvidia den 32bit Support eingestellt hat und die AMD Fans im Forum auf das böse Nvidia schimpften ... bis ein User darauf aufmerksam machte, dass AMD den 32bit Support schon 6 Monate vorher gekappt hat.

Es gibt Tests dazu! Es gibt Benchmarks! Man kann es doch nachlesen! Hört doch auf diesen Schwachsinn immer weiter zu tragen!
 

Genie_???

Mitglied
Mitglied seit
Jan 13, 2019
Beiträge
89
Punkte
7
Computerbase hat erst kürzlich den Test gemacht und bei Nvidia werden alte Karten nicht per Treiber gedrosselt. Wo kommt eigentlich diese Geschichte her und wieso hält sie sich so penetrant bei den Schöngeistern im Kopf? Erinnert mich dran wie Nvidia den 32bit Support eingestellt hat und die AMD Fans im Forum auf das böse Nvidia schimpften ... bis ein User darauf aufmerksam machte, dass AMD den 32bit Support schon 6 Monate vorher gekappt hat.

Es gibt Tests dazu! Es gibt Benchmarks! Man kann es doch nachlesen! Hört doch auf diesen Schwachsinn immer weiter zu tragen!
Ich habe doch nicht gesagt, dass die gedrosselt werden.
Ich habe gesagt, dass die keine weitere gute Unterstützung erfahren, sobald die neue Gen auf dem Markt ist.
Vielleicht noch eine Schamgrenze von 2 Jahren, dann wird aber nicht mehr wirklich auf neue Soft optimiert.

Das ist beim Wettbewerb ein bisschen anders.
Ich habe hier beispielsweise noch eine fast schon Antik zu nennende AMD W5000 Karte aus 2013 in einem Rechner verbaut. Letztes Jahr gab es auf einmal mit dem Q4/2018 Treiber einen echten, deutlich spürbaren Schub, so das ich einen Neukauf doch noch einmal hinausschieben konnte. Sonst hätte ich jetzt vermutlich eine RTX 4000 verbaut. Das meine ich mit "nicht einfach hinten runter fallen".
Mal schauen, was AMD jetzt für Pro Karten aus der Navi Generation baut.
Kann ja so schlecht nicht sein.
 
P

Plitz

Guest
Du hast jetzt nicht wirklich eine Professionelle FirePro als dein anekdotenhaftes Beispiel gewählt oder? Eine Karte wo der Hersteller sich dazu verpflichtet auf Jahre Support anzubieten? Davon ab hat der Computerbase Test gezeigt, dass auch Kepler noch von den Pascal Treibern in gleichem Umfang profitierte wie es Pascal selbst tat. Kepler ist 2012 btw.

Was genau willst du mehr?
 

Derfnam

Urgestein
Mitglied seit
Jul 22, 2018
Beiträge
2.134
Punkte
82
Die 'sehr hohen verbräuche' (sic) waren bzw sind ja Fakt, geist4711. Umso schöner, wenn sies bei Navi klar effizienter hinbekämen.
 

EyRaptor

Veteran
Mitglied seit
Jul 23, 2018
Beiträge
112
Punkte
28
Vielen Dank für den sehr Informativen Artikel Igor ^^.

Jetzt müssen wir nurnoch Tests abwarten und schauen, ob die Folien von AMD auch so stark getürkt waren.
Ich tippe mal eher auf nein :D. Klar, es wird ein best-case sein, aber wohl eher nicht komplett erstunken.

(Ich freue mich schon auf Igor´s Power und Thermal Tests + analyse der Platinen mit der 5700/XT ^^)
 

Lieblingsbesuch

Veteran
Mitglied seit
Nov 2, 2018
Beiträge
136
Punkte
17
Basis der TDP-Werte der Navi-GPUs sind laut NVIDIA "Gerüchte im Netz". Wie man damit überhaupt an die Öffentlichkeit gehen kann, ist mir ein Rätsel.
 

summit

Neuling
Mitglied seit
Dez 12, 2018
Beiträge
8
Punkte
1
@Lieblingsbesuch
Hast du einen Link zu der "Stellungnahme"?

Jeder Sachkundigen Person hätte sowas sofort auffallen müssen. Das kann nur bewusst gewesen sein.

@Plitz
Was ist mit "der AMD Folie und dem CS:GO Benchmark"? Muss an mir vorbeigegangen sein.
 
Oben Unten