Wolfgang
Redakteur
Teammitglied
- Registriert
- Nov. 2002
- Beiträge
- 8.791
- 25. September 2017
- #1
tl;dr: Die Leistungsaufnahme der Grafikkarte beim Betrachten eines Videos auf YouTube zu messen gehört schon länger zum Testparcours von ComputerBase. Schließlich können moderne GPUs den VP9-Codec in der Regel in Hardware beschleunigen. Insbesondere bei Nvidia Pascal waren die gemessenen Werte aber nicht mehr aktuell.
Zum Test: GPU-Beschleunigung für VP9: Pascal und Vega verbrauchen weniger Strom auf YouTube
W
Whoracle
Lt. Junior Grade
- Registriert
- Nov. 2012
- Beiträge
- 286
- 25. September 2017
- #2
Interessant finde ich das auf meinem System meine Grafikkarte überhaupt nicht mehr richtig runtertaktet, 4k Monitor sei dank.. Hier spielt die Auflösung des Bildschirms scheinbar eine erhebliche Rolle. Ich meine es gab ja auch Fälle mit Bildflimmern oder Bildfehlern unter Windows wenn der Grafikspeicher zu niedrig lief.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.245
- 25. September 2017
- #3
interessant. Danke für den Test.
Ich frage mich etwas weshalb der Verbrauch bei der RX 580 so viel besser ist als bei den 4XX Karten. Kann eigentlich auch nur ne Treiber Sache sein.
Chesterfield
Fleet Admiral
- Registriert
- Sep. 2011
- Beiträge
- 10.609
- 25. September 2017
- #4
für NV verhältnisse ist Maxwell echt "knackig" im verbrauch
derbe
Lt. Commander
- Registriert
- Aug. 2013
- Beiträge
- 1.732
- 25. September 2017
- #5
980 Ti fast 80 W oO whattttt gut das ich diese Beziehung beendet habe
S
sven.ghostrider
Lieutenant
- Registriert
- Aug. 2009
- Beiträge
- 657
- 25. September 2017
- #6
@Krautmaster, die 5xxer Serie hat eine Verbesserung für genau diesen Fall, ob bios oder echt im chip weiß ich nicht mehr. Außerdem haben die einen Ramtakt-State für Halblast, selbiges sollte bei den 5xx auch beim Multimonitorbetrieb im Idle für weniger Verbrauch sorgen
War entweder im Bericht zur Vorstellung oder Test der 560 erklärt.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.245
- 25. September 2017
- #7
generell wären noch Werte fürs Gesamtsystem interessant. Zeigt sich ja bei Vega wenn die CPU mehr rechnen muss. Kommt aus dem Diagramm nicht raus.
Gibt CB ja auch selbst an
Doch die Messung der separaten Leistungsaufnahme der Grafikkarten ist in diesem Fall nur die halbe Wahrheit. Der Grund dafür ist im von YouTube genutzten VP9-Codec zu suchen. Nvidia Pascal kann den in vollem Ausmaß mit der integrierten Videoeinheit in Hardware beschleunigen, alle GPUs von AMD im Vergleich können das hingegen nicht. Einen gewissen Anteil an der Rechenarbeit übernimmt hier weiterhin die Software und damit die CPU. Auf anderen Plattformen ist das mit dem überwiegend genutzten Codec H.264 kein Problem, auf YouTube hingegen schon.
Im Ergebnis benötigt das gesamte Testsystem mitsamt der GeForce GTX 1080 Founders Edition auf YouTube etwa 70 Watt. Mit einer Radeon Vega 64 sind es aber gleich 110 Watt und damit 40 Watt oder fast 60 Prozent mehr. Dies lässt sich nur mit einer aktualisierten Videoeinheit lösen und benötigt entsprechend eine neue Hardware.
Im Diagramm sind Vega und 1080 FE gleich auf. GPU braucht also gleich viel, aber die CPU 40W mehr. Interessant wäre wie es bei anderen GPU aussieht, gerade zb Maxwell / Pascal.
@sven.ghostrider
ah okay, wäre interessant ob das quasi "drum rum" gelöst wurde oder wirklich übern Chip selbst.
Zuletzt bearbeitet:
DiskreterHerr
Lt. Junior Grade
- Registriert
- Apr. 2011
- Beiträge
- 351
- 25. September 2017
- #8
Tag,
in der Tat ist die Kommunikation zwisch. Hardware & Software bei der Videowiedergabe insb. bei UHD sehr interessant.
Trotz Ende September 2017 gibt es noch allerlei Optimierungsbedarf in diesem Feld und irgendwie geht mir das alles zu langsam voran.
Richtig gute Panels zu erschwinglichen Preisen, fortschrittliche Codecs, gutes Zusammenspiel aus Hard- & Software wären langsam mal angebracht.
Btw, 4K auf Netflix, geht das immernoch mit Kaby-Lake + Windows 10 only (?) oder kann mittlerweile Nvidia und AMD das über die GPU regeln?
Grüße
DiskreterHerr
A
Atent123
Gast
- 25. September 2017
- #9
Interessant wäre noch der Vergleich mit Intels Gen 9,5 GPUs gewesen.
M
mahama
Cadet 4th Year
- Registriert
- Juni 2016
- Beiträge
- 124
- 25. September 2017
- #10
Mal ein Lob an Nvidia weil sie VP9 voll unterstützen und den Treiber pflegen (seit der Maxwell 960/950)
Keine Ahnung wie viele tausend Stunden ich auf Youtube zugebracht habe, und wieviel Wärme das im Sommer eingespart hat
paul1508
Captain
- Registriert
- Nov. 2005
- Beiträge
- 3.779
- 25. September 2017
- #11
Können das nicht Intel CPUs auch schon vollständig seit Kaby Like mit der iGPU? Und das wahrscheinlich noch um viel effizienter als AMD und Nvidia.
M
mahama
Cadet 4th Year
- Registriert
- Juni 2016
- Beiträge
- 124
- 25. September 2017
- #12
DiskreterHerr schrieb:
Btw, 4K auf Netflix, geht das immernoch mit Kaby-Lake + Windows 10 only (?) oder kann mittlerweile Nvidia und AMD das über die GPU regeln?
Netflix 4k wird auf Pascal inoffiziell unterstützt seit uh dem vorletzten? Treiber.
Man benötigt aber die neueste Win10 version, einen HDCP2.2 monitor über HDMI angeschlossen (und keinen anderen danaben laufen lassen), sowie die Win10 app. Und ein 4k Abo natürlich
tobi14
Banned
- Registriert
- Sep. 2009
- Beiträge
- 915
- 25. September 2017
- #13
Das für den Test verwendete Video liegt in der Auflösung 3.840 × 2.160 mit 60 FPS sowie HDR10 vor und gehört damit zu den anspruchsvollsten Inhalten, die es auf dem Streaming-Portal gibt.
Da langweilt sich sogar noch mein i7-3770K
GPU Beschleunigung ist egal bei wem für die Katz so lange es die CPU locker aus der Hüfte macht bei immer noch weniger Mehrverbrauch als die GPU. Was soll den auch bei einer "1:1 Echtzeitabspielung" so groß beschleunigt werden ...
habe es extra wegen dem Test mal wieder im Feuerfuchs aktiviert und auch genauso schnell wieder deaktiviert weil vollkommen ohne Mehrwert. Das einzige was da mit meiner 580er beschleunigt wird ist das Zählrad am Stromzähler.
PS: Meine 580er (XFX Radeon RX 580 GTR-S Black Edition Crimson) braucht keine 30 Watt wie hier angegeben sondern 57Watt "GPU only!" laut GPU-Z bei einer Aufzeichnungsauflösung von 0.1sec als Durchschnitt über die Laufzeit des Videos! Treiber 17.9.2
Edit: GPU-Z mal geupdatet. Jetzt hat man neue Spalten für Watt
GPU only: ~ 45.3 Watt
DC Power: ~ 24.1 Watt
DI Power: ~ 10.7 Watt
-> 80.1 Watt gesamt also?!
Jedenfalls alles meilenweit von den CP Messwerten weg!
Zuletzt bearbeitet:
Smagjus
Rear Admiral
- Registriert
- Feb. 2011
- Beiträge
- 6.131
- 25. September 2017
- #14
Ich verwende eine Gainward GTX 1070 Phoenix auf Windows 10 x64 Edu mit Anniversary Update. Treiber ist der 382.33 vom 22. Mai.
Beim ersten Versuch mit dem Video wo ich im Durchlauf die Qualität hochgesetzt habe, blieb die Grafikkarte bei den Maximaltaktraten.
Bei allen folgenden Durchläufen braucht die Karte etwa 10-20 Sekunden bis sie sich auf ~900MHz Core / 810MHz VRAM einpendelt. Der Verbrauch meines Gesamtsystems liegt dabei bei etwa 20W über dem Idle-Verbrauch.
Moep89
Admiral
- Registriert
- Jan. 2008
- Beiträge
- 8.066
- 25. September 2017
- #15
Warum hat AMD denn bitte bei der grade erst rausgekommenen und eigentlich noch gar nicht wirklich verfügbaren Vega keinen vollständigen Support für VP9 an Bord? Ich meine wie lange sollen Nutzer denn darauf warten? Nvidias Karten sind schon gut 1 Jahr alt und können es
Das war bei gar nicht so bewusst mit dem VP9 bei AMD. Gefällt mir absolut nicht.
L
Lübke82
Gast
- 25. September 2017
- #17
Whoracle schrieb:
Interessant finde ich das auf meinem System meine Grafikkarte überhaupt nicht mehr richtig runtertaktet, 4k Monitor sei dank.. Hier spielt die Auflösung des Bildschirms scheinbar eine erhebliche Rolle. Ich meine es gab ja auch Fälle mit Bildflimmern oder Bildfehlern unter Windows wenn der Grafikspeicher zu niedrig lief.
Kan ich bei mir nicht sagen. Hab auch einen UHD-Bildschirm und meine Karte taktet komplett runter, wie sie soll.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.245
- 25. September 2017
- #18
Moep89 schrieb:
Warum hat AMD denn bitte bei der grade erst rausgekommenen und eigentlich noch gar nicht wirklich verfügbaren Vega keinen vollständigen Support für VP9 an Bord?
vermutlich weil die Karte auch schon wieder etwas älter ist und einfach extrem lange zurückgehalten worden ist (Tapeout ist >1 Jahr hin). Was bei Fiji nichts anderes, kein HDMI 2 usw an Bord und altes GCN Level. Das Vega Design ist sicher nicht ganz taufrisch - aber etwas wundert es mich auch. Sicher dass da kein VP9 auf Vega in HW gehen sollte?
Edit:
Testmateriel
https://www.youtube.com/watch?v=iNJdPyoqt8U
Zieht 20% CPU mit meiner 980 TI in Chrome, 15% im neusten Edge (insider)
Edit: Im Chrome läufts aber runder.
Zuletzt bearbeitet:
tobi14
Banned
- Registriert
- Sep. 2009
- Beiträge
- 915
- 25. September 2017
- #19
Ach ja anspruchsvolles Video
Hier mal 8K und die traurige Wahrheit trotz GPU Beschleunigung:
https://www.youtube.com/watch?v=IRSVsCBtgnk
CPU only ist zwar auch ne Slideshow hat aber einen Tick weniger Frame dropps!
------------------------
0x8100 schrieb:
Auch auf neuen Karten nur noch ein Bruchteil am Verbrauch! Weit unter ~10 Watt. Leider wird mein Bsp Video oben dann nur noch als max 1440p angeboten, hätte mich ja mal interessiert was es da gebracht hätte. trotz alle dem scheinbar ein Pflicht Add-on!
Zuletzt bearbeitet:
B
BOBderBAGGER
Fleet Admiral
- Registriert
- Feb. 2008
- Beiträge
- 15.317
- 25. September 2017
- #20
Hier mal 8K und die traurige Wahrheit trotz GPU Beschleunigung:
Was hast du denn für Hardware ? Auch wenn ich gerade nicht die Bandbreite für 8k habe verliere ich mit der 1060 keine Frames.
Zuletzt bearbeitet:
Du musst dich einloggen oder registrieren, um hier zu antworten.