PC aufrüsten, wenn ja was?

Bitte was? Ein Heretiker! :smiley:
Spätestens jetzt mit den 3000er RTX sollte ihm klar geworden sein das AMD im GPU Bereich momentan kein Land sieht.

1 Like

Die TopKarten von Nvidia kannst du bedenkenlos kaufen habe ich früher immer gemacht 780,980 usw. die gehen erst kaputt wenn die so veraltet sind das du sie tauschen musst. ich hatte bis zu meiner 2080 ne gebrauchte 780 drin, das Ding kriegst du nicht kaputt.

Erst mal warten wir das ab und 2. war AMDs Intention bis jetzt nie im TopSegemnt mitzuspielen, sondern nur im Consumer und in der Mittelklasse. Wenn die 30% stimmen wäre das ein schöner Schritt bedeutet aber nich das AMd nichts im Ärmel hat.

Mir geht es halt um das Gesamtpaket was Nvidia bietet, nicht nur die reine GPU Leistung.
Mit der Software kann AMD nicht mithalten.
Schon alleine DLSS ist Grund genug auf Nvidia zu setzen, das ist ein gamechanger, besonders wenn Cyberpunk raus ist mit raytracing.

1 Like

Ich bin auch Nvidia Fan einfach schon wegen dem Stromverbrauch, trotzdem legt Nvidia jetzt vor und du weißt nicht mit was AMD nachkommt :smiley:

Da weiß ja jemand mehr als die gesamte Gerüchteküche…

Nimm es mir nicht übel, ich schätze und teile deine Hardware-Einschätzungen. Zumindest meistens. Aber du/man weiß einfach noch nicht, was AMD da so köchelt. Möglicherweise gibt es ne DLSS-Alternative.

Im Grunde weiß nur AMD was RDNA2 so alles bietet. Ich zumindest bin gespannt. Wird ein interessanter Hardware-Herbst/Winter :slight_smile:

edit:

Weil er im Winter dein Zimmer wärmt oder wie muss ich das verstehen? :smiley:

KA, ob das sarkastisch war aber 300W+ sind… hmmm… grenzwertig. Fermithermi reloaded^^
Die Custom-Hersteller haben die Wärmeproblematik schon angesprochen :wink:

Nee Nvidia verbraucht deutlich weniger als AMD, gut bei den neuen weiß ich es gar nicht aber ne 570 hat im 2 Bildschirmbetrieb schon mehr verbraucht als ne 2080. Das ist schon oll. Unter Last hat das noch mehr weh getan. Ich rede nicht von den 3000 ern da scheint zumindest bei den TOpmodellen ordentlich Strom zu fließen aber die alten NVidia verbrauchen deutlich weniger als die AMds

Eine 570 hat ne TDP von 150W(ist btw egal, wieviele Monitore du da dran hängst^^), die 2080 hat 215W. Die 5700XT hat 225W(und ich hab jetzt nur die TDP-Angaben von Geizhals hergenommen. Keine Lust, den Realverbrauch jeder Karte unter spezifischen Szenarien rauszusuchen^^)

Nvidia Kommt jetzt mit Samsung „8nm“ auf 300+. Was AMD bei Big Navi mit TSMCs „7nm(euv?)“ liefert weiß ebend noch niemand :wink:

1 Like

Naja die 570 verbraucht 40 Watt mit 2 Bildschirmen die 2080 keine 20. Unter Volllast vergleicht man wohl eher die 1050 und 570 oder meinetwegen die 1060

Dein Ernst? Was interessiert mich denn, ob die beim browsen/im idle 20 oder 40W verbraucht… Und den 570 2080 Vergleich hast du gebracht.

Es geht hier ums zocken, sprich Last. Und da verbraucht nun mal die 3000er Serie 300w+(zumindest die, die bis jetzt angekündigt wurden).

Und AMD wird da vermutlich in ähnliche Bereiche kommen. Die Performance per Watt-„Krone“ wird wohl, dem besseren Fertigungsprozess geschuldet, an AMD gehen(und ich nehme jetzt mal ganz bewusst RT raus, weil man da bei AMD einfach noch nix zu weiß).

Lirum Larum… nix genaues weiß man nich :wink: Abwarten und Tee trinken.

Mmn. sind die 3070 und 3080 mit der Speicherausstattung eh suboptimal.

Naja wenn deine Kiste am Tag 16 Stunden läuft denkste darüber nach.

Ob 20 oder 40W? Nee, sry. Nicht im geringsten. Wenn ich ein Großraumbüro mit 200 solcher Kisten hätte, dann sicherlich. Nur nutzt ein Großraumbüro im seltensten Fall solche Setups^^

ps: für idle könntest du auch noch ein entsprechendes Profil erstellen :wink:

Nee 20x16x365/1000 /4 = 30 Euro pro Jahr. Ich denke darüber nach :smiley: , ne 2080 habe ich nur drin weil wir sie benötigen, ich hatte vorher ne 1060 drin, die verbraucht auch unter Last deutlich weniger als 570 und das bei mehr Leistung. Das war der Grund warum ich eher zu Nvidia tendiere als zu AMD und selbst die 300 Watt + sind ok wenn der Leistungsprung 30% beträgt, denn dann relativiert sich das schon wieder enorm.

Irgendwie erschließt sich mir der Post nicht. Zuerst hängt das ja unmittelbar von deinem Energieversorger ab. Zweitens werde ich aus deiner seltsamen Formel nicht schlau und drittens ist der Leistungssprung natürlich wieder unter Volllast und da ist deine/die Idle-Differenz irrelevant :stuck_out_tongue:

Aber es ist auch schon spät und vllt. raff ich was nicht. Zu wenig Schlaf^^

16 Stunden 20 watt 365 Tage 1000 ist in Kwh und durch 4 ist mit 25 cent gerechnet
Also schon ziemlich billiger Strom.
Natürlich wenn du von 300 Watt+ redest muss es ja Volllast sein. Deine AUssage war doch das Nvidia mit der nächsten Gen wesentlich mehr verbraucht, klar unter Leistung vielleicht je nachdem was Amd nachliefert. Wer aber mehr Leistung /pro Watt liefert ist ja nich garnicht raus.

Du vermutest aber auch nur.
Bedenke das die Forschung und Umsetzung der ganzen Features, auch DLSS, eine Menge Kohle verbrennt.
Da ist Nvidia finanziell im Vorteil, das kann man nicht bestreiten.
AMD war schon immer hinterher was Software-features angeht.

Nur weil sie den schlafenden Riesen Intel jetzt endlich mal im CPU Bereich eingeholt haben, heißt das noch lange nicht das es im GPU Bereich ebenso ist.
AMD macht halt die Kohle mit den Konsolen-Navi Chips.

Ich sags ganz ehrlich, ich hab seit der Radeon 9700 oder so, kein Vertrauen mehr in AMD im GPU Bereich und bin seit dem bei Nvidia und sehr zufrieden.
Aber ich war auch lange bei Intel, bis zum Ryzen 3900x jetzt, ich nehm einfach immer das was am besten ist, egal von wem.

Man sieht ja wie viel der Fertigungsvorteil und auch der tolle HBM2 Speicher in der Praxis gebracht hat.

Och nur weils nicht geklappt hat, heißt es nicht das war schlecht, manchmal fehlt einfach nur bissel Glück. INtel hatte doch auch mal nen Ram der war um Welten besser als DDR , DDr hat sich trotzdem durchgesetzt weil billiger.

Und HBM hat schon seine Berechtigung wahnsinnig viel Bandbreite aber eben teuer.

Also bisher schwanke ich zwischen

  1. https://.www.amazon.de/dp/B07PR1KLL1/?coliid=I10PBUR8LQHPMO&colid=1QX9O6OJX2TEV&psc=1

oder

  1. https://.www.amazon.de/dp/B083JX52VG/?coliid=I1QEFZZQGOTPII&colid=1QX9O6OJX2TEV&psc=1

zweitere soll wohl sehr laut sein und da gab es wohl des öfteren probleme mit überhitzung ? Sie soll halt ein paar Add ons halten, ich will nicht jedesmal ne neue kaufen müssen (so 2-3 add ons), bei der Ghost hab ich halt das gefühl sie könnte halt nach sl nich mehr gut genug sein und würde dann lieber die ca 100euro mehr investieren so das ich dann bei 300 graka und ca 100 ssd wäre

Sachen aus dem Zusammenhang reißen kannst gut. Einfach einen Satz weiterlesen und was steht da?

ER soll sich eine EIGENE Meinung anhand von Fakten machen.

Wie ich Menschen wie dich verachte …

Mumpitz … einfach mal Nvidia Treiber Probleme googeln … da gibt es auch genug. Jede Seite hat Probleme. Alles andere ist subjektiver Mist. Du kannst nicht von „diversen“ Erfahrungen reden oder Berichten und das einfach nur im Raum stehen lassen ohne belegbare und vor allem belastbare Fakten. Es werden Millionen GPUs im Jahr verkauft, da müssen schon ein paar Berichte und Erfahrungen zusammen kommen um von Problemen über die normalen RMA Raten zu kommen.

Dazu kommt das die Karten auch von einem Dienstleister hergestellt und einem weiteren verarbeitet und einem weiteren zusammengebaut werden Zusätzliche Fehlerquellen für Hardwareprobleme.

Dann Treiber und Software. Da kann es an 10000000 Dingen liegen, warum was nicht funktioniert. Neue Windows Updates die nicht auf neue Treiber abgestimmt sind, Drittprogramme und so weiter.

Lasst so pauschale Aussagen ohne wirkliche Fakten, könnt ihr ja gleich in Berlin bei der nächsten Corinna Demo mitlaufen und Schilder hoch halten:

Nvidia gut, AMD schlecht weil Merith hats gesagt im WoW Forum.

1 Like