PC Upgrade oder komplett neu?

Das werden noch eine ganze Menge sein. Wie gesagt, nur die wenigsten wollen den Aufpreis für 4k mit 144hz zahlen. Für die meisten reicht einfach FullHD mit 60fps und 60hz vollkommen aus.
Ich erlebe es selbst bei vielen die sich bei mir einen neuen Rechner zusammenstellen lassen. Auf die Frage 4k mit mehr als 60hz bekomme ich nur zuürck „Brauch ich nicht“. Klar wird das immer mehr, aber solange entsprechende Monitore und Grafikkarten noch für viele „zu teuer“ (liegt immer im Auge des Betrachters) sind, wird das wohl noch dauern.

Abgesehen von BF V, AC Odessey und Witcher 3 kenne ich derzeit keine Titel die von mehr als 4 Kernen profitieren würden.

Ich rede die ganze Zeit nur davon… min 60 FPS. Das ist seit Ewigkeiten eigentlich der Standard für PC-Gaming und war lange der Hauptunterschied zwischen PC und Konsole.
4K 144Hz hat damit gar nichts zu tun abgesehn das selbst 4K/60hz Quatsch ist Momentan.

Es sind mehr als man denkt. Ich werde jetzt aber sicherlich nicht jedes einzelne raus suchen nur weil es hier im WoW Forum Leute gibt die meinen 4 Kerne (8 threads) sind locker ausreichend für PC-Gaming im Jahr 2020.

Nochmal genauer lesen. „Reicht aus“ kann man bei vielen so verstehen, mehr muss nicht.

Wieso verbaut man eine Desktop CPU in eine Workstation ? ^^

Im Multicore ja aber die Frage ist wie lange noch ? Es ist ja nicht so das Intel wie AMD mit den Bulldozern 5 Jahre lang an Hardwareschrott festhalten würde die haben bloss ein Problem mit ihrer Fertigung.

Und am Ende des Tages kann man hald auch einfach nicht abstreiten das AMD trotz Fertigungsvorteil es nicht schafft so deutlich davonzuziehen wie man eigentlich meinen könnte. Intel produziert nach wie vor die besseren Gaming CPUs und der einzige Grund weshalb ich den Leuten seit dem 3600 zu AMD rate ist das deutlich bessere P/L Verhältniss.

Abgesehen davon ist es für mich persönlich ein No Brainer einen Bogen um Comet Lake zu machen denn wenn Rocket Lake dank Sunny Cove Kernen auch nur annähernd hält was es verspricht erwartet uns möglicherweise ne bombenmässige Gaming CPU. Soll zawr nicht heissen das nicht die Chanche besteht das Intel es verk.ackt ( echt jetzt Blizzard ??? ) aber im Endeffekt bleibt uns wie immer sowieso nichts anderes übrig als auf Benches zu warten.

War nicht meine Entscheidung. Mein Chef hat sich allen sinnvollen Argumenten verschlossen und wollt den haben. Für meine Workstation nutze ich AMD. Ryzen 9 auf Arbeit und Threadripper zuhause.

Schon immer und das wird wohl auch soweit bleiben. Intel hat immer auf Singlethread geaachtet während AMD schon früh auf Multithread gewechselt hat. Und was die Fertigung betrifft … Wie lange versucht Intel jetzt schon auf unter 14nm zu kommen? AMDs Entscheidung hier von TMSC fertigen zu lassen war da sinnvoller. Vor allem weil kleiner Strukturbreiten auch ein besseren Stromverbrauch und Leistung mitbringt, ausser man pumpt mehr Leistung rein um die kleinere Strukturbreite auszunutzen.

KINDERS!
Meine güte das hier ne glaubensfrage entsteht wer welchen CPU nun im Umkehrschluss für besser hält oder was AMD oder Intel machen war NICHT meine Absicht.

Bitte wenn ihr diskutieren möchtet trefft euch doch aufm Discord :smiley:
Die Kernfrage von mir ist geklärt – Hab nichts gesehn um selber „zuzumachen“ aber das sollte passieren :wink:

Werd die o.g. Konfiguration kaufen und verbauen - Danke an die Infos :+1:

Grüße

Immer gerne. Dafür ist das Forum da und das ist normal das dann meist eine größere Diskussion bei so einem Thema entsteht :smiley:

Mobo vlt die h ttps://geizhals.de/msi-b450-a-pro-max-7b86-022r-a2111701.html?hloc=at&hloc=de
und cpu kühler:
h ttps://geizhals.de/?cmp=1638050&cmp=2016216

was hast du für einen Netzteil? falls die altbacken ist könnte man ja auch neues holen.^^

Das liegt aber nur daran das die sich haben von Intel schmieren lassen, die Mehrkernlseistung fliesst so gut wie nicht mehr in die Bewertung ein obwohl du im Mehrkernbetrieb bestimmt 60% hinter nem 3700x liegst.

Dann haste aber bissel was verpasst :smiley:. Intel ist bis auf Einzelkernleistung überall schlechter, teurer und verbraucht mehr Strom und in der Einzelkernleistung ist der Vorsprung auch nur einstellig.

Das würde ich so nicht unterschreiben

Idle x570 Chipsatz , 2080 und 3700x verbrauche ich 60 Watt

Das entnehme ich aus diversen Tests.
Z.B. https://www.computerbase.de/2020-05/intel-core-i9-10900k-i5-10600k-test/4/#diagramm-test-leistungsaufnahme-volllast-windows-10-komplettes-system

Zitat:

Im Leerlauf zeigen die neuen Intel-Prozessoren ihre Wurzeln: Selbst auf hochgezüchteten Z490-Mainboards lässt sich das Gesamtsystem inklusive GeForce RTX 2080 Ti von Asus unter der 50-Watt-Marke im Leerlauf betreiben und rangiert damit auf dem Vorgängerniveau.

Wenn die Intel K-Modelle bei maximalem Takt auf absolute Vollast geprügelt werden, zieht Intel übel, richtig übel. In den anderen Szenarien, Idle, Teillast, usw., sind sie aber entweder etwa auf dem selben Niveau oder unter AMD.
Schau dir mal die Werte vom moderat getakteten i5 10400F und dagegen Ryzen 3600 unter Volllast an.

1 Like

Das liegt aber nicht an den Prozessoren die Boards unterstützen noch kein PCIExpress 4 da ist der gesparte Strom. Die messen ja das komplette System und wenn der PCI E4 hochtaktet kostet das ja auch, der kostet auch im Leerlauf 15 -20 Watt mehr, zieh die mal überall ab.

1 Like

Ok also deutlicher Mehrverbrauch bei Verwendung von X570 Boards.
Wenn man ein X470 ohne PCIE 4 verwendet ist der Verbrauch im Idle aber immer noch höher (im Vergleich zum 10400F ) bzw. gleich (K-Modelle 46 bzw. 47 Watt).

Quelle: https://www.computerbase.de/2019-07/amd-ryzen-3000-test/4/

… Ryzen 5 3600 auf altem X470-Mainboard (MSI X470 Gaming M7 AC) zeigt: Exakt 46 Watt sind es dann im Leerlauf …

Genaugenommen wäre mir eh egal woher der Mehrverbrauch dann kommt. Ob nun CPU oder Board - das System verbraucht mehr im Idle und bei Teillast.
Bzw. ist auf dem selben Niveau wenn man einen älteren Chipsatz verwendet.

Ich will das hier auch nicht weiter aufbauschen. Es ging mir nur darum die obige Aussage von Merith richtigzustellen, dass Intel nicht mehr relevant sei.
Intel ist relevant und das trotz großem Nachteil in der Fertigung.
Jeder, der das Maximum an Gaming Leistung haben will, muss nach wie vor zu Intel greifen.
Verbauen würde ich persönlich momanten aber auch AMD.

3 Likes

Jaja meinetwegen, wayn interessieren 4 Watt, im Leerlauf, wenn er aber anfängt was zu tun, wirds ja interessant und das ohne den X570 Chipsatz. Naja ganz so egal ist es halt nicht, da du die Amd Prozessoren auch auf PCI Express 4.0 betreiben kannst und Intel diesen nicht unterstützt, da ist doch ein Vergleich auf den PCI Express 3.0 Chipsätzen nur fair.

Momentan musst du bei allem was Vergleiche zwischen AMD und Intel sind wirklich vorsichtig sein, die schmieren wo sie können. Die haben 3 Milliarden dafür zur Verfügung gestellt.

Siehe nur Userbenschmark, die Seite kannste inzwischen knicken weil sie für Intel werten und die Testkritereien entsprechend angepasst haben.

h ttps://cpu.userbenchmark.com/Compare/Intel-Core-i5-9400F-vs-AMD-Ryzen-7-3700X/4051vs4043
Die Jungs sind doch nicht ganz Dicht.

Viele Tests werden einfach unfair geführt momentan, da muss man schon genau hinschauen.
Ich bezweifele auch das Intel im normalen Betrieb unter den AMDs liegen einfach weil die IOPS sich nicht mehr groß unterscheiden und Intel viel größer fertigt.

Es stimmt ja auch in der Einzelkernleistung liegen sie noch knapp vorne, das wars aber auch.

Ehrlich gesagt macht mein PC nichts anderes als entweder im Idle zu sein oder nur kleine Lasten zu haben. Wirklich Volllast erlebt meine CPU praktisch nie. Gut das ist natürlich von Nutzer zu Nutzer unterschiedlich aber ich denke, dass es sicher noch viele solche wie mich gibt :slight_smile:
Was ist aktuell noch gleich der Vorteil von PCIE 4? Ist das nicht momentan einfach nur nice to have weil irgendwann in der Zukunft wird es mal nützlich?

Klar hat Intel Marktmacht und versucht Einfluss zu nehmen, aber grade Computerbase ist extrem Pro AMD. Da würde ich nun wirklich keine Mauscheleien vermuten ^^

Die Einzelkernleistung ist aber immer noch in vielen Spielen das Maß der Dinge ^^

2 Likes

Darum gehts ja nicht, es geht darum das Vergleich unfair ist, sie testen die AMD CPUs auf PCIE 4.0 und messen das ganze System, PCI E 4.0 verbraucht aber bis zu 30 Watt mehr und die Intel Systeme lassen sie auf PCI E 3.0 laufen.
Richtig wäre es doch gewesen beide System auf PCI E 3.0 laufen zu lassen, denn dann wäre es eine faire Kaufentscheidung.

Natürlich ist 4.0 momentan noch Recht sinnfrei deswegen wirst du wohl auch zu PCIE 3.0 greifen.
Wer WOW spiel hat keine kleinen Lasten :smiley:

Sieht aber so aus.

Das „knapp“ hast du übersehen?? Es ist auch nur in FullHd das Maß der Dinge desto mehr es in 4k geht, desto mehr verschwinden die Unterschiede.

1 Like

Hast du den zweiten Link nicht angeschaut? Da stellen sie doch klar, dass es am Board liegt und nennen den Verbrauch auf Boards der alten Generation.
Zum Testen nehmen doch eigentlich alle Tester ein Top-Board, das auch für die neuste Generation gedacht ist und nicht eines, das zwar kompatibel ist (eventuell noch BIOS Update nötig) aber eben zur vorherigen Generation gehört.
Wenn man da jetzt Intel-Mauscheleien reininterpretieren will…

Wenn man es so sehen will, um AMD in einem besseren Licht sehen zu können, dann wahrscheinlich ja.
Allein in den Überschriften der Artikel sind hin und wieder schon Seitenhiebe gegen Intel versteckt ^^

Nope, die Unterschiede sind immer noch da. Sie fallen nur nicht mehr so auf, weil man statt des CPU Limits dann ein GPU Limit sieht.

2 Likes

Naja aber das nützt ja nix der Normale Mensch schaut doch nur auf die Ergebnisse, die wurden doch hier zum Anfang auch so angegeben mit dem Zusatz Intel verbraucht weniger, meine Aussage war nur das es an den Boards liegt und nicht an der CPU, also verbraucht Intel weniger weil sie auf PCIE weniger Leistung zur Verfügung stellen. Das sollte man dann schon dazu schreiben, wenn man behauptet: „Intel verbraucht weniger“. Darum gings mir, meinetwegen kann Intel auch weniger verbrauchen, so lange alles offensichtlich fair zugeht. Das ist halt oft nicht der Fall. Mir ist es auch egal wer den Test macht und ob die Intel oder AMD zugewandt sind. Ich glaube mit Geld ist jeder zu kaufen.

Klar das stimmt, aber genau da gehts hin und ob ich nun 260 FPS in FullHd habe oder nur 250 macht halt kaum nen Unterschied, nen Unterschied machts aber ob ich nebenbei noch streamen kann. Denn viel weiter liegen als ein paar FPS liegen die Intel nicht mehr vorne, auch getaktet nicht.

Hier wurde gesagt Intels seien generell Stromfresser. Das stimmt so eben nicht und das war überhaupt erst mit der Grund warum ich damit anfing.

Ist sowieso interessant genau dieses Argument von jemandem zu hören, der offensichtlich eine AMD-Fan-Brille trägt: Die Grafikkarten von AMD benötigen seit Jahren erheblich mehr Saft als die Konkurrenz, aber da wird genau der gleiche Umstand kleingeredet und von Undervolting und dergleichen gefaselt.

Ich habe nur darauf hingewiesen, dass die Seite extrem pro AMD ist, weil du offenbar hinter jedem Test, der AMD nicht ganz so gut aussehen lässt, Einflussnahmen von Intel vermutest.
Im Fall von Computerbase ist das halt… witzig :smiley:

Es sind nicht immer nur eine Handvoll FPS. Es gibt genug Tests auf Gamingseiten, die dies widerlegen.
Im Schnitt der Spieleauswahl vom oben verlinkten Test liegt der 10900K in den FPS (FHD) 16% vor dem stärksten AMD, 3950X.
Bei 60 FPS auf dem AMD wäre das ein Unterschied von ~10 FPS auf dem Intel - ja das wären wirklich nur ein paar FPS, stimme ich zu.
Bei 250 FPS auf dem AMD wäre es aber schon ein Unterschied von 40 FPS.
Bei 400 FPS auf AMD wären es schon 64 FPS Unterschied…
Dem ein oder anderen sind diese Mehr-FPS nicht so egal wie dir anscheinend. E-Sportlern z.B. die über jedes FPSchen froh sind.
Wobei du dir wahrscheinlich auch 100 FPS Unterschied noch irgendwie kleinreden würdest.
Hat man während der ersten und zweiten Generation Ryzen ja schon erlebt, als die Unterschiede noch sehr viel gravierender waren…

So und nun bin ich hier raus. Worauf ich hinweisen wollte ist gesagt.
Und da ich sowieso selbst auch nur AMD verbaue derzeit, mag ich mich nicht ins Intel-Lager gedrängt sehen ^^

3 Likes

Das war ich und stimmt auch, vielleicht nicht im IDLE aber es gibt nur einen Grund ein INtel System zu bauen und das ist einfach nur Gaming und dann auch übertaktet und dann wirste fix arm(ok das war überspitzt :smiley: ), selbst in WOW wird ein i5 mehr ziehen als ein 3600 er, da der eine Kern eben Vollast läuft, das ist einfach den 14 nm geschuldet wie sol ldas auch anders sein wenn sich die Iops kaum unterscheiden.

Bei AMd Karten bin ich ganz bei dir, da kaufe ich auch nur Nvidia aber ich habe dir doch vorhin meinen Verbrauch gesagt mit ner 2080 und nem 3700x bin ich im Idle bei 60 Watt, mit nem x570 Chipsatz. Das ist ein ziemlich guter Wert.

Mhh, ich traue niemandem, meinste nicht CB kann man nicht kaufen? Haste bei Userbenchmark auch gedacht oder? Oder bei Cinebench? Ich weiß nicht ob es an dem ist, ich weiß nur, das man mit genug Geld alles kaufen kann.

Entspann dich mal Junge und fange nicht an reinzuinterpretieren, damit demontierst du dich nur selber.

Ich gucke mir die Links nach der Arbeit mal genauer an, denn die Frage ist ja haben sie einen getakteten Intel mit einem optimierten 3950 verglichen oder nicht oder ist 3950 Standard, das optimieren bei AMD ist nicht ganz einfach deswegen wird es gerne weggelassen. Die 2. Frage ist auch immer willst du takten, das kann Intel definitv besser, allerdings ist die Kühlung so aufwändig das es für viele gar nicht in Frage kommt. Zudem sollte man eher einen 10900 mit einem 3900 vergleichen, denn desto mehr Kerne desto mehr Wärme macht das Ding auch. Obwohl ich mich ernsthaft frage ob 5,3 Ghz über längere Zeit überhaupt haltbar sind oder ob die einfach nur den Test überstehen.

Ich denke da an die Autos, die ein Testszenario erkennen und entsprechend umschalten, wäre ja bei Intel nicht auszudenken, bei AMD auch nicht keine Frage aber die werden ja fix instabil Intel hat momentan nur das Hitzeproblem und wenn man in nem Testszenario halt 5 Grad höher geht bringt das ne Menge Leistung allerdings nur im Test.
Das ist aber nur ein Gedanke, der sich mir aufdrängt wenn ich denke wieviel Wärme bei 5,3 weg muss, das müssen ja um die 300 Watt sein.

Die Frage kann ich direkt beantworten. Nein das geht nicht. Im Endeffekt kann ein Kern auf die 5.3GHz kommen für 60s und zieht dabei 250W. Effektiv wäre das noch nicht mal schlimm wenn dann genau dieser eine Kern wieder runtertaktet und sich abkühlt… Aber nein Intel hat das so gebaut das sich dann die gesamte CPU solange runtertaktet bis es von den Temps her wieder geht. Bedeutet das die gesamte CPU nur noch bei dem Minimum der Leistung hängt. Kann man natürlich auch so lösen …