Новые RTX 3000

:smile: Борода,одной фразой про 850 ваттный сисоник ушедший в защиту, поднял цены на блоки питания на 10-15 % .Сисоникдрочеры, хватаясь за сердце , бегут за таблетками. :rofl:
80 градусов на разъемах питания , это оглушительный успех. Где там все эти крикуны которые кричали,что 2 по 8 хватит и новый разъем не нужен ? :smile:

Ну… он же ясно сказал, что там дико пнутый проц жрёт как конь, по идее так хватит и это в рендерах, а не в играх.

Ну да , 350 карта , а все остальное ( как минимум 550 ватт учитывая запас ) жрет процессор и материнка :rofl:
Что там c питание процессора 8+4 (8) и 70 градусов на коннекторах ?

Лол rtx 3090 не тянет 4к. Расходимся.

Разве это не замена старых видеокарт для работы с графикой? 8к по моему там для красного словца сказали.

Лайков: 1

Это похоже на замену TITAN-а.

Саму 3090 не тянут(тихо) воздушные со, тоже расходимся - для дома.

МСИ более-менее смогли: https://www.overclockers.ua/video/msi-geforce-rtx-3090-gaming-x-trio-24g/all/
https://www.overclockers.ua/video/msi-geforce-rtx-3090-gaming-x-trio-24g/26-msi-geforce-rtx-3090-gaming-x-trio-24g.png
1370 оборотов, 75*С
Ну а палит с гигой какое-то УГ навернули вместо СО

Другие вендоры тоже смогли, но это чип под радиатором, а там проблема в перегреве вот этого https://youtu.be/8u3zrCQRkfY?t=509

https://cdn.discordapp.com/attachments/637348245231894568/759829732098572308/pro.jpg

Ну так блок 850 ватт, 80 + голд, 10 лет гарантия :rofl: А оказалось надо, вот это поворот, 750 ватт. Китайцы этикетки перепутали на сборочной линии сисоника. Это явно конкуренты занесли, не иначе :smile:

А какой бп (ватт) вообще нужен младшим братьям 3080 3070? Какое у них потребление?

3070 заявлено 220 -250 , у 3080 300-350

Тест бороды дал явно понять, что нужен 850 сисоник. Так как с 3080 он еще справляется , а с 3090 уже нет :rofl:

Спасибо! . .

У палита и гиги там ~2к оборотов. У асуса что-то приличное только при переключении биоса на silent mode

https://3dnews.ru/1021590 Похоже самые проблемные - гига и зотак

Лайков: 1

Хоть не ртх, но я уже страдаю

Как и все покупатели не AORUS…

И всё-таки дико интересно как Амудэ будет лучи организован? Тоже на отдельных блоках?

В октябре увидим, если не отложат презентацию. Раньше представители AMD говорили, что лучи будут реализованы за счет графического чипа, а не за счет отдельных блоков.