Борода,одной фразой про 850 ваттный сисоник ушедший в защиту, поднял цены на блоки питания на 10-15 % .Сисоникд
рочеры, хватаясь за сердце , бегут за таблетками.
80 градусов на разъемах питания , это оглушительный успех. Где там все эти крикуны которые кричали,что 2 по 8 хватит и новый разъем не нужен ?
Ну… он же ясно сказал, что там дико пнутый проц жрёт как конь, по идее так хватит и это в рендерах, а не в играх.
Ну да , 350 карта , а все остальное ( как минимум 550 ватт учитывая запас ) жрет процессор и материнка
Что там c питание процессора 8+4 (8) и 70 градусов на коннекторах ?
Лол rtx 3090 не тянет 4к. Расходимся.
Разве это не замена старых видеокарт для работы с графикой? 8к по моему там для красного словца сказали.
Это похоже на замену TITAN-а.
Саму 3090 не тянут(тихо) воздушные со, тоже расходимся - для дома.
МСИ более-менее смогли: https://www.overclockers.ua/video/msi-geforce-rtx-3090-gaming-x-trio-24g/all/
https://www.overclockers.ua/video/msi-geforce-rtx-3090-gaming-x-trio-24g/26-msi-geforce-rtx-3090-gaming-x-trio-24g.png
1370 оборотов, 75*С
Ну а палит с гигой какое-то УГ навернули вместо СО
Другие вендоры тоже смогли, но это чип под радиатором, а там проблема в перегреве вот этого https://youtu.be/8u3zrCQRkfY?t=509
https://cdn.discordapp.com/attachments/637348245231894568/759829732098572308/pro.jpg
Ну так блок 850 ватт, 80 + голд, 10 лет гарантия А оказалось надо, вот это поворот, 750 ватт. Китайцы этикетки перепутали на сборочной линии сисоника. Это явно конкуренты занесли, не иначе
А какой бп (ватт) вообще нужен младшим братьям 3080 3070? Какое у них потребление?
3070 заявлено 220 -250 , у 3080 300-350
Тест бороды дал явно понять, что нужен 850 сисоник. Так как с 3080 он еще справляется , а с 3090 уже нет
Спасибо! . .
У палита и гиги там ~2к оборотов. У асуса что-то приличное только при переключении биоса на silent mode
https://3dnews.ru/1021590
Похоже самые проблемные - гига и зотак
Хоть не ртх, но я уже страдаю
Как и все покупатели не AORUS…
И всё-таки дико интересно как Амудэ будет лучи организован? Тоже на отдельных блоках?
В октябре увидим, если не отложат презентацию. Раньше представители AMD говорили, что лучи будут реализованы за счет графического чипа, а не за счет отдельных блоков.