110 градусов: Видеокарты Radeon RX 5700 XT портят жёсткие диски

В AMD заявляют, что с видеокартой всё в порядке.


Продаваясь уже в течение месяца, видеокарта AMD Radeon RX 5700 XT показывает хорошую производительность с полной поддержкой 1440р. Однако, рекордно высокая температура нагрева видеокарты (до 110 градусов по Цельсию) вызывает всё больше волнений у покупателей. Жалобы на поломку остального железа в компьютере из-за критической температуры видеокарты были лишь вопросом времени. Первым под удар попал жёсткий диск типа SSD, который перестаёт восприниматься системой после интенсивной игровой сессии.

Об этом сообщает пользователь uX0lotl на сайте Reddit: «После игры я включил режим сна, но при пробуждении компьютера меня кидает в BIOS, а SSD не воспринимается».

В предоставленной пользователем сборке своего ПК числится та самая Radeon RX 5700 XT. А от её ненормальной температуры пострадал SSD-накопитель серии Intel 660p.

Редакция «VistaNews» пришла к выводу, что виной этому действительно является видеокарта, поскольку остальное железо не приспособлено к таким «горячим соседям». В частности это касается не только данного SSD, но и подобных накопителей в целом. Обладая большей скоростью работы и устойчивостью к внешним повреждениям, чем HDD-накопители, SSD менее износостойкие, что и подтвердилось на рассматриваемом сейчас примере. Разумеется, в AMD заявляют, что с их видеокартой всё в полном порядке. Наиболее интересной является фраза о том, что Radeon RX 5700 XT предоставляет «высокие характеристики и надёжность».

Однако, реальность такова, что данная скорее экспериментальная видеокарта не адаптирована под рынок остального компьютерного железа - рабочая температура в 110 градусов никак не является нормой.

Исходя из этого, с покупкой данной видеокарты стоит как минимум повременить, хотя бы потому, что видеокарты Radeon RX 5700 XT своей температурой способны портить другое железо, в частности жёсткие диски. Фанаты AMD могут запросто найти не менее производительную альтернативу в других линейках фирмы, а не столь привередливым стоит взглянуть в сторону конкурентов из Nvidia.

Комментариев еще нет.

Оставить комментарий