XFX has officially published various performance figures claiming that its custom GPUs run better with Samsung GDDR6 memory, rather than SK Hynix modules.
Previously, the XFX 9060 XT used Hynix memory, but this time, the XFX 9060XT V3 has switched to Samsung memory. Not only is the GPU cooler, but its DDR temperature is 10°C lower than the Hynix version" says XFX on BiliBili.
The performance comparisons show that Samsung's GDDR6 memory runs at 77°C, while the SK Hynix modules run at 10°C hotter, 87°C. Switching to Samsung-made modules also brings down the total board consumption to 183 W, down from 207 W with SK Hynix. This is 24 W of heat, which the cooler system picks up, resulting in a lower fan speed. In contrast, the Samsung version spun the fans at 1461 RPM, while the SK Hynix version spun at 1814 RPM.
Slušný rozdiel iba pre inú značku pamätí
Tak o 22Wat nižšia spotreba a tichšia karta v defaulte môže byť fajný bonus pre bežného človeka, čo nevie sám svoju kartu poladiť.
AMD Ryzen R9 7950X3D UV-OC, Noctua NH-D15S [NA-HC4] chromax.black&white, GIGABYTE B650E AORUS ELITE X AX ICE, Patriot Viper Elite 5 64 GB KIT DDR5 @6258MHz CL30 White RGB, GIGABYTE RTX 5080 WINDFORCE OC SFF 16G @3,1/36Ghz, NVMe SSD Samsung 990 PRO 1TB + Kingston A2000 1TB, SATA SSD Team Group CX2 1TB, A4tech Bloody V7M HoleLess, Corsair RMx Series RM1000x (2024), Lian Li Lancool 215 White, 31,5" iiyama G-Master GB3271QSU-B1, NintendoSwitch V2 HWFLY Modchip OC CPU: 1020@1785Mhz, GPU: 768@921Mhz, RAM:@1600MHz
Reklamoval som tú moju Sapphire 9070XT Pulse kvôli rapkajúcemu ventilátoru, trvalo im to 3 týždne. Netuším čo s tým ventilátorom robili tak dlho, keby mi poslali náhradný vymením si sám za hodinku (na zhodenie shroudu a výmenu ventilátora netreba porušiť plombu), aj som napísal priamo do Sapphire ale odmietli že nie sú meniteľné používateľom a mám to reklamovať v obchode. Ešte že som to dal pred dovolenkou a mám iGPU v CPU a kopec indie hier aby som to preklenul
Vyzerá že všetko je OK a vrátili mi môj pôvodný takmer nepískajúci kus. Aj som zabudol aká tichá je tá karta aj na default 300W TDP.
In real-world gaming, the card only managed to gain roughly 8-12% uplift over the stock SKU, showing the decoupling from the synthetic tests. It is very likely that the longer-term thermal stress from the prolonged gaming sessions is causing this lower performance increase, sustaining lower clocks compared to the relatively short-term load from synthetic benchmarks. The entire cause of this FPS increase is the enhanced power limit, which increases the non-XT 220 W board power to as much as 300 W, representing a roughly 36% power increase on its own. No additional cores/ROPs/TMUs are unlocked by flashing the XT BIOS.
Flashom XT biosu získate na non-XT 220w karte 300w spotrebu a teda aj vyšší výkon
AMD Ryzen R9 7950X3D UV-OC, Noctua NH-D15S [NA-HC4] chromax.black&white, GIGABYTE B650E AORUS ELITE X AX ICE, Patriot Viper Elite 5 64 GB KIT DDR5 @6258MHz CL30 White RGB, GIGABYTE RTX 5080 WINDFORCE OC SFF 16G @3,1/36Ghz, NVMe SSD Samsung 990 PRO 1TB + Kingston A2000 1TB, SATA SSD Team Group CX2 1TB, A4tech Bloody V7M HoleLess, Corsair RMx Series RM1000x (2024), Lian Li Lancool 215 White, 31,5" iiyama G-Master GB3271QSU-B1, NintendoSwitch V2 HWFLY Modchip OC CPU: 1020@1785Mhz, GPU: 768@921Mhz, RAM:@1600MHz
Dnes sa ma po dlhšej dobe spýtal STEAM či sa chcem zúčastniť survey. Tak som súhlasil, že reku hádam pomôžem 9070XT nech sa konečne dostane do zoznamu. Namiesto toho som rozšíril zastúpenie majiteľov "AMD Radeon(TM) Graphics"
Vie mi niekto povedat, koho je to vina, ze nVidia ma v HW survey pekne granularne modely a AMD je v tomto vyfailovane? Ja blejmujem AMD, ale neviem, ci je to naozaj tak. Vsak ked si pekne cez WMI vypisem nazov/model grafiky (napr. prikaz wmic PATH Win32_VideoController GET Name), tak na Nvidii dostanem krasny cisty popis modelu. Toto nefunguje s AMD? Alebo na AMD platforme s Ryzenom a iGPU alebo ako?
Akurat minule som pozeral tu Steam statistiku a toto ma tam dozieralo.
Dava zmysel 9070xt k ryzenu 5900x na 1440p hranie? Ci to je uz nezmyselne silna grafika?
Vpodstate mi ju netreba, ale 6700xt co mam teraz ma uz 4roky, a vyzera ze minimalne 2roky sa nebude dat kupit ziadna nahrada tak rozmyslam ci ju nevymenit.
Však si ju vypožičaj z alzy a uvidíš, ale podľa mňa sa to oplatí. Keď zoberieš ten XFX Swift, alebo lepšiu Mercury Radeon RX 9070 XT 16G za 668e a svoju 6700xt predaš na Bazoši za +-200e to máš fajný upgrade. Alebo zober napr. Asrock 9060xt 16g za 378e čo je stále dobrá karta a máš to za polovic.
>> Dava zmysel 9070xt k ryzenu 5900x na 1440p hranie? Ci to je uz nezmyselne silna grafika?
krpaty to ma tak, 1440p, 9070xt akurat na ryzen9600. Nehraje najnarocnejsie AAA tituly, plna spokojnost, nepouziva ziadne feature ktore by ho museli nahnat do tabora Nvidie, navyse sme tu XTcku kupili za nejakych 499,- bez dph alebo tak nejak.
Som matematik... Vzrusuju ma cisla, napriklad 8300 na otackomeri alebo 2,15 baru z kompresora a este aj 1-12-5-8-3-10-6-7-2-11-4-9.
9600 je na hry výrazne lepší ako 5900. Ale ako vždy, záleží od hry či je bottleneck CPU alebo GPU. Každopádne 9060XT alebo 9070XT bude fajn upgrade, podľa toho koľko si ochotný dať.
Pozeram na to, ale 9060xt vyzera byt taky meh upgrade... Akoze fajn, bude nova a ma lepsie technologie, ale asi len 20 max 30% naviac. Vo vacsine hier pozeram ze to je rozdiel 55fps vs 66fps atd.