MSI GTX980 Gaming 4G test
Testirali smo MSI GTX980 Gaming 4G.
|
Proletio kroz tekst, spominju se lošije performanese zbog novih drajvera ili tako nesto i onda toga nema pod minus i to za karticu tog cjenovnog ranga, pa i kavu bi mi morala kuhati, a ne negdje biti lošija zbog drajvera. :nono:
A da, to je bezgrjesna nVidija, ja se ispricavam, testovi su krivi ili AMD :D Krešo, nekad se pitam jesmo li stvarno obojica Matanovići :D |
Nadam se da ste tijekom testiranja provjerili ima li grafa stvarno 4GB? :D
Hlađenje i akustika su stvarno jako dobro izvedeni. Iako sumnjam da je velik broj onih koji se na to obaziru pri izboru ovakvih grafa, potrošnja je dosta niska. |
Citiraj:
Ne branim Nvidiu i to sto su napravili nije dobro, ali ispada da nam rijetko kad treba vise od 3GB. Jasno, uvijek ce biti onih koji ce naletiti na problem, i tu je Nv zeznula stvar. |
Potpuno mi je jasno da je jako malo ljudi koji bi mogli iskoristiti tih spornih 0.5GB više, no vjerujem da veliki dio kupaca na to gleda kao stvar principa, a i tema je aktualna, pa nisam mogao propustiti priliku da postavim pitanje :)
|
Solidno je brza 980 od 970. Da je malo jeftinija mozda bi razmisljal o kupovini. Prema gtx 780 je visa liga iako se 780 dobro drzi u usporebi sa 970. extra pol gige na 970 je manje od jedne al trebalo bi znacit nesto
Dobar test al probaj mozda ubacit neku novu igru tipa FC4, Dying Light ili sl... Te zderu vram ko blesave ko i vecina novih portova sa next gen... |
Citiraj:
(oke usb 3.0 nam stvarno treba da bi probili barijeru od ~12mb/s, ali njegov puni bendvit je debelo veći od mehaničkog 5400 2.5" diska). |
Dobra grafa, da je nekih 1000 kuna jeftinija bi bila odlična kupnja za high-end (ipak se ovdje radi o mainstream čipu ubačenom u high-end proizvod, na istu foru što je nVidia prodala sa 680/770 serijom). Ako AMD-ova serija 300 joj bude kompetitivna, imaju jako puno prostora za korekciju cijene.
Ipak, čekam velikog Maxwell-a (GM110, jel) da vidim što će pokazati. :) |
pošto će amd dolazit sa vodenim hlađenjem, ne znam kako može konkurirati cijenom :D
|
Review za lagano štivo ponedeljak jutro :)
Odlično! |
Citiraj:
Citiraj:
|
Citiraj:
Izvrsna grafa - izvrsna cijena. Svakako će biti zanimljivo pratiti rasplet kad naleti AMD-ova serija :) |
Citiraj:
Baš me zanima što će AMD napraviti. Kod žene u pećnici jedna nevidija 660 čeka da ju bacim kroz prozor i stavim pravi grijač. :D |
Citiraj:
Mah, bacaj to, navodno i ta nevidija ima ovaj Vram sindrom :) |
Citiraj:
|
Uh, na godišnjem sam i još pomješao dan :D Starim
|
Citiraj:
Iskreno, nisam ni ja naletio baš na neki članak i slično. Samo sam negdje pročitao da i vjerojatno GTX 660 pati od tog problema (u stilu da ovo sa GTX 970 nije ništa novo). http://forums.anandtech.com/showthread.php?t=2303573 Citiraj:
|
Imam ja jednu FX5600, moram provjerit dal je i na njoj "problem" prisutan.
Who fucking cares dok mi se ventovi na grafi nevrte dok gledam svoj omiljeni porn klip u 1080p :D |
Okej, po meni je rezime da nVidia zbog svojih egzotičnih širina sabirnica mora radit kompromise i konfigurirati svoju memoriju na te inovativne načine čisto da bi držala korak s AMDom po pitanju koliko VRAMa treba utrpat na karticu konkuretne generacije. Sada su se napokon pojavili naslovi koji zapravo mogu i iskoristiti tu memoriju, pa je problem isplivao na površinu u pogledu sporijeg pristupa nekom dijelu te memorije kod nVidije. Makar izgleda da na 6xx karticama s 192 bita taj bandwidth je 2x sporiji, vs. 10x sporiji kod ove particije od 0,5 gb kod 9xx kartica, tako da bi taj efekt trebao imati još manji utjecaj na performanse. Po meni ovo i nije toliki problem, grafičke kartice su ionako aktualne max 2 godine, te je valjda i prognoza potrebne video memorije za naslove kroz te buduće dvije godine kod dizajniranja kartica dovoljna. Nakon 2 godine, GPU ionak bez obzira na količinu memorije nije više dovoljno jak za nove naslove, pa krešeš detalje i automatski smanjuješ potrebu za memorijom.
|
šta znači držat korak?
u doba kada imaš "ati" i "nvidia" naslove jedino za šta se možeš uhvatiti je neka sveopća stabilnost u radu, bugovi, potrošnja i zagrijavanje... ja imho tu ne vidim da nvidia drži korak, štoviše ati već deceniju šepa za nvidiju pod "izlikom" niske cijene. |
Držat korak čisto u marketinškom smislu da imaju istu količinu memoriju na karticama koje bi trebale bit performansno istog ranga. Jer je bitno kod recenzija i usporedbi da nema manje VRAMa jel, automatski plus drugom kampu.
PS. Yer preachin' to the choir, Green team over here ;) |
dobro marketinški je druga priča, pogotovo trenutno... makar ja osobno mislim kako je to debeli bulšit te samo medijska pompa.
omg kartica koristi 3.5gb od 4gb ram-a jer se igram sa mid-range kartici u 8k rezoluciji sa 5fps pa mi je potrebno 3.99gb rama u radu. ajmo se sjetiti ati-jevih grafičkih koje KOMPLETNO nisu radile u referentnim turbinskim izdanjima pod loadom? možemo krenuti sa x1950 naovamo... pa to onda nije skandal jerbo eto biće aftermarket kulinga koji će raditi ispod 100c i koštati skuplje. od toga nitko ne radi pompu recimo, a za to postoji jedna riječ - poluproizvod. |
Udario u 3.5GB cap sa GTX970 :D
Thief - DSR 3620x2036 (maksimalna kvaliteta) - potrošnja VRAM-a 3540MB = 25 FPS Thief - DSR 3620x2036 (optimized - experience) - potrošnja VRAM-a 3068MB = 41.9 FPS Dakle, za sve koji žele sami izmjeriti potrebno je odabrati maksimalnu kvalitetu u NV Experienceu, a ne optimizirane postavke. |
što bi potvrdilo ovo gore kaj sam rekao... jednostavno pričamo o preslaboj grafi za (quality) 4k igranje.
edit: a realno i ~40fps nije neko cvijeće. |
Citiraj:
|
to bi bilo nešto poput - imam klamidiju.
Citiraj:
|
A jesi našao čupat dramaturgiju i tematiku iz dvehiljadite bem te :D
Tada su druga pravila vrijedila. Danas je kupac bog :D |
Hahaha, Sisa i njegova voljena nVidia... gori si fanATIka Pinsle svojevremeno. :D
Anyhow, sviđa mi se ideja vodenog referentnog hlađenja ako bude tiho i učnikovito, samo ne znam kako su to zamislili kada neki nesretnik odluči napraviti CF... |
znači ako je referentno hlađenje voda, onda znači ispod toga ne ide kako bi kartica normalno radila.
to po meni nije prihvatljivo za bilo koji komad hardvera nevezano za brand. |
Nvidia je kriva jer je napravila optimizaciju arhitekture gpua da s njim može raditi što hoće, počevši od rezanja SM-ova i cachea bez da obezglavi cijeli čip.
To AMD nemere pa su tek sad korisnici našli dlaku u jajetu prisutnu već dvije godine. /sarcasamOFF Samo što se nvidija sad zeknula i razbahatila pa je eksponirala netočne činjenice samo zato da još veći marketinški boom naprave. A kladim se da nije došlo do slučajne greške, prije je to "slučajna" greška. Ko da hardveraši ne provjeravaju što ovi iz marketinga napišu :nono: Citiraj:
|
Sva vremena su GMT +2. Sada je 11:12. |
Powered by vBulletin®
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
© 1999-2023 PC Ekspert - Sva prava pridržana ISSN 1334-2940
Ad Management by RedTyger