Citiraj:
Autor Manuel Calavera
(Post 2977692)
asus i giga 1050ti slike
Što se tiče fičura, nije još dx12 tu gdje bi trebao biti, nema još ground up dx12 naslova, ovo su još patchirani dx11 naslovi. Inače async bi trebao donijeti boost u performansama (možda nekih 15%) što se dosad vidjelo u samo nekim igrama i to samo na amd gpu zbog proper supporta.
|
AC nije nešto što donosi fiksni perf. boost jer ovisi o više faktora. Nije točno da samo AMD ima "proper" support. Šta to uopće znači? MS je jasno definirao što je potrebno za Multi Engine support i tu ne postoji ništa što nvidia ne može. Nitko ne spori da AMDova implementacija (tzv. Async. Shaders) nudi više mogućnosti (uostalom platili su to veličnom jezgre), ali problem nastaje kada ljudi misle da je to razlog zbog kojeg AMD kartice profitiraju više od Async.Computea što nije baš cijela istina. Problem kod GCNa leži u tome što je uArch često nedovoljno iskorištena tj. javlja se idle time između operacija. Svrha ACa je popuniti te rupe što za posljedicu ima bolje performanse kartice. Nvidia je problemu pristupila iz drugog ugla i radila na samom optimiziranju arhitekture kako bi tog praznog hoda bilo što manje, a to znači i da će efekt od samog AC biti manji. AMD kartice će uvijek dobivati više od async omputea, ne zato što imaju "proper support" nego zato što imaju više praznina za popuniti. Amen. Vrlo jednostavno za shvatit. Dakle, sve da i nvidia implementira nešto slično AMDovom rješenju opet ne bi dobili ništa značajno, osim što bi bacili hrpu tranzistora u vjetar. Cost/benefit, dakle ekonomija. PS. dovoljno je pogledati teoretske mogućnosti npr. GTX1060 i RX480 i stvarne rezultate. Uostalom, zašto bi se ja pravio pametan: http://www.anandtech.com/show/10325/...ition-review/9
Citiraj:
Furthermore the concurrency is still based on filling execution bubbles, and that means that there needs to be bubbles to fill in the first place. In other words, the greatest gains from async will come from scenarios where for whatever reason, the graphics queue and its synchronous shaders can’t completely saturate the GPU on its own.
|
Citiraj:
Meanwhile, because this is a question that I’m frequently asked, I will make a very high level comparison to AMD. Ever since the transition to unified shader architectures, AMD has always favored higher ALU counts; Fiji had more ALUs than GM200, mainstream Polaris 10 has nearly as many ALUs as high-end GP104, etc. All other things held equal, this means there are more chances for execution bubbles in AMD’s architectures, and consequently more opportunities to exploit concurrency via async compute
|
Koga zanima preporučam da si pročita barem tu stranicu iako je cijeli članak odličan. Lijepo je opisano i zašto je Maxwell gubio performanse i zašto nvidia nikad nije omogućila AC u driverima, te kako su s Pascalom riješili taj problem. Vidjeti ćemo šta Volta donosi, koliko sam pročitao najavljuju se velike promjene u odnosu na Fermi-Pascal, navodno bi i Geforce brand mogao u mirovinu. No s druge strane, čini se kako će 10nm proces doživjeti sudbinu 20nm i da nvidia odmah ide na 7nm, pa je i tu svašta moguće. Podsjetimo se, u ranijim verzijama nvidia rodamapa Pascala uopće nije bilo, pojavio se kad je postalo jasno da ne bude ništa od 20nm. In other words, Pascal je ono što je Maxwell trebao biti na 20nm, pa je tako moguće da Volta ostane na 16/14nm, a da na 7nm procesu osvane neki drugi znanstvenik.
Citiraj:
Autor Manuel Calavera
(Post 2977734)
Ma samo da ne gubi performanse s njim kao u nekim igrama i bit će OK. U suprotnom mislim da će nvidia kočit async maximalno tj. gdje god može. Best case je da tako dobije malo, ne vjerujem da može više s tim svojim preemptionom.
|
Nvidia ne koristi preemption, bar ne u kontekstu Async.Computea o kojemu je ovdje riječ. Pascal dokumentacija je više nego jasna po tom pitanju. AMD s druge strane koristi preemption jer unutar ACEa postoji dedicirani cache za load/unload podataka za context switching bez velikog penaltya. Kako nvidia nema ništa sličnoga, podaci bi išli u i iz video memorije koja je ohoho sporija i jasno je da bi latencije bile prevelike i da to jednostavno nije opcija za njih. Doduše kod Maxwella se (neplanirano) događalo nešto slično, a zašto, zna samo nvidia. Također, nisam nigdje vidio da Pascal gubi performanse s uključenim AC, niti za to ima razloga.
|