PC Ekspert Forum

PC Ekspert Forum (https://forum.pcekspert.com/index.php)
-   AMD Radeon (https://forum.pcekspert.com/forumdisplay.php?f=11)
-   -   AMD Radeon R9 3xx/Fury/Nano series (Islands) (https://forum.pcekspert.com/showthread.php?t=263043)

Manuel Calavera 20.08.2015. 12:33

Tvrdi eurogamer tj. digital foundry. Vrtili su neku sintetiku i drastično je smanjio singlethreading razliku naspram 4690k

ssarik 20.08.2015. 13:10

Citiraj:

Autor Hawker (Post 2817486)
Di je taj tvrdio da ce FX masno profitirati od DX12?
Molim link na post,hvala.

Ne pravi se grbav sad. :D

Hawker 20.08.2015. 16:13

Citiraj:

Autor Manuel Calavera (Post 2817487)
Tvrdi eurogamer tj. digital foundry. Vrtili su neku sintetiku i drastično je smanjio singlethreading razliku naspram 4690k

Problem je sto taj forumash ne poznaje materiju ni sto je CPU overhead pa onda ne moze ni razluciti utjecaj istog na DX11 i DX12.

Na stranu to,jedna poprilicno velika vijest koju cu stavit ovdje umjesto na Intelov thread,

Intel indeed plans to support VESA Adaptive-Sync displays

In a Q&A session this afternoon, I asked Intel Fellow and Chief Graphics Software Architect David Blythe about Intel's position on supporting the VESA Adaptive-Sync standard for variable refresh displays. (This is the standard perhaps better known as AMD's FreeSync.)

Blythe indicated that Intel is positively inclined toward standards-based solutions like Adaptive-Sync, and he said Intel does indeed plan to support this optional extension to the DisplayPort spec. However, Blythe wasn't yet willing to commit to a timetable for Intel enabling Adaptive-Sync support in its products.


LINK

To znaci da Intel podrzava AMD Freesync.
Prilicno velika vijest. Ako Intel podrzava Freesync onda su to fantasticne vijesti. Pogotovo za sadasnje i buduce vlasnike Freesync monitora.

EDIT: Znaci,Intel je odlucio o sudbini G Synca umjesto AMDa.:D

Manuel Calavera 20.08.2015. 16:26

Pa to je logičan potez za njih ako moraju nešto odabrati. Freesync je softverski, a g sync podrazumjeva komad hardvera tj. modul na monitoru. Normalno da je za njih put softvera bolji jer s ovim drugim nemaju ništa. Dakle vode se nekom logikom i vlastitim interesima

RaneZ 20.08.2015. 17:54

Ja se spremam na g-sync monitor sa vrlo jednostavnim stavom. Hard>soft.
I još zvuči porno. Di ćeš bolje. :chears:

Romano.Cule 21.08.2015. 15:02

1 privitaka
Izgleda da je nvidia optimizirala drajvere lopatom jer 290X brise pod sa GTX 980 Ti u DX12

http://arstechnica.com/gaming/2015/0...nt-for-nvidia/

esc 21.08.2015. 15:51

Citiraj:

Autor Romano.Cule (Post 2817959)
Izgleda da je nvidia optimizirala drajvere lopatom jer 290X brise pod sa GTX 980 Ti u DX12

http://arstechnica.com/gaming/2015/0...nt-for-nvidia/

Ma da,pa to je nvidia a ne amd...nvidia ima savršene drivere...prije je do ardvera:D
Već je bio graf btw

Nybelung 21.08.2015. 15:57

Da, uopće nisu optimizirali drivere za igre koje još ne postoje. ;)
No to ne znači da driveri neće valjati kad DX12 igre konačno dođu na tržište. Imaju svi sasvim dovoljno vremena da se poprave, a bome i da zaseru. :D

Sphere 21.08.2015. 16:10

AMD hardver je pun pogodak za DX 12 to se zna odavno, mislim da sam pogodio u sridu sa r9 390 i sta se tice DX 11 a pogotovo DX 12.

Nybelung 21.08.2015. 16:40

Ja čekam da Nino isporuči Intel i5 + Sapphire R9 390 8GB NITRO OC. :D Ali ne nadam se nekim fantomskim poboljšanjima na W10 i DX12. Da 970-ke nemaju problem s RAM-om ne bi išao na 290/390. :)

Sphere 21.08.2015. 17:02

Zasto nebi isao, r9 390 nema coil whine, ima brdo memorije, u startu je jaca u vecini naslova, sigurno ce napraviti jos veci odmak na DX 12, jedino sta vise trosi i eventualno vise zagrijava, eto ja ju imam tjedan dana i temperatura je od 72-75 stupnjeva, do 65 stupnjeva ni ne pali ventove uopce tako da ju ni ne cujes.

Garro 21.08.2015. 17:12

Kakve su ti temperature proca i matične ploče nakon ugradnje 390-tke?

I ne možeš nagađati kakve će performanse 390 imati u budućnosti sa igrama koje još nisu izašle.;) Po meni, treba pričekati neku relevantnu DX12 igru i optimizirane drivere sa obje strane pa onda donositi sud.

Sphere 21.08.2015. 17:32

Imam stock kuler, temperature proca su nekih 68 stupnjeva dok igram, ali dvije jezgre uvijek odskacu za desetak stupnjeva od druge dvije. Za maticnu nisam gledao, ona je oko nekih 35-40 stupnjeva mislim, diskovi nekih 28-30 stupnjeva dok igram, racunaj na to da nema bas neki airflow u kucistu, planiram kupit jos jedan posten vent za upuh od 140mm, to ce skinut jos sigurno 3-4 stupnja.
Sta se tice DX 12 pricam o onome sta je dosad viđeno i sta se moze naslutiti.

Garro 21.08.2015. 17:38

U principu, zanimalo me više koliko su se povećale u odnosu na staru grafu.:)

A od DX12 smo do sada vidjeli jednu igru koja je sponzorirana od strane AMDa.;) Slažem se da se čini da bi AMD mogao više profitirati od DX12 od nVidia-e, ali još nema niti poštenih igara niti optimiziranih drivera.

syss 21.08.2015. 17:53

može se naslutiti jack-shit, eto šta se može naslutiti... viđeno već 100 puta kroz povijest u bilo kojem obliku.

Sphere 21.08.2015. 17:59

Ja ga zeljno iscekujem dok neki drugi strepe :D

Nybelung 21.08.2015. 18:11

Ma da. Tresu se ko list na vjetru. :D

Manuel Calavera 21.08.2015. 18:29

Kao što rekoh, dok ne izađu neutralne igre, bar 3 radi nekog uzorka (dakle ne gameworks, ne amd evolved, i ne microsoft - fable), onda ćemo vidjeti koliki je boost amd-a, a koliki nvidie (tj. dali ga uopće ima), u situacijama kad nema cpu bottlenecka. Do tad će i nvidia dobiti malo fore da optimizira drivere, ali izvjesno je da će boost malo veći biti sa amd grafama. One su underperformale na dx11 s obzirom na hardware, što i mnoge analize kažu.

Tko ima neku bottlenjikavu konfiguraciju može šampanjac otvarat već sada, ono što je imao sa mantleom će u najmanju ruku imati sa svim dx12 igrama (dakle puno više igara, a ne samo par). Gdje nije bilo bottlenecka nije ni mantle imao bogznakakav boost, ovako nešto je sasvim realno. Može biti samo bolje, gore vjerojatno neće. Ovo je praktično jedini preview (20% increase, ali microsoftova igra, tu su vjerojatno specijalan trud uložili, ali potencijal defintivno ima).

Bit će i zanimljivo vidjeti i na postojećim dx11 igrama koje će naknadno dobiti dx12 podršku (witcher3 i project cars). Obje su gameworks naslovi, pa nvidia ne može kenjati kako je amd igra kao što je realno ova dx12 strategija. Za nju su se nešto prije spominjalo da će amd demonstrirati HSA tehnologiju APU-a gdje grafičke jezgre upravljaju određenim jedinicama na terenu uz procesorske.

zthan 21.08.2015. 18:47

Evo jedno zanimljivo objašnjenje DX12 benchmark situacije sa AMD i NVidia grafičkama -- http://www.overclock.net/t/1569897/v...#post_24321843

Ukratko, AMD je donosio neke dobre dugoročne odluke kod dizajna GCN arhitekture i tek sada dolaze rezultati toga.

Manuel Calavera 21.08.2015. 18:54

Recimo ovaj graf što je romano istaknio, treba malo i interpretirati rezultate, a ne samo gledati u brojke i uzeti zdravo za gotovo - baš se vidi da je igra benchmark i da nema veze sa životom. Gdje to 290X sa dx11 ima duplo lošije perfomanse od 980Ti? Pazite cpu je i7 5930K, dakle tu ne vrijedi priča o cpu bottlenecku i lošijim amd dx11 driverima u takvim situacijama.

Odinarius 21.08.2015. 22:31

"With DX12 there are no tangible driver optimizations because the Game Engine speaks almost directly to the Graphics Hardware." - iz gornjeg posta. Zanimljiv razvoj situacije :)

Hawker 22.08.2015. 00:11

Citiraj:

Autor Odinarius (Post 2818100)
"With DX12 there are no tangible driver optimizations because the Game Engine speaks almost directly to the Graphics Hardware." - iz gornjeg posta. Zanimljiv razvoj situacije :)

To se znalo vec.
Sad ce do izrazaja doc ipak superiorniji GCN.

Manuel Calavera 22.08.2015. 01:01

zthanov post što je linkao odličan, mnoge stvari dobiju smisao

Samo bi skrenio pozornost na dio gdje kaže engine samo te igre, igre koja je praktično api benchmark, evo izvučeno iz onih linkova što sam ja stavljao za dx12

Citiraj:

Based on the Oxide Nitrous engine that has been featured by AMD during Mantle development and that has now been ported over to DX12, Ashes is a massive scale real-time strategy game for lovers of the genre.
Citiraj:

This level of on-screen units is something that Oxide claims is made possible through new low level APIs like Vulkan and DirectX 12. Though I will go into more detail on the following page, there are several scenes in this benchmark (about a third of them) that reach over 20,000 draw calls per second, an amount that DX11 just struggles to handle in a smooth fashion.
O engineu https://youtu.be/AFBtGYVnzNY?t=7s
O developerima https://youtu.be/AFBtGYVnzNY?t=1m36s (evo ako netko još misli da mantle nema veze sa razvojem dx12 nema mu pomoći)

iz posta:

Citiraj:

Ashes of the Singularity is all about Parallelism and that's an area, that although Maxwell 2 does better than previous nVIDIA architectures, it is still inferior in this department when compared to the likes of AMDs GCN 1.1/1.2 architectures. Here's why...
Dakle igra nije tipična, čisto da pokaže neke mogućnosti. Kažem, primjera radi nađite samo jednu igru gdje je tolika razlika između testiranih amd grafi i nvidijinih u dx11.

Znači za zaključak o budućim igrama:

https://youtu.be/AFBtGYVnzNY?t=12m47s

listerstorm 22.08.2015. 01:38

Citiraj:

Autor Hawker (Post 2818139)
To se znalo vec.
Sad ce do izrazaja doc ipak superiorniji GCN.

financijska epizoda :D

Moguće, ali to će, nažalost, malo značit bankama kad se jave za prolongacije kratkoročnih kreditnih linija. Trenutna je situacija takva da će u najboljem slučaju proći sa višim kamatnim stopama i bez značajnijih kratkoročnih problema sa proračunom za razvoj procesora.

Idealno bi bilo da im je ostalo raspoložive imovine za sale and lease back pa da malo rasterete cash flow.

Penryn 22.08.2015. 15:21

Previše se zamarate sad s DX12. Ako dogodine dođe više od 5 DX12 igara bit će dobro, a također dolaze i nove zvjerke iz AMD-a i Nvidije u 16nm(TSMC već započeo) i s HBM2 koje će bit pa bar duplo jače od trenutnih i TO će bit kartice koje će se prodavat i koje će bit taman za DX12, a ne trenutni mali miševi. :)

I HD5870 je podržavala DX11 pa gdje je sad?

BoobZ 22.08.2015. 16:52

Citiraj:

Autor Penryn (Post 2818312)
Previše se zamarate sad s DX12. Ako dogodine dođe više od 5 DX12 igara bit će dobro, a također dolaze i nove zvjerke iz AMD-a i Nvidije u 16nm(TSMC već započeo) i s HBM2 koje će bit pa bar duplo jače od trenutnih i TO će bit kartice koje će se prodavat i koje će bit taman za DX12, a ne trenutni mali miševi. :)

I HD5870 je podržavala DX11 pa gdje je sad?

5870 je izašla prije 6 godina, nitko nije ni očekivao da će i sad rasturati.

Manuel Calavera 22.08.2015. 16:52

Pa neka pretpostavka je da će sve nove igre podržavati dx12 (možda ne sve koje su sad pred izlazak do kraja godine).

Također ne razumijem što si htio reći sa gpu koje su "taman za DX12", pa imaš ih svakakih i sada, slabih i jakih, poanta dx12 nije u eye candyu koji će dodatno dizati zahtjevnost, nego upravo obrnuto, u pefromance boostu postojećeg hardvera. Naravno izuzetak je draw call, više jedinica na ekranu i sl. ali to upravo zbog novog API neće dizati zahtjevnost

Što se tiče HD5870, ta gpu uredno i danas pokreće sve igre, taman dx11 generacija i dovoljno jaka, čista pobjeda tko je to uzeo.

segregator 22.08.2015. 17:05

Citiraj:

Autor Manuel Calavera (Post 2818340)
Pa neka pretpostavka je da će sve nove igre podržavati dx12 (možda ne sve koje su sad pred izlazak do kraja godine).

Također ne razumijem što si htio reći sa gpu koje su "taman za DX12", pa imaš ih svakakih i sada, slabih i jakih, poanta dx12 nije u eye candyu koji će dodatno dizati zahtjevnost, nego upravo obrnuto, u pefromance boostu postojećeg hardvera. Naravno izuzetak je draw call, više jedinica na ekranu i sl. ali to upravo zbog novog API neće dizati zahtjevnost

Što se tiče HD5870, ta gpu uredno i danas pokreće sve igre, taman dx11 generacija i dovoljno jaka, čista pobjeda tko je to uzeo.

Stvar je prilično jednostavna, to sam već jednom napisao...Nvidia bolje surađuje s developerima i njihove kartice su u trenutku izlaska u pravilu bolje optimizirane, ALI ako imaš 2 kartice od ATI-a i Nvidije iste cijene i performansi, ako uzmeš ATI nakon godinu-dvije ATI će biti 20-30% jača od Nvidie zbog naknadne optimizacije

Penryn 22.08.2015. 17:30

Citiraj:

Autor BoobZ (Post 2818339)
5870 je izašla prije 6 godina, nitko nije ni očekivao da će i sad rasturati.

E pa isto tako ne trebamo očekivat ni da će za 2-3 god(kad se svi developeri prešaltaju na dx12 pod default) jedna R9 280x ili 290x vrtjeti glatko novije dx12, tj. nikakva velika korist od dx12 neće bit za trenutne grafe.

syss 22.08.2015. 17:32

Citiraj:

Autor segregator (Post 2818345)
Stvar je prilično jednostavna, to sam već jednom napisao...Nvidia bolje surađuje s developerima i njihove kartice su u trenutku izlaska u pravilu bolje optimizirane, ALI ako imaš 2 kartice od ATI-a i Nvidije iste cijene i performansi, ako uzmeš ATI nakon godinu-dvije ATI će biti 20-30% jača od Nvidie zbog naknadne optimizacije

hoće, hoće... u diznilendu iliti u trenutnom stanju gdje imaju jedan benč gdje su jače.

zato je i prodaja dotičnih u padu jer su bolji zalog za budućnost :D

segregator 22.08.2015. 17:38

Citiraj:

Autor syss (Post 2818357)
hoće, hoće... u diznilendu iliti u trenutnom stanju gdje imaju jedan benč gdje su jače.

zato je i prodaja dotičnih u padu jer su bolji zalog za budućnost :D

To što ti kažeš je isto ko da kažeš da je Ceca bolja jer prodaje više ploča nego Mozart...
kad je prodaja nečega značila da je to istovremeno i dobro?

syss 22.08.2015. 17:54

slažem se da nije u prodajnim brojkama sve, ali ovo šta ti pričaš da je bilo šta za godinu-dvije isplativije neki određeni postotak nema veze s mozgom.

za 2-3 godine u vga svijetu se promijeni brate 2 proizvodna procesa maltene i tu isplativosti nema apsolutno nikakve jer za dotične 2-3 godine možeš samo kupiti novu grafu ako hoćeš performanse, nebitno na tabor.

segregator 22.08.2015. 17:57

Citiraj:

Autor syss (Post 2818365)
slažem se da nije u prodajnim brojkama sve, ali ovo šta ti pričaš da je bilo šta za godinu-dvije isplativije neki određeni postotak nema veze s mozgom.

za 2-3 godine u vga svijetu se promijeni brate 2 proizvodna procesa maltene i tu isplativosti nema apsolutno nikakve jer za dotične 2-3 godine možeš samo kupiti novu grafu ako hoćeš performanse, nebitno na tabor.

Možda mi na forumu ne, ali mislim da je prosjek starosti grafičkih kod mojih poznanika (od kojih su mnogi informatičari) veći od 5 godina

Eto, sa 5870 se možeš solidno igrati, a sa gtx 275 ili gtx 285?

syss 22.08.2015. 18:03

sa 5 godina starom grafom nisi se, niti ćeš se ikada moći naigrati u nekom eye-candy okruženju.

cpu, mbo, ram, disk - da... vga - ne.

Penryn 22.08.2015. 18:12

Citiraj:

Autor segregator (Post 2818367)
Eto, sa 5870 se možeš solidno igrati, a sa gtx 275 ili gtx 285?

Evo pa usporedi kako ćeš se naigrat sa HD5870 i sa tadašnjim konkurentom GTX 480.
HD5870 , GTX480

syss 22.08.2015. 18:16

der... osim što je nvidija jača to je i dalje drek totalni iz oba tabora osim ako se ne misliš igrat na 640x480.

segregator 22.08.2015. 18:17

Citiraj:

Autor Penryn (Post 2818370)
Evo pa usporedi kako ćeš se naigrat sa HD5870 i sa tadašnjim konkurentom GTX 480.
HD5870 , GTX480

Ja sam do prije mjesec dana sve igrao na Radeon 7850 1GB verzija (na FullHD rezoluciji) koja je tek nešto malo brža od 5870, tek me prelazak na 2560x1440 natjerao na novu grafičku

syss 22.08.2015. 18:20

uopće nije stvar da li ćeš se ti igrati ili ne... možeš se ti igrati na komadu bukve, samo je pitanje koliko ćeš biti zadovoljan sa viđenim/dožviljenim.

mogu misliti na koliko su ti bile postavke textura sa 1gb karticom ;)

Nybelung 22.08.2015. 18:21

Citiraj:

Autor segregator (Post 2818367)
Eto, sa 5870 se možeš solidno igrati, a sa gtx 275 ili gtx 285?

Mogao si ju usporediti i sa 8800GT. Znači, prestrašno. GTX260/280 su izašle par dana prije HD4800 serije i sasvim se dobro nose s njima i danas.
Konkurencija HD5000 seriji je GTX400.

segregator 22.08.2015. 18:23

Citiraj:

Autor syss (Post 2818374)
uopće nije stvar da li ćeš se ti igrati ili ne... možeš se ti igrati na komadu bukve, samo je pitanje koliko ćeš biti zadovoljan sa viđenim/dožviljenim.

mogu misliti na koliko su ti bile postavke textura sa 1gb karticom ;)

U LOTRO-u sve na max osim kad je trebalo ići u instance, u DAOC-u sve na max, GW2 također (jer je ionako CPU bound), ME3 također...

Citiraj:

Autor Nybelung (Post 2818376)
Mogao si ju usporediti i sa 8800GT. Znači, prestrašno. GTX260/280 su izašle par dana prije HD4800 serije i sasvim se dobro nose s njima i danas.
Konkurencija HD5000 seriji je GTX400.

I GTX 275 i 285 i 5870 su izašle 2009 ako me pamćenje služi

480-tka je izašla pola godine kasnije u 2010, ali je bila $100 skuplja od 5870 u trenutku izlaska (a ova je i dodatno pojeftinila u međuvremenu)


Sva vremena su GMT +2. Sada je 14:51.

Powered by vBulletin®
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 1999-2024 PC Ekspert - Sva prava pridržana ISSN 1334-2940
Ad Management by RedTyger