![]() |
Izašao je novi driver za Nvidia kartice:
GeForce Game Ready 368.81 WHQL Virtual Reality driver http://www.geforce.com/whats-new/art...river-released |
Test physxa i utjecaj procesora
Dakle, mene zanima kolika je potreba za nekim jakim procesorom ako korisnik ima relativno jaku nvidia grafu i podesi nju da vrti physx.
https://nvidia.custhelp.com/app/answ...Nfek1WbQ%3D%3D Citiraj:
Citiraj:
No nvidia neko vrijeme vec nudi opciju da grafa vrti i matematiku i grafiku. U slucaju da grafa vrti matematiku, graficki skor bude nesto losiji jer je grafa vise opterecena, no cpu skor bude daleko veci, a samim time i krajnji rezultat. http://www.3dmark.com/3dmv/5393122 Ovo je moj vlastiti skor sa physxom ukljucenim. Nazalost, taj komp sam imao relativno kratko i toga se tada nisam sjetio, no sad me zanima kakav bi taj skor bio da sam imao recimo neki sempron ili neki drugi slabiji procesor. Mene sad zanima isplativost procesora, pod uvjetom da korisnik ima nvidia grafu i namjesti nju da vrti physx. Tocnije, moze li se kupiti neki jeftini procesor, platforma tipa broadwell recimo, umjesto da se daju novci za skupe procesore, pa na njih skupe maticne pa na njih ram na visokim megaherzima. Dakle molio bih nekoga tko ima volje i vremena, da odvrti neki normalan test na normalan nacin, sacuva skor, i zatim, ako ima jak procesor, da iskljuci sve osim jedne jezgre na tom procesu (task manager pa desni klik pa affinity), ili da upotrijebi neki skroz slabi procesor, ali u oba slucaja ukljuci u drajverima da grafa vrti physx, dakle ne cpu ili automatic. I posta skorove prvog i drugog testa. Ovisno o tome koliku ulogu igra procesor dok grafa vrti physx, mozda se moze ustedjeti dosta novaca i kupovina nekog i5 ili i7 biti skroz nepotrebna, barem za igranje. U HR recimo, komplet broadwell platforma kosta manje od 500kn, a recimo vani se daju nabaviti i 4-jezgrene verzije procesora, takodjer za smijesno male novce. |
U principu se physx koristi za dodatne fizikalne efekte, ne za sve opće fizikalne simulacije koje igra izvodi. Svodi se na to da se uz nVidia grafu mogu uključiti dodatni efekti uz i dalje dovoljno visok FPS (koji je i dalje najčešće nešto niži od onog bez tih efekata). Drugim riječima, ne može physx na nvidia GPU-u zamijeniti procesor niti može napraviti da se na nekom i3 igra vrti sa istim FPS kao na nekom i5 iste generacije. Između ostaloga, CPU se ne koristi samo za fiziku u igrama nego i za AI, zvuk, pripremu podataka za GPU i mnogo drugih stvari.
|
Citiraj:
|
Ne bi.
Jer GPU ima dosta ogranicen set instrukcija koje moze koristiti, te ujedno one nisu bas brze - sto se nadoknadjuje velikim paralelizmom. A vecina toga sto CPU mora 'pripremiti', GPU ne moze. Ili zato sto se to ne moze toliko paralelizirati, ili iz cistog razloga sto GPU ne moze odraditi te operacije. Nadalje, postoji isto veliki problem s pretakanjem podataka izmedju memorije do koje CPU moze doci, te GPU - i to isto tako stvara veliki overhead. |
http://www.3dmark.com/3dm06/17844326
ovo je isto moj skor, novija low end grafa i noviji low end proc http://www.3dmark.com/3dm06/16177345 ovo je isto moj skor, noviji high end proc i starija mainstream grafa http://www.3dmark.com/3dm06/15910369 ovo je isto moj skor, ista grafa ali daleko losiji proc http://www.3dmark.com/3dm06/13870495 jos jedan moj skor, podjednaka grafa i proc http://www.3dmark.com/3dm06/15605898 i jos jedan moj skor, jak proc i integrusa Iz ovoga se da zakljuciti da grafa igra najvecu ulogu, a procesor jako malu. Bit ce nesto bolji rezultat ako umjesto dvojezgrenog koristis 8 jezgreni proc, ali bi bio daleko veci da je ostao dvojezgreni proc, a bolja grafa. S tim da bi bilo pozeljno da je taj dvojezgreni cim noviji... Ili sam nesto krivo shvatio? |
Citiraj:
Nvidia physx, kojeg je nvidia kupila od ageie, je nesto sasvim drugo od opcenite fizike u igrama. 3D mark je smece za pokazivanje tko ima vecega, realno stanje u samim igrama cesto nema nikakve veze s njim, od prije je poznato da je u ljubavnoj vezi s nvidiom, a po pricama i zadnji 3D mark to potvrdjuje. Igara sa podrskom za nvidiin physx je, imam osjecaj, sve manje, cak nemogu trenutno ni na njihovoj stranici da vidim popis igara. Znaci ne zamarati se glupostima, neke igre vole brz procesor, neke maltene nemaju nikakvog pomaka sa brzim procesorom. Uvijek je toga bilo, a sta ce biti ce vrijeme pokazati i u kojem smjeru ce otici dx12, vulkan i ostale novotarije koje su po mom jos debelo neodredjene, svatko svoju politiku vodi. Evo kad odem na popis igara kod nvidie. :lol2: "Sorry, the page you are looking for can’t be found.Have you tried searching? Please enter a keyword in the search-box above or try one of the links in our Sitemap below." |
Citiraj:
Cijela tvoja teorija je dobro zamišljena, ali ne drži vodu u stvarnosti. Zaboravi sintetičke testove i direktnu korelaciju sa RL utjecajem na igre. Zaboravi physx kao zamjenu za CPU! Zaboravi! Ne može i ne funkcionira to tako! Realno, svaki GPU može izvoditi izračune fizike, samo je pitanje da li je softver napisan za to. U principu se sve svodi na ovo što ti je nick7 napisao. |
Citiraj:
|
Citiraj:
Zato bih u biti i volio da netko odvrti testove, zbog cega sam i otvorio ovu dretvu. Ne mora biti nuzno 3d mark, moze biti i neka igra koja inace ne podrzava physx. |
Citiraj:
Najbolji primjer ti je gta 4, port sa konzole. Na jednojezgrenima neradi, na 2 jezgre se vuce, sa 3 super radi, od 4 i vise i nema neke koristi. Takva je igra i nikakva nvidia ti nemoze pomoci. Nove konzole imaju jos vise jezgri, a i procesori imaju daleko vise namjena od samog igranja, tako da ti je pitanje cemu toliko jos gluplje. Nema tu policije pa da ce te kazniti ako se sta brze obavi na kompu. :goood: |
Pokušat ću objasnit nekim slikovitim primjerom.
Zamisli da ti je cpu poslovođa, a gpu su radnici, njih 100. U idealnoj situaciji, kad su manadžment i radnici usklađeni, nema praznog hoda, sve što menadžer zamisli, organizira i pripremi, sve se izvede prema planu. Nema kašnjenja, čekanja, ničega. E sad, zamisli da na mjesto menadžera dođe neki podobni.. Sad organizacija šteka, materijal kasni, nema dozvole, od onih 100 radnika, 10ak je efektivno korisno, a ostali ne mogu radit jer im nešto nije stiglo, jer je nešto moralo bit prije gotovo i slično. Obrnuta situacija, dođe neki švabo/japanac/hercegovac, wunderkind, nema šta nezna i ne može. Daš mu još 100 radnika i on ih sve uposli, i traži još 200. Tipični workflow jako jednostavnog cuda programa izgleda nekako ovako: 1. priprepi podatke na hostu (cpu) i kopiraj na device (gpu) 2. izračunaj nešto na gpu. 3. kopiraj podatke nazad na host (cpu) Za različite probleme je to različito, ali kopiranja i obrada na cpu uvijek ima, jako su rijetki problemi da se mogu tako dobro paralelizirat da nema potrebe za nekim međurezultatima, komunikacijom i slično, a takve se stvari rade na hostu... I zato će jaka grafa uvijek tražit jaki procesor. Ili će jedno ostati slabo iskorišteno. E sad u kojem točno omjeru snage bi trebali bit, to jako ovisi o programu koji se vrti... Kad kažeš matematika ide na gpu, to je vrlo neodređeno. Sve je to neka matematika na kraju. I ne mogu se svi problemi efikasno paralelizirat, za neke jednostavno nećeš dobiti nikakvo ubrzanje. Školski primjer ti je telefonski imenik. Koje god prezime da ti kažem, naći ćeš mi broj u par minuta, ako znaš abecedu. Čak i ne moraš znat neki jako pametni algoritam za pretraživanje, naći ćeš broj. I da ti dam 10 ljudi da ti pomogne, nema smisla. Jedan je dovoljan. A zamisli si da imenik nije sortiran, da su brojevi nabacani slučajnim redosljedom. Tada bi ti 10 ljudi itekako pomoglo, jer bi svatko pretraživao svojih 100 stranica. Dakle taj problem se može lako paralelizirat (odnosno podijeliti na više ljudi). |
Ha, u redu onda, onda sam totalka zabrijao...ali isto cu odvrtit testove kad dobijem neku grafu...
|
Pa dobro, nisi potpuno, tema je zanimljiva, i testirat se može da se vide neki odnosi u određenim uvjetima (za taj benchmark, igru etc). Jedino što bi trebala bit ista konfa da se samo procesori mjenjaju(ili samo grafe), inače tu ulaze drugi parametri kao os, ram, svašta nešta.
|
Citiraj:
A sto GPU moze, radi na potpuno drukciji nacin od CPU-a. Proguglaj malo o GPGPU, pa vidi o cemu se radi. |
Nitko nije ni rekao da je jednostavna.
Inače nisam baš potpuna truba, ipak sam diplomski rad pisao u CUDI ( kad je fermi bio nova arhitektura, double floating point wohooo), daklem imam kakav takav osjećaj za "NIMALO jednostavno" :D A osnove sam polagao kod profesorice Singer, tako da su to neke traume koje ne želim ponovo prizivat, ako ona kaže da znam dovoljno, onda znam dovoljno ! |
Citiraj:
Cak i da zelis stavit zasebnu grafu u komp da vrti samo physx, ne treba ti jaca od npr GT 440, pa po toj logici, ni za matematiku od CPU-a nije potrebno vise od ne znam koliko. |
Citiraj:
|
Citiraj:
No, problem je da GPU ima vrlo ograniceni set instrukcija, a u slucaju igra, veci dio matematike (koji nije cisti dio 3D iscrtavanja) je tesko izvesti na dio da nacin na koji GPU radi bi mogao pripomoci. Nadalje, kao sto sam prije vec rekao, GPU racunanje ima smisla na vecem setu podataka, gdje se moze koristiti paralelizam. No, banalni primjer kad GPU nikako nema smisla: trebas obaviti neke 3 matemaciske operacija na nekom podatku. CPU moze to obaviti u recimo 3 ciklusa. GPU za to vec treba duze, jer mu je IPC nizi. Nadalje, jos veci problem je latencija potrebna za prvo prebaciti podatak iz RAM-a PC-a u memoriju GPU-a, obavljanje operacije, i vracanje podataka u klasicni RAM. I ta cijela 'zavrzlama' vec potrosi vremena kao 60-ak ciklusa na CPU-u, vs 3 ciklusa koji su trebali CPU-u da to obradi. U igrama 3D iscrtavanje je samo jedan dio potrebnih resursa. Veci dio se trosi na AI, i sl. stvari... |
Ja ću dati samo svoj primjer kad sam prešao sa i7 875K na i7 2600K u 2012 Imao sam tada novu novcatu i tada poprilično jaku i odličnu karticu GTX 660 Ti 2GB.
To su 2 i7 procesora iz 2 uzastopne generacije. Osjetio se fest prelazak na i7 2600K. Malo veći takt, novija arhitektura i sve je bilo "snappier" kako bi rekli ameri, pogotovo u igrama tipa Metro 2033 koje baš koriste fiziku. Tako da ne drži vodu da je svejedno jel Celeron od 300 kuna i i7 od 2400 kn korišten za gaming koji iziskuje fiziku. Razlika je u performansama skoro koliko je i u cijeni između ta 2 procesora. Zadnji primjer - DOOM. Igra obožava ubijat sve jezgre procesora. Ne znam kako bi se vrtila na Celeronu. |
Citiraj:
|
Ja znam da ću preporučivati i7 za gaming pc kad god to budžet dozvoljava. Naravno tu se radi o pc više klase, grafe tipa gtx 1070 itd.
Odnijeo vrag šalu |
Citiraj:
|
nevermajnd
|
Dečki, može mala pomoć? Sorry ako je već bilo, ali uopće ne znam u koju temu bih ugurao.
Stavio sam na jedan disk Windows 10 da se malo upoznam sa DX12, i sada imam problem. Skinem naravno zadnje drivere od Nvidie sa njihove stranice (win10 64bit) i u prvom koraku kada provejrava kompatibilnost mi izbaci grešku u javi: "The nvidia driver is not compatible with this version of windows. Maknuo sam defalutne drivere od win za grafičku - nije pomoglo. Pročitao sam na nedu da je neki lik instalirao prvo GeForce Experience, i onda mu ta aplikacija instalira driver pa sam to probao i opet mi je izbacio da nisu kompatibilni. Unaprijed hvala! Edit: (postat ću ovo i u win 10 temu) |
da li ti je verzija drivera koje si skinuo (32 bit ili 64 bit) ista kao i operativni sustav (32 bit ili 64 bit), također driver mora biti za OS koji imaš instaliran (win 7, 8 ili 10)
|
Naravno, valjda nisam takav panj :D
Ali hvala na odgovoru. Našao sam još na redditu da moraju Win biti build 1511 za Pascal GPU, i to imam. Hm, stvarno mi nije jasno, možda je nešto sa digitalnom potpisom drivera Nvidia sjebala... |
Jesi probao instalirati drivere koji su došli s grafom, ako su došli uopće?
|
FML, nemam DVD drive u tom kućištu.
Ali budem pogledao sa laptopom koja je verzija, pa skinem njih sa neta. Ali opet, bedasto je. Na win 7 naravno najnormalnije stavio zadnju verziju drivera i sve leti. :( BTW, vidim da i ti loviš GTX1070, koja ti je u planu? |
Citiraj:
kad dođe vrijeme ću pikirati. Mora biti tiha, a poželjan je DVI. :) |
Ima netko ideju zakaj mi grafa radi na X8 umjesto na X16?
Kad sam sastavio konfu, prvo sam stavio grafu u drugi slot (ima ih 4). Gornja 2 su x16, donja 2 su x8. Ugl, kad sam ju stavio u drugi X16_2, radila je u X8 modu te sam procitao u manualu da mora ic u X16_1 ako koristim single grafu. Stavio ja u taj gornji slot, X16_1 i provjerio nakon toga, bila je u X16 v3. I sad eto nakon mj dana bezveze otvorim gpu_z i unutra kaze da radi na x8. Napravio sam update biosa, resetirao bios na default, saltao grafu na drugi pa na prvi slot... Pregledao sve u biosu 8 puta iz pocetka. Nemam nis za mjenjat kaj se toga tice osim birat gen kao auto ili manualno stavit na gen 1, 2 ili 3. Sto god od toga odabrao, uvijek je na X8 u windowsima... Any help? EDIT: Nasao sam problem... PCI-E wlan karticu sam ustekao u treci slot... A prvi radi kao X16 samo ako se ova dva od X8 ne koriste... Sad sam wlan upiknuo u drugi X16 slot i sad radi sve kak treba... Ko bi ga vise pogodio iz prve... |
Matična i grafička kompatibilnost
Pozdrav, kao što piše u naslovu imam pitanje vezano za kompatibilnost grafičke i matične.
Da li matična ploča asRock 4CoreDual-VSTA podržava grafičku Nvdia Geforce gtx 560ti. Naime imam problema sa omogućavanjem directx featuresa (direct3D acceleration itd.) pa me zanima da nije slučajno problem u tome što nisu kompatibilni? |
Da nisu kompatibilni ne bi ju ni detektirala ploča. Muče te driveri
|
Citiraj:
Da, definitivno je prepoznaje jer je prikazana u device manageru. Samo mi piše da ih je windows zaustavio (code 43) |
Citiraj:
Pokušaj reinstall Windowsa ili probaj sa http://pcsupport.about.com/od/driver...bs.htm#showall |
A gdje si uspio uzeti tu prahistorijsku hibridnu plocu i upariti ju s "novom" grafickom :D
Probaj bios update za pocetak, jer kolko vidim tadasnje grafe nisu bas radile najbolje. |
Citiraj:
P.S bios update? opišeš mi detaljno postupak (ponavljam tutlek sam više-manje :D) |
Citiraj:
|
Daj vidi da ti nije koji pin spigan u pcie utoru. Imao sam takav slucaj i dok to nisam ispravio nebi nikako proradilo. Ako ne bude spigan probaj kompresorom ispuhat slot, mozda se komad prasinr zavukao pa ne ostvaruje najbolji kontakt.
|
Citiraj:
A neznam, ajde da ju uopće ne prepoznaje. Pa bi znao matična je drek i ćao. Ali windowsi ju prepoznaju, ali je onemogućavaju :roller: i sta god da radim na tom stane. Napravio sam to, iako je maticna nova (pardon čista :D prahistorijska ali čista) i opet ne. Isti rezultat "error code 43". Izgleda da ću se MORAT isprsit za novu matičnu. P.S jel može bit da je grafička oštećena posljedicom toga što mi se stara matična spržila skupa sa RAMovima? Imam problema sa strujom di živim pa je krepala ali ventilatori se vrte normalno pa sam mislio da je oke... |
Sva vremena su GMT +2. Sada je 04:20. |
Powered by vBulletin®
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 1999-2024 PC Ekspert - Sva prava pridržana ISSN 1334-2940
Ad Management by RedTyger