Sa jedne strane se govori i u samim specifikacijama DX10 se navodi da njegova neovisnost o snazi cpu-a, dok sa druge strane stižu vijesti o DX10.1 i posebnim optimizacijama za višejezgrene cpue, tako da se u samoj biti nezna što je istina a što dezinformacija,ili možda još koji marketinški trik.
Čini se da nas vuku za noseve, htjeli bi da se prodaje više jezgri, pošto nemogu više dizat megaherce i gigaherce. Volio bih kad bi bar 10% novijih igara znalo korristit bar dvije jezgre, ali je takvu igru dosta teško napravit, pa umjesto onih 10% imamo 0.0001%. Neznam u kojem ce to pravcu sve ic, ali prve naznake vidjet cemo za 3-4mjeseca u igri CRYSIS |
Mislim da je realno za ocekivat da se pojavi neki programcic koji bi omogucivao da 2 jezgre rade kao jedna, jer sumljam da ce i ovak traljavo programirane igre bit znatno vise razvijane da bi iskoristile max od visejezgrenih proceva. Ionako tu glavnu rijec vodi GPU, jedna postena jezgra ostaje bez daha tek kod SLI kombinacija a sad se jos i ono govance za fiziku pokusava progurat tak da ne vidim smisla. Koliko god povecas snagu stroja toliko se vise moze sfusat na razvoju igre:/ Ovo s iganjem i hardwareom postaje suludo....
|
Citiraj:
vrlo dobro receno : DualWiel |
ako se ja dobro sjecam AMD radi na razvoju optimizacije suprotne od hyperthreadinga tj. ne dljenjenje jedne fizicke jzgre na dve ili vise nego obratno, dve fizicke petvarat u jednu logicku.
sto ce naravn o bit prva liga za sav softvafre koji nezna iskorisitit dve jezgre pa ce se emulacijom natjerat da ih iskoristi :-)) |
ATi has attempted to create good working versions of the R600 a number of times but, for various reasons, has needed to re-spin the GPU. The company is now up to spin A13.
Citiraj:
Citiraj:
|
R600 has 512-bit external memory bus, Orton promises it takes no prisoners
Speaking at yesterday's AMD Financial Analysts Day, Executive Vice President of Visual and Media Businesses, Dave Orton, appeared to throw down the performance gauntlet in favor of AMD's upcoming R600 GPU. Having had over a month to study NVIDIA's G80, Orton did not seem the least bit intimidated. In a slide entitled "R600: Why we lead in graphics", Orton promised that even if the name of the company had changed, that the commitment to GPU performance leadership had not. He promised a "take no prisoners" approach to performance leadership for AMD's new GPU.
More interestingly, in his verbal remarks Orton reported (at roughly the 1:22:30 mark of the webcast) that one of R600's key advantages would be "new levels of memory bandwidth to the graphics subsystem, and bandwidth is critical to graphics performance." As all graphics geeks know, AMD pioneered the move to GDDR4 memory with the Radeon X1950 XTX, which gave them a temporary advantage in bandwidth. However, in the period since NVIDIA has released the 384-bit GeForce 8800 GTX, whose memory bandwidth crushes the X1950 XTX by 86.4GB/s to 64.0GB/s. It is impossible that AMD could regain a significant enough advantage in bandwidth to be cited by Orton as a major competitive advantage without following NVIDIA north of the 256-bit bus that has been a mainstay of the ATI/AMD high-end products since 2002's Radeon 9700 Pro. R600 will therefore feature a 512-bit external memory bus, likely using 1.2GHz GDDR4 for ~153GB/sec from memory pool to chip, to back up the smack AMD's Executive Vice President laid down. In other tidbits, Orton also vowed to be first to the 65nm technology process, but did not disclose which product he had in mind for the honor, nor even product type, GPU or chipset. Our graphics-oriented notes (and a few selected slides) on the rest of the conference are included inside, if you dare to take the red pill. http://www.beyond3d.com/#news36695 |
R600 - vijesti i glasine
Cini se da ce sljedeci radeoni dolazit u zasebnim kucistima sa vlastitim napajanjima.
E sad nije mi jasno kako ce ostvarit podatkovnu vezu preko kabela sa cpuom bez dodatnih latencija? Evo link: http://www.theinq.com/default.aspx?article=36403 |
nece dolazit u zasebnikm kucistima, nego samo razvijaju to... R600 je već poprilično gotova stvar :) ovo ce biti za dalje...
podatkovna veza? možda će biti pci-e kartica i specijalan port... a možda su u šumi... |
A možda je to Inqurier...
|
Evo i friške viijesti u vezi r600
Vele da imaju problema sa pregrijavanjem cipa, i da klasicna hlađenja ovdje ne pomažu, cak su angazirali spec firmu koja se bavi izradom spec nano materijala za hladnjake, tak da nece uspjet na vrijeme izbacit karticu Evo linka http://www.hexus.net/content/item.php?item=7436 |
Baci pogled par postova gore. Crveni broj 2...
EDIT: Citiraj:
|
Citiraj:
Ali, trebo bi napisat nešto i na hrvatskom, a ne samo copy paste |
mislim da onaj koga zanima može pročitati i na engleskom....
|
Ma joj, McG to odlično napravi....svaka čast, nedaj se smesti :)
|
A valjda svi znamo nesto englesnoga da mozemo procitati ako nas nesto zanima na engleskome tako da nije bed sto McG ovako postava ako ne znas engleski j***** tvoj problem
p.s. ako ne znas uzmi si riječnik |
Citiraj:
|
He he, a tak je to ljudi, kupis si mrcinu od grafe, platis 3000 kn i za godinu, dvije, hoces pokrenuti igricu kad ono pokaze SM 4.0 shaders not detected, sada ce te reci da je glupo sto uspoređujem ali malo se treba zapitati kako konzola koja je stara 7 godina, lete igrice na njoj 60 fps i to koja ima 300 MHz i 128 MB radne memorije, a mi tu sa mrcinskim ramovima i bijesnim procovima gutamo knedle, developeri to jako lijepo naprave, ali nekuzim zasto tako i nenaprave za pc, lakse je proizvodjacima nabaciti novi SM pa nek si kupujes kak znas.... Nisam za konzole niti volim konzole, uvijek cu biti PC gamer,tako da nemislite da blatim komp.... PC rules!!!! :-)
|
Citiraj:
|
Da se nadovežem na ovo tvoje PsychoStole...zašto se tako ne može napraviti za PC?
Svi Play Stationi sadrže isti hardver i developeri znaju točno što se u njemu nalazi i kakve su mogućnosti toga, dok u PC-u netko može imati P4 Wilamette 1.5 GHz i 256 Mb RAM-a, Radeon 8500 a netko drugi može imati E6600, 2 gige i 8800GTX. Tako da je tu škakljivo pitanje optimizacije, no niti sami developeri nekih igara se ne trude to malo bolje optimizirati kako bi se već moglo napraviti. A za zagrijavanje R600...huh...ništa čudno. Samo, kada će doći ta beštijica? Tj. ima li nekih konkretnih predviđanja s obzirom da se sada ATi muči sa zagrijavanjem i inim? |
Citiraj:
|
Ma ja vjerujem da ce do tog roka ATi (AMD) skuhat nesto. Mozda cak i doslovno. Mozda se nvidia uljeni pa ju ati prestigne. Tko ce ga znati. A kako neki kazu a mozda je u šumi. Uskoro ce komp moci imati samo ljudi koji zive pokraj rijeka. Komp ce biti pod vodom da se hladi, a ostatak u kuci. To ce biti strasno. Ja cu ipak sve u frizider strpat, mozda pomogne.
|
Citiraj:
|
Hm, što se konzola starih 7 godina tiče, ja baš ne bih rekao da to izgleda sve super. U odnosu na jednu igru na PC-u koja je pokretana nekom 7900GT(X) ili X1950XTX u 60 fps, one igre na konzolama izgledaju užasno. Tako da baš se ne bih složio da se manje-više isto dobije s puno slabijim hardwareom. Ali, kao što je Swarm dude rekao, nije isto praviti nešto za samo određeni hardware ili praviti za jako veliku paletu različitih komponenti.
|
Swarm dude, je, tako je, nemogu oni toliko optimizirati, nemogu za svaku konfu napraviti da radi kako spada, al zato postoje patchevi, što to kod konzola se nemože baš, al općenito previše se bahate, jer uvijek si misle: aha, za komp se može uzeti 2 gb ram-a, može se uzeti dobra grafa, zašto bi još investirali u optimizaciju igre kada to može investirati sam korsinik (Fear 2005 :D ), mislim to je malo previše, a to da na konzolama izgledaju užasno igre to je istina,tj. na starijima ps2, xbox naspram PC-a.... Ista stvar s directx9, prvo izašle kartice sa directxa,b podrškom pa onda na kraju c, pa onda desetka, malo nek se smire s tim, il nek prave igrice da vrte normalno bar još 2 godine directx9 kartice directx10 naslove! A za ATI sam uvijek, nadam se da će rasturiti 8800 GTX :D....
|
Citiraj:
|
Citiraj:
|
Ja vjerujem da će r600 pregaziti 8800gtx.Pa ipak je tu 512bitni mem. kontroler,1gb meme,1ghz jezgra,gddr4,dx10.1... :D
|
Citiraj:
Svoj bivsi komp spojio sam na telku stavio nisku rezoluciju, detalje na low i igra leti... Netreba niti High detalji niti AA posto je ionako slika mutna (prirodni AA: goood : ) |
Citiraj:
|
Citiraj:
|
Sva vremena su GMT +2. Sada je 01:30. |
Powered by vBulletin®
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
© 1999-2023 PC Ekspert - Sva prava pridržana ISSN 1334-2940
Ad Management by RedTyger