PC Ekspert Forum

PC Ekspert Forum (https://forum.pcekspert.com/index.php)
-   NVIDIA (https://forum.pcekspert.com/forumdisplay.php?f=7)
-   -   Nvidia GF100 "Fermi" Thread (https://forum.pcekspert.com/showthread.php?t=146187)

tomasini_ 22.05.2009. 10:34

Citiraj:

Autor Blue_Fatal1ty (Post 1346984)
Hebena istina. Davno prije kada je 6600GT bila srednji segment nije se moglo svaku igru pokrenut na max. Jedva je na medium islo, a danas s ova GTX260 koja je srednji segment pokrece sve bez beda na high. Taj napredak koje imaju graficke postaje brutalan. Pitanje je dal ce izac koja igra u iducih godinu dana, a daju 260ka nece tjerat iznad 20 fps-a.

Koristio sam 6600GT i mislim da se ona nikako ne može uspoređivati sa GTX260. Ni po cijeni u trenutku izlaska, još manje po performansama. GTX-ica je ipak high-end grafa dok je 6600GT bila jedna izvrsna midrange sa primjetnim nedostacima poput širine sabirnice i količine memorije.
Što se napretka kartica tiće, u zadnje vrijeme sve sam više dojma da se nedovršeni i prebugoviti poluproizvodi (koje netko naziva igrama) izdaju kako bi nas se navelo na kupnju novih, bržih komponenata (pogledajte koliko je danas brz i sve brži ritam izlaženja novih modela iste generacije kartica), a nekad mi se čini da drivere koriste kao sredstvo kontrole naših skupo plačenih kartica. Uglavnom nezadovoljan sam takvom politikom.

JC Denton 22.05.2009. 12:11

Citiraj:

Autor tomasini_ (Post 1347111)
(pogledajte koliko je danas brz i sve brži ritam izlaženja novih generacija kartica)

Ekšli i nije baš brz ritam.. nekad je bio ciklus 6 mjeseci, sada je godinu dana.

tomasini_ 22.05.2009. 13:10

Citiraj:

Autor JC Denton (Post 1347172)
Ekšli i nije baš brz ritam.. nekad je bio ciklus 6 mjeseci, sada je godinu dana.

Moja pogreška, zapravo sam mislio na modele pojedinih generacija.

Blue_Fatal1ty 22.05.2009. 16:22

Citiraj:

Autor tomasini_ (Post 1347111)
Koristio sam 6600GT i mislim da se ona nikako ne može uspoređivati sa GTX260. Ni po cijeni u trenutku izlaska, još manje po performansama. GTX-ica je ipak high-end grafa dok je 6600GT bila jedna izvrsna midrange sa primjetnim nedostacima poput širine sabirnice i količine memorije.

Onda kad je izašla imala je dosta svega! ... a GTX260 uopce nije high-end grafa... 6600 GT je u svoje vrijeme koštala kolko sad i GTX260 Znaci usporedive su. Obje su Mid-end grafe i tu su usporedive... ali GTX260 maže sve igre samo tako na rezama za koje je predviđena nego 6600GT u svoje doba.

Ako serija 300 bude fakat tolko brza kolko govore, zamjena grafe bit ce nepotrebna barem 2 god...

Igor_Zg 23.05.2009. 11:00

ne vjerujem da će biti nešto extra brža od sadašnjih( cca 30 posto brže od najjačeg single GPU rješenja), bit će to sve prigušeno da se može duže brat lova iz istog čipa u obliku "novih" kartica...

Koliko je Nvidia rebrandirala svoj G92 LOL :lol2:

fran123456 16.09.2009. 20:11

http://www.fudzilla.com/content/view/15535/1/

DraŽ 16.09.2009. 20:31

Several people confirm
Nvidia is
still not revealing any details about its chip that we still call GT300 but one thing is getting quite certain. A few people who saw just leaked performance data on ATI's soon to launch Radeon HD 5870 have told Fudzilla that they are absolutely confident that GT300 will win over Radeon HD 5870.

Since GT300 has its GX2 brother they should not fear much against Radeon 5870 X2 whenever that comes out, as if Nvidia wins a single chip battle, they can win the dual one as well.

We can only confirm that GT300 is not a GT200 in 40nm with DirectX 11 support. It’s a brand new chip that was designed almost entirely from the ground up. Industry sources believe that this is the biggest change since G80 was launched and that you can expect such level of innovation and change.

The launch as far as we know is still slated for late November and hasn’t been confirmed.

Ono gore not funny!

maX 16.09.2009. 20:39

Nisam ništa manje niti očekivao od nVidie. Nadam se da je to istina :D

Campeonato 16.09.2009. 21:02

E ovo ce biti jako zanimljivo...
Ostajem na integralki do zime kad bude gpu-boom na trzistu...

@maX
Don´t cry I´ll buy you an ATI!:D

EDIT: ovaj post se odnosio na sve ono sto je bilo u temi o 5800 seriji...
Ugl, tu se gubi smisao mog posta jer nema onog videa u kojem se spominje ona moja recenica nasem dragom ati-jevcu...

antrax 16.09.2009. 23:39

kak god bilo, predvidanja sefa nvidie o porastu performansi gpu-a narednih godina mogu biti samo drasticnim izmjenama postojecih arhitektura, obistine li se djelomicno barem (cak da je fulao za faktor 10 i dalje ostaje impresivno i tesko izvedivo s arhitekturom iole slicnom danasnjima) svakih godinu dana cemo imat graficke zbog kojih jednostavno sve ostalo postaje zastarjelo. Zivi bili pa vidjeli, kako god 5**0 i gt*3*0 ce biti vjerojatno opaki naspram danasnjih kartica, ali ni blizu onome sto tek sljedi.

McG 17.09.2009. 00:56

nVidia: DirectX 11 Will Not Catalyze Sales of Graphics Cards
Citiraj:

nVidia believes that special-purpose software that relies on GPGPU technologies will drive people to upgrade their graphics processing units (GPUs), not advanced visual effects in future video games or increased raw performance of DirectX 11-compliant graphics processors. There are several problems for nVidia, though. While ATi, graphics business unit of Advanced Micro Devices, is about to launch its Radeon HD 5800-series graphics cards that fully support DirectX 11 in the upcoming weeks, nVidia yet has not disclosed any plans regarding its DX11 GPUs, which means that in the eyes of computer enthusiasts the company is not a technology leader any more.

nVidia believes that in future computing performance will matter much more than graphics performance, which seems to make sense as forthcoming video games will demand a lot of purely computing power to process not only visuals, but also physics and artificial experience. Nevertheless, nVidia seems to put a lot of hopes onto its proprietary technologies, such as CUDA, Stereo 3D Vision, PhysX and others. This is understandable as the aforementioned technologies allow Nvidia to differentiate itself. However, as all proprietary standards (3dfx Glide is one example), they may not continue to be on the leading edge in the longer term.

bluefluid 25.09.2009. 16:09

GT300 on Schedule for Q4

'Remember all the rumors about bad yields of the GT300? Well nVidia has come out to confirm what we told you before. GT300 yields are fine and they are on schedule for a Q4 2009 launch. This launch should be at GTC in November with retail availability by the end of November.

Fudo over at Fudzilla is also confirming this with a direct statement from NVIDIA on the subject. They are claiming that the reports of less than 2% yields were based on a mistranslated report from AMD’s competitive analysis team.

Also they say that the reports that the GT300 is a rebranded/respun GT200 are baseless. According to the report the GT300 is a ground up redesign and a new GPU. This is good news for the NVIDIA fans out there as recently AMD has been hogging all the press with the DX11 40nm Radeon HD5870.

Still we will have to wait and see what the GT300 bring to the table in terms of performance. Traditionally AMD has been a little better at implementing new versions of DX while NVIDIA has been better at the brute force approach. Either way the last month of the year will be interesting to be sure.'

Izvor: TweakTown

DraŽ 25.09.2009. 16:45

U biti 11-12mj je launch, tako da ništa od onih nagađanja o odgodi zbog loših yieldova na 2010god. Q1-Q3

bluefluid 25.09.2009. 16:48

izgleda... i sve mi se nekako cini da onaj hemlock nece stici biti 700€, he heh :)

maX 25.09.2009. 16:49

Jedva čekam :zdero:

dean225 25.09.2009. 16:59

bit ce to strasne grafe nema sta.. Ali ce im bit i strasne cijene.. Ako budem mogao dobit pocetni model za 2k kunica, razmislit cu o kupnji.. :)

Majo 25.09.2009. 17:24

Kakav ati,sad napravili rucnu granatu,a nvidia odgovara njuksom.
RIP ati :D.

Doink the Clown 25.09.2009. 17:34

Strašna grafa će ovo biti svakako i pljuska u lice ATI-ju kojima će sad nakon izlaska HD5870 trebati bar 6 mjeseci da dovedu drivere u red :D A što se tiče zahtjeva novijih naslova igara danas serija 2xx će se još dugo moći nositi s tim i moći će se igrati na visoki detaljima jer developeri igara izbacuju igre za konzole i onda samo to repliciraju i malo prilagode za PC pa je to što se tiče hardverskih zahtjeva dosta slično i podređeno konzolama.

dean225 25.09.2009. 17:43

Citiraj:

Autor Doink the Clown (Post 1440181)
Strašna grafa će ovo biti svakako i pljuska u lice ATI-ju kojima će sad nakon izlaska HD5870 trebati bar 6 mjeseci da dovedu drivere u red :D A što se tiče zahtjeva novijih naslova igara danas serija 2xx će se još dugo moći nositi s tim i moći će se igrati na visoki detaljima jer developeri igara izbacuju igre za konzole i onda samo to repliciraju i malo prilagode za PC pa je to što se tiče hardverskih zahtjeva dosta slično i podređeno konzolama.

Ako bude tako super.. Ja ne namjeravam promjenit svoju gtxicu dok ne izgori!!! :)

pinkskin 25.09.2009. 18:09

Mislim i ja da će biti nvidina jača zbog toga jer če čip biti dosta veči ali će se i više grijat i više trošit struje i biti će skupa dost, ali taman kad izađe ATI će več dost poboljšat drivere i spustit cije svojih grafa što će bit za sve dobro.

Samo ostaje pitanje dali če podržavat išta slično Eyefinity jer ovo je zakon http://www.youtube.com/watch?v=teE5wqT2DNU
i mislim da če dost HC igrača sa puno love odabrat ATI baš zbog ovog.



sinisa1989 25.09.2009. 18:18

To kad izađe cijena neće biti ispod 3500kn.

DraŽ 25.09.2009. 19:29

Citiraj:

Autor sinisa1989 (Post 1440225)
To kad izađe cijena neće biti ispod 3500kn.

Ako bude 3-4 milijarde tranzistora i čip od 600mm2, onda će nvidia biti u vodstvu,ali pod koju cijenu?

Ili da se nedogodi opet 2xhd5870 tj. hd5870x2 zdere nvidiain jedan čip recimo gtx380, a nvidia nemože napravit dual karticu baš zbog ogromnog čipa i mora čekat 32nm da da odgovor, a svaka manja iteracija gtx380 recimo bude slabija od hd5870.

Majo 25.09.2009. 19:35

Ko bi uzo to dual ati govno,pa jedva krpaju drivere za single GPU kamoli dual...
Isto pricate ko da nvidia nezna sta radi,bez brige imaju oni rjesenja i love,kad se najmanje nadamo izbacit ce neku bombu,isto kako je ati nabacio kontru nvidii sa 4870,sad ce nvida atiju nabacit kontru.Ugl past ce cijene,mocne graficke,vise igara,kud ces bolje,samo neka nastave tako :D.

sinisa1989 25.09.2009. 19:44

Citiraj:

Autor Majo (Post 1440271)
Ko bi uzo to dual ati govno,pa jedva krpaju drivere za single GPU kamoli dual...
Isto pricate ko da nvidia nezna sta radi,bez brige imaju oni rjesenja i love,kad se najmanje nadamo izbacit ce neku bombu,isto kako je ati nabacio kontru nvidii sa 4870,sad ce nvida atiju nabacit kontru.Ugl past ce cijene,mocne graficke,vise igara,kud ces bolje,samo neka nastave tako :D.

Istina da će cijene pasti, ali samo je pitanje do koje razine. Sigurno neće doći do toga da gtx 295 košta 1500 kn. Hoće, ali ne tak brzo.

Doink the Clown 25.09.2009. 20:10

Citiraj:

Autor sinisa1989 (Post 1440225)
To kad izađe cijena neće biti ispod 3500kn.

Ja očekujem normalizaciju cijena negdje na proljeće bar što se Nvidie tiče dok bi ATI mogao srozati cijene taman kad GT300 izađe. Ali i kad Nvidia spusti cijene na neke realne cifre opet će ATI biti povoljniji ali ja bih ipak dao 300-400-500kn više za Nvidiju pa da sačuvam živce koje bi mi isčupali ATI-jevi driveri nego da uzmem ''best buy'' ekvivalentni ATI čiji je software poluproizvod sa dječjim bolestima i ne može iskoristiti puni potencijal grafe :fiju:

Rino 25.09.2009. 20:43

Citiraj:

Autor Doink the Clown (Post 1440181)
A što se tiče zahtjeva novijih naslova igara danas serija 2xx će se još dugo moći nositi s tim i moći će se igrati na visokim detaljima

Pogotovo takvima kao ti koji drže GTX260 216SP na 19" monitoru...:suicide:

Ivan123 25.09.2009. 20:51

Citiraj:

Autor DraŽ (Post 1440268)
Ako bude 3-4 milijarde tranzistora i čip od 600mm2, onda će nvidia biti u vodstvu,ali pod koju cijenu?

Ili da se nedogodi opet 2xhd5870 tj. hd5870x2 zdere nvidiain jedan čip recimo gtx380, a nvidia nemože napravit dual karticu baš zbog ogromnog čipa i mora čekat 32nm da da odgovor, a svaka manja iteracija gtx380 recimo bude slabija od hd5870.

Prva pametna koju sam procitao i realna izjava u ovom threadu...

Citiraj:

Autor Majo (Post 1440271)
Ko bi uzo to dual ati govno,pa jedva krpaju drivere za single GPU kamoli dual...
Isto pricate ko da nvidia nezna sta radi,bez brige imaju oni rjesenja i love,kad se najmanje nadamo izbacit ce neku bombu,isto kako je ati nabacio kontru nvidii sa 4870,sad ce nvida atiju nabacit kontru.Ugl past ce cijene,mocne graficke,vise igara,kud ces bolje,samo neka nastave tako :D.

Bilo govno ili ne, dok nVidia izda odgovor ATI ce pobrati dobar dio trzista i jos pri tome koliko toliko srediti drivere... I jos kad nvidia pusti gt300 od kojeg jos nema niti jednog pravog glasa (vi vjerujete FUD-u??:no2drug:, a ako vec vjerujete njemu, prije tjedan dana je napisano da su yields jako losi, tocnije ispod 2% sto govori da na jednom waferu od 416 kandidata ispadne svega 7 valjanih cipova), ATI ce napraviti isto sto i s 48x0 serijom te ce pruziti daleko jeftinijom... Ustvari, 5870 X2 je u najavi

Doink the Clown 26.09.2009. 01:36

Citiraj:

Autor Rino (Post 1440313)
Pogotovo takvima kao ti koji drže GTX260 216SP na 19" monitoru...:suicide:

Hebiga, kad ne trpim wide dijagonalu, da nađem neki veći monitor s normalnom dijagonalom odmah bih ga ubo ali ovako sam još uvijek inertan :D

sinisa1989 26.09.2009. 22:29

Citiraj:

Autor Doink the Clown (Post 1440434)
Hebiga, kad ne trpim wide dijagonalu, da nađem neki veći monitor s normalnom dijagonalom odmah bih ga ubo ali ovako sam još uvijek inertan :D

OT: Ja sam prije mrzio wide, ali kad sam neko vrijeme radio na 19 colnom 4:3 lcd-u, počeo mi se sviđat wide i sad kad ću mjenjat monitor(e) kupujem wide jer mi je puno ljepši. Probaj i ti možda ti se svidi.:chears:

RAMONES 27.09.2009. 17:59

Zna li se neki priblizan datum kad ce izac ovaj gtx300 serija.

Doink the Clown 27.09.2009. 18:10

Citiraj:

Autor RAMONES (Post 1441624)
Zna li se neki priblizan datum kad ce izac ovaj gtx300 serija.

Zadnje što sam ja čuo je negdje oko Božića ali ne bih se baš držao tog datuma kao pijan plota :D

Jelc 27.09.2009. 20:41

Ja sam naletio samo na info da kasni.

Citiraj:

Autor bluefluid (Post 1433075)


Dizel 27.09.2009. 21:05

Citiraj:

Autor sinisa1989 (Post 1441154)
OT: Ja sam prije mrzio wide, ali kad sam neko vrijeme radio na 19 colnom 4:3 lcd-u, počeo mi se sviđat wide i sad kad ću mjenjat monitor(e) kupujem wide jer mi je puno ljepši. Probaj i ti možda ti se svidi.:chears:

FYI, LCD monitori imaju omjer stranica 5:4. Kristalne kugle CRT imaju omjer 4:3.

DraŽ 28.09.2009. 01:56

http://www.youtube.com/watch?v=-qdmbkRd1BE

The Truth

Pizz 28.09.2009. 09:52

"stenbouni" , kakav lik, hehe

DraŽ 28.09.2009. 12:37

Named after a nuclear reactor


The chip that we ended up calling GT300 has internal codename Fermi. The name might suit it well as Enrico Fermi was the chap that came up with the first nuclear reactor.

The new Nvidia chip is taped out and running, and we know that Nvidia showed it to some important people. The chip should be ready for very late 2009 launch. This GPU will also heavily concentrate on parallel computing and it will have bit elements on chip adjusted for this task. Nvidia plans to earn a lot of money because of that.

The chip supports GDDR5 memory, has billions of transistors and it should be bigger and faster than Radeon HD 5870. The GX2 dual version of card is also in the pipes. It's well worth noting that this is the biggest architectural change since G80 times as Nvidia wanted to add a lot of instructions for better parallel computing.

The gaming part is also going to be fast but we won’t know who will end up faster in DirectX 11 games until we see the games. The clocks will be similar or very close to one we've seen at ATI's DirectX 11 card for both GPU and memory but we still don't know enough about shader count and internal structure to draw any performance conclusions.
Of course, the chip supports DirectX 11 and Open GL 3.1

bozzomfeeder 28.09.2009. 13:28

Citiraj:

Autor DraŽ (Post 1441897)

Ma kakva krvava istina... taj video je idiotizam lika koji ima previše slobodnog vremena i smišlja teorije zavjere.

Jelc 28.09.2009. 15:00

Citiraj:

This GPU will also heavily concentrate on parallel computing and it will have bit elements on chip adjusted for this task. Nvidia plans to earn a lot of money because of that.
Pa, uložili su dosta para u CUDA i slične stvari-ja uopće ne sumnjam u to:)
To sve polako počinje sličit onom kak su zamislili Larrabee, zato se i pjene zadnjih godinu dana jedni na druge i hračkaju konkurenciju...

Ivan123 28.09.2009. 15:48

Citiraj:

Autor DraŽ (Post 1442086)
Named after a nuclear reactor


The chip that we ended up calling GT300 has internal codename Fermi. The name might suit it well as Enrico Fermi was the chap that came up with the first nuclear reactor.

The new Nvidia chip is taped out and running, and we know that Nvidia showed it to some important people. The chip should be ready for very late 2009 launch. This GPU will also heavily concentrate on parallel computing and it will have bit elements on chip adjusted for this task. Nvidia plans to earn a lot of money because of that.

The chip supports GDDR5 memory, has billions of transistors and it should be bigger and faster than Radeon HD 5870. The GX2 dual version of card is also in the pipes. It's well worth noting that this is the biggest architectural change since G80 times as Nvidia wanted to add a lot of instructions for better parallel computing.

The gaming part is also going to be fast but we won’t know who will end up faster in DirectX 11 games until we see the games. The clocks will be similar or very close to one we've seen at ATI's DirectX 11 card for both GPU and memory but we still don't know enough about shader count and internal structure to draw any performance conclusions.
Of course, the chip supports DirectX 11 and Open GL 3.1

Kako volim razvoj ovakve situacije... U drugoj temi pricaju gluposti o duzini, o cijeni i sta ja znam, kad ono nova nVidina grafa ce biti jos veca i to ne GX2 verzija... :chears:

@Bono: Nisam ti ja kriv sto ce nVidia biti duza :D

Bono 28.09.2009. 15:57

Citiraj:

Autor Ivan123 (Post 1442305)
Kako volim razvoj ovakve situacije... U drugoj temi pricaju gluposti o duzini, o cijeni i sta ja znam, kad ono nova nVidina grafa ce biti jos veca i to ne GX2 verzija... :chears:

Ajde nemoj vise komentirat clanke stvarno nisi zabavan, ako ti imas neki bolji info slobodno napisi.


Sva vremena su GMT +2. Sada je 04:34.

Powered by vBulletin®
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 1999-2024 PC Ekspert - Sva prava pridržana ISSN 1334-2940
Ad Management by RedTyger