PC Ekspert Forum

PC Ekspert Forum (https://forum.pcekspert.com/index.php)
-   NVIDIA (https://forum.pcekspert.com/forumdisplay.php?f=7)
-   -   Nvidia GF100 "Fermi" Thread (https://forum.pcekspert.com/showthread.php?t=146187)

sinisa1989 25.09.2009. 18:18

To kad izađe cijena neće biti ispod 3500kn.

DraŽ 25.09.2009. 19:29

Citiraj:

Autor sinisa1989 (Post 1440225)
To kad izađe cijena neće biti ispod 3500kn.

Ako bude 3-4 milijarde tranzistora i čip od 600mm2, onda će nvidia biti u vodstvu,ali pod koju cijenu?

Ili da se nedogodi opet 2xhd5870 tj. hd5870x2 zdere nvidiain jedan čip recimo gtx380, a nvidia nemože napravit dual karticu baš zbog ogromnog čipa i mora čekat 32nm da da odgovor, a svaka manja iteracija gtx380 recimo bude slabija od hd5870.

Majo 25.09.2009. 19:35

Ko bi uzo to dual ati govno,pa jedva krpaju drivere za single GPU kamoli dual...
Isto pricate ko da nvidia nezna sta radi,bez brige imaju oni rjesenja i love,kad se najmanje nadamo izbacit ce neku bombu,isto kako je ati nabacio kontru nvidii sa 4870,sad ce nvida atiju nabacit kontru.Ugl past ce cijene,mocne graficke,vise igara,kud ces bolje,samo neka nastave tako :D.

sinisa1989 25.09.2009. 19:44

Citiraj:

Autor Majo (Post 1440271)
Ko bi uzo to dual ati govno,pa jedva krpaju drivere za single GPU kamoli dual...
Isto pricate ko da nvidia nezna sta radi,bez brige imaju oni rjesenja i love,kad se najmanje nadamo izbacit ce neku bombu,isto kako je ati nabacio kontru nvidii sa 4870,sad ce nvida atiju nabacit kontru.Ugl past ce cijene,mocne graficke,vise igara,kud ces bolje,samo neka nastave tako :D.

Istina da će cijene pasti, ali samo je pitanje do koje razine. Sigurno neće doći do toga da gtx 295 košta 1500 kn. Hoće, ali ne tak brzo.

Doink the Clown 25.09.2009. 20:10

Citiraj:

Autor sinisa1989 (Post 1440225)
To kad izađe cijena neće biti ispod 3500kn.

Ja očekujem normalizaciju cijena negdje na proljeće bar što se Nvidie tiče dok bi ATI mogao srozati cijene taman kad GT300 izađe. Ali i kad Nvidia spusti cijene na neke realne cifre opet će ATI biti povoljniji ali ja bih ipak dao 300-400-500kn više za Nvidiju pa da sačuvam živce koje bi mi isčupali ATI-jevi driveri nego da uzmem ''best buy'' ekvivalentni ATI čiji je software poluproizvod sa dječjim bolestima i ne može iskoristiti puni potencijal grafe :fiju:

Rino 25.09.2009. 20:43

Citiraj:

Autor Doink the Clown (Post 1440181)
A što se tiče zahtjeva novijih naslova igara danas serija 2xx će se još dugo moći nositi s tim i moći će se igrati na visokim detaljima

Pogotovo takvima kao ti koji drže GTX260 216SP na 19" monitoru...:suicide:

Ivan123 25.09.2009. 20:51

Citiraj:

Autor DraŽ (Post 1440268)
Ako bude 3-4 milijarde tranzistora i čip od 600mm2, onda će nvidia biti u vodstvu,ali pod koju cijenu?

Ili da se nedogodi opet 2xhd5870 tj. hd5870x2 zdere nvidiain jedan čip recimo gtx380, a nvidia nemože napravit dual karticu baš zbog ogromnog čipa i mora čekat 32nm da da odgovor, a svaka manja iteracija gtx380 recimo bude slabija od hd5870.

Prva pametna koju sam procitao i realna izjava u ovom threadu...

Citiraj:

Autor Majo (Post 1440271)
Ko bi uzo to dual ati govno,pa jedva krpaju drivere za single GPU kamoli dual...
Isto pricate ko da nvidia nezna sta radi,bez brige imaju oni rjesenja i love,kad se najmanje nadamo izbacit ce neku bombu,isto kako je ati nabacio kontru nvidii sa 4870,sad ce nvida atiju nabacit kontru.Ugl past ce cijene,mocne graficke,vise igara,kud ces bolje,samo neka nastave tako :D.

Bilo govno ili ne, dok nVidia izda odgovor ATI ce pobrati dobar dio trzista i jos pri tome koliko toliko srediti drivere... I jos kad nvidia pusti gt300 od kojeg jos nema niti jednog pravog glasa (vi vjerujete FUD-u??:no2drug:, a ako vec vjerujete njemu, prije tjedan dana je napisano da su yields jako losi, tocnije ispod 2% sto govori da na jednom waferu od 416 kandidata ispadne svega 7 valjanih cipova), ATI ce napraviti isto sto i s 48x0 serijom te ce pruziti daleko jeftinijom... Ustvari, 5870 X2 je u najavi

Doink the Clown 26.09.2009. 01:36

Citiraj:

Autor Rino (Post 1440313)
Pogotovo takvima kao ti koji drže GTX260 216SP na 19" monitoru...:suicide:

Hebiga, kad ne trpim wide dijagonalu, da nađem neki veći monitor s normalnom dijagonalom odmah bih ga ubo ali ovako sam još uvijek inertan :D

sinisa1989 26.09.2009. 22:29

Citiraj:

Autor Doink the Clown (Post 1440434)
Hebiga, kad ne trpim wide dijagonalu, da nađem neki veći monitor s normalnom dijagonalom odmah bih ga ubo ali ovako sam još uvijek inertan :D

OT: Ja sam prije mrzio wide, ali kad sam neko vrijeme radio na 19 colnom 4:3 lcd-u, počeo mi se sviđat wide i sad kad ću mjenjat monitor(e) kupujem wide jer mi je puno ljepši. Probaj i ti možda ti se svidi.:chears:

RAMONES 27.09.2009. 17:59

Zna li se neki priblizan datum kad ce izac ovaj gtx300 serija.

Doink the Clown 27.09.2009. 18:10

Citiraj:

Autor RAMONES (Post 1441624)
Zna li se neki priblizan datum kad ce izac ovaj gtx300 serija.

Zadnje što sam ja čuo je negdje oko Božića ali ne bih se baš držao tog datuma kao pijan plota :D

Jelc 27.09.2009. 20:41

Ja sam naletio samo na info da kasni.

Citiraj:

Autor bluefluid (Post 1433075)


Dizel 27.09.2009. 21:05

Citiraj:

Autor sinisa1989 (Post 1441154)
OT: Ja sam prije mrzio wide, ali kad sam neko vrijeme radio na 19 colnom 4:3 lcd-u, počeo mi se sviđat wide i sad kad ću mjenjat monitor(e) kupujem wide jer mi je puno ljepši. Probaj i ti možda ti se svidi.:chears:

FYI, LCD monitori imaju omjer stranica 5:4. Kristalne kugle CRT imaju omjer 4:3.

DraŽ 28.09.2009. 01:56

http://www.youtube.com/watch?v=-qdmbkRd1BE

The Truth

Pizz 28.09.2009. 09:52

"stenbouni" , kakav lik, hehe

DraŽ 28.09.2009. 12:37

Named after a nuclear reactor


The chip that we ended up calling GT300 has internal codename Fermi. The name might suit it well as Enrico Fermi was the chap that came up with the first nuclear reactor.

The new Nvidia chip is taped out and running, and we know that Nvidia showed it to some important people. The chip should be ready for very late 2009 launch. This GPU will also heavily concentrate on parallel computing and it will have bit elements on chip adjusted for this task. Nvidia plans to earn a lot of money because of that.

The chip supports GDDR5 memory, has billions of transistors and it should be bigger and faster than Radeon HD 5870. The GX2 dual version of card is also in the pipes. It's well worth noting that this is the biggest architectural change since G80 times as Nvidia wanted to add a lot of instructions for better parallel computing.

The gaming part is also going to be fast but we won’t know who will end up faster in DirectX 11 games until we see the games. The clocks will be similar or very close to one we've seen at ATI's DirectX 11 card for both GPU and memory but we still don't know enough about shader count and internal structure to draw any performance conclusions.
Of course, the chip supports DirectX 11 and Open GL 3.1

bozzomfeeder 28.09.2009. 13:28

Citiraj:

Autor DraŽ (Post 1441897)

Ma kakva krvava istina... taj video je idiotizam lika koji ima previše slobodnog vremena i smišlja teorije zavjere.

Jelc 28.09.2009. 15:00

Citiraj:

This GPU will also heavily concentrate on parallel computing and it will have bit elements on chip adjusted for this task. Nvidia plans to earn a lot of money because of that.
Pa, uložili su dosta para u CUDA i slične stvari-ja uopće ne sumnjam u to:)
To sve polako počinje sličit onom kak su zamislili Larrabee, zato se i pjene zadnjih godinu dana jedni na druge i hračkaju konkurenciju...

Ivan123 28.09.2009. 15:48

Citiraj:

Autor DraŽ (Post 1442086)
Named after a nuclear reactor


The chip that we ended up calling GT300 has internal codename Fermi. The name might suit it well as Enrico Fermi was the chap that came up with the first nuclear reactor.

The new Nvidia chip is taped out and running, and we know that Nvidia showed it to some important people. The chip should be ready for very late 2009 launch. This GPU will also heavily concentrate on parallel computing and it will have bit elements on chip adjusted for this task. Nvidia plans to earn a lot of money because of that.

The chip supports GDDR5 memory, has billions of transistors and it should be bigger and faster than Radeon HD 5870. The GX2 dual version of card is also in the pipes. It's well worth noting that this is the biggest architectural change since G80 times as Nvidia wanted to add a lot of instructions for better parallel computing.

The gaming part is also going to be fast but we won’t know who will end up faster in DirectX 11 games until we see the games. The clocks will be similar or very close to one we've seen at ATI's DirectX 11 card for both GPU and memory but we still don't know enough about shader count and internal structure to draw any performance conclusions.
Of course, the chip supports DirectX 11 and Open GL 3.1

Kako volim razvoj ovakve situacije... U drugoj temi pricaju gluposti o duzini, o cijeni i sta ja znam, kad ono nova nVidina grafa ce biti jos veca i to ne GX2 verzija... :chears:

@Bono: Nisam ti ja kriv sto ce nVidia biti duza :D

Bono 28.09.2009. 15:57

Citiraj:

Autor Ivan123 (Post 1442305)
Kako volim razvoj ovakve situacije... U drugoj temi pricaju gluposti o duzini, o cijeni i sta ja znam, kad ono nova nVidina grafa ce biti jos veca i to ne GX2 verzija... :chears:

Ajde nemoj vise komentirat clanke stvarno nisi zabavan, ako ti imas neki bolji info slobodno napisi.

greg SE 28.09.2009. 16:08

jedine gluposti tamos u svrsavanja na performanse kartice koja tehnicki nije nist posebno (ako ne gledamo dx11 ali tko pametan to jos gleda na prvoj seriji kartica koja ga podrzava....valjda nitko tko je dozivio vise od 3 nova DXa u zivotu :D) i da bi stvar bila gora kosta isto ili skuplje kao koliko? Godinu dana star model nvidie?
Ok, cijena ce pasti (ali ne previse jer moraju ostaviti prostora za snizavanje nakon sto nvidia izbaci svoje kartice a u medjuvremenu treba iskoristiti ovo "prvi" kako bi se isplatio barem r&d) ali kartica je ono...nist posebno. Ako GT300 modeli budu performansama iole slicni onda je bolje i da ih ne izbacuju osim u nekoj limited seriji za ove kojima cuda treba.

i da, ne treba se uopce paliti previse. Igranje na PCu je ionako postalo teski shit zahvaljujuci gotovo nikakvom razvoju igara za PC i konstantnom prebacivanju s konzola. Zahtjevi takvih uradaka nisu nist posebno i zvacu ih nize-od-maintream kartice bez problema na visokim rezama (i kartice stare par godina koje idu po 300kn btw). Opcenito potreba za jakim grafama nije bas neka. Postoje kombinacije u kojima su potrebne (ove ATI fore s gomilom ekrana recimo) ali to nije vrijedno spomena s obzirom da nece koristiti gotovo nitko.
Nije nvidia bas ni luda sto se vise orijentira na gpu computing nego na performanse i stizanje na vrijeme za novi DX. Da mi se sve to svidja....bas i ne. Ali kao da nas itko ista pita.

Jelc 28.09.2009. 16:25

Pa, CUDA možeš od unazad par mjeseci tjerat i na krampovima kao što su 8400/9500:) (64-bitnim)

Kaj se tiče akceleracije videa, PS-a, konvertiranja u "profi" aplikacijama.

Ali ako hoćeš da čoek-šišmiš ima plašt koji se giba dok se kreće trebaš ipak nekaj bolje:)

Bit će veselo...i kaj se tiče konkurencije sa ATI-jem i kaj se tiče kompletne spike sa Larrabee.

Intel bu tražil svoje zato kaj njihov proc vrti grafiku a Endivija zato kaj njihov GPU može obavljati stvari kao i proc.

Slutim opaku šoru oko patentiranja nekih stvari:D

greg SE 28.09.2009. 19:52

mozes tjerati na krampovima ali nije poanta u tome da nesto radis preko grafe nego da to zato sto ide preko grafe i cuda se obavlja barem nekoliko x brze nego preko procesora. A to tesko da neka 8400 moze postici. Osim ako naravno ne furas nekog od onih prvih pIV ili tako nesto pa ti je to sve super brzo :D
Nego sta kazes, batmanu se plast realno giba u trku? Pravi razlog da otrcim kupiti novo konzolasko smece....vec trcim :D

stef 28.09.2009. 22:18

Pomalo ironično, Batmanov plašt je jedna od stvari koje neidu preko PissXa :).
A o everyday upotrebi GPGPUa se isto može pričati, stvar je tek na početku ... rat standardima se tek zahuktava (OpenCL vs DirectCompute vs CUDA).

bluefluid 30.09.2009. 14:11

nVidia GT300's Fermi architecture unveiled

' nVidia GT300 chip is a computational beast like you have never seen before. In fact, we would go as far out and state that this is as closest as GPU can be to a CPU in the whole history of graphics technology. Now, time will tell whatever GT300 was the much needed revolution.

Beside the regular NV70 and GT300 codenames [codename for the GPU], nVidia's insiders called the GPU architecture - Fermi. Enrico Fermi was an Italian physicist who is credited with the invention of nuclear reactor. That brings us to one of codenames we heard for one of the GT300 board itself - "reactor".
When it comes to boards themselves, you can expect to see configurations with 1.5, 3.0 GB and 6GB of GDDR5 memory, but more on that a little bit later.

GPU specifications
This is the meat part you always want to read fist. So, here it how it goes:
3.0 billion transistors
40nm TSMC
384-bit memory interface
512 shader cores [renamed into CUDA Cores]
32 CUDA cores per Shader Cluster
1MB L1 cache memory [divided into 16KB Cache - Shared Memory]
768KB L2 unified cache memory
Up to 6GB GDDR5 memory
Half Speed IEEE 754 Double Precision


As you can read for yourself, the GT300 packs three billion transistors of silicon real estate, packing 16 Streaming Multiprocessor [new name for former Shader Cluster] in a single chip. Each of these sixteen multiprocessors packs 32 cores and this part is very important - we already disclosed future plans in terms to this cluster in terms of future applications. What makes a single unit important is the fact that it can execute an integer or a floating point instruction per clock per thread.

TSMC was in charge of manufacturing the three billion transistor mammoth, but it didn't stop there. Just like the G80 chip, nVidia GT300 packs six 64-bit memory controllers for a grand total of 384-bit, bringing back the odd memory capacity numbers. The memory controller is a GDDR5 native controller, which means it can take advantage of built-in ECC features inside the GDDR5 SDRAM memory and more importantly, GT300 can drive GDDR5 memory in the same manner as AMD can with its really good Radeon HD 5800 series. The additional two memory interfaces will have to wait until 28nm or 22nm full node shrinks, if we get to them with an essentially unchanged architecture. You can expect that the lower-end variants of GT300 architecture will pack less dense memory controller for more cost efficiency, especially on the memory side.

Ferni architecture natively supports C [CUDA], C++, DirectCompute, DirectX 11, Fortran, OpenCL, OpenGL 3.1 and OpenGL 3.2. Now, you've read that correctly - Ferni comes with a support for native execution of C++. For the first time in history, a GPU can run C++ code with no major issues or performance penalties and when you add Fortran or C to that, it is easy to see that GPGPU-wise, nVidia did a huge job'

Izvor:guru3d

Igor_Zg 30.09.2009. 15:04

hmm...

brojke i mogučnosti su impresivne :chears:

Elpresidente1 30.09.2009. 15:56

Citiraj:

Autor bluefluid (Post 1443815)

Ferni architecture natively supports C [CUDA], C++, DirectCompute, DirectX 11, Fortran, OpenCL, OpenGL 3.1 and OpenGL 3.2. Now, you've read that

Izvor:guru3d

:dobar:

FORTRAN, hahaha:spam:

dobar info, napokon nešto konkretnije:fala:

Gilbert5 30.09.2009. 15:58

Hehe, za ovo čudo će morati izmisliti i neke nove naponske priključke. :D

Ako ovo (spec.) bude istina, mislim da bi cijena mogla biti neviđeno visoka.

Romano.Cule 30.09.2009. 15:59

Da impresivne.Nevjerovatne.Najgore od svega je to sto za igranje stvarno nema potrebe za tolikom grafickom snagom.Izgleda da je ovog puta hardwer premasio zahtjeve softwera za dva koplja.Ali mozda Crysis 2 bude mazao tu graficku

Jelc 30.09.2009. 16:05

Citiraj:

Autor Elpresidente1 (Post 1443943)
:dobar:

FORTRAN, hahaha:spam:

A kaj se čudiš ko guska dreku?

Već je vani CUDA Fortran Compiler Beta:

http://www.eweek.com/c/a/Application...r-Beta-225743/


Sva vremena su GMT +2. Sada je 10:42.

Powered by vBulletin®
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 1999-2024 PC Ekspert - Sva prava pridržana ISSN 1334-2940
Ad Management by RedTyger