Kad sam rekel u jednoj od prijašnjih Fermi tema, da je ovo kaj nVidia radi - žalosno i da se firma s
fake karticama i sve kaj je slijedilo nakon toga, srozala niže od ATi-a i njihovog debakla s R600, prozivali su me fanatikom i ko zna kojim glupostima, jer ljudi ne vole čuti ono kaj stvarno ima smisla. Danas imamo točno ono kaj se pisalo i pričalo u tim temama, a taman da je cijela stvar bila odigrana prije pol godine opet bi gledali GTX 200 vs. HD 4800.
Primjera radi, scenarij koji je trebal biti odigran da nVidia nije tvrdoglava - prije pol godine nVidia prva lansira i predstavi nove DX11 kartice i njihovo puštanje u prodaju tempira s novim Windows 7 sustavom. Svi sretni i zadovoljni, kartice i performanse su brutalne, a prevelika potrošnja i sve ostale (manje ili veće) mane se nekak progutaju, jer ipak su čipovi monstrumi. nVidia i dalje zagovara i hvali monolitan dizajn i sve kaj ide s tim. Opet svi sretni i zadovoljni. Tjedan dana nakon GF100 čipova, AMD-ATi lansira svoju HD 5800 seriju, koja je istinabog slabija od konkurencije, ali opet nije tolko slabija da ljudi ne bi skužili kolko i više nego prihvatljiva cijena, potrošnja, itd., opravdavaju kupnju.
Imali bi točno istu situaciju ko s GT200 čipovima, čija preporučena cijena (i to za GTX 280) je bila ni više ni manje nego (provjerite, ako ne vjerujete) enormnih 649 dolara. Ista stvar s današnjim GF100, samo kaj cijene nisu baš tak pretjerane u odnosu na tadašnji GT200. Dakle, taman da su obje firme prije pol godine i u razmaku od samo par dana predstavile svoje DX11 proizvode, nVidia bi opet pušila pare, jer bi AMD-ATi baš ko i s HD 4800 serijom diktiral cijene i rezal iste do samih granica.
Monolitan i ogroman čip - pričamo vam priču, jer vrtimo svoj film. Mi smo Bog, a na vama je da vjerujete u nas. Komedija.
Citiraj:
Autor fran123456
Sumnjam da ce dizati broj shadera na 512 jer bi to napravili u pocetku kad bi mogli.
|
Pa mogli su, samo kaj bi broj ispravnih čipova i na kraju prodanih kartica - bil poražavajući. nVidia dan-danas radi ono kaj su do prije par godina radili AMD i Intel. Pucali su na čim viši takt procesora i samim time sirovu snagu i performanse koje su dolazile s tim, da bi jednog dana skužili kak to više nema smisla. nVidia pak puca na pun qrac tranzistora u čim veće čipove i na temelju toga izvlači sirovu snagu, a kad-tad bude, baš ko i proizvođači procesora, udarila u zid i onda bude - e nismo znali.