![]() |
https://wccftech.com/report-nvidia-g...ly-until-2021/
treba preorderat, ali nema preordera.. prodavat ce se ko hot cakes mislim. jos kako je mining ETH postalo isplativije, moglo bi nas sve sjebati za cijene i dobavljivost. Sent from my Mi MIX 3 using Tapatalk |
S obzirom da ova 3070 stvarno izgleda primaljivo planiram se bacit na upgrade, trenutno na nvidia.at stoji da ce bit od 519 EUR cijena. E sad pitanje, s obzirom da sam na Ryzen 2600 hoce on biti bottleneck? Ici na 3600 ili se protegnut do 3700?
|
eth mining na nvidiji nije neka sreća, neće to previše utjecat, osim ako amd bude imao totalnu nestašicu
|
|
Malo je strašno.. kad pogledaš što sve AI može. Svatko će u svojoj sobi moći proizvesti deep fake video za only 499™.
|
Uhvaceno iz nvdia reflex videa gdje je koristena 3080, pogkedati prvu sliku lijevo za info.
Tema obrisana sa sluzbenog nvidia reddita. Clockovi, watt usage i stupnjevi. https://i.ibb.co/kmmK3j8/Screenshot-...8-You-Tube.jpg https://i.ibb.co/Mp9QhZq/Screenshot-...4-You-Tube.jpg youtube video |
Znaci 75C pod opterecenjem, i debelo pitanje u kakvim uvjetima i koliko dugo je bila pod opterecenjem. Mozda je bila koristena na open benchu i u sobi u kojoj je 18-20C, znaci prakticki najbolji moguci uvjeti. Ako je to slucaj, u kucistu ce to biti lagana pecnica na 80-85C.
|
Ma da. Radila na -7 i mazili je. Koja to kartica ne radi u loadu na 70-80c ? Moja 2080ti je bila hladena vodom pa je bila hladna a bogami ekipa sa zračnim hladenima je imala bajne temp. I ovo je kartica od 320w, 75c je top temp ako je zrakom hladena i skoro na 2ghz boost.
|
Ono sta sam koristio iz prve ruke su 1070ti,1080ti,2070 super i 2080ti. Svi su bili klasicni zracni hladnjaci, modeli Strix, windforce i zotac AMP. Kartice su u zatvorenoj kanti radile na max 71-74C. Ovo ce biti laganini Fermi situacija, nadam se da sam u krivu, nadam se najboljem jer sam također zainteresiran.
|
Što je proizvodni proces manji to je i površina čipa manja pa ga je i teže ohladit, gledajući i sa tog aspekta.
|
Od 74-80 je 6c , pa nije 74 hladno a 80 pećnica :D Meni tako nebitno, ide zima, bit će lijepse u sobi.
Btw za Lewisa : NVIDIA Reserves NVLink Support For The RTX 3090 |
ASUS Strix mi je bila oko 72-73 (max 75C), a MSI Z Trio bome i do 80C dode u zatvorenom kucistu. Mislin da tih 75C sa slike nije toliko strasno, jer ionako throttle ide na 83C ako se ne varam?
|
Moja Zotac 1070 Mini u ovom kućištu s manje od centimetra prostora između njenih ventova i PSU shrouda, u neklimatiziranoj sobi kada je bila najveća žega ovog ljeta nije išla preko 83C u Doom Eternalu, Modern Warfareu, Apexu itd. Nikakvog throttlea nije bilo, čak ni ventovi tada nisu išli na 100%.
Problem je što se tu dosta griju druge komponente (čitaj procesor), pogotovo ako je airflow u kućištu nikakav i što ga se bez nekih dodatnih investicija koje lako premašuju parsto kn ne može puno poboljšati. Cooling rješenje na FE verzijama ove nove serije mi nije u potpunosti jasno, može stvoriti opasan kontraefekt i dodatno grijati procesor svima, tu u gabuli mogu biti svi sa stock hladnjacima na procesoru i/ili zgusnutim kućištima s lošim airflowom. Očito nisu mogli složiti klasičan blower style cooler sa direktnim ispuhom na stražnjoj strani kartice zbog manjeg proizvodnog procesa i zgušnjavanja elektronike na još manjem čipu. :hitthewal: |
Citiraj:
"Will customers find a performance degradation on PCIE 3.0? System performance is impacted by many factors and the impact varies between applications. The impact is typically less than a few percent going from a x16 PCIE 4.0 to x16 PCIE 3.0. CPU selection often has a larger impact on performance.We look forward to new platforms that can fully take advantage of Gen4 capabilities for potential performance increases." Znaci pci 4.0 i na ovoj generaciji ostaje samo meme. :kafa: |
Doom eternal 3080 gameplay i usporedba s 2080ti na 4k
|
Vjerojatno, pci-e 3.0 još nije zasićen sa dosadašnjim gpu... Glavna korist pci-e 4.0 su brži ssd-i
|
Citiraj:
Ali stvar bi se mogla promijeniti ako će igre koristiti i DirectStorage API za pristup podacima. Teoretski bi onda u GPU mogli podaci ići gigabajtima u sekundi bez obrade podataka u procesoru. |
Video najbitnijeg featurea u najbitnijem aspektu niste stavili ccc
https://www.youtube.com/watch?v=kLF3-N7qN_s |
Citiraj:
Imam od 90 (min)-150 (max) FPS-a, dok na animacijama padne i na 80 FPS, ali uglavnom se ne spušta ispod 100 FPS-a i ne ide preko 120. Znači da je RTX3080 debelo debelo jača od GTX1080 i to BEZ RTX-a, kad na 4K ima isti ili veći broj FPS-a na istim grafičkim postavkama. Ponavljam, radi se o igri koja NEMA RayTracing. A znači i to da je RTX3080 takav besmisleni OVERKILL za Doom Eternal da je to strašno :D Čak i za ekipu sa 165/240Hz 1440P monitorima. I dalje, čekamo prave rivjue sa 20+ igara na svim popularnim rezolucijama. I 480P za Intel procesore. |
3090 u ponudi iskače ko mrkva u telećoj juhici. Trebali su karticu izbaciti pod Titan brendom, a ne GeForce. Poštedjeli bi se silnog negativnog publiciteta (zbog cijene). Po svemu dosad rečenom, primarno je GPGPU, a ne consumer tj. gaming klasa.
... Ili skrivaju nešto još moćnije za Titana? |
Iskače ti sada.
Ubacit će oni neš između još tipa RTX 3080 20GB, 3080 Super 20 GB i 3080 Ti 20GB i fino popuniti rupu od RTX 3080 10GB do RTX 3090. |
Citiraj:
|
U slučaju da i u službenim recenzijama RTX 3080 bude općenito kojih 50% bolja/jača od RTX 2080 Ti ko u ovom Doom Eternal 4K primjeru, onda nema brige za cijelu Ampere seriju.:)
|
Ma mene ta potrošnja baš svrbi, doduše, ja bi max išao na xx70, a tu me opet svrbi samo 8gb RAM. Vidi se iz aviona da su ostavili hrpu prostora za ubacivanje dodatnih modela i da čekaju crvene. Samo oni neće ko crveni ponudit BIOS da se otključaju performanse na postojećem modelu, nego će izbacit ''nove i bolje''.ž
EDIT: Ovo mi se čak čini da su brute forcali Turing na Ampere pa nek ide sve u kukac, samo da budu jači od crvenih. |
Sa prve stranice prije konkretnih leakova :D
Citiraj:
2080Ti - 1200$ |
Citiraj:
I to kao main rig! Služila bi i dalje da je nisam blento prodao skupa s cjelom konfiguracijom za sitniš. Iako je AMD napravio reda u CPU tržište, tržište GPU-a je dosadno od kako je pascal izašao. Kad se ovo sve posloži (ampere, RDNA2, zen3) mislim da je napokon vrijeme za upgrade! |
Citiraj:
Intelov marketing misli da su jako pametni i zabavni, jer im Ryan Shrout radi prezentacije, a nemaju pojma kak se to zapravo radi i to kad firma ima uistinu odličan proizvod.:goood: Citiraj:
Citiraj:
Citiraj:
|
Iskreno pesimističan sam glede radeon grupe (u high endu). Ispast će točna moja procjena od prije par godina da će prebacit 1080Ti tek 2021, eto fulat ću za mjesec-dva (a ni to možda zbog dobavljivosti)
No treba priznati da malo smrdi, zapravo jako smrdi da nvidija izbacuje 3 gpu preko 300w (računam tu i sigurnu 3080Ti), dok im je preko 250w, a pogotovo 300w bilo nezamislivo. Očito je razlog da bi AMD skinio nvidiju sa trona da su išli kao uvijek sa flagshipom ispod 300w. Tako da ipak vi nemojte ništa preorderat, možda ove nvidije neće baš toliko impresivno izgledati za 2 mjeseca Možda neće imati konkurenta 3090, možda čak ni 3080, ali bi mogla biti proper borba sa normalnim gpu ispod 300w |
Znači, RDNA 2 je za konzole već potvrđen i to je GPU po svemu sudeći u rangu RTX 2080 Ti, plus minus. nVidia je na šrot Samsung 8nm procesu izdala varijaciju na temu najjačeg A100 čipa koji sam po sebi ždere 400W ko Žak Houdek MekDonalc. Raje više nema, a nVidia je odmah za dobar dan izbacila najjači čip u tri izdanja, s dovoljno prostora za još edicija baziranih na istom materijalu. Ne znam, ali sama činjenica da AMD Radeon divizija šuti ko Severina kad ju se pita s kim je sve spavala - daje naslutiti da možda čak i postoji šansa da ipak nisu baš toliko nesposobni. Nadam se.:)
|
Nema šanse. Nisam očekivao da će 3080 ovoliko razvaliti 2080Ti bez RT-a!
Puno je izglednije da će se AMD laktati sa još nenajavljenom 3060 ili 3050, nego prebaciti 3070. Što opet ne mora biti loše za gamere. Konkretno nas koji igramo na 1080p. Mene zanima isključivo 1080p @ 144hz gaming. A ne želim kupiti rabljenu 1080Ti. :D |
50% brža uz 30% veći TDP, i nije baš bajni uspjeh.
Ajd bar će zima skoro, pa ću uštedit na grijanju... |
Ovo nije normalno koliko grafa 2080 i rx 5700 na njušci od kad je ova 3xxx serija najavljena. Uopče čovijek nije pametan što da radi ili možda bolje čak i ništa...
|
Koji će ti vrag 2080 po trenutnoj njuškalo cijeni? Pa za te novce bi trebala doći 3070. :D
|
Citiraj:
|
Jebote, prije par postova sam iz zajebancije napisao da bi trebao prodati 1080ti za 900 kn i ekipa mi privatne poruke šalje i nudi tih 900kn, 150 EUR i takve spike. Očigledno je mnogima teško shvatiti sarkazam. Prije bih 1080ti stavio starcima u HTPC nego je dao za te pare. Pa taman da je i 3040 razjebe po performansama
|
Citiraj:
Najbolje ništa do "christmas season" :lol2: |
Hmm znaci 2*3090 + NVlink i veselje od 48 GB Vrama :).
Brijem samo da nista od tog z a mene jer NVlink bridge treba biti neki jako siroki jer su triple slot a nikako nebi htio ubaciti prvi i 4ti nego prvi i 7mi slot (eventulano 6ti) da se hladi izmedju jer kad su jedna do druge u sandwichu gornja grafa throttla po 300-350 MHz tak da nema smisla :). |
Citiraj:
AMD jednostavno mora napraviti veći čip da dosegne Nvidiu :D |
Citiraj:
|
Ma voda mi nije opcija, previse ja to tumbam po kompovima tako da sam od vode odustao. Eventualno kao nekad davno sto sam gledao cusotm rigove sa 7*1080Ti (prerada na single slot + tanki blok) na vodi u jednom custom loopu ali to bi sad moglo ici samo kao 3*3090 zbog sirine grafe ali otom potom...
|
Sva vremena su GMT +2. Sada je 21:27. |
Powered by vBulletin®
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 1999-2024 PC Ekspert - Sva prava pridržana ISSN 1334-2940
Ad Management by RedTyger