ne pokusavam ih objasniti.
oni racunaju svojim metodama potrosnju same kartice i to u 3d mark testu gdje nije konstantno opterecenje ni potrosnja. inace su mi super clanci na x-bit labsu, no te cifre sto oni pucaju tamo su mi nelogicne u najmanju ruku.
npr. HD4770 realno ima tek nesto sitno slabije performanse od HD4850 uz 60W nizu potrosnju? Iako dolazi sa 125MHz vecim taktom? sori, al sumnjam da 40nm moze napraviti toliku razliku.
to znaci da bi recimo g92 65nm cip koji trosi ajmo rec 100W pod opterecenjem, prelaskom na 55nm proces spustio na cca 50-60W pri istim frekvencijama?
ja mjerim izlaznu potrosnju citavog racunala nakon sat vremena opterecenja sa ati tray tools 3d kockicom koja opterecuje grafu i samo grafu. svi ostali "torture" programi opterecuju jednu, pa cak i dvije jezgre procesora sto uvelike utjece na izlaznu potrosnju.