Új hozzászólás Aktív témák
-
veterán
Elég egyértelműen ott vannak az adatok a grafikonon, és elég egyértelműen látszik, hogy melyik egységesebb, lehet magyarázni, hogy a CF elméletben jobb, de itt a bizonyíték, hogy a gyakorlatban sokkal rosszabb, sőt alig jobb mint egy szóló kártya. Frame Variance külön kiemelve, hogy jobban látszódjon.
Pontosan azt méri amit te a monitoron látsz, a játék motorjától kezdve egészen a monitorra kiküldött képig.
Input lag pedig az az idő (egyszerűsítve), amíg a billentyűzeten lenyomott gomb eljut a monitorig.
Csak a VGA-ban és VGA driverben eltérő gépen a gomb lenyomása amíg eljut a játék motorjáig ugyan annyi ideig fog tartani NV és AMD VGA esetén is, az utána lévő időt, amíg a driveren és a VGA-n keresztül kiér a monitorra pedig a FCAT méri, és meg lehet tekinteni.60Hz esetén lesz 60 képkockád, amin szerepelhet, jóval több tört (részleges) képkocka is.
Mint pl. itt, 2 képkocka szerepel egy képen.Biztos vagyok benne, hogy nem kínál minden játék a maximum pre-rendered frames-re beállítási lehetőséget, de igazából mivel semmi köze a SLI, CF kérdéshez, lényegtelen is.
Már sokadjára írom le, hogy nem másol semmit sehova, egy professzionális videó felvevő kártyáról van szó, ami DVI-on felveszi a monitornak kiküldött videó jelet, amit előtte, egy DVI splitterrel szétosztottak, semmi több.
The video output from the gaming system being tested connects to this Gefen dual-link DVI splitter, which feeds outputs to both the monitor and the DVI capture card.3-4 tesztben le van írva ugyan úgy a dolog, nyugodtan idézz vmelyikből, ha vmit félre értelmeztem, mert nem valószínű, hogy az összes helyen félreértelmezték az NV leírását, tehát vagy én értelmezem rosszul a tesztekben leírtakat, vagy te értetted félre a leírást amit az NV-től kaptál.
[ Szerkesztve ]
-
veterán
És hol van a grafikonon az, hogy az input lag mekkora, vagyis az, hogy az egéren leadott tüzelés mikor jelenik meg a képen?
Magamat tudom idézni:
Csak a VGA-ban és VGA driverben eltérő gépen a gomb lenyomása amíg eljut a játék motorjáig ugyan annyi ideig fog tartani NV és AMD VGA esetén is, az utána lévő időt, amíg a driveren és a VGA-n keresztül kiér a monitorra pedig a FCAT méri, és meg lehet tekinteni.
Mondok egy példát: Az egérlenyomást mire megkapja a játék motorja mondjuk 20ms (ezt nem tudjuk mérni, de nem tudom miért változna a VGA függvényében) onnantól kezdve, amíg a VGA kiküldi a monitorra, hozzájön +10ms (ezt méri az FCAT és ez szerepel a grafikonon) és akkor összesen lesz 30ms + még a monitor mire meg is jeleníti összesen mondjuk 50ms. SLI esetén ez 50ms körül lesz folyamatosan, CF esetén pedig 40 és 60ms között fog ingadozni.2560x1440-es felbontásban 60FPS-el tömörítetlenül videót felvenni igényel 600MB/s-et ez így van.
NV ezt a kártyát küldte nekik, mert ilyet használnak az NV-nál is a belső tesztekhez, nekik gondolom nem tétel pár SSD, de ez nem jelenti azt, hogy ilyen kártya kell a videó felvételhez. -
nagyúr
valószínűleg az az oka a tömörítetlen video tárolásának, hogy ha bármilyen veszteséges tömörítéssel mentenék a képeket, akkor az egyes képkockákon a színes szalag a bal oldalon nem egyenszínű lenne (esetleg az RGB összetétel is eltérne), és ez megzavarná az elemző szoftvert. valamelyik tesztoldal belefutott ilyesmibe némi artifacting kapcsán.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
veterán
Grafikon bal oldalán a függőleges tengelyen láthatod a csak a VGA által generált input lag mértékét.
VGA tesztben nem értem miért kellene az input lag többi részével is foglalkozni.A capture kártyáról meg minden infó elérhető itt. Eléggé úgy tűnik, hogy az NV a saját belső használatra szánt szoftverét és kártyáját adta oda a tesztelőknek, és mivel elég gyorsan reagáltak az igényre, SZVSZ nem lett volna idő mindenféle capture kártyával tesztelni a dolgot, és nem akartak beégni, hogy esetleg vmelyiket nem szereti a szoftver.
-
nagyúr
kíváncsi lennék a részletekre, mert ennek így füle sincs, meg farka se nagyon. én azt értem, hogy van olyan szituáció, ahol néhány ms-mmal csökken az input lag (bár azt továbbra sem hiszem, hogy a "profi játékosok" 8ms-ot észrevesznek, de ettől most tekintsünk el), viszont ha ez lett volna a cél, akkor legalább annyi késleltetést rakott volna bele az AMD is, hogy legalább a frame közepe biztosan látható legyen, ugyanis ha két frame a két GPU-n úgy megy ki, hogy az egyiket kitakarja a másik, akkor lazán duplázódik az input lag a kiegyenlített megoldáshoz képest.
nem lennék meglepve, ha a 2010-ben végzett vizsgálat másról szólt volna, csak vmi marketingzseni mai szemmel "újraértelmezte"Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
én azért kíváncsi lennék arra az elméleti alapra, mert a "játékosok kérték" az ilyen hangzatos buborék, különösen amiatt, amit lejjebb írtam - a runt frame-ek nem csökkentik, hanem növelik az input lagot.
Egyébként a smoothingot úgy számold, hogy minden képkockát késleltetve kezd számolni, pont azért, hogy igazodjanak egymáshoz.
Ezt nem értem. Mi értelme van annak, hogy késleltetve kezdi számolni? Józan ész alapján, ha az időt kontrollálod, akkor a késleltetést a front-back fliphez praktikus tenni. És itt sem tűnik értelmesnek minden kockát késleltetni, elég az egyik kártyánál. Ne c'est pas?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
veterán
Az input lag tartalmazza a frame time-ot, az egyik összetevője.
Az input lag többi összetevője nem a VGA-n múlik, nem valószínű, hogy a VGA típusa befolyásolja mondjuk az egér driver vagy az USB port késleltetését.
Arra vagyok kíváncsi, hogy hány frame jelenik meg, amíg az egéren leadott parancs megjelenik?
Erre én is kíváncsi lennék, de jó esély van rá, hogy még senki nem csinált ilyen tesztet, főleg nem VGA-k összehasonlításához.Techreporton futottak bele, mert AMD-n vmiért kicsit eltért a csíkok színe, vmint egy kis zaj is volt bennük.
the extractor was having trouble because the overlay colors being displayed by the Radeon weren't entirely correct.
Szerencsére lehet állítani a toleranciát az elemző progiban, és miután lazábbra vették a probléma megoldódott.
The extractor routine had to be adjusted for looser tolerances in order to account for the variance. -
nagyúr
ja értem, hová akarsz kilyukadni. csak azt nem tetted hozzá, hogy az 1 GPU-t közelítő input lag az 1 GPU-t közelítő valódi fps-sel fog együtt járni. akkor viszont inkább kib****m a 2. kártyát a gépből
de viccen kívül, bárhová forgatod ezt a koncepciót, hülyeség jön ki belőle. magyarázhat az AMD, amit akar, ezt nagyon elközösülték. mindegy, csinálják meg normálisan, és akkor a múlt már a kutyát nem fogja érdekelni.a smoothing dolog így sántít, mert kell magát hangolnia aszerint, hogy az átlagos megjelenítés gyorsabb vagy lassabb. de mindegy, ezen felesleges vitatkozni, legyen amit mondasz, +10-15ms / frame. ennyi a normális AFR ára, pont.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Yep, valóban szubjektív a dolog. Az AMD szerint normális, az meg már a felhasználó baja, ha
a) zavarja a microstutter
b) ugyanazt az eredményt kapná 1 kártyávalDe ha valakinek ez kell, hát szíve joga
Smoothing: nem látom, mi szükség lenne arra, amit írsz. ha az 1-es kártya a saját tempójában megy, akkor a 2-esnél összesen ennyire kell:
if ( time - last_flip < average_frametime ) then wait ( average_frametime - ( time - last_flip ) ) else endif
flipPedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
huskydog17
addikt
Tééééényleg a Project Phoenix! Ez ki is ment a fejemből.
Hm...ez így tök logikus, akkor ez lenne az első játék, ahol a vörös szépséget irányíthatjuk. Gondolom oda is terveznek TressFX-et, hiszen Ruby haja megnőtt.Amúgy van valami "insider" infód arról, hogy a Watch Dogs fejlesztői, azaz a Ubisoft Montreal szándékozik-e maradni az AMD-nél vagy sem? Mennyire voltak elégedettek a FC3 esetében? Az AMD-nél még mindig kalapálják a FC3 kódját, hogy gyorsabb legyen, vagy vége a javításoknak végleg?
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
nagyúr
yah, pongyola voltam, az átlag frametime az az elmúlt pár frame átlaga akart lenni. és ahogy mondtam, sztem a flipnél kell késleltetni, úgyhogy a munka elkezdése nem gond.
a multi-monitoros cucchoz nem tudok hozzászólni. ha cinikus akarnék lenni (márpedig miért ne akarnék ), akkor azt írnám, hogy marhára nem érdekel, oldják meg...Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Whit3Rav3n
senior tag
Egyébként erröl a módszerröl amit nv használ ez hivatalos infó mert egy másik fórumon mindenki csak találgatja hogy akkor pontosan milyen módszerrel is egyenlíti a frame idöket az nv. Szóval a te leírásod alapján 1 frame-el több az input lag a frame idö meghatározása miatt?
-
siriq
őstag
Ehez kepest az anand is az nv fele tool hasznalja. Emlekszel amikor kerezted, hogy mi mast hasznalnak frapson kivul?
Mar lassan minden kulfoldi oldal rendesen fogja tesztelni(vagy teszteli es infozik a fo oldalon errol) a temat.
[ Szerkesztve ]
Meg mindig nincs 1000 oras BF3 nev, kozben mar masok is erdeklodnek utana... Mar bevallottan nincs 1000 ora neki... Varjunk Dec 31-ig a Mantle-a.
-
siriq
őstag
Egy kartyanal is latnak problemat.
A masik meg az info. Az meg ugyan ugy nincs megoldva. Ha mar nem akartok tesztelni, akkor reszletes leirast meg lehetne csinalni. Meg ilyen keson is. Mert ha most dobnad ki mar laza par honapos kesesben leszel.
Lehetne reszletezni miert nem csinaltok ilyen tesztet is pl.[ Szerkesztve ]
Meg mindig nincs 1000 oras BF3 nev, kozben mar masok is erdeklodnek utana... Mar bevallottan nincs 1000 ora neki... Varjunk Dec 31-ig a Mantle-a.
-
Locutus
veterán
Egyrészt, szerintem nem kell ennyire ráflesselni az nv vagy az amd támogatására a játékoknál. Népszerűség, és újdonság alapján kellene válogatni, és kész.
Másrészt miért van az megszabva, hogy egy tesztre mennyi idő fordítható? Ki korlátozza ezt?
Vagy legyenek két fejezetes tesztek. Az elsőben a hagyományos dolgok, a másodikban lehet egy kicsit mélyebbre ásni. Valami értelme kell legyen annak, hogy játékokkal teszteltek, és ha az FPS szám önmagában nem ad teljes képet, akkor ki KELL térni a frame ratingre is. Az úgy teljes munka, és az olvasók tudnak dönteni, hogy az általuk preferált játékokhoz mi a jobb választás.Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
-
siriq
őstag
A fo oldalon az infos dologra meg mindig nem irtal semmit, pedig mar masodjara kerdeztem.
Magyaran lehozzatok a fooldalon, vagy nem?[ Szerkesztve ]
Meg mindig nincs 1000 oras BF3 nev, kozben mar masok is erdeklodnek utana... Mar bevallottan nincs 1000 ora neki... Varjunk Dec 31-ig a Mantle-a.
-
nagyúr
azt a részét értem, hogy a Kaveri után érdeklődnek a fejlesztők, de ez miért fáj az nVidiának? nyilván nem az APU-n fog minden futni, diszkrét GPU kelleni fog mellé, akkor meg nem mindegy, melyik?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
siriq
őstag
Most ujra leirom hatha nem voltam ertheto. Megfogjatok irni a fooldalon vagy nem? Egyszeru igen vagy nem valasz tokeletes lesz.
Nem ertheto. Megint irtal egy regenyt az egyseru igen vagy nem helyett. Nem regenyre van szukseg.
[ Szerkesztve ]
Meg mindig nincs 1000 oras BF3 nev, kozben mar masok is erdeklodnek utana... Mar bevallottan nincs 1000 ora neki... Varjunk Dec 31-ig a Mantle-a.
-
siriq
őstag
Egyszeru kerdesre nem adtad meg a valaszt. Az okfejtes megvolt de hianyzott az egesz hozzaszolasbol a direkt valasz. Ezt ugye lehet a post elejere vagy a vegere rakni, amennyiben az okfejtesed koveti a valltozast. Az okfejetesed pedig csak nagyon-nagyon kozvetett dolgokkal lett magyarazva. Ami nem teljesen helytelen de legalabb hibas.
Neharagudj meg, mar 13 eve nem elek otthon de ezt meg en is tudom.[ Szerkesztve ]
Meg mindig nincs 1000 oras BF3 nev, kozben mar masok is erdeklodnek utana... Mar bevallottan nincs 1000 ora neki... Varjunk Dec 31-ig a Mantle-a.
-
nagyúr
hát ezek miatt újradesignolni éppen nem kell - max. lesznek olyan effektek, amik nVidián nem mennek (mint ahogy a Just Cause 2-ben a bokeh filter nem ment AMD-n). azt mondjuk értem, hogy OEM-ben ez hol fog fájni - majd szabadidőmben elhullatok 1-2 könnycseppet Jensenék sanyarú sorsa miatt
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
veterán
Ha megnézed ezt az ábrát, az FCAT overlay ugyan oda épül be ahova a FRAPS, közvetlenül a játék engine mögé, és szépen megjelöli a képkockát, a capture kártya meg felveszi az ábra legvégén a kimenetet.
Ezzel a megoldással pontosan meg lehet határozni, hogy az adott képkocka mikor hagyta el a játék engine-t és mikor érkezett meg a monitorra.
Az természetesen nem derül ki, hogy mennyi idő volt amíg az egértől eljutott az infó a játék engine-ig, de ezt a részét nem értem, hogyan befolyásolná a VGA azonos fps esetén, a másik része meg ott van az FCAT mérésekben.[ Szerkesztve ]
-
nagyúr
persze, a bokeh filter is ment volna AMD-n, csak gondolom CUDA-val volt megcsinálva. same shit, different asshole
yep, ezeket tudom. különösebb gátlásom nem lesz AMD-re váltani, ha azt látom jobbnak
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
veterán
Nem nézek rossz ábrát, egyébként innen van.
Following that is t_present, the point at which the game engine and graphics card communicate to say that they are ready to pass information for the next frame to be rendered and displayed. What is important about this time location is that this is where FRAPS gets its time stamps and data and also where the overlay that we use for our Frame Rating method is inserted.Tehát T_present -től nézi T_display -ig.
[ Szerkesztve ]
-
Locutus
veterán
Szerintem az általad felsorolt 4 játék teljesen jó, tesztelésre. Bf3, crysis3, tomb raider, bio infinite, ezek népszerűek, és vagy újak. Kit érdekel, hogy amd-s címek? Ha per pillanat ezek a leginkább keresettek, akkor az nv-nek a dolga felzárkózni. Tehát igenis ezekkel kell tesztelni.
Ugyanakkor ugye egyik játékban sem látszik az a bizonyos NV lemaradás (sőt), amivel riogatják (meg riogatod te is) a népet már hónapok óta. Szerintem ezt kell figyelemmel kísérni, hogy mi lesz belőle, hiszen a játék patchekkel, meg a driverekkel ez a kép változik. Most pl az amd dobott egy kis pénzt a diceba, hogy ugyanmár dobjatok egy kis frametimeot nvidiára az új driverrel. Ezt is tudja csak meg a nép. Nekem pl eszem ágában sem volt még váltani a 304-es driverről, és azóta sincs semmi gond BF3-banKomplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
-
veterán
Nem rossz a leírás, de ha pcpernek nem hiszel, akkor ugyan ezt íja le Anandtech is: On a technical level, the FCAT overlay tool ends up working almost identically to video game overlays as we see with FRAPS, MSI Afterburner, and other tools that insert basic overlays into games. In all of these cases, these tools are attaching themselves to the start of the rendering pipeline, intercepting the Present call, adding their own draw commands for their overlay, and then finally passing on the Present call. The end result is that much like how FRAPS is able to quickly and simply monitor framerates and draw overlays, the FCAT overlay tool is able to quickly insert the necessary color bars, and to do so without ever touching the GPU or video drivers.
Eddig ez lehetetlen volt, de az FCAT képes rá.
Locutus: FarCry 3 még beleférhetne, mert nagyon népszerű és jó az is.
Szerintem is lényegtelen melyik játék AMD-s vagy NV-s az számít, hogy melyik játék milyen jó és milyen népszerű.[ Szerkesztve ]
-
TTomax
nagyúr
Ez a "jövöbe mutató vga" mindig megmosolyogtat...olyan ez mint a kumisz... még nem jó,még nem jó....már nem jó...fél éven belül itt van a következő generáció,és akkor az lesz a leg leg legszuperabb,leg leg legjobb...leg leg leg.....legdrágább... ami megkapja a supportot,és csak az lesz a fontos,mint ahogy most a kepler,meg a gcn... kicsit most kivillantotta az amd is a foga fehérjét,és még csak az sem számított,hogy az új ficsörökön betérdeltek az egy generációval régebbi cuccaik is,nekem ez nem volt szimpatikus húzás...persze jött a Titan lemosott mindent... de ezt tette olyan arcpirító áron,amiről álmodni sem mertünk volna...mindkét cég megéri a pénzét...egyik sem jobb a másiknál...csakaprofit..így egybe...
[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
TTomax
nagyúr
-
veterán
FRAPS méri, hogy hány képkockát küldött tovább az engine, az overlay tool meg ráteszi a csíkokat. A videóból, majd a kielemzéséből kijövő grafikon, ha megegyezik a FRAPS által készítettel, akkor az engine és a monitor közti késleltetés nagyjából állandó. Ha nem egyezik meg mint CF esetén, akkor az engine és a monitor között vmi nem úgy történik a VGA driverben vagy magában a VGA-ban ahogy kéne, mert nem olyan ütemben érkeznek a képkockák a monitorra, ahogy a játék motorja küldi őket. 1db AMD VGA eredményeiből tudjuk, hogy átlag mennyi idő feldolgozni egy képkockát, 2db ugyan ilyen VGA esetén ennek közel a felére kellene esnie ahogy SLI esetében, de nem ez történik, hanem szinte nulla idő alatt végez egy képkockával a CF rendszer, de a következőt annyi idő megcsinálnia, mint 1db VGA-nak, és mivel az esetek többségében a szinte nulla idő alatt a monitorra érkező előtti képkockából nem látunk semmit, azért a játékos számára sok esetben olyan késleltetéssel érkeznek a látható képkockák, mintha csak egy VGA lenne a gépében, tehát számára a CF rendszer vizuálisan az esetek egy részében nem nyújt többet 1db VGA-nál.
FarCry 3-nál nyugodtan teszteljetek SSAO-val és akkor nem lesz az a probléma, hogy egyik félnek a HBAO másiknak meg a HDAO fekszik jobban, vagy teljesen ki is lehet kapcsolni az AO-t, úgy is inkább csak ront a látványon.
-
veterán
A FRAPS és az FCAT nem függ egymástól. Az FCAT semmit sem igényel a FRAPS-tól. Ki mondott ilyet? Az egyikkel lehetséges vizsgálni, hogy mit csinál az engine, a másikkal pedig, hogy mi az ami ebből a monitoron megvalósul.
De már unom, hogy ezt sokadjára le kell írnom. Nem kell leírnod, úgy is csak folyton elbeszélsz a téma mellett, de tudod mit mutass vmi mérést, grafikont, amin látható, hogy a CF rendszer esetén kisebb az input lag, meg nyugodtan megcáfolhatod az FCAT-es teszteket is.AO-k minősége erősen szubjektív, HDAO-nál a legkisebb a látható változás és a legnagyobb sebességcsökkenés. Az egész AO fake árnyékokról szól.
Far Cry 3 | HBAO vs HDAO vs SSAO filters |[ Szerkesztve ]
-
nagyúr
Az meg, hogy ront a látványon ... hát egyáltalán nem, maximum akkor, ha fake árnyékokat csinál, de ez a HDAO-ra pont nem jellemző.
De, ez minden AO-ra jellemző, nekem a HDAO inkább abban tűnik jobbnak, hogy jobban eltalálja az árnyékok méretét.
A mellékelt cikkben a tornácos képen a jobb oldali pad falra vetett árnyéka nem jó pl.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
igen, persze, screen space AO-ról van szó, csak nincs rá egy épkézláb gyűjtőbetűszó
a fake vagy nem fake nézőpont kérdése, szerintem az SSAO by definition fake, csak van amit eltalál, és van, amit nem. a lényeg az, hogy milyen sűrűn lő mellé, és hogy a jól megállapított extra árnyékok méretét mennyire találja el.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
veterán
Tehát az AMD marketingesei becsület szaván kívül semmilyen bizonyíték nincs rá, hogy CF esetén alacsonyabb lenne az input lag.
Smoothing azt a képkockát késlelteti és teszi láthatóvá, ami a tesztek szerint CF esetén értékelhetetlen a játékos számára mert nem látja, és ez a késleltetett képkocka pontosan 1 képkockával korábban jön mint a következő látható CF esetén.
Egész véletlenül egyébként az AMD hasonló megoldás bevezetését ígérte CF esetén, mint amit jelenleg az SLI használ. -
HSM
félisten
Először is szögezzük le, én örülök, hogy írtál a rendszerek működéséről, és a gyártók motivációjáról.
"Ha ez a technológia nem lenne, akkor a Hawaii cGPU nem skálázna 1000 MHz-re, hanem 600 MHz lenne az alapórajele, illetve az NV-nél a GK110 sem mennek 900+ MHz-et, hanem be lenne állítva fixen 500 MHz-re. Ez azt jelenti, hogy a GK110 és a Hawaii sem született volna meg, mert nem lenne gyorsabb a kisebb GPU-knál."
A Hawaii ugyanígy skálázna 1000Mhz-re, csak másfélszer ekkora hűtő és VRM kéne alá. Ennyi a történet. És valóban, az a nagyobb VRM az idő legalább 80%-ában nem 100%-on menne, hanem mondjuk 60-70%-on. Valóban, ez komoly pazarlás mérnöki szemmel, mert ilyen magasságokban igencsak drága már a jobb hűtés és erősebb VRM. Ezenkívül nem 250W lenne a TDP, hanem mondjuk 350W. A GK110-re pedig ugyanez igaz.
Ilyen szempontból tényleg jobb, amit a Hawaii-nál és GK110-nél megcsináltak, hogy ~1-10W-ra tudják tartani a kártyát a VRM és a hűtő specifikációjának megfelelően. Hatalmas spórolás ez. Ugyanakkor én és a legtöbben a fórumból nem innen nézzük a dolgokat, hanem "gamer" szemmel, azaz hogyan lehet a lehető legtöbb FPS-t elérni a legjobb beállításokon a legstabilabban. Itt viszont az összes ilyen "okos" spórolós technika beleköp a precíz tuningmesterek levesébe, haszna pedig 0.
Én nem képzelem magam okosabbnak az AMD mérnökeinél, csaképpen nekem mások a szempontjaim.A névtelenségről meg annyit, hogy névvel is vállalom a véleményem.
A procik esetén (legalábbis az Intel-nél) 1000X jobban működik a turbo, mint ezek a felhasználó szemszögéből. Abban szabadon paraméterezhető, logikus, nem köp bele az ember levesébe. Ott a 3570K-m a gyári 3,4Ghz-et addig tartja, amíg ki nem húzom a konnektorból. Ugyanezt megcsinálod egy 7950-el, és nemhogy a 925Mhz-et nem fogja tartani, de sokszor a 850Mhz-et sem, ami az alapórajele lenne, és még "műterhelés" sem kell hozzá. -
Locutus
veterán
Arra esetleg kitérhetnél még egy kicsit, hogy a mantle majd honnan húzza elő a háromszoros teljesítményt, ha már most is a limiten mennek az AMD kártyák... mert logikusan szerintem ha a DX-hez képest a Mantle jobban kihasználja a mögötte lévő hardvert, akkor az nagyobb terhelést jelent a kártyán is hőtermelésben is.
Vagy a mantle még úgy is teljesítmény többletet jelent majd, ha azonos hőmérsékleten tartáshoz még alacsonyabb órajelen kell menjen az a 290x ?Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
-
nagyúr
neeeeem. azért tekintik sokan órajelcsökkentésnek, mert eddig a VGA-piacon a "garantált" órajel volt a kommunikált adat, és ez a 290/290X-ben anélkül változott meg, hogy az közérthetően meg lett volna alapozva. semmi másról nincs szó, csak szar kommunikációról, amiből az AMD egyszerűen képtelen kigyógyulni.
nem segít, hogy játékban sincs semmi garancia arra, hogy épeszű keretek között marad az órajel - gondolom, azzal Te is egyetértesz, hogy ha lekúszik 727MHz-ig, az nem éppen egészséges a teljesítmény szempontjából.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
HSM
félisten
Gond egy szál se, így már értem.
Dehogynem tudnának rá erősebb VRM-et tenni. Nézd meg 7970-ből pl. az Asus Matrix-ot, vagy MSI Lightning, vagy Sapphire Toxic. Jócskán többet bírnak, mint az AMD 300W-os gyári 7970-es kártyája.
Szerintem ezek a NYÁK-ok és hűtések gond nélkül bírnák a Hawaii-t ezen okos PowerTune nélkül is, nyilván nem véletlen drágábbak ezen kártyák. A hűtés már problémásabb, de érdekes módon, a 7990-nél meg tudták oldani a 375W-os TDP hűtését és táplálását is.Szóval úgy gondolom, simán ki lehetett volna adni a hawaii-t az új powertune nélkül is, csak erősebb VRM-el, és hűtéssel, és az órajelek se lennének rosszabbak, sőt. De majd úgyis kiderül, ha kijöttek ezen kártyák, hacsak az AMD nem fogja majd őket vissza mesterségesen.
A GK110-ről nem tudok nyilatkozni, és az ottani BOOST-ról, tapasztalat hiányában.
Én továbbra is úgy gondolom, inkább kicsit drágábban egy 40%-al túltervezett kártya Powertune nélkül, mint egy alultervezett, ami csak a powertune noszogatásával tud 40%-al gyorsabb lenni.
"tehát ha ennél lejjebb mennek a gyártók, akkor gyorsulni fog a termék"
Hát ezaz, ami miatt kicsit aggódom... Miért baj az az AMD-nek, ha a jobban megtervezett, drágább kártya gyorsabb? Nekem ez teljesen jó lenne, hogy egy 95 fokra paraméterezett, rendesen lehűtött, 75-80 fokon folyamatosan 1Ghz-en "BOOST-oló" hawaii, ami legfeljebb mondjuk egy furmark alatt éri el a 95 fokot, és antiboostol... Nem ez lenne a normális?
Vagy most mindenkinek úgy kell méretezni a kártyát, hogy még véletlen se lehessen gyorsabb az AMD alulméretezett refi kártyájánál, aminél még a saját kistesója is néha gyorsabb?(#780) gbors: Nem hiszem, hogy a mm2-re eső teljesítmény lenne túl nagy. Egyszerűen a refi hűtés csirke, halkan az alulfeszelt 7970-et is alig bírja el normális hangerőn. Persze, ha ráadod a fordulatot, és felveszed a fülvédőt, akkor brutálisan tud hűteni, csak oda tényleg ipari fülvédő kell az 5000rpm-es ventihez, mert az már tényleg az a kategória, amikor rádszól a szomszéd, ha este játszol, hogy nem kéne porszívózni ilyenkor....
Azzal egyet értek, hogy rosszul szellőző házba mókuskerék-kifújós venti kell 150W felett.
Ugyanakkor egy jól szellőző házban meg se szabad érezned 200-250W hőleadást.Nekem egy Silverstone FT01 házam van a gyári hűtésével, két 18cm-es néma venti hűti meg egy 12-es besegít, és vígan elbírja a 280X Vapor-X-et műterhelés és tuning mellett is, ahogy olyan 250W körül van a hőtermelése. De erre majd tesztelek egyet infrás hőmérővel, pontosan mennyire is.
Mindenesetre egy 100 000 forintos kártyánál szerintem már elvárható, egy rendesen szellőző kuckóba kerüljön, ne egy 5000 forintos vacak házba.[ Szerkesztve ]
-
SzlobiG
félisten
-
Tirexi
addikt
Oké akkor lenne két kérdésem ezzel kapcsolatban:
1) Úgy tudom, hogy minél melegebb a számtech iparban valami annál hamarabb tönkre megy. Példa: [link]
Ez mennyire igaz akkor a VGA-kra? Vagy ezekre olyan solid-ok vannak rakva amik 94fokra vannak teremtve?2) Ha én engedem az én VGA-mnak a 90 fokot mint temp target-et akkor az nem baj? Tehát mehet 90 fokon is akár több órán keresztül? Vagy csak AMD kari mehet olyan magas szinten?
"Megnövelték az UVD órajellimitjét, így képes sztereó 3D-s 4K-s anyagokat is lejátszani"
Na egy újabb tipikus AMD-s jövőbelátó technológia... Csak úgy érdeklődés képen mit gondolsz arról szerinted ma Magyarországon hány embernek van 900k-s 4K-s monitora?
Olyan dolgokkal szórakozik az AMD már megint amire egyszerűen nincsen kereslet. Meg ott a DX11.2 amit még nem is használ ki játék... Nem értem miért kell az AMD-nek állandóan a jövőbe tekintenie. Amire a 4K monitor emberi áron lesz arra már még 4 generáció VGA le fog jönni.
Ráadásul most nézem 3D-s 4K-s megjelenítő te édes Istenem.. amikor még a sima 4k-s monitor is majdnem 1 millió forint. Hol élnek ezek?Te írtad:
"Az ASUS PQ321Q tehát nem egy átlagos megoldás, és ezt tökéletesen alátámasztja az ára is, ugyanis a monitor 3500 dollárért vihető haza."
Erre meg még rájön ki tudja mennyi Magyar adó. Ja és akkor ez még nem is 3D-s monitor.A hűtéssel bíbelődtek volna ahelyett, hogy olyan dolgokkal foglalkoznak amit 5 év múlva lehet majd csak megvennie egy átlag embernek.
-
nagyúr
-
nagyúr
hát, ez biza jó nagy zöldség annál is inkább, mert semmi köze az eddig leírtakhoz - arról volt szó, hogy az AMD vásárlókat veszít az órajel-változásokkal, mert kitűnően ledokumentálta ahelyett, hogy megértette volna a vásárlókkal. de úgy tűnik, ismét oda lyukadtunk ki, hogy amit az AMD csinál, az tautologikusan jó, úgyhogy maradjunk ennyiben
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
HSM
félisten
Elfeljtessz egy nagyon fontos feltételt. Mégpedig azt, hogy a Hawaii csak a jelenlegi hűtés és PCB mellett lenne képes legfeljebb 600Mhz-re DVFS nélkül. Mi következik ebből?
-Megoldás A: marad a kari költsége, nem nyúlunk hozzá, megoldja a DVFS, a user meg néha szív, ha játszana, melegben duplán szív, de a review-okban úgyse lesz ez benne.
-Megoldás B: teszünk rá másfélszer akkora hűtőt és VRM-et, és mehet a kukába a DVFS, nincs rá semmi szükség.Miért választották mégis az A megoldást? Tök egyértelmű, sokkal OLCSÓBB. A hatékonyság meg egy marhaság, amivel a usert meg lehet etetni, milyen jó neki, hogy valójában sz@rt adnak neki jópénzért. Ugyanis egyszer beletervezik a csipbe a DVFS-t, és onnantól működik (egyszeri, fix költség), míg a B megoldás minden egyes legyártott kártya költségét megnöveli.
Ettől függetlenül, a user szempontjából sokkal jobb lett volna a B verzió szvsz, mégha adott esetben a végfelhasználói ár mondjuk emiatt 10-15 000 forinttal több is lett volna a végére. Mert kb. ennyivel került volna többe egy nagyobb VRM-el és hűtővel a kártya gyártása.Tudok neked remek példát, a legolcsóbb 7950-ek, illetve a refi BOOST edition 7950. Egy vicc volt már az is. 65 000 volt 75 000 helyett és cserébe agyon antiboostolta magát, miközben egy jobb 75 000 forintos 7950 nemhogy antiboost, de hűvösebben elketyegett 1100-1200Mhz-en szikla szilárdan, mint a másik a gyári 850Mhz-ért küszködve. Kérdezem én, megérte? Azért ilyen szempontból a silány kártyákkal tapasztaltak okán nem véletlen, hogy a boost-tól menekült majdnem mindenki a 7900 topikban.
(#818) gbors: Itt a fő baj, hogy a vásárló kicsit (de inkább nagyon) át van verve. Mert az egységsugarú user megnézi a reviewt, és mit lát? Messze le van verve minden konkurencia, olcsóbban. Nyilván boldogan megveszi. Aztán majd jön a nyár, a meleg, meg komolyabb APP-ok, és egy jobb Tahitis kari gyorsabb lesz ennél az amúgy másfélszer annyiba kerülő csodánál, mert azon komoyabb hűtő és VRM van, és halkan, hűvösen fogja körberöhögni a 600Mhz-eken 95 fokon hajszárító-módban görcsölő nagytesóját. Persze, ez már nem fog a review-kban látszani. Aztán ezekből a userekből lesznek teljesen jogosan, akik soha többet nem akarnak majd piros kártyát. Persze, csak ha kiderül a turpisság, vélhetőleg (sajnos) a userek kevésbé tech-kedvelő többségénél tartok tőle, hogy nem fog.
(#819) Abu85: Attól, hogy az egységsugarú user nem sokdiplomás, még nem biztos, hogy hülye. Most kicsit téged érezlek magas lovon, ahogy véded az AMD mérnökeit. Zseniális emberek, ez tény, de mivel egy vállalat alkalmazásában dolgoznak, sajnos ott állnak mögöttük a menedzserek is a különböző profit-várakozásokkal.
Marha egyszerű a megoldás. Rendes karit kell gyártani, ami nincs alulméretezve, és akkor nem kell sokoldalas, érthetetlen dokumentációkkal megmagyarázni, miért NEM TUDJA a hardver, ami rá van írva.
A régi kártyákkal nem voltak ilyen gondok. Ott nem volt mit megmagyarázni. Az egyszerűen csak tudta, amit kell. Az 5850-em is furmark alatt is 725Mhz volt (igaz 90 fok GPU, 100 fokos VRM, de stabilan bírta nyáron is, gyárilag) és játék alatt is 725Mhz volt. Nem volt mit megmagyarázni, működött, ahogy kell.[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Lenovo Thinkpad P70 " szép állapot "
- MacBook Pro (15", 2019 Mid)
- Lenovo ThinkPad T470s, I7-6600U, 8GB RAM, FHD, 2 év garancia, áfás számla! (41)
- DELL 7070 SFF Core i7 8700 vagy i7 9700 8/16GB DDR4 250GB M.2 SSD számla + gari - több db
- Lenovo ThinkPad T470s, I5-7300U, 16GB RAM, FHD, 2 év garancia, áfás számla! (39)
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen