Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz siriq #9783 üzenetére

    Mások nem mérnek a legújabb DirectX 11-es játékokkal. Az egyéni preferencia, hogy ki mi szerint állítja össze a játékokat a tesztekhez. Mi a legújabb DX11-es játékokban hiszünk, mert úgy gondoljuk, hogy a hardvereket a megterhelő környezetekben kell mérni.
    Az AMD csak azt mondta, hogy a Borderlands 2-ben találtak egy ilyen hibát, vagyis specifikusan. Illetve a GCN memóriamenedzsment szoftver frissítésével általánosan csökkentek a frame lagok. Azt nem mondták, hogy ezek rosszak voltak eleve, csak azt, hogy csökkentek. Ez valszeg arra megy, ki, hogy tovább növeljék a driverből a teljesítményt.
    Te mindig kifogásoltad a PH méréseit, ha nem az NVIDIA nyert. Ez számunkra már ismert. Akkor lepődnénk meg, ha nem így lenne.

    Ki akar a DX11-es világba megváltást hozni? Megjelennek a játékok és leteszteljük. Nem csinálunk mást.
    A mérési metódus nem nehéz. A Fraps használatával van frame time, majd grafikon belőle és látod a tüskéket.
    De gondolkodok egy ennél is pontosabb megoldáson, de ahhoz külön hardver szükséges, amit nem biztos, hogy be tudunk szerezni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #9785 üzenetére

    Csak szólok, hogy az a teszt, amire alapozod a mondandód Fraps-et használ, és ez alapján azt csinálja, amit én tettem. Most akkor felejtős vagy sem? Most tisztázzuk, mert nem szenvedek tovább vele. Vagy a mi Fraps mérésünk nem lesz már jó. Esetleg rossz verziót kapunk a Fraps-ből?

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #9787 üzenetére

    A Techreport is simán Fraps-et használ.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #9789 üzenetére

    Nem. A BL2-ben csak a puffermérettel van gond. Azt már megváltoztatták, és a tesztdriverben tökéletes. Ez viszont a profilhoz van kötve, szóval a BL2 futtatásában okoz változást, máshol nem. Amin dolgoznak az a memóriamenedzsment szoftverje, de az általánosan gyorsít mindent, illetve csökkenti a frame lagokat. Ezen is azért dolgoznak, mert a 12.11-es driverben csak a tervezett dolgok egy részét sikerül megvalósítani, vagyis még mindig van hova előrelépni a belső tesztek alapján. Annyira CPU-szerű a GCN memóriaalrendszere, hogy rengeteg megoldás van a menedzsmentre, így nem mindig sikerül elsőre a legjobbal előállni. A további fejlesztés optimálisabb kihasználást tesz lehetővé, de ez azokban a programokban, amelyek eddig is tökéletesek nem fog komoly változást okozni. Talán valamennyit gyorsul, hiszen optimális lesz a menedzsment. Ez a driver a mi tesztjátékainkban nem fog változást okozni, mert amúgy sincsenek frame lagok, tényleg maximum csak az lehet, hogy gyorsul valamennyit. Végignéztem az összes programot. Még komoly eltérés sincs a Radeon és a GeForce között ebből a szempontból. A DiRT Showdown, ami sokat tüskézik a GeForce alatt, de arra számítottam a compute miatt. A többiben vagy egyenletes mindkettő, vagy általánosan vannak tüskék. Utóbbi kategóriába tartozik a Batman: AC.

    Andrew Lauritzen csak feltételezi, hogy hol vannak ezek a gondok, mivel nem látja a driver forrását.

    (#9800) Keldor papa: Az FC3-ban a HDAO magasan a legéhesebb. A HBAO és az SSAO nagyjából egy szint. De ez csak erre a játékra vonatkozik, így nem lehet általánosra venni. Mindegyik algoritmus minősége és teljesítménye függ az implementációtól. A fejlesztők körében az a megszokott, hogy a HDAO-t engedik teljes felbontáson futni, míg a többit csak a felbontás felével. Nyilván utóbbi jóval kevesebb adat, de jobb a sebesség is.
    Ha tisztán azt nézzük, hogy az algoritmus mire képes, akkor a HBAO teljesen elengedve jobb minőségre lenne képes, mint a HDAO, de ilyet nem látunk a játékokban, mert brutálisan enné az fps-t. A HDAO-t azért engedik szabadjára, mert egységnyi sebességre (ez hülyén hangzik, de ugye lényegében a hatékonyságról szól) lebontva ennek van a legjobb képminősége.
    Ami szerintem nagyon jó ma az a Nixxes SSAO megoldása. Az a HBAO és a HDAO előnyeit egyesíti, és a minőség igazán kiváló, illetve a teljesítményigény is elfogadható. Úgy gondolom, hogy a jövőben ezt az irányt kellene járni, mert már kinőttünk abból, hogy kész megoldásokat implementáljanak a fejlesztők. Inkább valami egyedit kellene összehozni, mint a Nixxes. A Windows 8-ben megvan hozzá a lehetőség a beépített shader trace interfész segítségével, így most már az sem lehet indok, hogy nehéz debugolni a bonyolult shadereket. Esetleg hagyjuk az SSAO-t és jöhet az SSDO. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #9803 üzenetére

    A szóban forgó driver csak ott állította. Más játékban is lehet ettől ilyen persze, de ezek specifikusak. Úgy kell megoldani, mint a BL2-t. Egy profilfrissítés és kész.

    Nem Andrew levezetésével van a baj, hanem azzal, hogy az AMD mást mondott. Pontosabban a menedzsmentszoftvert jelölték meg. Mivel sem Andrew, sem én nem láttam a forráskódot, így minden csak találgatás.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #9805 üzenetére

    Az, ami a VRAM működését és elérését intézi. A GCN nem olyan egyszerű, hogy le van blokkosítva minden a ROP-okon át a memóriavezérlőkig. Itt külön vannak a ROP-ok, az L2 szeletek, a memóriavezérlő, és a memóriacsatornák. Mindegyik mindegyiket eléri. Ezt menedzselni kell. Sokkal bonyolultabb, mint bármi, amit eddig csináltak, mert a felépítéseket úgy tervezték korábban, hogy csatornákhoz kötötték a ROP blokkot, és az nem érhette el a másik csatornát. Sokszor még az L2 is hozzá volt kötve. A GCN-ben minden mindent elérhet.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #10029 üzenetére

    A prezin nem mínuszban, hanem pluszban van a sebesség a 13.2 előzetesével a 13.1 WHQL-hez mérve. Az új menedzsmentszoftvert nem két hét alatt dobták össze, hanem már írják úgy fél éve. Ez hozza a 13.3 WHQL-re az utolsó boostot, még a HD 8000 előtt. Néhol keményen boostól +20-30%-ot is. De erről majd ha megjelenik a driver.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ricshard444 #10031 üzenetére

    Elvileg ők az amcsi időhöz mérnek. Ott pedig még most ebédelnek. Egyébként a driver kész, csak az MS még nem küldte vissza az aláírást.
    Most három driver van, ami le van csomagolva, bár nincs mindegyik kiadásra ítélve. Az egyik a 13.1, ami a WHQL lesz. Arra csak aláírás kell. A másik egy 13.2. Ez ugyanaz mint a 13.1, csak a DX9 alkalmazásokhoz meg van növelve a pufferméret. Ezzel tesztelt a TechReport. A harmadik egy alpha kód, ami a 13.2 kiegészítve az új memóriamenedzsmenttel, és a DX10+ alkalmazásokhoz is állítva van a pufferkezelés. Ez lesz kiadva hivatalosan béta szinten, az elkövetkező hetek valamelyik napján. Ez lesz a Boostos driver is, és egyben lényegében minden módosítás benne lesz, amit a GCN-re terveztek. Ezután csak új funkciók jönnek, és specifikus fejlesztések.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #10034 üzenetére

    Elsősorban az architektúra kihasználására koncentrálnak. Mivel a nulláról építették fel az egészet, így olyan szoftvert is kell írni, ami megfelel ennek. A GCN viszont a legkevésbé sem hasonlít a többi GPU-architektúrához, inkább hasonlít a processzorokhoz, ennek megfelelően teljesen más szoftveres ellátást igényel.
    A hardver tudása az egy másik lapra tartozik, itt az új architektúra sebességben való kihasználásról van szó. Ilyen mértékű váltást évek óta nem lépet meg senki, de nyilván idővel mindenki átesik majd ezen. Az AMD mostanra időzítette.
    A tudás szempontjából a hardver annyira sok dolgot támogat, hogy biztos nem lesz minden beépítve az érkező 13.2-es béta driverbe. A driveres funkció előtt az API-ba kell beépíteni a támogatást. Aztán arra a kiterjesztésre jöhet egy frissítés a driverben. Az OpenGL és a DirectX API-hoz is számos kiterjesztést adott le az AMD nemrég, szóval ezeket még előbb el kell fogadnia az API fejlesztését végző cégnek, vagy csoportnak. Addig nem érdemes a támogatást elkezdeni, amíg ez nem történik meg, mert vissza is dobhatják a kiterjesztést, hogy valamit módosítani kell rajta. Amennyit tudok, hogy lesznek bindless kiterjesztések az OpenGL és a DX API-hoz. Ez lehet, hogy úgy lesz megoldva, hogy az NV hardverét is beveszik a támogatásba, mert a fejlesztőknek könnyebb, ha szabványosan képesek ezt kihasználni. A hardver igazából mindkét oldalon alkalmas erre, annyi a limitáció, hogy a GCN nem "csak" ~egymillió textúrát tud bindelni, hanem végtelen mennyiségűt, de kizártnak tartom, hogy ebből gond legyen. Az ~egymillió éppen elég nagy szám. A másik kiterjesztés ami biztos jön az a sparse texture támogatás a DirectX-hez. Ezeknél lehetnek az elfogadással problémák. Az MS valószínűleg úgy szeretné megoldani, hogy később ez a szabvány része legyen, amikor már nem csak a GCN támogatja. Ergo nem árt előre tisztázni, hogy ki milyen megoldásban gondolkodik, és ha lehetséges valami átfogó támogatás, akkor már most úgy érdemes megírni a kiterjesztést, hogy azonnal átemelhető legyen egy későbbi DX verzióba. Ugyanezt eljátszotta az OpenGL esetében is a Khronos, és arra el is fogadtak egy kiterjesztést. Ezek azért fontosak, mert azok a játékok, amik erre építeni fognak (mint például a Doom 4), a később érkező hardvereken is képesek legyenek úgy működni, ahogy a GCN-en fognak. Gondolom a DirectX-re a kiterjesztés az új Carmageddon miatt fontos (a fejlesztők azt mondták, hogy megatextúrát használnak). Ebből láthatod, hogy a tudás fejlesztése az nem olyan egyszerű. Itt törekednek a csoportok arra, hogy később a szabványos implementációnál minél egyszerűbb legyen a funkció átemelése a most kidolgozott kiterjesztésekből.
    A HD 8000 alapvetően ez az architektúra lesz. Pár új funkciót kap, de azokra sem lesz rögtön támogatás, a fentebb leírtak miatt. Most, hogy behozták a DirectX-be ezt a kiterjesztéses mókát érdemes újítani az architektúrákon, mert nincs kőbe vésve a specifikáció. Persze ennek a kontra oldala, hogy ha csak egy gyártó támogatja a szükséges kiterjesztést, akkor a többi hardveren az azt használó eljárás nem fog lefutni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #10041 üzenetére

    Teljesen általános dologról van szó. Amikor fizetsz a termékért, akkor az aktuális teljesítménye alapján veszed meg. A szoftveres frissítés viszont legalább 3-4 évig jár hozzá, és az bármikor hozhat teljesítménynövekedést. Régen csináltunk erről egy tesztet, hogy szinte mindegyik VGA gyorsul legalább 10-15%-ot a kezdeti driverekhez, a sok hónappal későbbi driverekkel. Ezek lassacskán hozzá lesznek adva, hogy még jobb legyen a termék. Általános dologról beszélünk tehát. A GCN esetében arról lehet szó, hogy a kezdeti sebességhez képest jóval több tartalékot találnak benne, mert az architektúra radikálisan új alapokra van építve. Nyilván amikor a szoftveres csapat nézi, hogy mennyit lehet ebből kihozni, akkor nem azt nézik, hogy tartsuk a megszokott 10-15%-os általános javulást (annyit szinte mindig lehet találni), hanem hozzunk ki belőle mindent, ami van. Ha az +20-30%, akkor annyit. Ezt sosem tudják a cégek előre, mert a hardvert a szoftveres csapat fél évvel a megjelenés előtt kapja meg. A megjelenésre tehát csak egy működő drivert írnak, aminek van egy általánosan jó sebessége. Az új generáció megjelenésével viszont folyamatosan kutatják annak a lehetőségét, hogy találjanak extra sebességet, és ez nem csak a GCN-re, hanem a Keplerre is igaz. A GeForce sem ugyanazon a sebességi szinten van, amin megjelenéskor. Csak ez nem nagyon tűnik fel a tesztekben, mert az AMD is frissíti a drivereket. Ergo egymással versenyeznek ezen, és nagyjából a gyorsulás egységes. Egészen novemberig, amikor jött a 12.11 béta és az elég komoly extrát rápakolt a GCN-re, és még jön egy extra az új menedzsment mellett. Az egyébként inkább a DX11-es programokban lesz érezhető, főleg olyan helyzetekben, amikor a cacheszervezés a compute shaderek teljesítményét döntően befolyásolja. Mivel 2013-ban számos compute igényes játék készül, így ez egy fontos szempont most az AMD-nek. Az NVIDIA is javítani fog egyébként még a következő hónapokban. Még nekik is vannak kihasználatlan tartalékok. Az persze kérdés, hogy mennyi, de arról biztosan tudok, hogy dolgoznak rajta. Baj lenne, ha nem így tennének. Van egy olyan érzésem, hogy ezekkel az új boostokkal mindkét cég az új generációt akarja megtámogatni. Mivel alapvetően architektúrát egyik fél sem cserél, így amit most beépítenek, az automatikusan érezhető lesz az új termékeknél. Ez a verseny pedig kemény lesz, így szükség van minden tartalékra.
    Azt meg tudom ígérni, hogy ha van tartalék egy hardverben azt az adott cég ki fogja hozni. Ez sosem volt másképp. A hardvert ilyenkor nem tekintik. Egyrészt valaki nem cserél gyorsán, másrészt az architektúra marad, tehát minden ami érinti az aktuális generációt érinti az újat is.

    (#10042) szasanyi: A Powertube Boost szolgáltatás erre van. Ha ezt látod, akkor működik jól. Az egész játékfüggő. Valamelyik játékban szinte mindig alapórajelen megy, mert nincs lehetőség Boostra, míg van olyan játék, ahol mindig kimaxolja az órajelet. A többi játékban fel-le vált. Ezt a szolgáltatást az AMD a Kepler GPU Boost funkciójára adta válaszul. Persze nem ugyanúgy működik, mivel a Kepler jóval nagyobb órajelugrásokat csinál, és jóval sűrűbben, de igazából itt szerintem csak arról volt szó, hogy az NV bevezette, hát vezet be valami apróbb turbót az AMD is. Igazából a Powertube Boost extra órajele annyira pici, hogy nem sok lényegi hatása van a teljesítményre. Plusz extra 50 MHz-et ad, ami 1 GHz körüli órajeleknél nem sok. A Kepler +100-250 MHz-eket is ugrál oda vissza. Ez már relatíve sokat változtat a teljesítményen.
    A driver a szoftveres fronton fog változni. Az új menedzsmentszoftver a memóriára lesz hatással. Azokban a helyzetekben javul a sebesség, ahol a compute shader kifejezetten bonyolult és sok adattal dolgozik. Ilyen lehet például az OIT eljárás, amit az AMD nagyon be akar már rakni a játékokba. Lenne is rá igény, csak a sorrendtől független átlátszóság nem az a tipikusan GPU-kímélő effekt, szóval kell hozzá a teljesítmény, és főleg hatékonyság. A fejlesztők éppen ezért nem építették még be, pedig már kész van két éve. Ha be is rakják, akkor is szükség van egy ODT megoldásra, hogy ha esetleg a hardver nem bírná el az OIT-t, akkor legyen azért alternatíva. Ahogy haladunk a DX11 only motorok felé, és ahogy nő a hardverek teljesítménye úgy válik alternatívává az OIT. Ezt ugyanis kikapcsolhatatlan szinten van értelme implementálni. Mivel még mindig rengetegen gondolkodnak deferred render motorban, így az OIT előbb-utóbb ott lesz a játékokban. Túl sok szopást jelent az ODT deferred leképzéssel. Itt ugye arról van szó, ha valaki nem értené, hogy a deferred render az megpróbál szoftveresen egy okosabb feldolgozással operálni a forward render brute force elve helyett. Éppen ezért sok felületet kivág, hogy azokkal ne kelljen törődni. De ugye a geometriai vázban egy ablak átlátszó, viszont amikor kivágja mögötte a geometriát, akkor a rendszer még nem tudja, hogy az később látszódni fog. Ilyenkor pedig újra le kell renderelni az ablak mögötti részt. Erre szükséges egy rendezés, hogy az átlátszóság pontos legyen, hiszen a hardvernem tudnia kell, hogy melyik objektum melyik mögött-előtt van. Ez a rendezés rész már önmagában problémás, mert ha hiba van benne, akkor felületek tűnnek el az ablak mögül. Pont ezért kerülik a játékok dizájnjánál, hogy két-három átlátszó felület legyen egymás mögött. Egyrészt gáz a deferred render működésének, másrészt ha hibás a rendezés, akkor esetleg az ellen is eltűnhet, mert az ablak mögött. Persze, ha ilyen szituáció kell a játékba, akkor fokozott figyelmet szentelnek neki. Viszont amerre ugye megyünk az a sorrendtől független átlátszóság. Ennek az egyik formája, amit az AMD kidolgozott még két-három éve, de van más formája is, igazából nem kötelező ezt compute shaderrel csinálni. Az egész lényege, hogy a ne kelljen figyelembe venni az objektumok sorrendjét, hanem azok automatikusan helyesen legyenek megjelenítve az átlátszó felületek esetében. Ez tipikusan fontos szempont a deferred render motoroknál, és erre már van is egy megoldás, ami a DiRT Showdownban használt forward+ rendszerre alapoz. Na most ezzel az a probléma, hogy a DiRT Showdownban látjuk azt, hogy ezt igazából a GCN-en kívül nem szeretik a hardverek, de semmi gond, mert a lighting fázis könnyen kikapcsolható, és ezzel még sok munka sincs. Szimplán kiveszed a futószalagból. Viszont a deferred renderhez készített OIT tack-on megoldás, már nem kapcsolható ki ennyire egyszerűen. Konkrétan más futószalagot kell tervezni mellé, ha kell alternatíva. Ha pedig eleve szükséges alternatíva (mert ugye azért nem mindenki rendelkezik GCN-nel), akkor pedig értelmét veszti az OIT tack-on megoldás, mert egyszer át kell szenvedned az alternatív ODT opció beépítését. A képi eredmény igazából ugyanolyanra kihozható, csak az OIT tack-on kivitelezése nagyságrendekkel egyszerűbb. A lustább fejlesztők valszeg imádni fogják szvsz, de az igényesebb réteg inkább olyan megoldást keres, ami nem csak egy architektúrán hatékony. Esetleg azt tudom elképzelni, hogy ha valaki tényleg nagyon komplex, üvegekkel brutálisan teletarkított akciójelenetet tervez, na nekik az OIT szükséges.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #10050 üzenetére

    Bevezethetjük, de akkor a játékok számát 9-10-ről harmadolni kell. Maximum 3-4 játék fér majd bele a tesztbe. Nem tudom, hogy melyik a jobb. Sajnos annyira időigényes ez a fajta mérés, hogy semmiképp sem tudunk annyi játékkal tesztelni mint ma.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #10054 üzenetére

    Az a 2-3+2-3 maximum 2-2 lesz. Egyszerűen túl időigényes. A másik, hogy lehet, hogy nem tudsz róla, de 2013-ban a DX11-es AAA és AAA multi címek 90%-a Gaming Evolved lesz. Négy játékkal az NVIDIA felhozatala teljesen kiszorul, mert sokkal kisebb címeket hoznak, egyedül a Crysis 3, de az is Gaming Evolved félig, mert az EA-vel szerződése van az AMD-nek. A kilenc játékot eleve úgy osztjuk el, hogy arányosan választunk a partnerprogramok és a független játékok közül, vagyis a mai arányokat nézve 5 AMD, 3 NV és 1 független. Ezt akkor is szeretnénk betartani, ha az NV-nél nem lesz sok AAA cím, mert ők most a F2P játékokra és az MMO-kra koncentrálnak. Tekintve, hogy az AMD mennyire erőlteti a compute shadert a saját játékainál eléggé irreális különbségek is jöhetnek az NVIDIA-ra, ami összességében nem jó a végleges következtetésnél. Ez a tesztelési modell négy DX11-es AAA játékkal rendkívül hátrányosan érintené az NV-t. Ami jó lenne az a játékok megtartása és az új tesztmódszer, de az háromszor annyi időt igényelne a tesztelésnél. Még kilenc játékkal is alig végzünk, egyszerűen az, hogy 4-5 napig folyamatosan csak teszteljünk nem fér bele. Maximum 2 nap van erre.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #10059 üzenetére

    Idén még nem teszteltük a Sleeping Dogs, a Far Cry 3 és a Hitman Absolution játékokat. Én viszont már végeztem rajtuk méréseket, és nagyon húznak a Radeon felé. Nem annyira, mint a DiRT Showdown, de például a Sleeping Dogs-ban a HD 7970 GHz Edition minimuma ott kezdődik, ahol a GTX 680 maximuma van, és ez nem vicc. A Hitmanben is inkább a HD 7870 ellenfele a GTX 680. A HD 7900 sorozat más dimenzió. A Far Cry 3 annyira nem vészes a GeForce GTX 680-nak, de azért a HD 7950 ellen kaparnia kell, hogy elkapja. Nem mondom, hogy ezeket nem kell megmutatni, de elhiheted, hogy az NV ennek nagyon nem fog örülni, mert ugyanakkor ott vannak az ő címei is. Nyilván a Crysis 3-nak helyet szorítunk, de utána minek legyen még helye? Az új Tomb Raider, az új Bioshock, az új Alien, a DMC, a CoH 2, a Total War: Rome 2 ... mind csupa Gaming Evolved játék.
    Kevés játékkal erősen unfair lenne a teszt az NV-vel szemben. Ők is pontosan tudják, hogy a 13.2-es driver megnövelt puffereket használ, és kap egy új menedzsmentszoftvert is, vagyis abból előnyük nem lesz, hogy latencyt tesztelsz. Ezért nem kürtölik világgá, hogy tesztelj így, mert ennek nem lesz jelentősége. Annak viszont lesz, hogy kevesebb játékot fognak a tesztek tartalmazni, és nem a fentebb felsorolt programok lesznek kirakva, hanem a TWIMTBP címek, mint a Primal Carnage, a Passion Leads Army, a Mechwarrior Online, és a Warframe (mondjuk ezt nem is fogják ajánlani, mert a zárt bétában kvázi DiRT Showdwon erősorrend van DX11 módban).

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #10062 üzenetére

    Pont erről beszélek. Ha így mérünk, akkor a GTX 680 túl gyengének fog látszani, mert kicsi lesz a tesztelt szoftverek száma. Az tök világos, hogy a Tahiti sokkal jobban kedveli a GK104-nél azokat a helyzeteket, amiket az új DX11-es, compute igényes játékok feladnak a VGA-knak. Viszont ez nem interpolálható át a kevésbé compute igényes DX11-es játékokra, mert ilyenek is vannak és lesznek is. Azt látni fogod, hogy a compute igényes játékokban, hogyan teljesít a Kepler, de én azt is akarom, hogy ott is lássuk, ahol azért nincs annyira sok bonyolult számítás.

    Nem fog stabilabbakat adni. Nekem most van itthon egy GTX 670-em. Nem pont azért kértem le, mert ezeket mérni akarom, hanem másért, de arról majd később. A lényeg, hogy én ezt megnéztem a HD 7850-hez képest. Nyilván nem a teljesítményt, hanem a tüskésedést. A 12.11 béta 11-gyel csak a Borderlands 2 alatt volt probléma, amit egyébként már megnéztem két napja a 13.2 előzetesével (ami már leaked egyébként, de ne rakjátok fel, mert nem tesztelt), és olyan, mint a GeForce. A GTX 670, viszont eléggé tüskésedik például a DiRT Showdown alatt, és ez már a hardver miatt van. Ezenkívül tüskésednek a Far Cry 3-ban, de az meg az MSAA miatt van, mivel, ha kikapcsolom, akkor mindkét kártyánál eltűnik a jelenség. De ezt úgy láttam, hogy ismert probléma. A HDAO-t is meg akartam nézni az új GeForce driverrel, mert a régebbivel ott tüskésedett, de az 1.4-es patch hibásan jeleníti meg GeForce-on ... ennyit a patch-ről ugye, sok értelme volt felraknom. :U
    A BF3-at néztem, de az vajsima mindkettőn, szóval annyira nem foglalkoztam vele.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz szasanyi #10067 üzenetére

    Nagyon be vagyunk táblázva. Szóval szerintem az új generáció előtt semmiképp. Vagy ha mégis, akkor maximum februárban.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #10072 üzenetére

    Szerintem a Sleeping Dogs 2012 egyik legjobb játéka. Nem nagy név, mert új IP, de annyira ott van a hangulat, hogy simán a legjobb GTA klón, amit valaha láttam. De mindegy ezen nem veszünk össze.

    Ezzel rendben van, de valóban csak azt akarja látni a nép, hogy a compute heavy játékokban mennyire vérzik a Kepler? Azért ne felejtsük el, hogy nem csak ilyen játékok vannak. Főleg ezért vannak a cégek a minél több játék mellett. Nyilván az AMD azt reméli, hogy a sok játék közé becsúsznak a DX11-es új programok, míg az NV azt, hogy becsúsznak az általuk támogatott játékok. Mi erre törekedünk is, hogy arányosan legyen elosztva a DX11-es játékok felhozatal a partnerprogramok produktivitása alapján. Ellenben az eltérő tesztelés ezt ellehetetleníti, mert nincs időnk rá. Természetesen a PH-n mindig is kiemelt szerepet kapnak az új VGA-k, processzorok, de nem mehetünk el amellett, hogy a DIY piac drasztikusan csökken. Az olvasók ugyan hűségesek, de növekedni kell, így nyitnunk kell az új termékek felé, melyekre egyre nagyobb az igény, és egyre többen érdekeltek az ilyen cikkek olvasásában. Itt nem arról van szó, hogy a DIY piactól elfordulunk, mert alapvetően PC-buzik vagyunk a PH-nál, de a mobil irány sok olvasót vonz, így mindenképpen nyitni kell ebbe az irányba.
    A tesztmetódusról beszéltem cégekkel is. Azon belül az AMD-vel és az NV-vel. Mindketten amellett vannak, hogy ha a techreport-féle mérés a játékok számának rovására menne, akkor inkább maradjunk a mostaninál. Mindketten tudják, hogy ezeken a dolgokon könnyű változtatni, mert szimplán át kell konfigurálni a pufferméreteket. Egyszerű szoftveres beállítás, csak nehéz eltalálni, hogy melyik méret a legjobb. A 13.2-es leaked driverben tudod mi változott a 12.11-hez képest? Két globális paraméter az atiumdag.dll fájlban. Ennyi volt az egész javítása a smooth problémának. Az ünnepek után fogtak neki a munkának, és múlthéten adták oda a drivert a techreportnak, le is hozták a cikket, hogy az AMD megoldotta, amit találtak. Ezért gondolkodom nagyon rajta, hogy megéri-e feladni öt játékot, azért, mert az AMD a 12.10-es driver óta más paraméterezést használnak, amit most visszaállítottak a régi szintre, vagy ahhoz közelire. Ha nem lenne a Kepler és a GCN ennyire eltérő, akkor azt mondanám, hogy talán megéri, de most négy compute heavy AAA játékot berakva a tesztbe nagyon kicsesznénk a Keplerrel, holott a másik öt játékban meg lehet mutatni, hogy ez az architektúra képes jó eredményre, csak függ a játéktól.

    (#10073) Zorel: A BF3 problémáid egyediek, mert azokat most mértem. Igaz, hogy a HD 7850 volt a GTX 670 ellen, de nagyon vajsima volt mindkét terméken.
    Képminőségben dettó ugyanazt kapod. Ezért nem csinálunk már ilyen teszteket. Mondjuk az FC3-at azt hagyjuk, mert az 1.4-es patch bugzik az NV-n. Ez nem az ó hibájuk, én is hülye voltam, hogy telepítettem, de nem gondoltam volna, hogy rossz lesz vele a HDAO.
    A színekben alapvető különbség, hogy az NV és az AMD más szaturációt alkalmaz alapértelmezett módban. Mindkét oldalon állítható a beállítás. Mivel a felhasználók igényei eltérők, így nem lehet mindenkinek az igényét kielégíteni az alapértelmezett beállításokkal. Ott a halom csúszka a driverben, bármire be lehet állítani. Innen jött az a mítosz is, hogy az ATI képe a legszebb. Nem az, szimplán csak az alapértelmezett beállításról van szó. Amikor NV kártyám volt, akkor én is állítottam az alapértelmezett beállításokon, mert nem felelt meg. A Radeonnal is állítok.

    Alapvetően nem arról van szó, hogy mi a jobb, mert azt nem most kell megbeszélni, hanem arról, hogy a tesztmetódust megéri-e megváltoztatni kevesebb játék árán.

    (#10074) gbors: Lehet számokban is írni. Pont most van egy friss guide friss driverekkel. Kimaxolva Full HD-ben a GTX 680 min/avg/max eredménye 26/29/32 ... A HD 7970 GHz Edition esetében ugyanez 33/39/49. Mindkettő a 2012-ben megjelent utolsó béta driverrel, asszem decemberik. Ezért vannak kétségeim, hogy tényleg az-e a legjobb egy tesztnek, ha kilenc játék helyett lesz négy compute heavy DX11-es cím, de legalább mérjük a latency-t, amit két paraméter módosításával sikerült normalizálni. Dolgozhattak rajta talán három napig. Szerintem négy játék alapján nem lehet következtetést levonni. Még kilenc alapján sem, de ha kellően nagy a szórás, és logikus a válogatás, akkor már nagyjából rá lehet mondani valamit.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #10082 üzenetére

    Jó, az egy olyan vita lenne, ami az ízléstől függ. Nekem például baromira bejött, simán jobban élveztem, bármelyik GTA klónnál. De ez olyan dolog, hogy én például a Borderlandszel nem tudok azonosulni. Az elsővel próbálkoztam, és a másodiknak is adtam egy esélyt, de egyszerűen irritál, hogy a játék brutál mód re-spawnolja az ellenfeleket. Tényleg adtam neki elég időt, de amikor volt olyan, hogy távcsövessel leszedtem valakit, de azonnal megjelent újra, és ez addig ment így, amíg le nem raktam a távcsövest, majd rámentem közelharcban. Akkor már nem rakta vissza. Ez annyira gáz szerintem, hogy le is raktam a játékot. Majd esetleg IGP-s tesztnél elővesszük, ha már megkaptuk.

    (#10083) Bull1: Ezt régóta így csináljuk. A DX11-es VGA-kat DX9-ben felesleges összemérni. Pláne, hogy számos DX11-es játék van, és 2013-ban olyan is lesz, ami only DX11.

    (#10084) Rexcor: Extrém AA mellett ezek túl magas értékek. Ilyen értékeket akkor kapsz, ha az AA közepes szinten van.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #10087 üzenetére

    A látvánnyal nekem sem volt gondom. A PhysX-et is felraktam maxra. Van a szekrényben egy GT 240, azzal simán ment a fizika.
    Lehet, hogy bugba futottam bele, de a re-spawn rendszerre gondoltam. Ha bizonyos távolságra elmész, akkor visszarakja az ellenfeleket. Uncsi, hogy mindig újra ki kell irtani őket. Ezt nem bírtam a Far Cry 2-ben sem. Mondjuk ott a sok autókázás és szerelés sem tett jót a játéknak.

    Ezeket a VGA-kat ide tervezik. Azért a 40-hez közeli átlag elég jó.

    (#10088) Bull1: A Witcher 2-t nem mondanám fejlettnek. Az, hogy van benne egy downsampling, ami lezabálja a memória-sávszélességet, a fil rate-et és ezzel a sebességet még nem teszi fejletté a motort.
    Az MP3 azért nem került be, mert az a szuper GTA4 motorja van alatta, ami automatikusan paraméterez bizonyos beállításokat a gép hardvere alapján. Ezeket módosítani nem lehet. Emellett szoftveres memórialimit van, vagyis az a kártya több beállítási lehetőséget kap, amelyiken több memória van. Ezt parancsokkal próbáltam kiütni, de van olyan beállítás, amit így sem vesz be. Ez a rendszer így rossz tesztelésre.
    Az AC3 és a Far Cry 3 nemrég jelent meg. Esélyünk sem volt berakni őket tesztbe, mert azóta nem mértünk semmit. Terveink szerint mindkettő benne lesz.

    (#10089) gbors: Ez az extra munka pont elég bő 7-10 VGA mellett. Jóval több munka a fut és köpi az eredményt megoldásnál, amit ráadásul fel sem kell dolgozni, csak jegyzetbe írni. Ezt direkt kipróbáltam. De még nem döntöttem el végleg, mindenesetre hajlok a több játék felé, főleg azért, mert az AMD az egészet kiváltó problémát két paraméter szimpla módosításával megoldotta.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Rexcor #10091 üzenetére

    Azért ez nem ilyen egyszerű. A felbontásváltásnak Extrém AA mellett négyszeresen van hatása. Az egész ugyanis azt csinálja, hogy négyszer számol 1680x1050 pixelt egy jelenetből, míg Full HD-ben is négyszer teszi meg ugyanazt. Természetesen mind a négy számítással eltolja a pixel pozícióját, így jön létre az AA.

    (#10092) Bull1: Azt látom, hogy tápolós játék, csak nem tudok az egésszel azonosulni. De egyébként a tápolós játékok közül sokat megunok, persze van amit nem, de ha úgy érzem, hogy monotonná válik, akkor már ráhagyom. Valamennyire erről én is tehetek, de ízlések és pofonok. Távolról sem mondom, hogy rossz játék, de a kezdeti varázsa nálam monotonitásba csap át. Akinél ez nem történik meg az simán élvezheti.
    A Diablót jó, hogy felhoztad. Őszintén bevallom, hogy annál is éreztem, hogy már kezd uncsi lenni, a hármat ezért sem vettem meg. Mindenesetre a kettő tetszett, de azt nem értettem sosem, hogy miért van mellette az a nagy hype. Valszeg itt is én vagyok máshogy beállítva. Ettől elfogadom, hogy valaki isteníti. Nálam egyszerűen egy idő után monoton. A Borderlands nagyon hamar az lett.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #10134 üzenetére

    Romlani nem romlik jobban, mint szemüveg nélkül, mert a világot is sztereóban látod. Azért fárad a szemed, mert az aktív szemüvegnek, frissítése van, pont úgy, mint a CRT monitoroknak. A szemednek ez olyan, mintha 60 Hz-es CRT-t nézne. Ebbe fárad el. A passzív ezért kedveltebb megoldás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #10136 üzenetére

    Az LCD kijelzőnek minden esetben van állandó háttérvilágítása.
    A passzív szemüveg csak egy-egy polarizált lencse a szem előtt. Az aktív szemüveg esetében a problémát az okozza, hogy másodpercenként 60-szor el lesz sötétítve a lencse a szemed előtt, és felváltva. Ez a megterhelő, de így működik a technológia.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #10138 üzenetére

    Nem. A 120 Hz az nem esik semmire. Az a monitoron 120 kép. Az aktív szemüveg takarja el szemenként ennek a felét. Ezért olyan érzés, mintha CRT-t néznél. A passzív az sosem takar el képet. Az a két lencse esetén eltérően polarizált fényt enged át. A kijelzőbe be van építve egy ilyen technika, amivel a felbontás páros és páratlan sorai, vagy oszlopai (technikától függően) csak az egyik szembe jutnak el. A szemüveg akadályozza meg, hogy lásd a másikat.
    A szoftveres támogatás nem a szemüvegtől függ. A szemüveg feladata csak annyi, hogy az egyik szemnek szánt információt a másik ne kapja meg. Semmi mással nem foglalkozik, a szoftverrel sem. Az aktív és a passzív sztereó 3D a PC-n belül zajló folyamatokban teljesen megegyezik. Ugyanaz a szoftver kell hozzá. A kijelzőnél különbözik, de akkor már kint van a kép.

    Ma nincs kompromisszummentes 3D. Az aktív problémája, hogy másodpercenként 60-szor elsötétíti a szem előtti lencsét, ami nagyon megterhelő. Emellett a fényerő is jelentősen csökken, amire a kijelzőket már felkészítik, amihez borzasztóan drága panel szükséges. Emellett a szemüveg gyártása drága, mivel elektronika kell bele, és tölteni is kell. Emellett az aktív megoldás ideális látószöge nem annyira nagy. Mindezekért a hátrányokért cserébe a teljes felbontású képet látod. A passzív esetében az egész ennek a fordítottja. Nem látod a teljes felbontású képet, mivel a függőleges, vagy a vízszintes felbontás feleződik. Cserébe nincs elektronika a szemüvegben, vagyis nem fog elsötétülni a lencse, így nem lesz meg a szemet nagyon fárasztó villódzás. Nagyobb a látószög is, így akár öten is hasonló élményben lehet nézni a sztereó 3D-t, emellett a fényerő anélkül is megfelelő, hogy borzasztóan drága panelt kellene bevetni a kijelzőben. Ezért álltak és állnak át a cégek a passzív megoldásra. Persze valszeg maradnak az aktívak is a piacon, de a passzív megoldás mellett nagy jövőt azért nem jósolok nekik. Már a 3D Vision esetében is van passzív opció.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Pubszon #10152 üzenetére

    Mivel az LG nem fizeti ki a 3D Vision licencet az NV-nek, így a 3D Vision nem is működik.
    Az fps azért esik durván, mert kétszer számol mindent, így működik a sztereó 3D. A Crysis 2 más, mert az számos dolgot egyszer számol, és előállítja a második képkockát.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Brutus880 #10159 üzenetére

    Az is kétszer számol mindent. Ez a normális, mert a Crysis 2 megoldása szellemképeket is kreál. Persze nyilván a teljesítmény sokkal jobb a Crysis 2-vel.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #10180 üzenetére

    Mindkét megoldásnál 60 kép jut egy szemre. Az a különbség, hogy az aktív esetében csak minden páros és páratlan, míg a passzívnál nem sötétül el a szem előtt a lencse, így ott a kép egyes részei nem jutnak el a szemhez, de ugyanúgy 60 képről van szó.
    A passzív 3D-re pont azért térnek át folyamatosan a tévégyártók, mert annak nagyobb a sztereó 3D-s hatáshoz szükséges látószöge. Az aktív esetében ez nem annyira nagy, persze így is elég.
    Senki sem mondta, hogy ahhoz van köze. A szemüveg sötétíti el a szemed előtt a lencsét, hogy azon ne jusson át információ. Ezért fárad el hamar a szemed az aktív megoldásnál.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #10182 üzenetére

    Azért nem olyan olcsó egy PR réteg a kijelzőn, főleg a nagyokon. A frissítés pedig jellemzően magas a modernebb tévék esetében. A passzívra szimplán technikai indokból térnek át. A negatív oldalon csak a felbontás csökkenését lehet felhozni, minden más szempontból jobb mint az aktív megoldás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #10184 üzenetére

    Ha az a 120 Hz-es panel nem extrém fényerejű, akkor a passzív megoldás drágább. Akkor olcsóbb, ha az aktívhoz készített panel nagy fényerőt használ, hogy ellensúlyozza az aktív szemüveg sötétítő hatását.
    Nézd szinte mindenki az aktív megoldással kezdett, azóta rájöttek, hogy ez nem nyerő az embereknél, így áttérnek a passzívra. Nekik mindegy, hogy melyik, mert anyagilag nagy különbség nincs, ellenben, ha a passzívot jobban kedvelik, akkor arra mennek a cégek.

    A sztereó 3D az eleve egy totális kudarc. Szóval ebből a szempontból egyikből sem fognak meggazdagodni. Ehhez új technika kell, amivel nem kell semmilyen kompromisszumot kötni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz p87 #10353 üzenetére

    Az MSAA az megváltozott az alpha kód óta. Ma jelent meg rá a 13.2 béta driver, ami erre reagál. De amúgy még a végleges kódig meg fog változni pár dolog. Például biztosan tudom, hogy az SMAA-t egy picit módosítják. Kap egy sharpen filtert, amivel az élességét növelik.

    Az MSAA-nak megint az a baja, ami a deferred render motoroknál általában. Egyszerűen mindegyik render targetre le kell futtatni. Túl sok meló ez. Az AMD-nek ott a DirectCompute-os szűrője, amit direkt erre a problémára írtak, de azt nem hiszem, hogy bevetik. Azzal amúgy nyerhető lenne úgy 5-10 fps kártyától függően. Persze ezzel sem lennél kisegítve.

    Ami jó lenne ezekre a motorokra az valami analitikai élsimítás, csak arra még kevés kutatás van.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz BeLucZ #10368 üzenetére

    Az AFR profilokat a driverekben már a végleges névre rakták be. A béta az indítófájl nevét megváltoztatta, így a profilt a driver nem tudja betölteni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz torma1981 #10394 üzenetére

    A GTA 5 az RAGE motort használ, aminek a fizikai motorja a Bullett. [link] - mondjuk ehhez is van GPU-s gyorsítás OpenCL-en keresztül.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gainwardgs #10413 üzenetére

    Jézusom. Ennyi hibát ejteni a GK110 leírásában. Pedig annak a lapkának nyilvánosak a specifikációi. Hát kb. eddig jutottam. ;]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz BeLucZ #10415 üzenetére

    Tiszta szerencse akkor, hogy a GK110 speckóinál nem olvastam tovább. :DDD

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #10823 üzenetére

    Ez a kártya egy átmenet a generációk között. Ami nem megy el Teslaként az elmegy GeForce-ként. Nem lesz túl sok így simán el lehet ennyiért adni a készletet. A tömegeknek ott vannak a mostani 400-500 dolláros kártyák, azokból rengeteget gyártanak.

    (#10824) haddent: Annyi lesz rajta ... 6 GB. Bármennyire is röhejes, az NV-nek sokkal kedvezőtlenebb hitelesíteni a kisebb kapacitású memórialapkákat. Egyszerűen egyszerűbb és összességében olcsóbb a Tesla K20 hitelesített komponenseit használni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #10826 üzenetére

    Egy évig nem. Maximum az év végéig. Ennél sokkal hatékonyabb kártyák jönnek a következő generációban.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #10828 üzenetére

    Cserélnek rajta pár lapkát, hogy ne lehessen Teslát csinálni belőle (illetve kap extra kimenetek, amikhez extra holmik is kellenek). Ezeket leszámítva nyilván egy az egyben Tesla lesz a GeForce Titan, plusz az eltérő BIOS.

    (#10829) Locutus: A GCN az már rég kész, de ezt most nem hoztam fel. De nyilván nem véletlenül jön a GeForce Titan. Az NV már látja, hogy az új játékokban mit teljesítenek a hardvereik. Meg gondolom azt is látják, hogy az AMD pénzért vásárol a játékokba GCN-hez igazított effekteket.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz haddent #10831 üzenetére

    Nyilván ebben is lesz legalább egy milliárd grafikai szempontból kihasználatlan tranzisztor. Ezért lehet ennél kisebb méretből ugyanolyan gyorsat építeni.
    Kérdés, hogy mit értünk grafikai számítás alatt. Ma már a compute shader van és egyre inkább lesz többségben a játékokban, így többet ér, ha a lapka nagyon tud számolni, mintha a tradicionális GPU felépítést követni.
    Bármire lehet használni a GPU-t, csak az a kérdés, hogy mennyire hatékonyan. Ma pont az átállás időszakát éljük. Vannak a régi játékok, amelyek jobban szeretik a hagyományos felépítést, és az új játékok, amelyek egyre inkább a számítási hatékonyságot részesítik előnyben. A GPU-kat is lehet ezeknek megfelelően tervezni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz batt #10833 üzenetére

    Az NV is képes lesz gyorsabbat építeni. Vagy ha nem is akarnak gyorsabbat, akkor is jóval kevesebb tranzisztorból hozni fogják ugyanezt. Ez a kártya az NV-nek is egy átmenet az új generáció előtt.

    (#10835) Locutus: A GCN nagyjából egy generációval modernebb architektúra, mint amit az NV összerakott. Gyakorlatilag az Intel Larrabee ötletére épül. A driver egy olyan hardverre, ami natívan támogat C++-t, olyan CU-kat használ, amelyek inkább a központi processzorokra emlékeztetnek, és olyan cache szervezést, amit GPU ezelött még nem látott, nyilván sokkal bonyolultabb kérdés, mint ha a régi elvek szerint működne a rendszer. Viszont a DiRT Showdownban láttuk, hogy a felépítése komplex kódokban is működőképes. Erre fogja vinni a fejlesztéseket az AMD. Ezért veszik meg a stúdiókat, hogy olyan effekteket rakjanak a játékba, ami a DiRT Showdownban is van például. Ezért indult be ennyire a Gaming Evolved program.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #10840 üzenetére

    A por ellen nincs hatékony megoldás. Ez általános probléma, amire az időszakos tisztítás a legjobb megoldás. Bármit is találnak ki ez a jelenség nem fog változni. :( A legcélszerűbb megoldás egyébként a hűtő borításának levehetővé tétele lenne. Ezzel könnyű a terméket kiporszívózni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10846 üzenetére

    2013-at nézzük. Az AMD még a 2012-es támogatásnál is nagyobb erőforrásokat mozgósít. Kifejezetten olyan effektek implementálására, melyet a GCN-hez fejlesztettek. Gyakorlatilag már tudni, hogy a 2013-as AAA címek 90%-a Gaming Evolved. Erre költik most a pénzt, elég sokat. Majd holnap reggel lesz is egy hír, hogy inkább a játékokba fektetnek, mint az új generációba.
    Nyilván a DiRT Showdown Advanced Lighting effektje nem egy számításigényes eljárás, csak soros for ciklusokat futtat, amihez nem jó egy tradicionális GPU-architektúra. A számítás szempontjából nagyon lightos az egész, csak nagyon branch-elt a kód. Eddig ilyenben senki sem gondolkodott, mert nem volt GPU-architektúra, ami normális hatékonyság mellett működött. Most már van. Van hozzá fejlesztőeszköz is az új DX 11.1-es Win 8-ban. A GDC-n majd lesz a lehetőségekről előadás, ami az évek óta létező problémákra kínál megoldásokat az új architektúrák hatékonyságát bevetve.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10857 üzenetére

    Már ott tartunk. Zárójelben rendre a 7970 GHz Edition és a GTX 680 eredménye (a PC Partner aktuális mérése ... 1920 max. ... legújabb driverekkel). DiRT Showdown (51 vs. 32), Ghost Recon: Future Soldier (72 vs. 55), Sleeping Dogs (38 vs. 28), Hitman: Absolution (47 vs. 37), Nexuiz (62 vs. 49), Sniper Elite V2 (49 vs. 31).
    Van még pár érkező játék eredménye is, igaz ezek béták. A Warframe esetében 2560-ban 109 fps-t tud a 7970 GHz és 67 fps-t a GTX 680. A Tomb Raider esetében valszeg valami probléma van, mert a HD 7770-nél alig gyorsabb a GTX 680. Igaz, hogy az eredményeknél inkább a GCN értékei kiugróan jók, míg a többi VGA sebessége egymáshoz képest a korábbi sorrendet hozza. Itt az elképzelhető, hogy a GCN-re írták a programot és később optimalizáljak a többi termékre.

    Szerk.: Bocs, pár helyen a HD 7970 alap eredményét írtam. Javítva.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz kovsol #10869 üzenetére

    A PC Partner az OEM megrendelőinek csinál összesített méréseket. Az aktuális és az érkező játékok béta verzióival. Ebből vannak. Ezeket én meg szoktam kapni, mondjuk úgy, hogy nem hivatalosan, de megvan. Az OEM-eknek ez segít hardvert választani. Jelen esetben HD 8970 OEM miatt vannak új mérések. És mivel ez a VGA a dobozos termékek piacán egy az egyben egy 7970 GHz Edition, így a mérések erre a termékre is jók.

    A PH tesztekben amelyik játékok benne vannak, ott nyilván ezek az eredmények várhatók. Egyes játékok persze nincsenek benne a tesztcsomagban. Meg mire újra lesz teszt, addigra párat úgyis kiveszünk, és még újabbakat rakunk be.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10871 üzenetére

    Az is az architektúra része, ha egy memóriavezérlő modern, és nem 2003 előtt tervezett partíciós elvű. Nyilván a Fermi és a Kepler is sokkal jobban tűrné a felbontás emelését, ha az NVIDIA nem egy lassan 10 éves alapra építene. 2003-ban az ATI ugyanitt tartott. Azóta jött a gyűrűs busz, a hub, és most a GCN-nel a hub blokkosítással.
    Érdemes megnézni azt is, hogy a driverből, vagy segédprogramból használt SSAA-t sokkal jobban tűri a GeForce. [link] Nem itt van a baj, hanem a hozzá rendelt compute shadereknél. A Sleepingben és a Sniperben úgy vannak bekötve, hogy a post-processek az SSAA felbontáson fussanak le.
    A GR: Future Soldier VPL-GI-t használ. Az eszi meg a Keplert.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Bull1 #10876 üzenetére

    Ilyen hiba nincs. Amelyik VGA így hibázik az rossz. Vissza kell vinni és kap helyette a boltban egy új kártyát. Manapság sokan túl sokan várnak ilyenekre javítást, de nem jön hozzá. Ha szemetel és villog, akkor az gyártási hiba. Garanciális csere kell, és az új VGA jó lesz.

    Nem azért nem lehetett váltani. A memória frekvenciájára a váltás már nagyon jól meg van oldva, csak nehéz megoldani, hogy ne fagyjon le a termék. Ez a GDDR5 memóriánál a probléma. De ma már ez nem gond, mert úgy tervezik a NYÁK-ot, hogy működjön. Persze nem minden esetben működik, de ilyenkor a driver már minden esetben korlátozza a váltást. Például, ha két monitort kötsz a VGA-kra, akkor ma egy olyan kártya sincs, ami memória-órajelet vált. Egyszerűen nem lehet megoldani stabilan.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz haddent #10878 üzenetére

    Láttam a legújabb kimutatásokat, hogy az előző évek 3-5%-os hibaarányáról a VGA-k hibaaránya felcsúszott 7%-ra. Gyártókra nem volt lebontva, de várható volt, mert ahogy csökken a VGA-piac úgy próbálnak meg a tesztelésnél spórolni. A legtöbb gondot a memóriák okozzák. A gyártók túltermelnek, és a csökkenő árak mellett a tesztelés megkurtítása a spórolás.
    A CS:GO az programhiba. Január végén kapott rá patchet. Azóta nem csinálja.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz belinho #10880 üzenetére

    Nem csökkentenek árat. Nincs rá lehetőség egyik oldalon sem. Ilyen Never Settle promóciók lesznek, persze az NV nem ennek hívja majd, de az lesz a lényege, hogy extrát kapj a vásárlásért.
    Ezek jobban megérik a cégeknek, mert mennyiségi licencben 2-3 dolláros kódonkénti kiadás mellett 40 dolláros extra értéket raknak rá a VGA-ra.

    (#10882) haddent: Olyan haszonnal dolgoznak, ami mellett ez a piac még megéri. Az NV-nek lenne rá lehetősége, mert az Intel negyedévenként 60-80 milliót fizet nekik, tehát ha az eladásokkal -50-et termelnének, akkor még az Intel pénze így is pluszba rakná az üzletágat. Viszont nyilván ők is arra törekednek, hogy a licencpénzek nélkül legyenek pluszban.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Bull1 #10881 üzenetére

    Ott az 3rd party program játszik be. Már milliószor le volt írva, hogy az AMD nem adja ki a PowerTune specifikálását. A tuningprogramok ezt a rendszert nem tudják vezérelni. Erre csak a driver overdriver modulja jó, de ezt a tuningprogramok kikapcsolják. Mi a tesztekben ebből a modulból tuningolunk, és soha semmi hiba. Próbáltam én is az ASUS tuningprogiját, de ugyanolyan emelésre, mint amit a driverben állítottam jöttek a villogások. Ahogy letöröltem a tuningprogit, minden probléma megszűnt.
    Az emberek nem értik meg, hogy az AMD már teljesen hardveres órajelvezérlést használ, mint a központi processzorok. Ehhez lehetetlen a specifikációk ismerete nélkül támogatást írni.
    Szerintem a tuningot válasszuk le a működésről. Erre eleve nincs semmilyen garancia.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz p87 #10885 üzenetére

    Nem az elkövetkező hetekben, de lesz még egy boostos driver, ami általános gyorsulást hoz, de ennek a mértéke nagyon eltérő lehet, és csak a DX10+ programokra korlátozódik. Olyan 12.11 szintű általános boost már biztos nem lesz. Minden más csak specifikusan jön majd.

    (#10888) Locutus: Ez sok dologtól függ. Amelyik API-t most támogatják abból már ki van aknázva. Az új API-kra és képességekre, amiket később vezetnek be a programok nyilván kellenek majd a frissítések.

    (#10890) SzlobiG: Mindenkinek? Engem miért hagytak ki belőle? :F Na meg a tesztelt kártyákat?

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10922 üzenetére

    Nem bukta az, csak 10 év alatt azért sikerült pár hatékonyabb vezérlőt kigondolni és implementálni. A crossbar ettől működik, csak nem olyan hatékonyan, mint az új tervezésű vezérlők.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10924 üzenetére

    Ahol a crossbar probléma az a partíciós vezérlés. Minden memóriapartícióban benne lehet egyszer ugyanaz az adat, míg hub, vagy ring mellett biztosan csak egyszer lesz az adat a teljes memóriában.
    A másik gond inkább csak tervezési kellemetlenség. A memóriapartíciókhoz mindenképp kapcsolni kell a dedikált ROP blokkokat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák