Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #8059 üzenetére

    Nem, a DX12 lényege pont az, hogy a parancspufferek kreálása független, és akárhány szálra leosztható. Ez persze a motortól is függ, de a Nitrous ezzel a modellel 36 szálig lineárisan skálázódik, ami biztató ezekre az új API-kra nézve.
    Ami itt a kérdés, hogy mivel lehet jobb eredményt elérni, mert lehet építeni négymagos CPU-t IGP-vel és nyolcmagos CPU-t IGP nélkül. A jelenlegi gyakorlati tesztekben azt látni, hogy az IGP elérhetősége többet ér, mint a kétszer több processzormag. Nem véletlen, hogy az IGP teljesítménye nő az új lapkáknál, míg a processzormagok teljesítménye inkább stagnál. Ez látható a Broadwell-K-n, a Godavarin és a Skylake-en is látható lesz. Lehet, hogy ezt még nem érti egy játékos, de a gyártók már látják, hogy a végső teljesítményt inkább az IGP határozza majd meg.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #8064 üzenetére

    Az AMD a Zen CPU-it nem a játékosoknak csinálja. Megveheted játékra is, de ugyanabba a tokozásba lesznek APU-k, amelyek jobban kiszolgálják majd a játékosok igényeit.

    A CPU erő az aktuális játékdizájnoknak nem kell. A limitek teljes egészében szoftveresek. Valójában egy totál belépő processzor minden játékra teljesen elég lenne, mert a szimuláció évek óta nem fejlődik. Az ipar nem az előrelépést tartotta szem előtt, hanem azt, hogy ugyanazt a szimulációs minőséget hozzák ki kevesebb processzoridőből. Szükség lesz majd úgy hozzávetőleg 2 évre, hogy az ipar a DX11 miatt leállított fejlesztéseket ténylegesen újrakezdje és befejezze. Ez tényleg magával hozza majd a modernebb AI-t, és egyéb szimulációkat, amit most a játékosok hiányolnak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Venyera7 #8080 üzenetére

    A TIER_3-as szintet nyilván azért specifikálták, hogy később mindenki ezt használja. Azt nem tudni, hogy mikor, de egyértelműen ez a jövő, és az új generációs hardvereket is érdemes erre tervezni. Lehetőség szerint minél hamarabb, mert a low-level API-knál problémát jelent a teljes architektúra leváltása. Nagyjából két éven belül ez megtörténik.

    (#8081) daveoff: Nem érhető el a BR-TIER_3 bekötés. A Maxwellnek nincs skalár egysége, amely a processzor beavatkozása nélkül el tudná intézni a bekötést. Lassabb igazából nagyon elhanyagolható mértékben lesz, mert ettől még bindless és a bekötés a mintavételezőbe történik. Ami hátrány lehet ebből, hogy nem minden effektet lehet megjeleníteni, ha elfogynak az erőforrások.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz daveoff #8092 üzenetére

    Mostantól a hétköznapi ember az egészet rosszul fogja tudni. Na meg kiderült, hogy a Maxwell 2 nem támogatja az aszinkron shadert. Oh wait, hiszen ennek megfelel. Valójában a legmagasabb bekötési szintet nem támogatja. Nembaj legalább a hétköznapi ember érti. :)) Olyan API-s legendák indultak el az elmúlt két hétben a magyar IT sajtóban, hogy az félelmetes. Egyáltalán mi az, hogy egyik GPU sem támogat minden DX12_1 szolgáltatást. Van ilyen, hogy DX12_1 egyáltalán?
    Az lenne az igazság, hogy egyik hardver sem támogat minden DX12-es opcionális funkciót. A kötelező funkciókat mindegyik DX12-es hardver támogatja.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8127 üzenetére

    Mit várunk versenyképesség alatt. A 380 gyorsabb, illetve a jóval nagyobb sávszélje. A 960 előnye, hogy kevesebbet fogyaszt.

    A 380X nem feltétlenül szükséges, mert a 290 ott van 259 dollárért, annál nem lesz gyorsabb. Oda jönne a 380X és a 960 Ti. Az AMD ezt azért húzza el, hogy minél később legyen lemérve, hogy egyre több új játék kerüljön a tesztekbe a Windows 10-zel. Itt az NV fog előbb lépni, mert nekik nincs 259-ért termékük és nem várhatják meg az év végi játékdömpinget. Ha az AMD-n múlik elhúzza novemberig. Akkor jön a Star Wars Battlefront a Dual Fiji-vel. De legalább az új Need for Speedig érdemes kihúzni.
    Azt nem árulták el, de az új EA játékokban már nem Frostbite 3 lesz. A következő variáns már PBR-es, sávszélzabáló, async shaderes/DMA-s cucc.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #8136 üzenetére

    De. Egyik új EA játék sem a Frostbite 3-mal jön, hanem az új immáron számtalan verzióval, de a régi számozással ez Frostbite 4 lenne. A legfőbb előrelépés a PBR, de számos grafikai futószalagot lecserélnek hatékonyabb compute futószalagra. Változik a textúrázas, egészen pontosan a megatextúra streaming. Illetve kap egy új post process futószalagot, aminek a része egy új temporális analitikai AA. A deferred MSAA ugrik. Emellett megújul a multi-GPU mód, de azt nem tudni, hogy ez mennyire stabil. Lehet, hogy pár játékban marad az AFR, csak az a temporális AA-val nem annyira hatékony. Aszinkron DMA és compute lesz, ugye a DMA hozzáférés már most is aszinkron

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #8188 üzenetére

    A PBR miatt valószínűleg szükséges a tiled deferred leképző módosítása. Valószínűleg olyasmi változás lesz, mint a CryEngine 3.6-ban, pl. Ryse. Mivel több bitnyi információ tárolása szükséges pixelenként, így valamennyit biztosan nő a sávszéligény.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #8190 üzenetére

    Az eddigi tapasztalatokból kiindulva sávszélességnél jobban számít, hogy GCN-re másfél éves a low-level optimalizálás, míg a többi architektúrára pár hónapos. Az idővel lesz a legfőbb gond nem a hardverekkel.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #8195 üzenetére

    Az aszinkron compute-ot már a Frostbite 3 is támogatta, csak nem kapcsolták be egyik játékban sem, mert nagyobb fókuszt jelentett a memóriamenedzsment optimalizálása, és a validáció nagyrészt ennek az optimalizálásának a teszteléséből állt. De Johan már tartott korábban arról előadást, hogy a tiled gyorsítása aszinkron módban is elvégezhető a fények kivágási munkájával. Így csupán erre a feladatra vonatkozóan 80%-os gyorsulást értek el, de ez a feladat ma még nem teszi ki nagy részét a képfeldolgozásnak, tehát a végleges eredményre nagyjából ~10%-os boostot jelenthetett volna.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #8198 üzenetére

    Igen. Jelenleg az látszik, hogy ez lesz a legfőbb limitációja a teljesítménynek. Na most a mai világ előnye, hogy egyszerű patchelni, tehát az optimalizálás a kiadás utan folytatódik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz imi123 #8226 üzenetére

    PS4-en azért nem. A BF4 óta minden Frostbite játék használja, beleértve a BF4-et is. Az exkluzív címek is használják nagyrészt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sir Ny #8237 üzenetére

    Gyakorlatilag ugyanarról a koncepcióról van szó. A Vulkan esetében is. Szerintem reális, hogy sokan várják. Csak a saját gépem példájára építve egy Dragon Age Inquisition DX11-ben nem megy 20 fps fölé, de ugyanazon a beállításon a Mantle nem megy 40 fps alá. Ezt kínálja a többi új API is. Naná hogy várja a játékos. Főleg akinek olcsó vagy régi procija van.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz daveoff #8256 üzenetére

    De kaphat. Csak nem valószínű, hogy megtörténik, mert a játékot újra kellene tesztelni. Ez venne el sok időt (kb. 2 hónapot) nem maga a portolás. Szerintem ezt inkább hagyják a fejlesztők. De az új játékoknál egyértelműen lesz port.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Laja333 #8258 üzenetére

    A Witcher 3-nál opció a low-level mert rengeteg korábban beígért dolog a DX11 miatt maradt ki. A GTA5 esetében nehézkes mert XO és PS4 konzolokon sem low-level az elérés, szóval valószínű, hogy a motor strukturálisan sem megfelelő a DX12-re. Így azért a váltás egy jó fél éves munka lenne.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz imi123 #8261 üzenetére

    Igen a Thief támogatja PC-n, de csak a legutolsó javítással. A BF4 a PS4-en a pilot projektje volt az async shadernek. Ezután mindegyik PS4-es Frostbite 3 játék megkapta ezt a funkciót. A jövőben ez a funkció platformfüggetlen lesz a Frostbite-tal. A kísérletezés erre vonatkozóan állandó. Az a kérdés mikor kapcsolják be a funkciót.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Ren Hoek #8264 üzenetére

    Annyi azért nem fog futni egymás mellett. Esetleg akkor, ha nagyon lightos a feladat, vagy a motor tényleg nagy ki van gyúrva async shaderre.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz do3om #8288 üzenetére

    Aki az AMD-nél dolgozik az szerintem már látta a programokat. Ebből a szempontból az AMD-nek nyilván lehetőségük van arra, hogy a DX12-t hype-olják, hiszen tudják, hogy mi várható. Ugyanígy az NV-nek és az Intelnek lehetősége van arra, hogy annyira ne foglalkozzon a DX12-vel.

    Az árak alakulásában az játszik főszerepet, hogy ma már csak feleannyi VGA kerül eladásra, mint négy éve. Azért ez elég komoly visszaesés, és folyamatosan csökken a kereslet. Amíg ez nem fordul meg, addig az árak csak növekedni fognak. Ezért lassultak le a fejlesztések is, mert ma már nem akkora a piac, hogy értelme legyen másfél évente a teljes termékskálát lecserélni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz mcwolf79 #8296 üzenetére

    Az lehet, hogy van jelentkező, de az új API-k módosítanak azon, hogy miképp érdemes a termékskálát frissíteni. A következő években valószínűleg lesz egy pilot VGA minden generációban, ugyanis számolni kell azzal, hogy ha új architektúrát hoznak, akkor a játékokon sokkal rosszabbul teljesíthet, mint az elődje, mert a driver átkerül magába a játékba. Érdemes kihozni egy olyan előzetes fejlesztést, amely az új architektúrát tartalmazza. Ez az aktuális termékskálával együtt mehet, mert igazából piaci szerepe nem lenne. Viszont amíg megérkezik a nagytesó, addig számos játékot már optimalizáltak a pilot VGA-ra, és abból a nagytesó is profitál. Ez azért fontos, mert ha a nagytesó jön először, akkor annak lesz borzalmasan gyenge a teljesítménye optimalizálás nélkül.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Yllgrim #8298 üzenetére

    Akkor menjenek. Előbb-utóbb vége a dedikált GPU-k piacának. Ez sajnos megmásíthatatlan. Ezért koncentrálódik a mostani rendszer az áremelésre és a fejlesztések lassítására, mert addig is keresnek rajta, amíg még van min.

    (#8303) Whysperer: Én nem akarok 4K-t meg 60-70 fps-t. :DDD Nekem azért van PC-m, mert ez a munkám, de játszani mostanában főleg PS3-on játszok. Az a baj, hogy ha egyszer rálesel egy exkluzív játékra, akkor egyszerűen mindet akarod, mert annyira brutálisak ahhoz képest, ami ma a PC-ken van. Például a Dragon's Dogma: Dark Arisen. Valami ilyesmi adrenalinlöketet várnék a PC-s játékoktól is, több tonnás szörnyekkel és taktikus csapatharccal. Fáj, hogy ezt csak egy konzoltól kapom meg. :(

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Valdez #8368 üzenetére

    A HUB legnagyobb előnye, hogy tranzisztorkímélő, miközben felkínálja a teljes sávszélességet a memóriavezérlő és a back-end között. Viszont ezt egyben kínálja fel, így leginkább a véletlen elérésben jó. HBM-mel már más előnye is van, mivel nagyon széles lesz a busz, és mondjuk 4096 bitet belül nehéz megoldani. HUB-bal elég a 4096 bites HUB, de crossbarral 8 512 bites es nagyon sok 256 bites keresztbusz kell.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz velizare #8396 üzenetére

    Mert a CCC-ben aktívan a Perfect Pictures beállítások lényegében alapértelmezetten. Ezért a shaderek egy csomó post-processt számolnak még a gyorsított tartalomra. A Fury azért nem fogyaszt már annyit, mert ott ezeket a post-process funkciók átkerültek a hardverbe, így már nem a shadert terhelik, hanem egy a DSP-t.

    A magas memória-órajel két monitorhoz azért kell, mert ha órajelet vált a memória, akkor a monitorokról egy pillanatra elmehet a kép. Ez nem lesz megoldva, mert HBM lesz minden kategóriában és ott meg eleve nincs órajelállítás.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MiklosSaS #8420 üzenetére

    Elég sokat segít neki a 6 GHz-es memória. Mi is meglepődtünk, hogy ez ennyit ér, de ennyit ér tényleg. Azt fontos kiemelni, hogy a közhiedelemmel ellentétben a 390X nem teljesen 290X átnevezés, hanem egy új steppingre épülő lapka, jobb PowerTune menedzsmenttel, és nyilván nagyobb memória-sávszélességgel. Ez az AMD szerint is hoz "up to 10%-ot" a 290X-hez képest, ami a mi tesztünkben is jelentkezett, nem ~10%-os mértékben, de jelentkezett.
    A másik része a dolognak a 15.200-as driver branch. Az egy általános ~3-4%-os boost volt minden GCN-re. Ezért nem értettük, hogy miért nem ezzel a driverrel adták ki az új VGA-kat, mert a 15.150-es branch ennyivel lassabb is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz daveoff #8422 üzenetére

    Az nem sokat befolyásolt. A GCN-ek előrelépését a 15.200-as branch hozta.
    Kevesen értik meg, hogy egy hardver teljesítménye nem állandó. Sosem volt olyan a piacon, hogy egy architektúra itt volt három évig és még három évig biztosan itt lesz. Ergo minden meghajtót nagyjából csak 3 évre terveznek csupán azért, mert három év múlva már ott az új architektúra. Az AMD most azt csinálja, hogy három évre terveztek egy alap branchet, ami eddig tartott, és a következő három évre terveznek egy újraírt branchet, amiben megváltoztatják a meghajtó működését az előző három év tapasztalataira építve. Ennek az első meghajtója a 15.200-as sorozat. Most sorra le lesz cserélve a GCN szoftveres alapja, mert sokkal jobban ismeri már az AMD a saját architektúráját, mint három éve.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ffodi #8426 üzenetére

    Ha valami nem ref, akkor azt mindig jelezzük. Enélkül minden Radeon és GeForce ref. paraméterezésű. A Fury Strix órajele is referencia volt.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Anubris #8431 üzenetére

    Az a baj, hogy nincs mire váltani. Az elmúlt 8 hónapban megjelent játékok nagy többsége fennakadt a GPUView tesztünkön. Ezzel határozzuk/határozom meg, hogy egy játék mennyire terheli le a GPU-kat, és a 30%-nál rosszabb terhelésűeket nem vesszük fel a tesztbe, mert azok optimalizálása sajnos nagyon hanyag. Nyilván a 30%-os terhelés is már egy elég alacsony érték, de ma azért szerintem elvárható, hogy a GPU-k teljesítményének a 30%-át hasznosítsa egy PC-s program, de elfogadom, ha másképp gondoljátok. Ehhez képest az új játékok normája 15-25% közötti. :( Eközben két éve tucatszámra érkeztek az 40-50%-ra is terhelő programok. A GTA5 is éppen átcsúszik ezen a rostán, ha még ma is 40% lenne a minimum elvárt szintünk, akkor a GTA5 is elbukna rajta.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    [link] - elég jó prezentáció a DX12 főbb újításairól. Technikai jellegű, de nagyon szájbarágós, szóval nagyon érthető.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Egon #8673 üzenetére

    Erről beszélünk egy ideje, hogy ez probléma. Ha a Hairworkshöz valaki minőséget akar hozzáadni, akkor nincs rá lehetőség, mert beleütközik az "as long as it does not lower performance on NVIDIA GPUs" kitételbe.
    A forráskód kérhető, de az pénzbe kerül. A CD Projekt Red ezt mondta a Hairworksről: "... unsatisfactory performance may be experienced as the code of this feature cannot be optimized ..." - ezt azóta törölték a fórumból.

    Elég kemény, hogy az NV elismeri, hogy teljes kontrolljuk van a teljesítmény felett. Szabadon eldönthetik, hogy a Pascal érkezésével a Maxwell mennyire legyen alkalmas az új GameWorks effektekre, ami eléggé aggályos, már csak azért is, mert az NV-nek üzleti érdeke lesz a Maxwell lassítása, ahogy az most a Keplerrel történik. Szerintem ez egyáltalán nem egy jó irány.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz velizare #8675 üzenetére

    Akkor csak a Google volt béna, vagy én kerestem rosszul. :) Mindegy a lényegen ez nem változtat. Ha egy fejlesztő írja le azt, hogy "the code of this feature cannot be optimized" az egyáltalán nem azt jelenti, hogy itt sok engedékenység lenne. Jó lenne tudni egyébként, hogy mi van a licencszerződésben, leginkább azt, hogy a forrást és a módosítást az NVIDIA mennyi pénzért engedi meg. Ha dollárszázezres nagyságrendet szabnak meg, akkor ez csak arra van, hogy rá lehessen mondani, hogy van forrás is, de hozzányúlni senki sem fog.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    A 15.200-as batch az újraírt driver. Erre épül a 15.7. A tesztünkben is ezt használtuk, és ezzel a 290X a GTX 980 elé került. Erre a batchre épül egyébként a 15.300-as batch. Ez majd a shader fordítón változtat viszonylag sokat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Xmister #8683 üzenetére

    Eigen. De ez a cikk még mindig nem írja le a valós problémát. Nevezetesen, hogy nem érdekli az NV-t, hogy jól fut-e a Radeonon, ez a csomag inkább arra kell, hogy az új generáció érkezésével a fejlesztő képtelen legyen az előző generációra optimalizálni. Ezzel szoftveres szinten el lehet adni a hardvert. És ezzel vissza is lehet hozni a régi, évenkénti frissítést, mert lehetőség lesz olyan szinten belassítani az egy éves VGA-t, hogy a felhasználók elgondolkodjanak a váltáson.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz do3om #8689 üzenetére

    rtuk a driverről szóló hírben is, hogy nagyrészt a gyorsulás a többletterhelés csökkenésének köszönhető. Leginkább az olcsó procikkal lehet érezni. Nálam például a Thief úgy jó 20%-ot gyorsult DX11 módban. Persze így is legalább kétszer gyorsabb a Mantle mód, de kétségtelen, hogy gyorsabb a DX11 mód.

    A gyors proci mellett az extrát az új shader fordító formálódása hozza. Ez valamivel kevesebb regiszterhasználattal rendelkezik, illetve hatékonyabban gyilkolja meg az FXC optimalizálásokat, amely az AMD egyik nagy problémája a DirectX kapcsán. Az a D3D bájtkód nem jó, amit a Microsoft fordítója fordít. Több kárt okoz, mint hasznot. De ez általánosan igaz a stream rendszerekre, mert az FXC még mindig Vec4-es kódot fordít, miközben egyedül az Intel használ ilyen hardvert. Ezzel egy szimpla befordítás egy jó 50-60%-kal lassabb kódot eredményez. Ezért van olyan shader fordító az NV és az AMD meghajtóiban, amely előbb átír bizonyos dolgokat a D3D bájtkódban és aztán fordítja be. Ez a deoptimalizálási folyamat. Ezzel visszaszereznek némi sebességet, de nem mindent. Ez az Xbox One-ból látszik is, mert ott egy olyan fordító van, amely a shadert rögtön hardverre fordítja. Így ugyanaz a shader, ugyanazon a GCN hardveren 30-40%-kal gyorsabban fut. Jelenleg az egyik futó projekt a deoptimalizálási folyamat optimalizálása, mert nagyon sok teljesítmény elvész a D3D bájtkód kreálásának agresszív optimalizálásával.

    Ezért lesz majd nagyon jó a SPIR-V és a Vulkan API, mert csak onnan tud majd nagyobb teljesítményt szerezni, hogy megengedi a fejlesztőknek az OpenCL használatát. Az erre írt fordítók sokkal hatékonyabbak, illetve a nyelv alapjai is tíz évvel újabbak, tehát az egész csomag modernebb, értsd nem a 2005-ös hardverekre tervezték. Már a SPIR-V működése is sokkal kedvezőbb a D3D bájtkódnál, mert nem Vec4-es kódot fordít, hanem a modern stream rendszerekhez igazodik, amit az NV és az AMD használ. És innen is nagyon szabad az optimalizálási irány, amíg a kód eljut a hardverhez. A Khronos teljes egészében megengedi, hogy a fejlesztők egészen a virtuális utasításarchitektúráig kontrollálhassák a fordítást. Ezzel ugyan a konzolos fordítási hatékonyságot nem érjük el, de maximum 3-5%-kal leszünk tőle elmaradva, ami a mostani 30-60%-hoz képest azért komoly előrelépés. A Vulkan egyébként elfogadja azt is, ha a fejlesztő nem is fordít a futtatási időben. A SPIR-V definiál egy olyan lehetőséget, hogy a programot offline fordítják le. Ezzel lehetőség lesz minden hardverre vISA binárist szállítani. Persze ez csak elméletben igaz, mert a hardverek virtuális utasításarchitektúrája védett, tehát a külvilág felé nincs specifikálva, de például a HSAIL igen, és számos motor SPIR-V bináris mellett szállít majd BRIG-et.

    Ezek a váltások azért nagyon fontosak, mert a PC mindig fejlődni fog, tehát idővel az architektúrákat le kell cserélni. Az adott architektúra életciklusától függ, hogy a fordítót meddig optimalizálják. Az sem mindegy, hogy a fordítót mikor írták. Akkor, amikor a hardver még csak szimulátorban létezett, vagy akkor, amikor már ott volt a mérnökök kezében. A konzol azért tud fejlődni, mert az első fordítókat még a szimulátorra írják, tehát ezek hatékonysága nem olyan jó, de minden konzolgeneráció átesik egy olyan fejlesztésen, amikor 4 évvel a megjelenés után az SDK-t lényegében lecserélik egy modernebbre. Ez baromira megéri, mert 10 éves az életciklus, és adnak még 6 olyan évet a fejlesztőknek, amikor jobban kihasználhatják a hardvert. A PC-n ilyen nem létezik, mert jóval rövidebb az életciklusa egy generációnak, és konkrétan nem történt még olyan, hogy egy architektúránál a shader fordítót újraírták. Egyszerűen azért, mert mire az újraírásnak eredménye lenne már rég egy másik architektúra van a boltok polcain. Persze a fordító ettől még a régi architektúrán sokat gyorsítana, csak az már jó eséllyel nem vásárolható meg. Az AMD csinálja meg azt először, hogy mivel egészen pontosan fél tucat frissítést terveztek a GCN-re és ennek a felénél tartanak, a következő félhez át lehet írni a fordítóinfrastruktúrát, aminek előnye lesz az előző félnél is. Egyszerűen elkezdik egy picit konzolosítani a PC-t, mert egy olyan ciklussal, amikor az architektúra 2-3 helyett 6-7 évig marad, előnyösebb kihúzni a fordítóból a benne maradt teljesítményt. Erről szólnak majd a következő branchok.
    Erre egyébként bőven át fog állni mindenki, mert abban az irányban, amerre a PC most megy előnyösebb a meglévő hardver ismerete, mint az új hardver kiadása.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8704 üzenetére

    Ez nem feltétlenül ilyen egyszerű. Már nem mindenki látja annyira jónak ezt a GameWorksöt az NV-n belül sem. És nem arra gondolok, hogy a korábbi TWIMTBP zsenik (John McDonald, Timmothy Lottes, Cass Everitt, stb.) otthagyták a céget. Számold bele azt, hogy az egyetlen dolog, amivel ezt el lehet adni az a pénz. Viszont olyan fejlesztők szorulnak erre rá, akik nem nagyon törődnek a PC-s portokkal, mert így is szűkös az egész keret. Ezért szaporodtak el nagyon a rossz PC-s portok az NV oldalán, és nincs igazán lehetőség behúzni egy innovatív és jól optimalizált PC-s címet. Az már csak tetézi a bajt, hogy az AMD erre rájátszik ezekkel az üzenetekkel. Elég csak a bogár elültetése és az NV elvégzi a munkát a csomó fos TWIMTBP PC-s porttal.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Abu85 #8733 üzenetére

    Csak, hogy ezt kiegészítsem pár dologgal, elég komoly ez a probléma még az AMD médiapattogása nélkül is. A zárt middleware átka, hogy túl nehéz a beépítése a meglévő motorokba. Minél komplexebb az effekt, annál nagyobb az esélye, hogy nem fog működni. Egy szegény fejlesztőtől pedig nagyon nehéz elvárni, hogy írja át a motort csak egy effektért, erre se idő, se pénz, meg miért is nyúlna a motorhoz, ha működik. Erre nagyon jó példa, hogy az AC: Unity-ből kimaradt a GeometryWorks, vagy a Witcher 3-ből kimaradt a WaveWorks és a FlameWorks, vagy a Batman AK-ban egyszerűen a HBAO+ nem jelent meg a PC-s verzióban, pedig benne van. Ez mind annak a következménye, hogy az NV küldi a middleware-t, élesíti a fejlesztők, és ha nem működik, akkor baszhatják. A játék kiadása emiatt nem fog csúszni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FollowTheORI #8739 üzenetére

    Nehéz megmondani, hogy lesz-e benne DX12, mert a motor amit használnak alapjaiban 12 éves, tehát strukturálisan biztosan nem felel meg low-level API-khoz. Még a konzolokon is a magasabb szintű elérést használják.

    Az Activision és az NV partnersége egyébként fontos mindkét cég számára, mert az EA meg összeborult az AMD-vel. Ők már nem csak olyan szerződéseket kötnek, hogy az AMD reklámozza a Star Wars-ot, hanem kizárólagosságra vonatkozó pontok is vannak, például a Star Warst csak az AMD-hez lehet kötni a reklámanyagokban. Az NV-nek erre reagálnia kellett, mert nekik is szükségük van egy brandre, amit ki tudnak rakni a kereskedők a reklámanyagokban.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rocket #8738 üzenetére

    Itt van az AMD grafikai middleware-je: [link] Sosem mondták, hogy nekik nincs olyanjuk, mint a GameWorks, csak azt mondták, hogy ők olyat kínálnak, amit optimalizálni is lehet. Régen az NV is ilyet kínált, azért is használ például a Frostbite 2/3 HBAO-t és FXAA-t. Ma inkább elzárják a kódot valamiért, és buktak is egy csomó partnert.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz daveoff #8749 üzenetére

    Ha üzletstratégiailag vizsgáljuk, akkor nem rossz a GameWorks, mert gyakorlatilag kihasználja azt, hogy sok a pénztelen kiadó és stúdió, akik úgy vannak vele, hogy úgysincs pénz a PC-s portra, mit számít, ha még optimalizálni sem lehet. Tipikusan ilyen a Warner, akitől olyan csodákat láthatunk, mint az MKX és a Batman: AK. Az NV-nél ezeket nem tudják promózni, mert szétbassza a saját felhasználóik agyát is, hogy 300K-s konfigra ilyen szar portot sikerült kiadni, ráadásul TWIMTBP logóval. Tehát ennek a modellnek megvan a maga hátránya.
    Az AMD modelljének az az előnye, hogy a teljes nyíltság, nagyon jól optimalizált portokat hoz, viszont jóval kevesebb azoknak a fejlesztőknek a száma, akik mögött van tőke, és nem szükséges pénzért rontani a PC-s optimalizálhatóságot.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FLATRONW #8750 üzenetére

    Nincs HDAO benne. Csak HBAO és SSAO van. A Frostbite 2/3 zömében az NVIDIA effektjeit használja, persze helyenként módosítva, mert nem volt ideális a leképzőhöz, de pont erre való a nyílt forráskód, hogy ha nem működik, akkor átírják úgy, hogy működjön. Az új Frostbite-ban már egyetlen új, NVIDIA által fejlesztett technológia sem lesz, mert abban a formában, ahogy kínálják az EA nem tudja jól integrálni.
    Az EA stúdiói mögött marha nagy tőke van, és ezzel nem tud mit kezdeni az NV. Akármennyi pénzzel mennek oda igényelve azt, hogy "használjátok a játéklassítóinkat", nemleges lesz a válasz. Az EA-nek nem éri meg, mert sokkal kedvezőbb számukra, ha optimalizálni tudják a programot.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #8753 üzenetére

    A Nixxes és a Rebellion portjai, vagy az EA és a CodeMasters portjai, az Alien Isolation is elég jóra sikerült, de gyakorlatilag minden olyan fejlesztő portja, aki még nem tart ott, hogy a túlélésért küzdjön, így nem kell megfontolniuk, hogy mire költik a pénzt. Persze az élmezőnyben is vannak jobb portok, a legjobbak között. Ha ki kellene emelni párat, akkor a Sniper Elite 3 és a Civilization: Beyond Earth nagyon etalon kategória, figyelembe véve, hogy mennyire egyedi dolgok vannak bennük. Bizonyos technológiák szempontjából ezeknek a játékoknak fejlesztői felvállalták az úttörő szerepét. Ugye gondolok itt a Obscurance Fieldsre, illetve az egyedi tesszellálásokra. Kevesen tudják, hogy a Sniper Elite 3 az egyetlen program a világon, amelyen belül az összes felület tesszellálva van.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gtamate2 #8755 üzenetére

    De nem a grafikus motor teljesítményével volt probléma. Abban a Frostbite Team verhetetlen, de persze abból a büdzséből, amiből dolgoznak ez a minimum, hogy kihozzák ezt. Messze az EA költi ma a legtöbbet a motorra, és ez meg is látszik már azon, hogy a Frostbite technikailag mennyire elhúzott a piactól.
    A Frostbite Team dolga alapvetően a motorfejlesztés, míg a problémamegoldás a DICE feladata. Az biztos, hogy a DICE-nál a BF4-gyel voltak problémák, de nem a grafikával és az optimalizálással, hanem a multival és a netkóddal.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rocket #8757 üzenetére

    A Mirror's Edge Catalyst ugyanazt a Frostbite motort használja, mint amit a Need For Speed, a Star Wars: Battlefront, stb. Csak azért nem fogják a leképzőt nagyrészt átírni, hogy működjön rajta egy zárt middleware. Nem tudom kitől olvastad ezt, de ki van zárva, hogy a Frostbite Team eltölt azzal 4-5 hónapot, hogy megfeleltessék a motorjukat olyan shadereknek, amelyeket nem láttak még soha, és ezért nem is tervezték rá a motort.
    Ha úgy gondolod, hogy a GameWorks csak egy checkbox, akkor nagy tévedésben élsz, sokszor a leképző felét át kell írni, hogy egyáltalán működjön, ami azért manapság jó 2000 sor, és még így sincs garantálva semmi, ahogy láthatod, hogy a leszállított HBAO DLL a Batman: AK-ban inaktív effektet eredményezett, tehát újra neki kell ülni a leképzőnek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FLATRONW #8762 üzenetére

    A régi NV-s effektek nagyon jók. A HBAO egy nagyszerű algoritmus, és azért választották, mert jobban paraméterezhető, mint a HDAO, így jobban hozzá tudják igazítani a motor igényeihez. Ez volt mindig a jó az NV régi effektjeiben, hogy széles spektrumon testre szabhatók voltak. Persze ennek van egy olyan átka, hogy tudni kell, hogy mit csinálj velük, hiszen kaptál egy olyan forráskódot, amibe nagyon bele kellett, hogy nyúlj, de hidd el egy Johan Andersson kaliberű programozónak ez inkább áldás, mint átok. :)
    Két effektet ugyanarra a problémára nem éri meg kidolgozni. A legtöbben hülyeséget csinálnak akkor, amikor kitömik a játékot mindenféleAO-val. Sokkal többet érne, ha kiválasztanának egyet, és azt paramétereznék jóra.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gtamate2 #8763 üzenetére

    Semmiféle utalás nincs a GameWorksre. De a WCCFTech az nem hírforrás, mert írnak annyi baromságot, hogy lefordulsz a székről. Maga a játék felhasználható reklámcélra, ahogy az AMD is felhasznál egy csomó EA játékot, de nagyon kontraproduktív lenne az EA-nek GameWorksszel lassítani a játékukat 3-4 hónap extra munka árán. Mond el, hogy mi előnyük származna belőle.
    Az EA amúgy nem zárkózik el az NV-től, mert a múlt évben a Titanfall is NV-s játék volt, de abban sem volt semmi. Jó persze beígérték a HBAO+-t, de a végén nem volt kompatibilis a motorral, és hiába kapcsolták be, nem jelent meg. Mivel az effektet nem lehet átírni, így bukták, helyére ment a régi HBAO. A TXAA került bele fél évvel később. A TXAA-t szerintem az EA még megengedné, ha nem bénázzák úgy el, mint a Titanfallnál.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Egyébként csak elmondom, hogy az NV hivatalos anyagában, amit nekünk küldtek ezek a játékok szerepelnek: Call of Duty Black Ops III, Tom Clancy’s Rainbow Six Siege, Balloon, Food Maker, Tiltbrush és Aperture. Utóbbi 4 VR (HTC VIVE).
    A GameWorks szempontjából külön ki volt emelve a Gigantic című játék, hogy abban lesz! GameWorks. A többinél nem volt még csak említve sem.
    Ez egyébként nem jelenti azt, hogy a Mirror's Edge Catalyst nem volt kiállítva, vagy a címet nem ejtette ki valaki a száján, de a hivatalos sajtóanyagban egy árva szó sem esik róla.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gtamate2 #8769 üzenetére

    Inkább a PBS/PBR határozza meg a grafika minőségét. A Frostbite 3-nak is volt PBR branch-e a Dragon Age: Inquisitionhöz, de az új Frostbite már alapból és teljesen PBR-es. A másik nagy változás, hogy az EA is rájött arra, amire a Sony, hogy ha mindent házon belül írnak, akkor el tudják fedni az egyes pipeline elemek gyengéit. Ez kis dolognak tűnik, de a végeredményben óriási jelentősége van. Azzal, hogy nulla grafikai middleware-t használnak (mindegy, hogy zártat vagy nyíltat) képesek lesznek minden grafikai problémát kezelni, mert koncepció szintjén úgy építették fel a rendszert, hogy tudták, hogy "xy" dolog probléma lesz, és ezek kezelésére "zw" dolgot építettek bele. Többet is ezt az utat fogják járni a jövőben. Drága dolog ez, de nézzél rá valamelyik új EA játék gameplay videójára.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz KAMELOT #8774 üzenetére

    Amennyire egységes a piac meglátása a jövővel kapcsolatban teljesen mindegy, mert mindenki ugyanarra megy, csak van akinek kevesebb pénze van arra, hogy nagyobb lépéseket tegyen. Például a Crytek is hasonlót csinál. A CryEngine a 3.4-es verzió óta PBR-es, plusz a 3.7-es verzióból már kidobtak minden károsnak tartott grafikai middleware-t.
    Megfigyelhető, hogy a nagy GameWorks bástyának tartott UE4 is erre megy. Már egy ideje elszeparálják ezt a middleware-t a főverziótól, így keletkezik egy olyan hátrány, hogy ezek esetenként két verzióegységgel is lemaradnak. Ha nem veszik vissza őket a főverzióba, akkor az nyilván baj, mert nehézkessé válik a használatuk, de az Epic úgy érzi, hogy károsak. Érdekes egyébként, hogy az AndroidWorks ott van a főverzióban, csak azért, mert optimalizálható.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz daveoff #8777 üzenetére

    Mert egy jóval régebbi leképzőhöz tervezték, ami már nincs benne az Unreal Engine 4-ben. Ez azért számít, amikor az összhatásról beszélünk.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8884 üzenetére

    De lehet. A notis G-Sync nem használ modult.

    Egyébként meg mindegy a dolog. Az Acer és az Asus a G-Sync utolsó bástyája. De gyorsabban fejlődnek a FreeSync megoldásaik. Szóval a dolog ott eldőlt, hogy a G-Sync támogatók többsége kihátrált. A következő körben támogatnia kell az NV-nek a szabványt, mert két partnerrel nem lesz több kompatibilis termék évi 2-3 monitornál, míg a FreeSyncből dömping lesz. Már most is az van, hiszen 12 bejelentett G-Sync monitor van/készül és 0 tévé. A FreeSync 20 monitornál és 4 tévénél tart. Akkora túltermelés lesz a FreeSyncből, hogy bőven 90:10 lesz a FreeSync:G-Sync raktárkészlet arány, ami nem sok jót jelent a G-Syncnek. Az NV-nek sürgősen meg kell győznie a Samsungot és az LG-t, akár úgy, hogy fizetnek azért, hogy adjanak ki G-Sync kijelzőket. Itt az a kérdés, hogy az NV-nek a G-Sync csak üzlet vagy inkább presztízs.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8899 üzenetére

    Mert tavaly még nem voltak számok, de ezek alapján mar tisztán látszik, hogy a G-Sync sorsa attól függ, hogy az NV fizet-e a Samsungnak és az LG-nek azért, hogy építsenek legalább évi 5-5 új kijelzőt rá. Erre egyébként meg van is esély, mert az NV-nek hátrányos lenne, ha a 3D Vision után befuccsolna egy új technikájuk azért, mert a monitorgyártók a saját érdeküket nézik. De ha pusztán az anyagi szempontok döntenek, akkor egyszerűbb csendben kivégezni, ahogy a 3D Visiont.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #8902 üzenetére

    Bármennyire is furcsa, de a monitorgyártókat a pénz érdekli. Van egy probléma, van rá egy ingyenes szabvány, és tessék azt használni. Ennyire egyszerű a gondolkodásuk. Persze, ha az NV szeretné a saját technikáját használni, akkor oda kell mennie a két legnagyobbhoz legalább, hogy kifizetnek minden R&D-t, ha hozzák a G-Sync kijelzőket. Így a gyártóknak megérne, még mindig probléma lenne a marketing elosztása, illetve a szükségesnél több termék fejlesztése, de nagyjából megtarthatnák a gyártók a meglévő nyereségüket, hiszen az NV a saját technológiájukra átvállalná a költségek nagy részét.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Ren Hoek #8928 üzenetére

    Nem értem miért félnek sokan az 512 MB-os dologtól. Az baromira egyszerűen kezelhető. A program nem címzi meg és kész. Ez a legkisebb probléma a fejlesztők nézőpontjából.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák