Új hozzászólás Aktív témák

  • cyberkind

    félisten

    válasz Petykemano #20999 üzenetére

    Azonkívül, hogy elvileg gyengébb hardver is elviszi a játékot 12-ben grafikailag nem igazán látni előrelépést, engem meg ez érdekelne, különben még mindig tökéletes a 11.

    Paranormal Cocktivity

  • Oliverda

    félisten

    válasz Petykemano #20999 üzenetére

    Az Nvidiának származott már valaha is komolyabb piaci hátránya attól, hogy a jövő helyett inkább a jelen igényeinek próbált megfelelni? Én nem emlékszem ilyenre. Ezzel szemben az AMD sem az első elkapkodott DX10-es, sem pedig az első DX11-es sorozattal nem tudott hosszabb távú előnyre szert tenni, ami ezen a grafikonon is látszik. Valószínűleg most is hasonló fog lejátszódni, mint az említette esetekben. Amire az új API-k már komolyabban befolyásolnák az összképet, addigra az Nvidiának is lesz hozzá megfelelő, akár az AMD aktuális megoldásánál jobb hardvere (Volta), eközben pedig a Radeonok kompromisszumok mentén egyensúlyoznak a jelen és a jövő között. Pár éve a heterogén mantra volt az indok, most pedig rá lehet fogni az egészet a konzolokra, de ez a PC-s gamereket szerintem nem nagyon hatja meg, a bevétel és a piaci részesedés alakulása nem hazudik.

    "Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

  • Petykemano

    veterán

    válasz Oliverda #21002 üzenetére

    Ez teljesen igaz.

    Én csak azt mondtam, hogy egy 980Ti tulajt teljesen felesleges győzködni arról, hogy a DX12 miért jó most, vagy miért lesz jó majd később. Most finnyázik, hogy semmi értelme, hol a grafikai előrelépés, stb
    Amikor majd az illető 1180Ti tulaj lesz és 10%-kal gyorsabban pörög a kártyája, mint a Fury XXX, (és persze 1.5x gyorsabb, mint a DX11-ben) akkor majd elégedetten hátradől, hogy milyen király dolog ez az async compute, meg hogy milyen szuper dolog, hogy már számít, ha a CPU-d 6-8-10 magos a kommersz 4 helyett.

    Találgatunk, aztán majd úgyis kiderül..

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #20999 üzenetére

    A hardverek nem oldanak meg mindent. Amire szükség lenne a GAB és az ARB számára az egy hardver oldali egységesítése előírása. Ez sokat segítene a fejlesztőknek abban, hogy milyen kódot írjanak az alkalmazásba. Erről egyébként szó van a háttérben. Ugyanakkor egy ilyen egységesítés lassú folyamat, mert egyes cégeknek az architektúra teljes leváltásával járna. Rövidebb távon ez gond, hosszabb távon persze megoldja magát a probléma, mert igazodni fog mindenki az API-k működéséhez. Ez már látszik is, mert a GCN mellett az új Bifrost Mali is nagyon jól illik a Vulkan ajánlásaihoz. De a Rogue is ilyen az Imaginationtől.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • cyberkind

    félisten

    válasz Petykemano #21003 üzenetére

    Az ugye fel se merül, hogy az a később kb akkor lesz amikor ezek a kártyák bármely oldalon papírnehezékké fognak válni teljesítményben, de igaz, csak egy 980TI tulaj vagyok akinek nem kell a PH mantra és csak játszani akar most is normálisan nem csak egyszer a jövőben, jókat tudtok írni. :DD

    (#21006) Malibutomi
    Tökéletes példa lesz erre a Deus Ex, feltéve ha olyan lesz mint várjuk, de nem hinném.
    Azt meg se említem, hogy Quantum Break, minőségi DX12e-s meg UWP-s cucc lett, én konkrétan eddig egy játékban vettem észre, hogy a DX12-nek hála jobban megy, ez a Tomb Raider.

    [ Szerkesztve ]

    Paranormal Cocktivity

  • Malibutomi

    nagyúr

    válasz Oliverda #21002 üzenetére

    Igaz amit irsz.
    Az viszont rohejes, hogy amig csak az AMD kartyak gyorsulnak DX12 alatt, addig verni kell a tamtamdobot egyeseknek hogy a DX12 egy szar, semmit sem er, a DX11 az evolucio csucsa, mindenre tokeletes. Amint az NV is atall, onnantol a DX12 lesz a mennyei manna.

  • Oliverda

    félisten

    válasz Malibutomi #21006 üzenetére

    Az ilyen dilettáns troll baromsággal nem kell foglalkozni.

    "Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

  • Abu85

    HÁZIGAZDA

    Az látszik egyébként, hogy nagyon sok múlik a fejlesztőkön a DX12-ben. A legjobb minőséget az Ashes of the Singularity jelenti, de ott nulláról írták motort, illetve a bevonták a fejlesztésben az összes gyártót. Jó minőség még a Hitman, a Total War Warhammer, illetve a Quantum Break. A Forza és a Gears of War közepes, de utóbbi régi alapot használt, így sok volt a korlát, míg a Forza csapata PC-n szűz volt. A legrosszabb minőséget a Rise of the Tomb Raider képviseli. Sok helyen a DX11 kód is gyorsabb, a memoriaigénye indokolatlan. Nem véletlenül nem ajánlja az MS, hogy nagy legyen az allokációs szelet, illetve azt, hogy UAV és SRV legyen direkten a root signature-ben. Tipikus idióta hozzáállás azt feltételezni, hogy az API fejlesztője rosszul tudja, hogyan működik igazan hatékonyan a rendszer.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • cyberkind

    félisten

    válasz Abu85 #21008 üzenetére

    Mire gondolsz amikor azt írtad, hogy jó minőség a Quantum Break PC-n?
    Te amúgy játszottál a játékkal PC-n?

    (#21010) Peat;)
    :D
    Én mindkét verziót próbáltam a játékból de ez így a Store-ban tökéletes kuka ahogy van.

    [ Szerkesztve ]

    Paranormal Cocktivity

  • Peat;)

    veterán

    válasz Malibutomi #21006 üzenetére

    Én különbséget tennék a között, hogy dx12 alatt gyorsul egy termék egy jó játéknál, fogjuk rá a total warra és a között hogy a nagyon rosszul megírt játékok hangyányival kevésbé futnak szarul az AMD-n, de azon sem vitézkednek a látványvilághoz képest pláne. Jelenleg többnyire erről van szó, quantum break, a világ legnépszerűbb stratégiai játéka aminek a nevét sem tudom de úgy néz ki mint red alert 2 és lehetne még párat találni ahol igazából azt nem érteni hogy miért nem directx9-el csinálták meg azt a kinézetet. Szerintem sokan erre is gondolnak, az előny irreleváns AMD-nek mert a kakiból nem csinál gyémántot, marad pont olyan barna mint nvidián. Ami meg igényes dx12 cím az azért elmegyeget szépen a zöld kártyán is és valószínű ez nem fog változni markánsan, persze minden lehet.

    cyberkind: gondolom arra gondolt hogy mivel nála gyorsul a may payne kinézetű játék 10%-ot ezért nagyon fasza. Az hogy hogyan néz ki és az a 10% mit is jelent a valóságban...mellékes. Számokkal igazolt dolgot írt és kész, a csúsztatás a mestersége. Milyen élénken bennem él amikor a 480-as megjelenés előtt a 150wattos fogyasztásra húztam a szám és jött a szokásos sejtelmes kijelentéseivel hogy nem úgy van az....meg fogok lepődni..meglepődtem, 200 watt :DDD

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz cyberkind #21009 üzenetére

    Jól működik a leképező. Átgondolt a szinkronizálás, szép az allokációs stratégia, kevés az idle buborék, átgondolt a multiengine implementáció. A legújabb patch mellett pedig már támogatva van a két új swapchain API is, így már nem gond a v-sync és a variálható frissítés.

    Persze. Megnéztem a játékot, de csak a legújabb verziót. Azt elemeztem, mert gondolkozunk azon, hogy benne lesz a tesztekben.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • cyberkind

    félisten

    válasz Abu85 #21011 üzenetére

    Csak a játék működik rosszul, semelyik beállításon nem szép(finoman fogalmazva) de legalább fullon ha akció van a 60-at még picit se tudja tartani, ja és ez FHD-n, lejjebb véve meg undorító, kb bármi jobban nézne ki és ehhez kellett a DX12, na pont ez a vicc, meg az, hogy szerinted ez jó, használható és tesztben a helye.

    (meg szerintem ha ez így annyira jól működne nem igazán készülne DX11-es kiadás, de ez már csak az én véleményem)

    [ Szerkesztve ]

    Paranormal Cocktivity

  • Petykemano

    veterán

    válasz cyberkind #21005 üzenetére

    De felmerül: épp ezért írtam, hogy - persze ne vedd személyeskedésnek - majd 1180Ti tulajként fogsz örülni annak, hogy a kártyádat nem limitálja a CPU-k egyszálú teljesítményének fejlődésképtelensége, hanem hogy milyen gyönyörűen fut a 8 magos CPU-n és tényleg jobban kiajcsa, mint a korábbi 4 magos 6700K. (Nem tudom mid van, de most ez az elérhető legjobb)
    És azt is lehelyeseltem, hogy az Nvidia valóban ügyesebb az ütemváltásokban és ezt pénzzé is tudja tenni. És míg az AMD a jövőre építve a jelenben kompromisszumos termékeket ad ki ezzel némileg savanyú szájízt hagyva vásárlóiban, az nvidia ügyesebb a felhasználóinak igényeinek kielégítésében is. Ennek árát persze keményen megfizetteti elégedett vásárlóival, aminek eredménye az üzleti jelentésekben látható.

    Azzal, hogy az AMD egy hosszútávú stratégia (API környezet megváltoztatása) végrehajtásának érdekében áldozatot kellett hozzon: be kellett építenie az új API környezetet a kártyáiba már jóval a konkourencia előtt. Szóval ezzel csak akkor nincs baj, ha ennek eredményét le tudná aratni: ha lépéseőnybe tudna kerülni, kisebb chip, nagyobb játéktér az árakkal, nagyobb teljesítmény, itt megállni és fejni a tehenet.. Vagy ha a hátrány behoizatalának ledolgozása érdekében erőn felüli költekezésre tudná kényszeríteni versenytársait. De egyelőre ilyesmi nem látszik.

    Úgy tűnik, hogy bár az AMD sikerrel hajtotta végre az API váltás kikényszerítését, de nem sikerült szoftveres dominanciát elérnie. És hát valljuk be, azért az, hogy egy hardver mit tud leadni, hogy "mi a jó hardver" az ugyanúgy függ a szoftveres környezettől, mint hogy a mérnökök hogy tervezik meg a chipet.

    Találgatunk, aztán majd úgyis kiderül..

  • daveoff

    veterán

    válasz cyberkind #21005 üzenetére

    A Tom Raider nem megy jobban DX12 alatt, ráadásul tele van grafikai bugokkal is.

    LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®

  • Pug

    veterán

    válasz #45997568 #20991 üzenetére

    Az MSI Afterburner mióta AMD software? ROFL :DDD :W

    ELADÓ Mous S24 Ultra Limitless 5.0 - MagSafe Speckled Fabric https://hardverapro.hu/apro/bontatlan_mous_s24_ultra_limitless_5_0_magsafe_spe/hsz_1-50.html

  • mlinus

    őstag

    a quantum breaknél csak egy rosszabbul megcsinált játékkal játszottam, az pedig a no mans sky. :DDD i7+gtx1080 és szanaszét stutterel, meg liftezik a framerate. elképesztő :)

    (#21015) daveoff

    a kritikus helyeken pl Geothermal valley stabilabb a dx12 verzió, még ha átlagban elmarad egy picit a dx11 variánstól.

  • gbors

    nagyúr

    válasz Abu85 #21011 üzenetére

    Tegyük fel, hogy amit leírtál, az az első betűtől az utolsóig 100%-ig megállja a helyét. Akkor ebből két dolog következik:
    - A játék alatt futó motor technológiai érettségének csak erősen limitált hatása van a játék által nyújtott vizuális élményre - a felhasználói visszajelzések alapján néhány egyszerű dologra odafigyelve sokkal jobb lehetett volna
    - Annyira technológiai szemmel nézed a játékokat, hogy egy átlagos játékos nagyon keveset tud profitálni a véleményedből - agyba-főbe dícsérsz egy olyan játékot, ami rendelkezik igencsak zavaró vizuális problémákkal

    Igazából az a gond a low-level API-kkal is, hogy jelenleg 80%-ban a technofétis szintjén vannak - szívesen elhiszem, hogy nyálcsorgatóan szép programozói megoldásokat lehet bennük csinálni, de egyelőre a gyakorlati hasznuk kimerül a CPU-limit kitolásában (amihez igazából nem kellene low-level API), valamint egy igen limitált aszinkron compute-ban, aminek még erősen (sőt egyre erősebben) kérdéses a jövője. Intel + nVidia userek számára még ez a kettő is alig-alig jelent valamit
    És akkor ott a Doom, ami lehet, hogy az első lépés egy igencsak durva szegmentálódás felé. Ami nem baj, csak éppen minimális köze van a low-level fantáziálásokhoz.

    Szóval nagyon érdekes lesz ez a Deus Ex :)

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • Abu85

    HÁZIGAZDA

    válasz cyberkind #21012 üzenetére

    Pedig igazából elég jól néz ki. Ennél jobb volumetrikus fényekkel nem igazán lehetett még találkozni. Eléggé szép a shimmering hatás elmosása is.
    Nyilván a volumetrikus fények eléggé megterhelők, és ezekre nem véletlen dolgoztak ki olyan módszert a játékban, hogy a shadow mapokkal párhuzamosan lehessen őket számolni, mert nagyon sokáig tart a számolásuk. Sajnos az igaz, hogy ha befutsz egy olyan területre, ahol sok a volumetrikus fény, és nincs hozzá aszinkron compute-od, akkor nagyon durván lemegy az fps. [link] - erre itt fel is hívták a figyelmet. Az NV drivere nem engedi, hogy a számítás párhuzamosan történjen a shadow mapokkal. Szépen beküldik a parancsokat az OS parancslistájába. Ez nem a játék hibája, hiszen láthatod, hogy a 970-nel hasonló teljesítményű 390 70-80%-kal gyorsabb. A DX11 sem fog ezen javítani, mert ott eleve nincs párhuzamos feladatfeldolgozás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #21019 üzenetére

    Inkább az a kulcstényező, hogy vannak a leképezésnek nagyon tipikus problémái, amelyeknek ma már vannak megoldásai. A kérdés az, hogy a megoldásokat érdemes-e használni, vagy érdemes megtartani a problémákat mondván, hogy a játékosok már megszokták a shimmeringet. A Quantum Break úgy döntött, hogy a leképezőnél kezelik a shimmering jelenséget, így egy Full HD-s képkocka négy HD-s 4xMSAA-s képkocka temporális projekciója. Ennek az előnye a nuku shimmering, de hátránya, hogy mozis, elmosott hatást kelt, ami a máshoz szokott játékosoknak nem jön majd be. Ugyanakkor az nem technológiai gond, ez volt a dizájn szempontjából a célkitűzés. Sajnos jelenleg nincs olyan technológia, amely minden leképzésre vonatkozó vizuális problémát kezel, így vagy az egyik, vagy a másik halmazát fogja kezelni egy elgondolás.

    A CPU-limit kitolása minden program oldalán a legfontosabb szempont. Főleg azért, mert ma már nem egymagos processzorok vannak, hanem négy vagy több. Muszáj olyan API-t kínálni, amivel ezek a magok kihasználhatók. És ehhez kellenek az új API-k, mert a régi API-kkal a parancsátadás egy szálra volt korlátozva, ami akkor is erősen limitáló volt, ha a parancskreálás esetleg több szálon történt meg. Mivel a jövőben semmi esély arra, hogy hirtelen jönnek a 15-20 GHz-es egymagos procik, így a többszálú parancskreálás biztosítása egy kulcstényező ahhoz, hogy az eddigieknél több rajzolási parancsot adhassanak ki a fejlesztők. Az, hogy csökkent a többletterhelés is, egy olyan fejlesztés, amit érdemes volt bevállalni, mert úgysem lehetett megőrizni a kompatibilitást a korábbi API-kkal. Ilyen formában érdemes nagyot fejleszteni, hogy legyen muníció évek múlva is.
    Az aszinkorn compute jövője nem kérdéses. Mindegyik DX12 és Vulkan alkalmazás használja PC-n. Emellett ahogy nő a GPU-k bonyolultsága, annál több idle buborék keletkezne abból, hogy soros a pipeline-ok feldolgozása. Egy GPU mindig is heterogén rendszer volt, és az egységek számának növelésével a munkájuk összehangolásának hatékonysága csökken. Mondjuk egy GCN a 10 wavefront/CU SIMD-del el tud menni ~6000 shaderig, de ez az a határ, ami után már érdemes növelni a wavefrontok számát, és az nem lehetséges a jelenlegi memóriamodellel. Az NV már a Kepler óta warp limiten van, mert 64/MP-nél többet nem kezel a Fermi dizájn. ~4000 shaderig sem tudnak elmenni, mert hiába rakják bele a több shadert, az architektúra nem skálázódik tovább, ugyanis nem tudnak 128 warpot futtatni a jelenlegi memóriamodellel. Persze az Intelnél látjuk, hogy van olyan megoldás, mint mondjuk a gyorsítótárak hizlalása, de ez csak a probléma kezelése lenne mindkét oldalon, mintsem valós megoldás, mert eszi a tranzisztorokat. Ahogy megyünk számban az egyre nagyobb skálázódás felé, annál inkább kell az aszinkron compute, hogy a hardver egyáltalán skálázódjon. Nem viccből építették bele tehát az API-kba. Az persze igaz, hogy a gyártók az alaparchitektúrát tekintve más fejlődési fázisnál tartanak. Az AMD itt csak azért jó, mert az alapjuk 2012-es, míg az NV-é 2009-es, az Intelé pedig 2010-es. Ennek megfelelően az alapokat rendre 2008, 2005 és 2006 körül dolgozták ki. Az AMD-nek szerencséje volt, hogy belecsúsztak a 2007-es évbe, amikor rengeteg kutatás volt arról, hogy mi a jövő. Az NV és az Intel is láthatta ezt, de ekkor már késő volt, mert nem tudtak változtatni a fejlesztéseken. A Fermi módosítás például 2012-re tolta volna a megjelenést, ami ezen a piacon vállalhatatlan volt. Szóval amint lesz egy nagy váltás az NV-nél és az Intelnél, azonnal meglesz oldva a multiengine konstrukció hatékony támogatása.

    A Doom nyilván érdekes, de nem szabad elfelejteni, hogy amit mi szegmentálódásnak hívunk (AMD shader intrinsics és NVIDIA shader intrinsics), az a fejlesztők szemében egységesítés (GPUOpen a közös PC és a konzol kutatásokért). Ebben vitathatatlan szerepe van az explicit API-knak is, mert ahhoz, hogy a PC-re és a konzolokra közös legyen a fejlesztés minden szempontból közös lehetőségek kellenek, legyen az API, shader függvények, dokumentáció, stb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • füles_

    őstag

    NVIDIA confirms GeForce GTX 1060 3GB has 1152 CUDA cores
    Ebben a teljesítménykategóriában egyre csak mennek lejjebb a vRAM kapacitással?Először 3,5 GB most meg 3 GB...Vicc ez a kártya,150$-nál nem adnék többet egy normális custom hűtésű ilyenért

  • do3om

    addikt

    válasz füles_ #21022 üzenetére

    Ez nem a legjobb húzás, ha valóban ez lesz.
    1050-et kéne kiadni vagy ennek ezen a néven jönni. Így hogy marad az 1060 név miközben kevesebb a számolóegység is megtévesztő.

    Ha érdekel valami szerelési anyag írj privátot. Eladó Schneider Mágneskapcsoló 18,5kW/38A

  • #65755648

    törölt tag

    válasz cyberkind #21012 üzenetére

    Ha Fury X-ed lenne nem panaszkodnál rá, hogy szarul fut a QB :D

    Azzal egyetértek, hogy ronda amúgy. De a szememnek nem úgy tűnik, mintha spórolásból, vagy kidolgozatlanságból fakadna a csúnyasága. Inkább pont fordítva, túltolták az effektezést. Az egész játék homályos meg életlen, mert szanaszét van post-processelve.
    Anno a NFS:MW-ben volt egy hasonló effekt, nem jut eszembe a neve (talán a motion blur?), amitől minden durván sárgás, elmosott és homályos lett, ráadásul a teljesítményt is hazavágta. Mindig úgy játszottam, hogy mindent maxra vettem, csak ezt az effektet kapcsoltam ki.
    Később a Crysis-t pl pont ezért találtam gyönyörűnek, és sztem még ma is az: tűéles textúrák, részletes modellek, éles, kontrasztos, színteli kép és tűrhető fény-árnyék effekt. Nem volt túleffektelve, csak amennyi kellett.
    Persze azóta sokkal erősebbek lettek a hardverek is meg a szoftverek is fejlődtek, már lehetne tovább közelíteni a valósághoz az effektekkel (visszavert fény hatása, fénytörés, szűrt és polarizált fények stb.), de nem kéne úgy túltolni őket hogy egy rajzfilm és egy vízfestmény közti állapotra jussunk. :W

  • cyberkind

    félisten

    válasz #65755648 #21025 üzenetére

    970-nel szörnyű volt, ott még ultra lowon is droppolt nagyon sokat, de cserébe úgy nézett ki mintha egy Xbox Classic game-et játszottam volna, jó volt. :D
    Az egész túl van effektelve és kikapcsolni se lehet, a textúrák se tűélesek, az meg csak a hab a tortán, hogy FHD-n se FHD a felbontás hanem olyan 900p vagy mennyi, tiszta vicc ez a játék, és ez jó minőségi munka PC-re. :U

    (#21015) daveoff
    Nálam mindenhol jobban ment és a 970-nel is nemhogy a TI-vel.

    (#21020) Abu85
    Ne haragudj, de ha neked ez jól néz ki akkor vak vagy, nem is olvasom tovább amit válasznak írtál.

    Paranormal Cocktivity

  • gbors

    nagyúr

    válasz Abu85 #21021 üzenetére

    Nem, a kulcskérdés az az, hogy a problémákat úgy oldjuk meg, hogy a megoldás által generált új problémák ne legyenek nagyobbak az eredetinél. Az nVidia is befürdott a TXAA-val (megérdemelten), és a Quantum Break "hangzatos f***ság" fantázianevű temporális projekcója is mellé való a szemetesbe.

    Mással vitatkozol, mint amit állítottam :) A CPU-limit kinyírása tényleg fontos, de nem kell hozzá low-level API. Ennyit mondtam, ezen szerintem sok rugóznivaló nincs.

    Az aszinkron compute-tól eddig hatalmas eredményeket nem láttam. Emellett az AMD a Polarisról mondta is, hogy ment bele olyan okosság, ami az a-c számára előnyös szituációk számát csökkenti, az nVidia eleve azt kommunikálja, hogy szerintük nem kell (jah, tudjuk, hogy miért, de nem tolják a szekeret), fejlesztők meg többen nyafogtak, hogy munkaigényes és ha kicsit elszúrnak valamit, akkor nemhogy nem gyorsul, de lassul a kód. Izolált eredményeket kéne látni 6-8 játékban, bármelyik AMD kártyával - az AotS-en kłvül hol van jelentős értéke?

    Amit a Doomról írsz, azt nem fogom. Az én fejemben úgy él a dolog, hogy a shader intrinsics (hívjuk így) használata külön kódutat jelent a két gyártóra. Nem?

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • huskydog17

    addikt

    LOGOUT blog

    válasz Abu85 #21008 üzenetére

    "Jó minőség még a Hitman, a Total War Warhammer, illetve a Quantum Break."

    Persze, hogyne a Metacritic is téged igazol a kemény 3,4 pontjával (nem). A fejlesztők unalomból és hülyeségből csinálnak külön DX11-es leképzőt és a játékosok hülyeségből örülnek ennek. :W

    #21011: "Azt elemeztem, mert gondolkozunk azon, hogy benne lesz a tesztekben."

    Már ne haragudj, ha egy közutálatnak örvendő, pocsékul sikerült játékot agyon dicsérsz, majd lehetőséget látsz, hogy bekerüljön a VGA tesztekbe. Ezek után mégis mi alapon várod el (illetve a többi PH cikkíró), hogy függetlenként tekintsenek rád, illetve az oldalra? látod, pont az ilyen és ehhez hasonló lépéseitek miatt panaszkodnak olyan sokan, sőt ahogy látom egyre többen az írásaitok minőségére.

    #21008: "A legjobb minőséget az Ashes of the Singularity jelenti"

    Ne haragudj, de innentől az írásaidat nem fogom tudni komolyan venni! A kb. 10 éves lemaradásban lévő látvány valóban "zseniális" alkotás (nem).

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • Abu85

    HÁZIGAZDA

    válasz gbors #21027 üzenetére

    Nem a befürdésről van szó, hanem a lehetőségekről. Ma nem lehet úgy megoldani a problémákat, hogy minden maradjon jó minőségű. TXAA, vagy más temporális projekció mindegy, mert a cél minden esetben a filmes hatás. A filmeken is nagyon durván alkalmaznak elmosást.

    Nyilván lebutítható a játék a rajzolási parancsok tekintetében, de mondjuk úgy lenne jó a CPU-limit kitolása, hogy a konzolon és a PC-n is elérhető legyen ugyanannyi objektum a kijelzőn, lehetőség szerint hasonló LOD, és hasonló árnyékminőség mellett. Mivel a konzolok jóval többet tudnak rajzolni, mint a PC-k, így az egyetlen lehetséges irány a PC-s API-k cseréje volt. Nem hiszem, hogy bárkinek a fején átkúszott az a gondolat, hogy tartsuk meg az aktuális API-kat, és akkor PC-re meg korlátozzák a látótávolságot. Meg lehet csinálni, csak nem célszerű.

    +10-20% azért elég jó. Az persze igaz, hogy jelen formában leginkább GCN-only.
    A legtöbb mai játékban az async compute úgy van kialakítva, hogy a shadow mapok számítása mellé legyen betolva valami compute feladat. Ezt semmilyen más formában nem lehet megcsinálni. Akármilyen hardveren malmozni fognak a shaderek, mert a shadow mapok számítása ROP limitált. A GPU-k heterogén jellege miatt számos grafikai futószalag olyan, hogy nem igazán bántja a shadereket, amelyeken ezekben az időszakokban lehet futtatni bármilyen compute futószalagot.
    A fejlesztők problémája nem kifejezetten az, hogy az async compute nehéz, hanem az, hogy általánosan jól megírni nehéz úgy, hogy működjön minden hardveren. Ezért írják ma meg nagyrészt csak GCN-re, mert túlságosan eltér a többi hardver a konzoltól, hogy az arra kialakított futószalagokat jól át lehessen hozni PC-re.
    Vannak más játékokról is fejlesztői adatok, hogy az async GCN-ekkel mennyit hoz:
    Hitman 5-10%
    Warhammer 5-15%
    Doom (8xTSSAA) 10-20%
    Quantum Break 10-15%

    Más játékokra nincs pontos adat, de tudni lehet, hogy a Forza 6, a GoW és az új Tomb Raider alatt is számít pár százalékot, illetve a Thief és a Sniper Elite 3 alatt is. Mindegyik utóbb említett játékban túl kicsi az átlapolt munka, de az előnyt jelent így is.
    Az AotS-en az async compute-nak nincs akkora értéke ma. 5-10%-os pluszt jelent, de az aktuális motorverzióban még nincs aktiválva a texel árnyalás és a raszterizálás átlapolása. Csupán némi post-process fut az új képkockával párhuzamosan. Ennek a fejlesztésnek az az elsődleges problémája, hogy a működéshez szét kell választani a texel árnyalást a raszterizálástól. Ez DX11 alatt nem lehetséges, tehát abban a frissítésben, ahol ezt bevezetik legacy státuszba kell helyezni a DX11-es kódot, mert onnantól kezdve túl sok munka lenne az eltérő API-k karbantartása.

    Ez leginkább ma már külön fordítót jelent. A legtöbb stúdió, jelen esetben az ID nem ír ennyi shadert. Van egy saját nyelvük, amit több shader nyelvre fordítanak. Ezen belül is nyelvük kezel egy rakás olyan függvényt, amit a PC-s shader nyelvek nem. Ergo nekik kell írni egy alternatív fordítót a PC-hez, hogy ezeket a különbségeket kezeljék. Bármennyire is furcsa, ez nekik sokkal inkább teher, mint olyan shader kiegészítésekre fordítani a kódot, amelyek kezelik a shader intrinsics függvényeket.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Balazs_

    aktív tag

    válasz huskydog17 #21028 üzenetére

    A leképzőről volt szó a Quantum Break-kel kapcsolatban.
    Ha egy játék kalap szar, de technológiailag előremutató dolog van benne, akkor miért ne lehetne benne a tesztekben?
    Ashes szintúgy. Le volt már írva, hogy miért nagy dolog az engine mögötte, mi volt a gond az eddigi motorokkal és miért jobb ez a motor.

    Nem vagyok piroskalapos, mielőtt megkapom Abu "védéséért", nem is az igazát magyarázom, de annyira gáz, hogy mindenbe megpróbál valaki valami hülyeséget belemagyarázni, majd kifordítja az eredeti mondanivalót.
    Mondjuk így a legkönnyebb valakit leírni.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #21028 üzenetére

    Az API-nak semmi köze ahhoz, hogy a Quantum Break mennyire jó játék a kritikusok vagy a felhasználók szemében. Nem a technológiával játszanak, hanem a játékkal.
    A DX11-től ne várjatok csodát, mert ez alapvetően egy DX12-es motor, ami viszonylag sokat nyer a DX12-től. A DX11 csak elindíthatóvá teszi a játékot Windows 7-en is, de más előnye nem lesz. Sőt, inkább elvesz a sebességtől, mert nem tudja majd párhuzamosan számolni a volumetrikus fényeket, amelyek a képszámítás nagy részét teszik ki. Nem tud majd másolni sem a temporális projekcióhoz anélkül, hogy a másolás idejére ne állítaná le a GPU-n a munkát. Ez ugye azért van, mert a DX11-ben csak szinkron copy van definiálva.

    Az alapján amit láttam a játékból technikailag igen rendben van. Megnéztem GPUView-vel. A függetlenségünket egy játék nem befolyásolja. A különbség a vélemények között az, hogy én megnéztem a programot a profilózokkal, illetve utánanéztem az alkalmazott leképezőnek, míg más esetleg nem.

    Ezt a 10 éves lemaradást egy olyan programra írod, amely a piacon egyedüliként használ texel árnyalási módszert. Ez az az árnyalási fajta, amire a Pixar animációs filmek épültek. Érdemes elolvasni a texel árnyalás előnyeit. Idei Eurographics paper: [link] - egyre több motorban találkozunk majd vele. Nyilván a Nitrous annyiban előnyben volt, hogy eleve a nulláról építkeztek, tehát volt lehetőség a legjobb árnyalást választani. A többieknek azért nehezebb lesz a váltás, mert számottevő problémát jelent majd a assettekkel való kompatibilitás megőrzése. Emiatt például a szokásos deferred és forward irányok mellett jönnek majd az extrém leképezők, amelyek már bevetik például a deferred texturázást is (az Eidos Dawn motorja erre megy el). Hosszabb távon viszont az objektumtérbe érdemes vinni az árnyalást. Itt elő lehet venni a Quantum Break-et megint, mert a saját leképezőjükkel pont azokra a problémákra akartak reagálni, amelyekre a Nitrous reagált, vagyis a textúrák stabilitását akarták jelentősen javítani. Ha tehették volna, akkor ők is mentek volna az objektumtérbe, de túl nagy változást igényelt volna a motorban. Ez az ami sokaknak nem tetszik, mert annak ára van, hogy a textúrák stabilitását utókezeléssel éred el. A Nitrous előnye ezekből adódik össze. Szinte minden egyes leképezéssel kapcsolatos jelentős problémára olyan megoldásokat kínál, amelyek nem hoznak magukkal jelentős mellékhatásokat. Ezért ez a motor az, amit ma leginkább követnek a stúdiók kutatásai.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Loha

    veterán

    válasz Abu85 #21011 üzenetére

    A Quantum Breaket remélem a GTA V helyére tervezitek berakni a tesztekben... ;]

    [ Szerkesztve ]

  • TTomax

    nagyúr

    válasz Loha #21032 üzenetére

    Ez alap.... ;] A GTAV egy kókány meló,ronda is és a kutya sem játszik vele,végül de nem utolsó sorban sz@rul fut amdvel...mennie kell...

    ★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"

  • ->Raizen<-

    veterán

    válasz TTomax #21033 üzenetére

    ;] :DDD Az egyik legnépszerűbb cím lenne amúgy de valamiért a ph-s arcoknak nem gyere be. :DDD :DDD :DDD :DDD

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz Loha #21032 üzenetére

    Nem. Öt DX12-es játékot akarunk a következő körbe, és mellé öt DX11-est. A DX12-esek közé menne a Quantum Break. Mivel ma négy DX12-es játékot tesztelünk, így ez extra lesz. A DX11-esekből nem tudom, hogy melyik marad és melyik megy. Azt nem én intézem. Az biztos, hogy a Doom az egyik DX11-es játék helyére kerül. Az is lehet, hogy a Civ6 és a Deus Ex kerül be a DX12-esek közé. Mivel nem akarunk három stratégiát ezért az AotS vagy a Warhammer megy.
    Ez lesz nagyjából az ősz. Míg télen átállunk teljesen DX12 és Vulkan játékokra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • daveoff

    veterán

    válasz Abu85 #21035 üzenetére

    Szerintem azok a DX11-es játékok maradjanak bent, amik jobban fekszenek AMD-nek, úgy lenne korrekt, és illene is a PH arculatához...;]:DDD

    LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®

  • gbors

    nagyúr

    válasz Loha #21032 üzenetére

    ;]

    (#21035) Abu85: átálltok teljesen DX12 és Vulkan játékokra? Az úgy mindenképpen... egyéni lesz ;)

    [ Szerkesztve ]

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • imi123

    őstag

    válasz daveoff #21036 üzenetére

    Szerintem kérned sem kell. :)

    Tévedni emberi dolog, de állati kellemetlen.

  • gbors

    nagyúr

    válasz Abu85 #21029 üzenetére

    A TXAA és társai a lehetőségek szar kihasználása. Én konkrétan egyetlen olyan review-t nem láttam, ahol pozitív értékelést kapott volna. QB ua. Lehet, hogy a cél a filmes hatás, de még jobb lenne, ha az lenne a cél, hogy tetsszen az embereknek. Veszek qrvadrága VGA-t azért, hogy rondább legyen a játék - a hülyének is megéri :DDD Ráadásul míg a TXAA kikapcsolható, a QB baromsága tudtommal nem.

    Még egyszer - a CPU-limit megoldásához nem kell low-level API. A DX11-ben a vonatkozó részt ki kellett volna cserélni, igen.

    A fejlesztők mérései sokat nem érnek, mert érdekeltek abban, hogy valamilyennek mutassák. Független, in-game méréseket szeretnék látni, ilyenel csak az AotS kapcsán találkoztam.
    Azzal amúgy nincs gondom, ha csak a GCN profitál belőle, mert ha ilyet tud az arch, és a fejlesztők beleteszik a munkát, akkor persze, hogy legyen gyorsabb. Ha tényleg érdemlegesen gyorsabb.

    Alternatív fordítókat írni és karbantartani persze, hogy teher. Nem is mindig éri meg - persze erre csak akkor jön rá az ember, amikor már belement a hegység méretű munka.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • #65755648

    törölt tag

    válasz gbors #21037 üzenetére

    Nem, szerintem az lenne igazságos, ha örökre maradnának a Dx11-es játékoknál. Sőt, figyelembe kéne venni, hogy sokan vannak akiknek még Dx10-es vagy 9-es VGA van a gépükben! Ők talán nem szeretnének játszani?! Az a sok millió felhasználó mind smafu a Ph-nek?! :((
    Igenis követelem, hogy térjünk vissza a Dx9-es játékok teszteléséhez! Vissza a Doom3-at!
    Kit érdekel a jövő, hiszen úgyis mindenki maximum fél évre vesz VGA-t! :W

    Csak én vagyok olyan hülye még mindig jól elvagyok egy 3+ éves VGA-val...

    [ Szerkesztve ]

  • #45997568

    törölt tag

    válasz gbors #21037 üzenetére

    Nincs azzal gond, NV izombol fejleszt Vulkanra, idezve az egyik top fejlesztojuket, raadasul jol is fekszik nekik.

    Inkabb teszteljenek olyan jatekokkal amik technologiailag modern-nek szamitanak, ne pedig 2-3 eves jatekokkal amik mar akkor sem szamitottak technikailag meghatorozonak meg ha nagy is a jatekos bazis.

    Engem az erdekel, hogy a jelen jatekai a jelen kartyain hogy teljesitenek, ergo amit iden adtak ki jatekokat az iden megjelent kartyakkal, persze lehet betenni 1-2 hirmondot a megelozo generaciobol (VGA teren) hozzajuk tartozoan egy ket jatekot, de ne a multban eljunk, hanem a jelenben, picit figyelve a jovore.

    Egy technologiaval foglalkozo topikban ez lenne az alap, kb mintha az elso 3Dmark-okkal mernenk a jelen kartyait, vagy a TimeSpy-al a 4-5 eves kartyak teljesitmenyet :U Ertelmetlen es nem igazan professzionalis.

    Elso sorban ezek a tesztek azt kellene hogy mutassak hogy az adott technologiai ujjitasok hogyan mukodnek a tesztelt kartyakon, DX11-es vilagban mar nagy ujdonsag nincs, ellenben DX12-Vulkan most lendul be. Pascal kartya tulajdonoskent erosen erdekel, hogy megy a Deus EX, Doom, nem igazan erdekel egy BF3, vagy barmelyik egy-masfel evesnel idosebb jatek, biztosan hasitani fog. Azt mar lemertek, tudjuk, az a mult. Engem jobban erdekel a most jatekai a most VGA-in hogy mennek, illetve egy ket feture ami esetleg elterjed egy even belul.

  • Abu85

    HÁZIGAZDA

    válasz daveoff #21036 üzenetére

    Nem tudom, hogy melyik DX11-es játék megy vagy marad. Azt nem én döntöm el. Nekem mindegy, hogy melyik megy.

    (#21037) gbors: Igen az a terv, hogy záros határidőn belül áttérjünk az új irányra. Mi voltunk az elsők a médiában, ahol csak DX11-es játékokkal teszteltek, és szeretnénk mi lenni az elsők, ahol csak explicit API-val tesztelnek. Minden szempontból ez az ideális, mert így jóval hamarabb tudunk az olvasóknak jövőbiztos teszteket készíteni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • #65755648

    törölt tag

    Amúgy tökre igazatok van ezzel az elfogultság dologgal. Nem is értem, hogy művelheti ezt Abu meg a Ph!
    Elég ha csak megnézzük pl a legutóbbi RX 470 tesztjüket és összehasonlítjuk a TPU tesztjével - akik egyébként olyannyira objektívek, hogy az AMD meg is haragudott rájuk, amiért nem hajlandó nekik kedvezni, ahogy erre gbors az imént rá is mutatott.
    Ph-n minden felbontás átlaga van, így TPU-n nézzük mondjuk a közepes, 1440p-s felbontást.
    Rögtön látszik, hogy a két tesztben a kártyák sorrendje, köszönhetően annak, hogy Abu-ék olyan játékokat és beállításokat választottak, amik az AMD-nek kedveznek, teljesen más...JA NEM!

    A két tesztben az összes kártya sorrendje, hajszálpontosan UGYANAZ mindkét oldalon! :Y (kivéve, hogy a Ph 290x-el, a TPU meg 390-el és 390X-el tesztelt, de ezek helyettesítik egymást).

    Na jó ez nem jött be, de azért sokat számít a körítés, a szöveg és az ajánlás is, ott biztos van különbség. Nézzük csak: a Ph! "Ajánlott" plecsnit adott a kártyának, ami nyilván túlzás azért. A TPU ennél biztos rosszabbat adott.
    B@zmeg! Ezt nem hiszem el, ez se jött be! TPU-n "Highly recommended" ("Különösen ajánlott") lett a STRIX! :W

    Úgy néz ki a valóság nem támasztja alá a fantazmagóriámat a Ph elfogultságával kapcsolatban :(((
    Pedig én annyira imádok sopánkodni :O És olyan jó a haverokkal közösen csinálni. :O

  • Abu85

    HÁZIGAZDA

    válasz gbors #21039 üzenetére

    A Quantum Breakben nyilván nem kapcsolható ki. Annak a motornak a jellegzetessége, hogy nem támogat normális textúraszűrést, tehát mindenképpen kezelni kell a textúrák stabilitását. Ha kikapcsolhatóvá tennék, akkor az nagyon zizegős képet eredményezne.

    A legtöbb fejlesztő nem teszi kikapcsolhatóvá az async compute-ot. A játékok között egyedül az AotS-ben kapcsolható ki. Más formában a meghajtóba kell egy olyan profil, ami a compute parancsolat az OS-nek küldi tovább. De csak azért, hogy lehessen mérni a különbséget nem csinálnak olyan meghajtókat, ami mindkét működési módot tartalmazza.
    Igazából a legtöbb játékban ez nem GCN-onlyra van megírva. Egyszerűen az NV meghajtói nem a GMU-k parancslistájába, hanem az OS-ébe töltik be a parancsot. Kivéve a Pascal és a Rise of the Tomb Raider. Volt régen olyan kód, ami direkt gyártóspecifikus volt, de ma már ezt kiszedték mindegyik programból. Jobb ezt a meghajtókkal kezelni, mert ha a program oldalán kezelik, akkor például örökre kizárják az NV-t a gyorsulás lehetőségéből. Érthetően ezt nem akarják.

    És ez itt a probléma az egésszel. Van a konzolról egy fordító, ami fordít HLSL XO nyelvre, és azt a fordítót percek alatt kompatibilissé lehet tenni az AMD shader kiterjesztéseire. Majd onnan mehet a SPIR-V fordítás. Ezért egységesítés ez a fejlesztők szemében. A szabványos SPIR-V-re sokkal nehezebb dolgozni a konzolhoz írt fordítóknál.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • sixpak

    nagyúr

    válasz TTomax #21033 üzenetére

    Teljesen jól fut AMD-vel...vagy inkább úgy fogalmazok, hogy nálam soha, semmi gond nem volt vele (nulladik perctől tolom) és az AMD-s ismerőseimnél sem.
    Amúgy én is örülnék, ha a tesztekben szerepelne. :K

    https://www.flickr.com/photos/86396338@N05/

  • Loha

    veterán

    válasz #65755648 #21043 üzenetére

    Amit linkeltél TPU tesztet ott a RX 470 OC -nál 1080p -ben és 1440p-ben is 10%- gyorsabb GTX 970, miközben a PH! tesztben a "referencia" RX 470 egy szinten van a GTX 970 -el. :U

    sixpak: A Quantum Break a Fury X -el is csak 30fps körül megy 1080p-ben Ultrán, de legalább a GTX 1070-et beelőzi.
    Szerintem a játék kinézete egyáltalán nem indokolja ezt a gépigényt.

    [ Szerkesztve ]

  • Malibutomi

    nagyúr

    válasz Loha #21046 üzenetére

    ...es ez miert meglepo, ha a TPU osszesen 2db DX12 jatekot tett a listaba, abbol is a Hitmant DX11 alatt merik. Helyette merik a friss - alig 5 eves - BF3-at.

  • #45997568

    törölt tag

    válasz Loha #21046 üzenetére

    Mas jatekokkal is tesztelnek a ket oldalon ahogy elnezem. Ez igy nem jo osszehasonlitas. Ha megnezed a PH teszteken a 470 DX11 alatt mindenhol le van maradva par FPS-el a 970-tol, DX12 alatt meg par FPS-el megelozi. Ez igy fair, a TPU meg 90%-ban DX11-el mer, a Batman, BF3 az vizz hogy meg a tesztben van, Anno is, meg az Assasins Creed is, Fallout is egy eleg fos megoldas 10 eves grafikus motorral.

    A PH felhozatal sem tokeletes de sokkal jobb, azt a Sniper 3-at nem ertem, de osszesegeben lenyegesen korszerubbnek hat mint a TPU-s, az egy vizz szerintem.

    szerk: hozzateszem nekem mindegy a sorrend, ami engem erdekel mar fent leirtam, egy ertekelheto, hiteles erosorrend erdekel, par FPS/% kulonseg nem, nem veszed eszre jatekok alatt.

    (#21047) Malibutomi: meg az sem erdekes hogy osszesen 2, nem azt akarjak merni mi van most a VGA technologia teruleten, hanem tobbsegeben 2-3 eves jatekok sebessegnovekedeset par generacioval kesobbi kartyakon, teljesen ertelmetlen es csak felrevezeti a vasarlot. Az aranyokkal van a gondom. Ma meg nincs DX12-Vulkan domping, de a mar par megjelent jateknal ertekelheto kulonbsegek vannak attol fuggoen hogy mennyire melyedtek el annak implementaciojaban.

    Az itteni forumozok tobbsge azt akarja latni hogy XY kartya par %-al felmossa a masikkal a padlot, az mar nem erdekes hogy ennek lenyegi, ertekelheto tobblete nincs.

    Felesleges korok ezek, meg lesznek magyarazva ugyis, AMD-s oldalon sem lattam a "mikrolagg" halmot, nem ereztem, NV oldalon sem nem tudom akarmi tokeletes driver misztikum mert megdolt. Fury X sem volt a vilagmegvalto megoldas, a 1080-am is cicereg halkan az EVGA tap-al (Fury X mar abbahagyta pl a vegere)...

    szerk-szerk: a kedvenc DX12 ellenes mantram az hogy szarul nez ki, vagy nem nez ki jobban, persze, ha tanulatlan kollega utananezne egyszer az eletben hogy mik a DX12-Vulkan API lenyegi ujjitasai, miert akartak bevezetni (!) akkor rajonne hogy nem is ezek vannak a fokuszban :DDD A sotetseg azert neha nagyot ut, persze a Vulkan-ra epitett NV-n is hasito Doom-ot nem ertek ezek vadak, ezt sem ertem. :U Nem az API-val van a gond, hanem egyes forumozok tudatlansagaval es egyes jatekok trehany DX12-Vulkan adaptaciojaval, csak nehez ezt megerteni... :DDD

    [ Szerkesztve ]

  • Loha

    veterán

    válasz Malibutomi #21047 üzenetére

    Én nem lepődtem meg, ;] csak nem értek egyet toflehivel abban, hogy lényegében ugyan az az eredmény jött ki a TPU-n, mint a PH!-n.

    Hogy miért DX11-ben teszteli a Hitmant a TPU: "The game's DirectX 12 implementation, however, is too riddled with bugs to be integrated into our test bench for now."
    Itt a topikban is volt téma a Hitman érdekes DX12 -es screenshotjai...

    rupsz: Pontosan tudom miért jöttek ki más eredmények.

    [ Szerkesztve ]

  • #45997568

    törölt tag

    válasz Loha #21049 üzenetére

    Ertem en h 6 jatek AMD tamogatott es ezt nehez elfogadni, ugyanezt a vehemenciat szeretnem megtapasztalni amikor 10 jatekbol 6-7-8-9 NV altal tamogatott jatek, mindjart helyre all a vilag bekeje.

    De nekifuthatok masik iranybol is, minek merjen egy oldal olyan jatekokkal ahol a kuonbozo zart megoldasok egy bizonyos gyarto termekeinel kevesebb teljesitmenyt veszitenek mint a konkurencia termekei, eddig az volt a mantra hogy az AMD jatekok ugyis jol mennek az NV kartyakon, ergo ez nem lehetne gond NV oldalrol sem :U Javits ki ha tevedek.

    A Snipert en sem ertem, de ez az en muveletlensegemnek tudhato be, mar biztos leirtak a tesztelok miert van ott, Thief elso (?) Mantle jatek, kuka, mar regi, nem mer semmi ertelmeset, egyetertunk, A Dirt Rally-t nem ismerem, nem tudok nyilatkozni, a kovetkezo 3 jo esellyel a DX12 lekepzo miatt, ennek lehet letjogosultsaga, AotS inkabb techdemo mint jatekteszt, de egy jo peldaja lehet a DX12 technologiai lehetosegeinek, kb mint egy 3DMark. Total War es Hitman mar elterjedtebbek, ez annyira nem veszes szerintem.

    The Division-t imadom, johet, mindegy ki tamogatja, nalam AMD-n sem szerepelt veszesen. GTA 5 allitolag az egyik legnepszerubb jatek, ha van kivansag musor akkor legyen. Mordor nem kedvencem, kicsit kakukktojas, de hat ottvan.

    Ez az en velemenyem errol a listarol laikuskent NV kartyaval a gepemben. (Fury X-el is ez volt, bar ott picit szoritottam neki hogy gyorsuljon :P ;) )

    Ahogy a Maxwell-ek hibai kijottek a DX12 teszteken ugy latszottak a Fiji hibai es gyengesegei a DX11 alatt, egal, a Pascal megoldja erobol meg nem veszit tempot DX11 alatt, illetve Vulkan alatt is jol teljesit. Szoval nincs gond, mindenki vesz maganak egy 4XX-es vagy 10XX-es kartyat es helyre all a vilagbeke.

    [ Szerkesztve ]

Új hozzászólás Aktív témák