Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz b. #212 üzenetére

    Az Epic pont azért használja a DXR helyett a saját compute shaderes RT eljárását, mert sokkal gyorsabb, mint amit a DXR-ből ki tudnak hozni.

    Igen. Például pont a Lumen vs. RTXGI a probléma. A Lumen nem csak jobb minőségű, de lényegesen gyorsabban fut azzal, hogy nem nyúl hozzá a DXR-hez. Az Epic számára nem lenne értelme lassabb és gyengébb minőségű eljárásra váltani.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #214 üzenetére

    Miért ne működne a Lumen a mozgó objektumokon? Nincs ilyen limitációja.

    A Lumen GI-nak pár limitációja van csak. Például nem üzemképes statikus megvilágítás mellett, amire mondjuk Lumen mellett nincs is nagyon szükség. Nem kompatibilis a forward leképezővel, de manapság mindenki a deferredet használja. Vizet pedig támogat, csak az úgynevezett Single Layer Water Shading Modelt nem. Ezt amúgy később támogatni fogja. És itt nem a Lumennel van a gond, hanem a Single Layer Water Shading Modellel, mert más scene based GI megoldás sem kompatibilis vele.

    Ha az lenne a legjobb, akkor azt használná az Epic, de sajnos messze van a minősége és a sebessége a Lumentől.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #217 üzenetére

    És ez a szakértő elfelejtette leírni, hogy miképpen paraméterezte a Lument, mert van rá azért nem kevés beállítás. Például milyen tracing módot használt, mennyi volt a reflection capture felbontása? A GI paraméterezésnél mit állított be ezekre: Lumen Scene Lighting Quality, Lumen Scene Detail, Lumen Scene View Distance, Final Gather Quality, Max Trace Distance, Quality? Nem tudni? Ó de kár! De azért micsoda szakértés volt. :))

    Nem az Epic nem azért használja az RTXGI-t, mert erős hardverek nélkül nem futna, ugyanis, ha a Lument felhúzod maxra, akkor az is megfektet mindent, hiszen kb. 100x többet számol, mint default, és persze a képminősége is sokkal jobb lesz, ugyanúgy az RTXGI-t is le lehet paraméterezni a defaultról, hogy gyorsan fusson, csak szar lesz a minősége. A gond az, hogy az RTXGI csak DXR-t használ, és a DXR-rel az UE5-nek egy rakás képessége egyszerűen nem kompatibilis. Tehát vagy az UE5 képességeit használják, vagy a DXR-t cserélik le olyan alternatívára, amivel használhatók a motor újításai.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #220 üzenetére

    És ebbe az összehasonlításba nem fért bele megmutatni, hogy miképpen paraméterezte a két eljárást? Ez kb. pár kép, vagy 10 másodperc a videóból.

    A Lumen és az RTXGI is két olyan eljárás, amelyek működése állítható. Van egy default működése mindkettőnek, de pozitív-negatív irányba lehet húzni mindkettőt, amitől lassulnak és gyorsulnak, illetve nő a minőség és csökken.

    Az Ubisoftot nem értem, hogy miért keverjük ide. Ők teljesen mást csinálnak, mint az Epic. A Lumen azért különleges, mert van szoftveres és hardveres módja is, annak előnyeivel és hátrányaival. Az Ubi megoldásának csak hardveres módja lesz.

    #222 b. : Láttam a videót. A beállításokat nem látom benne.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Busterftw #231 üzenetére

    Már valóban nincs eredeti G-Sync modulos monitor. Az NVIDIA 2019 eleje óta nem követeli meg.

    Mind az RDNA 2-ben, és a Turing, Ampere, illetve Ada architektúrában ugyanott vannak az RT magok: a textúrázó mellett. Ebből a szempontból egyik architektúra sem különbözik. Az RDNA 3-ba is ugyanott lesznek, illetve az Intel Arc-ban is ugyanott vannak.
    A különbség az AMD és az NV megoldása között nem ez, hanem az, hogy az NV a bejárást fixfunkciósra tervezte, míg az AMD programozhatóra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Busterftw #234 üzenetére

    [link] - itt volt régebbről a váltás.

    Ilyenkor hozta be azt az NVIDIA, hogy miket fogad el úgynevezett G-Sync processzorként. Ez azért volt nagyon fontos, mert korábban úgy utaltak erre, hogy latest G-Sync processzor, de mivel azt már nem gyártják, így szimplán van egy specifikáció, hogy a lapkáknak minek kell megfelelnie, és azt lehitelesítik NVIDIA G-Sync processzorként. Ezért nyilván fizetni kell. Viszont ezek a hardverek már nem a saját tervezésű processzoraik, hanem más gyártja, és kapnak egy hitelesítést a funkciók szerint. A régi klasszikus G-Sync processzorok már nincsenek ott ezekben az újabb monitorokban. Ennek a legfőbb oka az, hogy az eltelt időben már több nagyságrenddel olcsóbban is legyárthatók a megegyező képességek, de az NVIDIA nem tervezett belőlük újat. Így terveznek helyette a 3rd party cégek, ha érdekeltek ebben, aztán fizethetnek egy hitelesítést.

    Ilyen formában az öszes G-Sync szint egy tesztkörnyezetet takar csak, amelyen belül különböző képességeknek kell megfelelni. De az NVIDIA már hardvert nem ad bele, hanem 3rd party vagy közvetlenül gyártói lapkákat hitelesít le, hogy jók-e a szinthez, vagy nem. Ez a megoldás egyszerűen sokkal olcsóbb. Valós hátránya sincs egyébként, mert igazából semmit olyat nem tudott az NVIDIA saját hardvere, amit más gyártó lapkájával ne tudnának megoldani. Már csak azért sem, mert amióta kifejlesztették az utolsó saját lapkát, azóta eltelt fél évtized.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Busterftw #236 üzenetére

    Arról a váltásról, hogy már nem gyártják a saját lapkájukat. A legutóbbi verzió bemutatása óta eltelt 5 év, és azóta minden évben javítottak a saját lapkáikon a monitorgyártók. Nyilván nehéz lenne őket meggyőzni arról, hogy egy fél évtizede kiadott, sokkal drágábban gyártható terméket használjanak. Emiatt az NV már specifikál egy tear, és oda hitelesíti a partnerek lapkáit. Ennek két előnye van. Egyrészt nem kell gyártaniuk semmit, másrészt a hitelesítés ugyanakkora költség, tehát több pénzük lesz belőle, miközben a gyártók már használhatják is a modern fejlesztéseiket, nem kell ragaszkodniuk egy fél évtizedes holmihoz.

    Ez nem azért van, hogy szar legyen a G-Sync nagyobb tierek, hanem azért, hogy jobb legyen, és nyilván egy múlt évben tervezett lapka jobb, mint az NV-nek a 2018-as fejlesztése, vagy a korábbi 2013-as. Viszont hitelesíteni kell, hogy megfelelő-e a specifikációknak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák