Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz hombre[EU] #64 üzenetére

    Önmagában semmit, mert ahogy látom nincs megadva a konkrét körülmény. De ha feltételezzük, hogy árnyalás nélkül van számolva, illetve nincs beszámolva semmilyen többletterhelés az üres shader meghívásából, akkor ez lényegében 380 Gigarays/s, ha nagyon összehasonlítást akarsz. De a körülmények részletezése nélkül ez pont annyira hasztalan paraméter, mint a GeForce RTX-ek esetében. Nem úgy működik a sugárkövetés, hogy a teljesítményt egy ennyire leegyszerűsített számmal meg lehetne adni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #87 üzenetére

    Egyáltalán nem nagy szám. A dolog annyi, hogy ezek az RT hardverek nagyon különbözőek, de abban azért megegyeznek, hogy több ray intersect egység van bennük. Ezt hívhatod magnak is, a marketing annak fogja, de igazából nagyon nem magok, de most mindegy, inkább egy nagy hardverblokk részei, de hát ez a marketing világában mindegy. Na most ebből az RDNA2 dizájnokban minden textúrázócsatornára fel van fűzve egy, míg a többi hardveren ezek azért sokkal ritkábbak.
    Az AMD azért csinálta így, mert bizonyos, amúgy gyorsítható lépcsőkben az ALU-kra építenek, viszont ilyen formában jobban lehet igazodni a DXR 1.1 újításaihoz, amelyek erősebben elviszik a bejárást a programozhatóság irányába. És feltehetően ez a programozhatóság a jövőben még jobban ki lesz terjesztve, így pedig az AMD dizájnjával ehhez nem kell új hardveres felépítés, hanem szoftveresen le tudják követni a változást, méghozzá úgy, hogy közben számos futószalaglépcsőre megmarad a hardveres gyorsítás. Ez például a Microsoftnak egy tök fontos dolog, mert mondjuk például a DXR 1.2-re, vagy 1.3-ra nem tudnak majd kihozni új Xbox konzolt, de ha a hardver elég rugalmasra van tervezve, akkor elég csak a szoftvert frissíteni, és megmaradt a gyorsítás lehetősége is.
    Viszont az önmagában nem sokat ér, hogy a hardver tele van pakolva ray intersect egységekkel. Kibaszott magas lesz az elméleti GigaRays/s, feltéve persze, ha az elméleti adatnál nem veszik figyelembe a különböző többletterheléseket, illetve az árnyalást. Kb. hasonló a helyzet az NV Fermihez. Az is egy tesszellátor szörnyeteg volt, alázott a szintetikus programokban, de szart sem ért vele a játékok nagy részében, mert bejött a képbe a quadraszter limit. Hasonló van a sugárkövetésnél is. A valós gyakorlatban, nem igazán a hardver egy specifikusan erős részét célzod, hanem a teljes egészet, és jó eséllyel nem a ray intersect egység lesz a limit, hanem valami más, legtöbbször a memória-sávszélesség, de ha az nem is, akkor még simán nagyobb limit lehet a shadinghez az ALU kapacitás. A legtöbb effekthez azért kell árnyalás. Tehát ennek a magas számnak valós teljesítményhaszna nem nagyon van. Maximum szintetikus cuccok, ahol tényleg rágyúrod a programot arra, hogy a tipikus limitek ne legyenek meg, és az erősre tervezett részegység alázzon. De mondom ez kb. annyit fog érni a valóságban, mint az NV-nek a Ferminél a tesszellátor. Sokkal jobban számít, hogy a tipikus limiteket hogyan kezeli a teljes rendszer. És itt jön elő az a probléma, amire nem lehet igazán számolni egy elméleti értéket, mert a sugárkövetés erősen függ a körülményektől. Nagyon csúnyán megfogalmazva nem minden sugár esetében egyformák a számítások.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Tetsuo #109 üzenetére

    Nem összehasonlítható csak a multiprocesszorok szintjén. De amúgy 12 volt a simában és 40 az X verzióban.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #128 üzenetére

    A kiterjesztésnek nincs köze ahhoz, hogy a wave-ek hogyan futnak. Az architektúraspecifikus. A fordító előállítja a megfelelő wave-eket. Az új Xbox még a wave hosszát is variálni tudja, tehát sokkal többre képes, mint bármelyik korábbi architektúra. De ez sem igazán számít a sugárkövetésnél. A legnagyobb limitek nem ilyen kis működési szinten állnak be.

    A Vulkan SPIR-V-je kb. ugyanúgy működik, mint a DXIL. Nincs nagyon lényeges különbség a funkcionalitás között. Ezért tudja a Khronos a shader modell 6+ függvényeit teljes méretékben támogatni. Ha nem hasonlítana a két IR ennyire, akkor sokkal nehezebb lenne az új specifikációk szerint írt HLSL shadereket módosítás nélkül SPIR-V-re fordítani.

    Vannak dolgok, amiben a DirectX 12 és a Vulkan különbözik, például a bekötés, de szerencsére az IR nagyon hasonló, erre figyelnek, mert a bekötéshez igazodni nagyom maximum egy-kétezer sornyi különbség, de a nagyon eltérő IR, akár több tízezer sornyi módosítást is igényelhet.
    A szinkronizáció még eltérő a két API-ban, de ez sem igazán lényeges. Nagyon kevés kódsor vonatkozik erre, így könnyű az eltéréshez igazodni. Főleg úgy, hogy az alapkoncepció nagyon hasonló.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #131 üzenetére

    Nem tudom, hogy mire gondolhatnak, de a wave-ek valójában az adatpárhuzamosságra építenek. Ezeknél a SIMT architektúrájú GPU-knál az a lényeg, hogy ugyanazt az operációt több adatot végre tudod hajtani párhuzamosan. Akkor nincs ez kihasználva, túl nagy a regiszterallokáció kellő mennyiségű wave-et futtatni például. Ehhez az API-nak nem sok köze van, inkább a wave programozásra építő programozási nyelv lehet benne kritikus tényező, de sokkal inkább maga a megírt program. Vagy még a hardver, de mivel egy GPU sem használ dinamikus regiszterallokációt, így ezt hagyjuk ki.
    Pontos ütközést kapsz DXR-rel, meg a Vulkan-féle RT-vel is. A hibrid tényező itt a lényeg, vagyis az, hogy a sugárkövetés effektekre van korlátozva, az így számolt eredmények lesznek felhasználva a raszterizáláshoz. Ebből a szempontból nincs semmi különbség a két API tekintetében.
    Nem nagyon látom, hogy miben rontaná a pontosságot, ha szándékosan, mondjuk nagy regiszterallokációval úgy küldené rá a rendszer a hardverre a wave-eket, hogy rosszabb legyen a kihasználása. Attól még ugyanazt a számítást fogja elvégezni, csak lassabban.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz martonx #165 üzenetére

    Cserébe a Sony gondolt olyan problémákra is, amire a Microsoft nem. Például a koherenciamotorokkal.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz martonx #169 üzenetére

    Arra, hogy még a marhanagynál is jóval nagyobb világot építs töltőkénernyők nélkül.

    (#170) martonx: Csak ugye az új konzolok az SSD-t itt nem erre használják. A kulcsszó a finomszemcsés adatmozgás. Ehhez hasonló eddig nem nagyon volt. Talán a Radeon Pro SSG volt az, ami megmutatta az előnyeit, de ugye nem gaming célzattal. Viszont maga az alaptechnológia nagyon is alkalmas a játékokhoz. A Sony rendszerével sokkal nagyobb világok tervezhetők, mert azért a tipikus problémákat kiszűri. Például azt, hogy minden textúrabeolvasásnál törölni kell a cache-eket. Ez tényleg elég nagy gond, ha nem kezelik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák