Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz b. #87 üzenetére

    Egyáltalán nem nagy szám. A dolog annyi, hogy ezek az RT hardverek nagyon különbözőek, de abban azért megegyeznek, hogy több ray intersect egység van bennük. Ezt hívhatod magnak is, a marketing annak fogja, de igazából nagyon nem magok, de most mindegy, inkább egy nagy hardverblokk részei, de hát ez a marketing világában mindegy. Na most ebből az RDNA2 dizájnokban minden textúrázócsatornára fel van fűzve egy, míg a többi hardveren ezek azért sokkal ritkábbak.
    Az AMD azért csinálta így, mert bizonyos, amúgy gyorsítható lépcsőkben az ALU-kra építenek, viszont ilyen formában jobban lehet igazodni a DXR 1.1 újításaihoz, amelyek erősebben elviszik a bejárást a programozhatóság irányába. És feltehetően ez a programozhatóság a jövőben még jobban ki lesz terjesztve, így pedig az AMD dizájnjával ehhez nem kell új hardveres felépítés, hanem szoftveresen le tudják követni a változást, méghozzá úgy, hogy közben számos futószalaglépcsőre megmarad a hardveres gyorsítás. Ez például a Microsoftnak egy tök fontos dolog, mert mondjuk például a DXR 1.2-re, vagy 1.3-ra nem tudnak majd kihozni új Xbox konzolt, de ha a hardver elég rugalmasra van tervezve, akkor elég csak a szoftvert frissíteni, és megmaradt a gyorsítás lehetősége is.
    Viszont az önmagában nem sokat ér, hogy a hardver tele van pakolva ray intersect egységekkel. Kibaszott magas lesz az elméleti GigaRays/s, feltéve persze, ha az elméleti adatnál nem veszik figyelembe a különböző többletterheléseket, illetve az árnyalást. Kb. hasonló a helyzet az NV Fermihez. Az is egy tesszellátor szörnyeteg volt, alázott a szintetikus programokban, de szart sem ért vele a játékok nagy részében, mert bejött a képbe a quadraszter limit. Hasonló van a sugárkövetésnél is. A valós gyakorlatban, nem igazán a hardver egy specifikusan erős részét célzod, hanem a teljes egészet, és jó eséllyel nem a ray intersect egység lesz a limit, hanem valami más, legtöbbször a memória-sávszélesség, de ha az nem is, akkor még simán nagyobb limit lehet a shadinghez az ALU kapacitás. A legtöbb effekthez azért kell árnyalás. Tehát ennek a magas számnak valós teljesítményhaszna nem nagyon van. Maximum szintetikus cuccok, ahol tényleg rágyúrod a programot arra, hogy a tipikus limitek ne legyenek meg, és az erősre tervezett részegység alázzon. De mondom ez kb. annyit fog érni a valóságban, mint az NV-nek a Ferminél a tesszellátor. Sokkal jobban számít, hogy a tipikus limiteket hogyan kezeli a teljes rendszer. És itt jön elő az a probléma, amire nem lehet igazán számolni egy elméleti értéket, mert a sugárkövetés erősen függ a körülményektől. Nagyon csúnyán megfogalmazva nem minden sugár esetében egyformák a számítások.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák