Keresés

Új hozzászólás Aktív témák

  • Kansas

    addikt

    válasz gbors #110 üzenetére

    Ahogy gondolod, érvek ellen amúgy is be voltál oltva ebben a thread-ben.
    Ha sima CPU vagy vegyes limitről lenne szó, akkor nem csak és kizárólag az Ampere kártyákat érintené ez a jelenség, hanem pl. az RX6900XT-t is. Te a HU logikájában és hozzáértésében látod a hibát, én a tiédben. Kettőtök közül nem a tiéd van mérésekkel alátámasztva.

    #109 b. : és azt is elmagyaráznád, ez miben mond ellent annak amit én írtam? Gyakorlatilag inkább saját magának és a CPU-limites elméletének mond ellent.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #110 üzenetére

    Eleve a másik ALU Int32-t is csinál, aminél a warpok közötti függőség jóval ritkább, az szinte mindig befogható. Emellett nem csak az alu kapacitás a végleges teljesítmény meghatározója. Sőt, manapság számos olyan új játék van, ami már shaderek szintjén is cache-aware optimalizálást használ, vagyis a konkurens wave-ek számát egy shaderben direkt visszafogják, hogy nagyobb legyen a cache hit, ezt a leg-leg-legújabb játékok kiegészítik cache-aware leképezőkkel is. Ilyen az új EGO motor (Dirt 5), az új Anvil (AC Valhalla), az új Frostbite (Star Wars Squadron). Ezeknél már a konkurens wave-ek száma is annyira alacsony, hogy szinte minden hardveren a sárga zónában mennek, vagyis alapvetően jó ha egy wave-nek van elég adat futni.
    Egyébként az NV például ezeket a cache-aware optimalizálásokat nem ajánlja. Nem azért, mert nem lehet vele nyerni, hanem azért, mert sok a buktatója. Ha jól csinálja egy fejlesztő, akkor simán kihoz belőle +10-15%-ot, ami jó, de ha nem optimalizálnak jól, akkor ott találja magát a GPU, hogy nincs adat egy wave-et sem futtatni, ami gond. És sajnos relatíve könnyű utóbbi helyzetbe belefutni, borzalmasan jól le kell profilozni egy alkalmazást, hogy egy GPU-nál jól működjön a lokalitási elv kihasználása. És sokszor ez sem elég. A hagyományos, erőforrás-allokációra való optimalizálásnál csak az lebeg a szemed felett, hogy a wave-ekkel a hardver zöld zónájában legyél. Erre mindegyik hardver hasonlóan reagál, és valljuk be jelentős különbség az LDS és a regiszterek tekintetében sincs. Ellenben, ha a cache hitre gyúrsz, akkor úgy azért igencsak eltér a Turing, az Ampere, az RDNA, a GCN, stb. Még ha mindegyik hardveren el is éred, hogy konkurens wave-ben még a sárga tartományban legyél, akkor is az a hardver produkálja majd a legtöbb cache-hitet, amelyben egy multiprocesszor illetve szimplán az egész GPU durván ki van tömve cache-sel. Ez korunk nagy problémája egyébként, mert az új konzolokon nagyon sokat lehet nyerni ebből, míg PC-n a sok különböző architektúra miatt sok a buktató, de fejlesztőként elgondolkozol rajta, hogy csak a PC-re érdemes-e most belekezdened százezer sornyi shadert átírni. Ritkán lesz majd igen a válasz. És ez a friss játékokban már inkább hatással van a teljesítményre.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák