Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz gbors #10091 üzenetére

    Aminek van látható eredménye, az nem mesterséges. A Metro Diffuse DoF-ja is ad helyenként különbséget, de már tárgyaltuk, hogy jellemzően a sebességvesztés volt a cél, mert a Ferminek jó volt a shared memory teljesítménye. Erre építették az egész effektet. Ezt sokkal jobban is meg lehet csinálni. Az AMD-nek van egy jóval erőforráskíélőbb Diffuse DoF algoritmusa. Erre azonban nem lehet még rámondani, hogy mesterséges, mert van látható eredménye, még akkor is, ha a beáldozott teljesítmény túl nagynak tűnik.
    A HDAO szintén teljesen más kategória. Rengeteg AO algoritmus közül lehet választani. A HDAO-t rendszerint azért választhatja egy fejlesztő, mert rendkívül gyors algoritmus azzal, hogy használja az LDS-t. Ha minden számítást teljes felbontáson csinálsz, akkor ez a különbség óriási sebességelőnyt jelent. Emellett a HDAO a többi AO-val ellentétben csak depth információkat igényel a képkockáról, így rugalmasabban lehet implementálni bizonyos render mellett, emellett jobban kíméli a memóriát a kevés input és output miatt. Ennél jobb megvalósítás AO-ra nem létezik, ráadásul nem kötelező teljes felbontáson számolni, bár tény, hogy az LDS miatt ez az algoritmus kevésbé érzékeny erre, mint a többi. Jellemzően a játékok csak a HDAO mellett alkalmaznak teljes felbontású AO-t. A HBAO és a tradicionális SSAO mellett felezett vagy negyedelt felbontással dolgoznak maximum, ez persze beállítástól függ. A HDAO hátránya viszont, hogy az LDS miatt ez egy DirectCompute 5.0-t igénylő algoritmus, vagyis DX10.1/10/9-es kártyákon nem fut. Ez az ami esetenként ellene szól. Ha a fejlesztő nem csak DX11-ben akar AO-t, akkor a HDAO mellé mindenképpen implementálni kell egy másik megoldást.

    Viszont a fejlesztés költségét is vissza kell hozni. Ezt korábban jellemzően a 100 dollár alatti szint termelte ki, és a drágább termékek voltak a ráadások. Most a VGA-k esetében a cégek ezzel nem számolhatnak már annyira, mert az IGP-k zabálják azt a piaci szegmenst, amiből korábban a nagy nyereség jött. Innen tehát csak az a lehetőség, hogy a drágább termékeket még drágábban adod, hogy meglegyen a pozitív mérleg. Nyilván ha rendelkezel IGP-vel, akkor egyszerűbb a helyzet, mert van némi mozgástér az árversenyre, de IGP nélkül a piac legjobban tejelő részéről kiszorulsz, így minden pénzt VGA-kból kell kitermelni, ami egyre nehezebb, és egyre magasabb árakat eredményez.

    A VGA-piac már nem diktál. Nincs benne az a pénz, amire a cégek építhetnének. Egyszerűen tervezni sem érdemes egy olyan piacra, ahol az IGP-k gyorsabbak, mint a nyereség oroszlánrészéért felelős VGA-k. Ez csak egy ideiglenesen fenntartható állapot, hosszabb távon integrálni kell. Még az NV-nek is meg van erre a víziója, hiszen a Kepler után a Maxwell már nem GPU lesz, hanem APU. Az NV és az AMD a VGA-kra már nem céloz semmit. Lesz, ami lesz kb. így állhatnak hozzá, ellenben vannak növekvő területek, amire egyre erősebben koncentrálnak, és ide tervezik az architektúrát. Ez sokkal fontosabb, mint nyerni egy csatában, majd nézni azt, hogy egyre kevesebb az eladás ezen a piacon.

    A Fermi és a Terascale viszonya más volt. A Cypressel sem volt okosabb az AMD, egyszerűen csak meg kellett nézni a VLIW4-et élesben még a Trinity előtt. Az új IGP-t látva ennek nagy haszna volt. De ez is a tipikusan így alakult helyzet.
    Az új architektúráknál senki sem volt okosabb. Egyszerűen az NV-nek a Kepler másra kell, mint az AMD-nek a GCN. Nyilván a Tegra piaca még nem áll olyan szinten, hogy olyan újításokat befogadjon, mint amik megtalálhatók a GCN-ben, míg a PC-s piacon már várnak ezekre. Ez egy logikus döntés, mert az ultramobil termékekben a fogyasztás még elsődleges, így csak addig érdemes építeni be az újdonságokat, amíg ki is lehet azokat használni. Jellemzően ott tart a piac, hogy kezdik a fejlesztők nézegetni az OpenCL-t. Az NV-nek emellett lesz CUDA is. Mindez ugye megoldható az Android NDK mellett. Később persze már az ARM terveiből is látszik, hogy itt is a heterogén éra bontakozik ki, így nyilván lehet erősen rámenni az újításokra. Valószínű, hogy az NV marad a saját terepén a CUDA-val és a PTX-szel, míg a többi cégnek csak a HSA marad, mint egyetlen független és nyílt alternatíva. A Kepler és a GCN közötti különbség tehát abból ered, hogy az egyik ki tudja jövőre használni az extra tudást, míg a másik olyan piacot céloz meg, ahol ennek még nem lenne jelentősége.

    (#10093) Löncsi: Sokszor teljesen félreérted az egészet. Nem fog itt csődbe menni senki. Még az NV sem, semmi bajuk nem lesz attól, hogy szűkül a VGA-piac. Ha nem jelentették volna be a Project Denvert, akkor lehetne bajuk, de így, hogy ennyire gyorsan reagálnak a változásra, és ennyire gyorsan előtérbe került náluk is az integráció, így simán le tudják fedni a jövőben esedékes igényeket. A különbség, hogy nem VGA, hanem komplett platform formájában teszik ezt. Ezzel még jól is járnak, hiszen nem függnek többé az Intel akaratától, így az olyan jó projekteket nem kell kényszerből leállítani, mint mondjuk az Ion.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák