Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz adamssss #3 üzenetére

    A memória itt és máshol sem számít, mert ahhoz beállítható a grafika. Itt azzal van a gond, hogy a motorban a memóriakezelést rászabták a GCN S.I./C.I.-re, de nem szabták rá a V.I.-re. Például ott a PvsZ: Garden Warfare, nincs semmi gondja, mert amikor azt írták már volt GCN V.I. mintájuk a fejlesztőknek. A BF4 ebből a szempontból egyszerű, mert csak vissza kell portolni a játékba a PvsZ backendjét.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz adamssss #7 üzenetére

    Azért kapott a Battlefiled 4 egy memóriafigyelőt, hogy lekérdezhesd, hogy a játék mennyi memóriát használ. Én csak az MSAA-t kapcsoltam ki, és semmi anomália nincs 270X-szel, a memóriafigyelő 2 GB környéki használatot ír. Single-ben kétszer, multiban háromszor gyorsabb a DX11 kódhoz képest.
    A Thiefet csak most kezdtem el (időhiány, ez van :) ). Azzal SSAA nélkül szintén semmi gond. Sokkal jobban fut.
    A Tonga ugyanezekkel a beállításokkal nem olyan gyors, mint a 270X. Picit lassabb nála.
    A PvsZ: Garden Warfare esetében semmi gond, az jól műxik mindennel, bár az eléggé speckó játék.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Goblin12 #10 üzenetére

    A GCN V.I. az fix, de ha írsz egy kódot PC-re, akkor annak még futnia kell a többi GCN-en, a Kepleren és alverzióin, a Maxwellen és annak alverzióin, illetve a különböző Intel IGP-ken. És ezt mind egy alacsony szintű elérésből.

    A Qualcomm sem dokumentálja a hardvereit. Az NV csak azért pofozzák a fejlesztők, mert ők régebben megtették, illetve PC-n ez szokás volt. Ma már nem teszik meg. De nem ők az egyetlenek. Ma az AMD, az Intel, az ARM és a Broadcom dokumentál. A többiek nem igazán. Szóval ez felhívás mindenkinek.

    Most az SLI/CF mindegy. Az egy másik történet, ott is lesznek bajok, de az független ezektől. Arról van szó, hogy a konzolban mindenkinek ugyanaz a hardvere, míg a PC-n ez nem igaz. Egy csomó gyártó csinál GPU-t, és azokon is jól kell futnia a low-level kódnak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sinesol #12 üzenetére

    Azt kihangsúlyozta mindenki, akit megkérdeztem, hogy a kompatibilitás biztosított. Tehát ha jön egy nulláról fejlesztett új architektúra, akkor az is működni fog. A low-level kód miatt viszont lehetséges a teljesítménycsökkenés. Én erre 20-30%-ot kaptam maximum. És ez szerintem is abszolút reális, bár feladatfüggő. Viszont mindenki úgy látja, hogy a low-level elérés így is előnyös, mert kedvezőbb a hardverkihasználás.

    Azt nem írtam bele, de a DX11 nem azért nem jó, mert magas szintű API, hanem azért mert a megfogalmazás szerint az absztrakció szintje túl magasan van ahhoz, hogy gyors legyen, de túl alacsonyan ahhoz, hogy hatékonyan lehessen programozni. A Nixxes szerint ez a legrosszabb kombináció, ami létezik. Innen muszáj elmozdulni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smkb #15 üzenetére

    A DX12 pont ugyanazon az absztrakciós szinten van ahol a Mantle. Vagyis, ami a Mantle esetében probléma az pont ugyanúgy probléma lesz a DX12-vel is.
    A DX12 driver is csak egy shader futtatását lehetővé tevő réteg. Minden más, ami korábban a driverben volt a DX12-vel is bekerül az alkalmazásba. Kisarkítva ezt az alkalmazás válik egy általános driverré.

    (#18) Sinesol: Nem. A DX12-vel és a Mantle-lel eltűnnek a profilozások. Mindent az alkalmazás fejlesztője ír bele a programkódba. Ahogy az működik úgy működik mindenen. Ha rosszul működik, akkor csak az alkalmazás fejlesztője lesz képes javítani.

    (#9) adamssss: :))

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sinesol #25 üzenetére

    Ha az alacsony szintű kód optimalizálásakor nem vették figyelembe azt az architektúrát, ami épp neked van (és mázlid sincs), akkor igen, a meglévő architektúrád is "büntit" fog kapni. Bár amelyik architektúra már megjelent és jól dokumentált, arra gyorsan lehet optimalizálni.

    A hardverek elavulása mindenképp felgyorsul. Elsősorban azért, mert azt az R&D büdzsét, amit pár éve minden kiadó megszüntetett a PC-vel kapcsolatban hamarosan visszarakják a piacba, mivel a low-level API kiszámítható. Ez fel fogja gyorsítani azoknak az új hardveres képességeknek a kiaknázását, amelyek csak úgy hirtelen bevetődnek a semmiből. Akár day0 szinten is lehetséges, hogy egy játék egy új hardverrel együtt érkezzen és egy effektje használja a hardver egy új képességét.

    Írd nyugodtan. Jó gondolat volt. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz arn #29 üzenetére

    Régen egy picit más volt. Ott még a Glide egyes verziói sem voltak teljesen kompatibilisek. Ezért volt nagy átállás az általános API-kra.

    Ma azért történik az átállás, mert az elmúlt 10 évben bevetett hatékonyságnövelő DirectX újításokból semmi sem működött. Ezért lesz a következő általános API, vagyis a DirectX 12 low-level. Kvázi ugyanazokat a megoldásokat hordozza magában, mint a Mantle. És ugyanazok is lesznek a problémái.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #47 üzenetére

    Meg sincs említve a hírben az NVIDIA.

    (#35) Duck663: Semmi. Az elméleti lehetőség adott, és nem nehéz. A gyakorlatban a fejlesztők múlik.

    (#37) Rojik: Két éves távlat elég nagy, és általában a fejhasználók úgy váltanak, hogy legalább 40%-kal gyorsabbat vesznek. Tehát normál fejlesztési ciklusok mellett mindenképp gyorsulás lesz. Azok számíthatnak lassulásokra az új érában, akik évente négyszer is cserélnek. A tipikus hardcore réteg.

    (#42) Jack@l: A Garden Warfare memóriaigénye nagyobb a BF4-énél.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #53 üzenetére

    A látványvilág egy dizájn döntés. Ettől még ugyanolyan elemekből áll, mint a BF4, és bizony több VRAM-ot és rendszermemóriát is eszik.

    (#51) leviske: Töredezett nem lesz, mert a kompatibilitás garantált. Nem csak elméletben.

    Áthozhatják a konzol kódjaikat, csak nagyon lassan fog futni az NV és Intel hardvereken. Az elméleti lehetőségeket nem feltétlenül kell követni. Ez alapvetően az MS ötlete, de számukra mindegy, hogy melyik hardvergyártó architektúrája domináns. A fejlesztőknek nem feltétlenül az. A piac érdekeit előnybe helyező fejlesztők biztosan átírják a kód kritikus részeit, hogy kedvezőbb legyen a PC ökoszisztémának.

    (#54) Kotomicuki: Akár hiszed akár nem, van róla szó, hogy a low-level API-kra húznak egy high-level réteget. De előbb a low-level kérdést akarják megoldani a fejlesztők problémáival, aztán az onnan már kiegészíthető bármivel.

    (#58) AAAgold: Anno 15 éve igen. Ma viszont túlkoros ez a modell. Mindenképp kell az új.
    Több dolgot kell beírni a low-level API-val, de nem nehezebb, mert látható a teljes kód. Most az a gond, hogy ha lassú a kód, akkor hibakeresés helyett inkább érdemes újraírni. Nem lehet kideríteni a teljesítménygond okát, mert a driver túl sok mindent elrejt.

    (#60) gbors: Egyetlen általam megkérdezett fejlesztő sem tért ki hardvergyártókra. Nem is akartam belekeverni ezt egy elméleti dologba. De ha itt tartunk, akkor a Qualcomm sem dokumentálja a hardvereit. Ők is támogatják a DX12-t. Viszont a dokumentálás kell, mert senki sem tud ismeretlen működésű hardverekre optimalizálni low-level kódokat. Ez túlmegy az akarat problémáján. Még ha akarják sem képesek rá.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #63 üzenetére

    Igen erről beszélünk. Ennek a grafikája egy dizájn, és lényegében pont ugyanazt csinálja, mint a BF4, csak több adattal dolgozik. Illetve a Garden Warfare már a motornak a kezdetleges PBS verzióját kapta meg. Majd a Dragon Age Inquisition kapja meg teljesen ezt a fejlesztést.

    A grafikai dizájnból sose indulj ki. Az egy döntés, és technikai szinten semmit sem változtat egy motor működésén. Márpedig a motor szempontjából lényegtelen, hogy realisztikus vagy rajzfilmszerű textúrákkal számol. A számítás maga ugyanaz lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Dr. Akula #65 üzenetére

    Szerintem ennek jóval mélyebb gyökere van. Már 2010-ben is látható volt, hogy a piac szűkülni fog. Az NV készített is egy tanulmányt, amiben saját maga vázolta fel, hogy a különálló gyorsítók idővel eltűnnek. Mivel ezt biztosan felismerték hamarabb, így lehet azért tenni, hogy ha egy piac már nem kap levegőt, akkor ráköthető legyen egy lélegeztető. Mesterséges beavatkozásokra mindig van lehetőség, és úgy gondolom, hogy a fejlesztőktől való elzárkózás egy lélegeztető. Az elzárkózás eleme a GameWorks, ami nem egy szimpla effektgyűjtemény, hanem az NV saját "mostantól én mondom meg, hogy milyen sebességgel futhat a játék" környezete. Nem véletlenül szállítják zártként, amihez a motort kell hozzáigazítani, mert a forráskódot csak felügyelet mellett lehet módosítani, csak jobb kompatibilitási céllal.
    A lélegeztető pedig elkezd működni, és ha az NV azt mondja, hogy xy effekt olyan terhelést fejt ki, hogy csak 780-on fut, akkor azon fut. Ha a fejlesztő szerint ez nem igaz, akkor sem tud mit tenni a DLL-ekkel tarkított zárt SDK-val. Szimplán nincs lehetőség optimalizálni a kódot, a fejlesztők dokumentáció hiányában azt sem tudják hogyan kell Kepler és Maxwell architektúrákra optimalizálni. A legjobb amit tehetnek, hogy elhiszik azt, amit az NV mond. Még ha érzésre nagyon lassan fut, akkor sem tudod őket megcáfolni, mert nincs a birtokodban olyan eszköz (ISA/hardver dokumentáció és forráskód), hogy bizonyítsd az igazad.

    Most a háttérben a piaci kontroll áll. Mindenki kontrollálni akarja a VGA-k szegmensét, mert enélkül már nem éri meg. Az NV-nek van erről egy elképzelése, és ugyanúgy az AMD-nek is, hiszen pont úgy érinti őket ez a probléma, mint az NV-t. Az AMD csak más oldalról közelíti meg. Szerintük a PC problémája abból ered, hogy a kiadók lelőtték a kutatásokat, mert szimplán a PC-s szoftverkörnyezet nem felel meg ahhoz, hogy ide pénzt öljenek. Tehát az AMD elvi megoldása, hogy lecserélik a PC-s szoftverkörnyezetet és a kiadók számára újra reális terep lesz a PC a kutatási vonalon, akár PC exkluzív effektekkel, eljárásokkal, stb. Ez is egy lélegeztető, hiszen eladást fog generálni, mivel az új kutatásokat a gyors hardverekre alapozzák.

    Végeredmény ugyanaz. Az NV megmondja, hogy az új saját effekt csak az új hardveren fut. Nem tudsz vele vitába szállni. Az AMD olyan effekteket akar, amelyek csak az új hardveren futnak. Nyilván stúdiószintű fejlesztés, tudod róla, hogy oda készítetted. Végeredményben tehát mindkét opcióval hardvert kell venni. Lehetőség szerint VGA-t. :)

    (#74) Jack@l: A textúrák mérete a Garden Warfare játékban ugyanakkora, mint a Battlefield 4-ben. Persze a megfelelő beállításokkal, mert ez is változtatható. A poligonszám is kb. azonos.
    Még egyszer mondom, hogy egy hardver nem nézi, hogy egy játék rajzfilmszerű dizájnt használ. Az adatokat dolgoz fel, és ennek tekintetében a Garden Warfare és a Battlefield 4 terhelése egységnyi jelenetbeli komplexitás mellett megegyezik. Az tök mindegy, hogy a tartalom milyen, ha a feldolgozásra váró adatok mérete megegyező, és az effektek is ugyanazok a két játékban.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Rojik #76 üzenetére

    Csak elméleti választ tudok neked adni. Azt megadom. Lehetséges, hogy ha veszel egy új hardvert, az a low-level eléréssel bizonyos játékban nem fog annyit tudni, mint a régi. De ez nagyban függ a játéktól, a architektúrától, az új hardver sebességétől, stb. De lehetséges. Viszont szerintem is ad annyi előnyt a low-level elérés, hogy ez a fejlesztőket ne érdekelje túlzottan.

    (#77) Duck663: A GameWorks leginkább az Intelt szívatja, mert az ő hardvereiken fut messze a legrosszabbul az NV által írt kód, és az NV is tudja, hogy nincs erőforrásuk arra, hogy visszafejtsék, átírjanak a 4000-6000 soros shadereket. Egyszerűen nem rendezkedtek be erre. Illetve eleve az Intel IGP-k terméktámogatási ciklusa annyira rövid, hogy egy játékra vonatkozóan nem fognak hozzá egy évig is eltartó optimalizálási munkának. Egyszerűen mire kész lesz a teljes optimalizálás, addigra megszűnik a hardver terméktámogatása. Szóval az Intel ellen ez a modell nagyon is ütőképes. Pont ott forgatja bennük a kést, ahol nincs rajtuk páncél. Illetve ez stratégia is. Még a sokkal lassabb GeForce-okat is érdemes berakni az Intel IGP-k mellé, mert a GameWorks játékokban ezek akkor is gyorsabbak, ha 3DMarkben csak feleannyi pontra képesek.
    A fejlesztők többsége már döntött arról, hogy részt vesznek-e benne. Akik nagyon tehetősek és sok büdzséjük van a PC-re azok kimaradnak belőle, de akiknek szükségük van nagyon a pénzre azok részt vesznek benne.

    (#82) Goblin12: A CF/SLI-re most nem lehet értelmes támogatást csinálni. A Mantle-ben például van teljes QoS a gépben tárolt GPU-k működtetésére. Ha ezt átmentik más low-level API-k, akkor a multi-GPU új szintre emelkedhet.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz hugo chávez #91 üzenetére

    Csak megvárják a DX12-t. Azután a legtöbb fejlesztő visszatér a régi "rakunk pénzt a PC-be vonalra", mert lesz értelme. Nem lesz útban egy elavult API. Innentől kezdve nem lesz túl sok értelme zárt kódokban utazni. Szóval ez automatikusan megoldja a helyzetet.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Goblin12 #90 üzenetére

    Igen. Már le vannak ezek az igények az MS-nek. Idővel meg lesz oldva szabványosan is. Lehet, hogy nem 2015-ben, de meg lesz oldva.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #102 üzenetére

    A GameWorks mindenkit szívat, hiszen nem teszi láthatóvá a forráskódot. Az Intel csak azért szív jobban, mert a driverfejlesztési büdzséjük töredéke annak, amit az AMD a szoftverbe belerak, tehát egyszerűen nincs meg a kapacitásuk ahhoz, hogy a D3D bájtkódot visszafejtsék (amit zárt kóddal is láthatnak már), majd egyedileg optimalizálják a shadert, amit driverben kicserélnek. Az ilyen munka esetleg egy évig is eltarthat, ha a játékban sok és hosszú zárt shader van (a GameWorks szándékosan 4000-6000 soros shadereket használ), ami az Intelnek már azt jelenti, hogy nem is érdemes ebbe belefogni, mert mire kész lesz az optimalizálás, addigra lejár a hardver mainline támogatása. Illetve erről az Intelnek zéró tapasztalata van, hiszen nem rendezkedtek be D3D bájtkód visszafejtésére, mert sosem volt rá szükségük.

    Egyébként nem fog itt történni semmi gyártói NV-s kitiltás vagy ilyesmi. A DX12 megold egy csomó dolgot, szóval egy évig elvannak, aztán már itt az új API, és minden zárt kezdeményezés megy a levesbe. Az Intel arra fog koncentrálni, hogy a fejlesztőket meggyőzze arról, hogy a DX12 alacsony szintű kódot a saját hardvereikre szabják.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #106 üzenetére

    A licenc nem ér semmit. Mert nem módosítható a kód. Enélkül is vissza lehet fejteni a forráskódot.

    Nem izgatja már az Intelt a DX11. A DX12-re készülnek. Ott kellenek jó dokumentációk, hogy a fejlesztők tudjanak optimalizálni.

    Bekapcsolhatod az Intel IGP-n csak lassú lesz.

    A Mantle nyílt specifikációjú API. Az Intel már kérte. Amint lesz DX12 SDK béta ki lesz adva a Mantle SDK benne a specifikációval.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #117 üzenetére

    A kompatibilitás miatt muszáj, hiszen a GameWorks eleve egy speciális dolog. Egy kész motorra effektet írni sokkal könnyebb, mint egy kész effektre motort írni. Utóbbi sok esetben lehetetlen, tehát a kompatibilitás megőrzése érdekében muszáj engedni a kód egyes részeinek módosítását.

    Mivel mindenki az SDK megjelenésével kapja meg. Ennyi. Kiadják aztán nem kell kérni semmit, csak le kell tölteni az SDK-t és benne lesznek a specifikációk.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #119 üzenetére

    És te hogyan illesztenéd be a HairWorksöt egy olyan motorba, ami nem támogat MSAA-t?

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #121 üzenetére

    Akkor hogyan? Mert az MSAA egy must have követelménye a HairWorksnek. Enélkül spagetti lesz az egész hajból. A hajszálakkal tipikus gond, hogy nagyon picik, így megfelelő előmunka nélkül szinte lehetetlen a megfelelő sorrendű megjelenítése. Ezen az OIT+speckó AA vagy az MSAA segíthet. Na most az OIT+speckó AA egy igen drága compute dolog, ami például elviszi a TressFX számításigényének a felét. Az HairWorks esetében a haj leképzése már eleve ennyi idő, mint az egész TressFX számítás, tehát nincs meg a büdzsé az OIT+speckó AA-ra, mert nem futna semmin. Marad tehát az MSAA, mint must have igény, ha valami minőséget akarsz elérni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Dr. Akula #123 üzenetére

    A GTA4 minden hardverrel így viselkedik, amit nem ismer fel. A -norestrictions szükséges. Ami miatt az újabb hardverekkel bajok vannak, hogy amelyik hardvert nem ismeri fel, arra alapból a max. grafikát adja rá a rejtett beállítások és megváltoztathatatlan grafikai opciók tekintetében. Az ismert hardverek között rengeteg a low grafikát kapja meg.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #126 üzenetére

    Az eddigi játékok S.I.-re és C.I.-re lettek optimalizálva. Mostantól S.I.-re, C.I.-re és V.I.-re lesznek. Mint a PvsZ Garden Warfare.

    A DX11-ben egyszerűen rossz helyen van az absztrakció szintje. Vagy lefelé, vagy felfelé menni kell, mert ez a szint teljesítményben és programozhatóságban is a legrosszabb. Kezdésnek a low-level irány került elő, mert a modellt a konzolokból ismerik a fejlesztők. A Mantle és a DX12 absztrakciós szintje megegyezik és egyben közel került a hardverhez. Az egy másik kérdés, hogy kellene-e egy magas szintű elérést, mert ez lehetséges, de senki sem foglalkozott még a kérdéssel. Azt ki kell itt emelni, hogy a Mantle és a DX12 nem old meg mindent. Ezek az API-k most a legfontosabb problémákra adnak választ, de vannak még gondok. Például a shading nyelv elavultsága.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz hugo chávez #130 üzenetére

    Abból kiindulva, hogy a Mantle-t 80+ fejlesztő igényelte, szerintem a DX12 előtt ejtik meg a tanulási szakaszt, és az új motorokat a Mantle-re építik fel. Innen a DX12-re nagyon gyorsan és nagyon hatékonyan lehet portolni. Szóval extrémgyors átállást tartok valószínűnek. Erre tényleg jó esély van, mert amit megtanulnak a Mantle-ről azt pont ugyanúgy hasznosíthatják DX12 alatt. A DX11 portok eltűnése attól függ, hogy a Microsoft hogyan oldja meg a DX12 elérhetőségét a felhasználók számára. De ha nem is tűnnek el, a legtöbb effektet még akkor sem portolják vissza, ha a DX11 elvileg meg tudná oldani.

    Egyébként a COD sorozat három különböző motorra épül majd. Gyakorlatilag mindegyik fejlesztő sajátot használ majd az éppen aktuális éves epizódhoz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz hugo chávez #133 üzenetére

    A DX11-ről nem kedvező DX12-re és Mantle-re portolni. Nem ideálisak a feltételek. De megfelelően felépített motor esetén két hónap alatt gyorsabb lehet a low-level API kód. Három-négy hónap alatt az optimalizálás is beépíthető. Nagyjából fél év alatt megoldható minden.
    Ha van a motornak PlayStation 4-re írt libGNM kódja, akkor inkább arról érdemes portolni, mert kevesebb vele a munka. A libGNM is sokkal közelebb áll a Mantle és a DX12 működéséhez, így negyed év alatt is tökéletesen lehet portolni.
    A legjobb, ha van Mantle kód. Onnan csak három hét DX12 kódot írni. Ugye a Nitrous prototípus DX12 kódját két hét alatt portolták a Mantle-ről a GDC-re, és stabilan, gyorsan működött.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz hugo chávez #143 üzenetére

    A megterhelőbbek igen. Az ilyen oldalnézetes platformerek esetében van esély, hogy nem, de ha be meri vállalni a fejlesztő azt, hogy figyeljen arra, hogy ne csináljon kárt a Windowsban, akkor egy Xbox One-ról DX12-re jóval egyszerűbb portolni, mint DX11-re. Sokkal közelebb áll a kód felépítése a DX12-höz.

    (#144) Loha: Tudtommal lesznek nagyon kedvező konstrukciók a váltásra. Ha van Win 7 és 8 licenc, akkor szinte filléres tétel lesz váltani.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #146 üzenetére

    Tudtommal a Stardock projektek fogják kiemelten támogatni a low-level API irányát. Nem mondom, hogy ebből kerül-e ki az első játék, de mivel a Nitrous alatt a DX11 sebesség kvázi használhatatlan, így a megjelent játékokat simán patch-elni fogják DX12-re. A GDC-n be is mutatták, hogy három hét alatt sikerült a Mantle-ről egy DX12 portot készíteni a StarSwarm engine tesztről. Mivel öt játékot terveznek jelenleg a Nitrousra nagyon fontos lesz, hogy ezek kapjanak DX12 portot is a Mantle mellé.
    Valszeg a stratégiai játékok szempontjából lesz a legnagyobb a támogatás. Ott érződik a legjobban a limit, amit az új API-k ki tudnak ütni. Nem véletlen, hogy hirtelen minden korábbi legenda elkezdett újra stratégiát csinálni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Az biztos, hogy lesz valami lehetőség DX12-re váltani. Most a nagyon kedvező upgrade konstrukcióra van a legnagyobb lehetőség. Ezt is támogatja mindenki. A legtöbb top fejlesztő gyorsan elhagyja a DX11-et, tehát valami váltási utat muszáj bevezetni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #168 üzenetére

    De igen. Ez persze nem okosság, viszont az Xbox One kód szimplán átmásolható akkor, ha az nem tartalmaz semmilyen assembly vagy IR szintű optimalizálást. Ilyenkor a kód lényegében szabványos DX12 kód, de a PC-hez az elejét ki kell egészíteni nagyjából 10-15 sorral, mert az Xbox One csak egy hardver, így a PC-re bele kell írni az erőforrás-ellenőrzést.
    De ez csak a kompatibilitás, így az Xbox One kód teljesítménye a Hawaii/Bonaire/Kaveri/stb. termékeken lesz a legjobb, míg a többin lassabb lesz. Esetenként sokkal. Ezért minden Xbox One-tól eltérő GPU-architektúrára újra kell optimalizálni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Egon #171 üzenetére

    Itt most ez nem attól függ, hogy CPU-d vagy APU-d van. Az egy eltérő problémakör. A DX12-vel a Microsoft célja hihetetlenül egyszerű. Lényegében lesz egy API, ami elérhető az új Windows-on, az Xbox One-on és az új Windows Phone-on. Tehát ha valamelyik platformra írsz egy kódot, akkor az a másik két platformon is futni fog (persze extra 10-15 sor kell majd az elejére, hogy milyen erőforrásokat hozhat létre).
    Ha Xbox One kódot hoznak át, akkor az egy GCN C.I. optimalizált kód, mindenen lassabb lesz, ami nem GCN C.I. Akár a házon belüli GCN S.I. és V.I. is. Tulajdonképpen a memóriavezérlést legalább még nyolc architektúrára optimalizálni kell, és az érkező architektúrákra nem is lehet felkészülni, tehát ott mindenképp lassulás lesz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #170 üzenetére

    Titánnal demózták. És igen 1080p-n 60 fps volt, ahogy az Xbox One-on is annyi egy számítási teljesítményben harmadannyira képes hardveren. A demonstráció célja főleg az volt, hogy az eredeti kód módosítás nélkül, illetve a DX12 változásaihoz szükséges módosításokkal fut egy gyökeresen eltérő architektúrán, csak hát a sebesség. :U

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #174 üzenetére

    60 fps Xbox One-on és 60 fps PC-n. Persze az Xbox One kódot nem frissítették fel, mert a konzol még nem kapta meg DX12-t, legalábbis publikusan nem.
    De egyébként jelen cikk is erről szól. Olyan ez, mint az OpenCL. Ott sem vagy képes a kód teljesítményét portolni, így csak a kompatibilitást biztosíthatod két architektúra között, illetve az eltérő fordítók miatt még az sem, de a SPIR már jó irány.
    A low-level API-k pont ugyanezt hozzák be. Az egész funkcionalitás a shader fordítást leszámítva átkerül user módba. Eltűnik a hagyományos értelemben vett grafikus driver, és az alkalmazás látja el annak a feladatát. Következésképpen az alkalmazásnak kell optimalizálni mindazokra az architektúrákra és alverzióikra, amelyeken futni fog.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #176 üzenetére

    Nem V-Syncet használ a Forza 5, hanem egy speciális jelenetlimitet. Erre azért van szükség, mert a felhővel így tartja a kapcsolatot, ugyanis az Azuren a Forza 5 60 jelenettel számol másodpercenként. Ennek szinkronban kell lennie a kliensgéppel, és ez az oka, amiért a játék fejlesztésénél is ugyanezt a limitet használták.
    Azt pedig kitalálhatod, hogy Titánra semmilyen formában nem tudnak optimalizálni, mert senki sem tudja a fejlesztők közül, hogy hogyan működik a hardver. Az NVIDIA pedig nem mondja meg. Nem véletlenül kérték az MS-től a DX11.3-at. Nekik ez a low-level irány nem olyan jó, mert a fejlesztőkhöz kerül a kontroll. Az NVIDIA ezt nem szeretné, mert végeredményben a fejlesztő képes lenne optimalizálni akármire.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #178 üzenetére

    Nem fogod fel, hogy nincs driver. Ezért kell tudni hogyan működik a hardver, mert a low-level API-kkal eltűnik az a réteg, ami ezt optimálisan működtette. Minden funkció, ami korábban a driverben volt az alkalmazásban lesz, és annak a kódnak kell működtetnie jelenleg 9 eltérő architektúrát. A driver pedig egy szimpla shader fordító lesz.
    A helyzet az, hogy a top fejlesztők évek óta a dokumentálásra kérik az NV-t, de eredménytelenül. Azzal, hogy elmondják a fejlesztőknek, hogy mit tehetnek és mit nem, annyi történik, hogy gyorsabb kódokat tudnak írni a hardverekre. Viszont ezzel a kontroll átkerül a fejlesztőkhöz, mert ők döntik majd el, hogy milyen kód, melyik hardveren mennyire gyorsan fut. Na most ezt az NVIDIA akarja eldönteni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Dr. Akula #182 üzenetére

    Valószínűnek tartom, hogy ekkora érdekellentét mellett a piac is kettészakad, tehát lesznek olyan fejlesztők, akik az NV-vel tartanak és lesznek olyanok, akik az AMD-vel.
    Bármennyire nem tűnik annak, de szerintem most tudatos stratégiákat látunk arra, hogy a PC gamingen belül egy cég egyeduralkodó legyen.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák