Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #25979 üzenetére

    [link] - mindenki ellenőrizhette a problémákat a DX11-es verzióban. Hát nem működött jól és még ma sem működik. Csak a DX12-es verzió minősége egységes. Emiatt csak akkor érdemes két eltérő API-t összehasonlítani, ha a minőségi szint megegyezik. Sajnos a Quantum Breakre ez nem igaz. Vagy mindent DX12-ben mérnek, vagy megpróbálnak valahogy egységes beállítási alapot találni a DX11-re, ahol a hardverek előállított képminősége nagyjából megegyezik.

    Persze manapság a média a sebességre van kihegyezve. Alapvetően semmilyen háttérmunkát nem végeznek, annak érdekében, hogy kiderítsék az elvégzendő teszt egyáltalán ugyanolyan minőségen születik-e meg.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #25982 üzenetére

    Akkor pontosan érted, hogy ez egy probléma. A Quantum Break még gyártói szinten sem végez ugyanolyan számítást ugyanazon a beállításokon. Ergo az egész DX11-es mód összehasonlíthatatlan, mert nem a felhasználó állítja be a grafikai részletességet, hanem a programon belül van valamiféle automatikus paraméterezés. Tehát vagy mindent DX12-ben mér az adott oldal a Quantum Break-nél, vagy mindent DX11-ben egy olyan beállításon, ahol kikapcsolták a képminőségbeli különbséget okozó effekteket. Ha viszont keverik a helyzetet, akkor elképesztően nagy lesz a szórás a képminőségben, és nyilván az egyes hardverek bizony többet fognak számolni. Jelen esetben a DX12-ben futók.

    Van különbség az NV-n a DX11 és DX12 között. Nézd meg az árnyékokat a bejelölt részen. Olyan, mintha DX11 alatt teljesen más lenne az AO.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #25987 üzenetére

    A szín teljesen mindegy, mert az szimplán lehet a capture programra vonatkozó eltérés is. A két kép a fontos részletekben megegyezik. Ezért mondtam, hogy DX12 alatt azonos a gyártók közötti minőség. Sajnos ez a DX11-es módra nagyon nem mondható el, az nagyon el lett baszarintva. :(

    Valószínűleg a DX11-es mód eleve más effekteket is használ. Erre utal a jóval gyengébb minőségű AO is. Innen már lehet sebességet nyerni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #25990 üzenetére

    Inkább árnyalatról beszélünk, mint színbeli eltérésről. Ez maximum a kapun látszik, de mindenhol jelen van, csak a más felület miatt nem látszik erősebben. A kapun is alig észrevehető, nézni kell legalább egy percet, hogy lásd a különbséget.

    Ellenben a DX11-es árnyékok minősége kapásból kiveri az ember szemét, hogy a DX12-höz képest mennyit gyengültek. :( Lehet itt is mérni, de előbb mindenképpen ki kell kapcsolni a DX11-es különbségeket okozó effekteket, hogy egységes legyen DX11 alatt is a képminőség.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #45185024 #26006 üzenetére

    Sok erőforrás ment el a pöcsfizikára és nem maradt pénz a fontosabb dolgokra.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz tom_tol #26420 üzenetére

    Meg az is szerepet játszik, hogy mit csinálsz a BF1-ben. Single-ben a négy maggal is kifejezetten kellemes az élmény. Multiban már kell a 6-8 mag órajeltől függően. És ez igaz mas játékokra is a single-multi különbségre.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Fred23 #26419 üzenetére

    Mondjuk itt szerepet játszik, hogy a mai DX11-es driverek nagyon agresszívek, és alapvetően ez rontja helyenként a minimum fps-t. Két éve a DX11-es meghajtókat két-három szálhoz optimalizálták. A mai meghajtókat már nyolc-tíz szálhoz alakítják. Ez alapvetően javít a négymagosok kihasználásán is, igy valamelyest nő az átlag tempó, viszont csökkenti a minimum fps-t a sok aktív és passzív kernel driver server szál kezelése. Meg lehetne oldani azt, hogy a négy mag négy szál is jól mutasson a minimum fps-ben, de senki sem fizeti meg azt a munkaórát, ami ehhez kell, így inkább mennek a sok szálas optimalizálás felé, hiszen idővel mindenki cserél procit.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz daveoff #26546 üzenetére

    Eléggé rászorulnak, mert roppant fos a DX12 driverük az AMD-hez képest. Vannak olyan szituációk, ahol a minimum fps csak úgy bezuhan és alacsony átlagot hoz igen sok másodpercen át, amíg a rendszer nem törli ki a beszemetelt memóriaallokációt. Ezen próbálnak javítani. Persze ezt nem úgy fogják eladni, hogy rossz az allokációs stratégia, hanem hogy javítottunk az aktuális helyzeten. Ez a javítás arra lesz elég, hogy a DX12 teljesítmény ne romoljon a DX11-hez képest, ahogy azt az AMD-n is lehet látni, hogy meg lehet csinálni. Valójában ez egy régóta húzódó bugfix.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz schawo #26550 üzenetére

    Ez nem csoda. Egyszerűen az aktuális kód nagyon ramaty ahhoz képest, amilyen kódminőségét szállít az AMD. Ennek persze főleg az az oka, hogy az AMD a driver PAL rétegét majd két évvel hamarabb vetette be a gyakorlatban, mint az NV, ergo két évvel több a gyakorlati tapasztalat. Na most az elején lehet nagyokat ugrani a teljesítményben, tehát várható volt, hogy az NV is ráncba szedi a saját PAL rétegét. Ehhez természetesen idő kellett. Szóval semmi varázslat nincs itt. A rossz hatásfokról felugranak egy jobb szintre a tapasztalatokat felhasználva.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #26578 üzenetére

    Alapvetően egy komolyabb textúracsomag lesszállítása nem lenne speciálisan VEGA-hoz kötve. Amint jönnének 16-32 GB-os VRAM-mal szerelt hardverek azok is tudnák futtatni. Itt igazából csak arról van szó, hogy a fejlesztő adja ki az elkészített legjobb minőségű tartalmakat, mert tényleg nem ritka, hogy nem ezekkel szállítják az alkalmazásokat. Itt a legtöbb fejlesztő azért nem csinál ilyet, mert a program oldalon a textúraméret növelésével drámaian romlik a VRAM kihasználásának hatásfoka. Tehát tényleg sokat kellene várni, hogy legyen olyan hardver a piacon, amely tudná futtatni a legjobb minőségű tartalmakat. A Vega ezen annyit változtat, hogy a hatásfokról nem a fejlesztő által írt kód gondoskodik, hanem a hardver. Ez lehetővé tenné, hogy szimplán kiadják a már megvásárolt, elkészült tartalmakat, akár egy külön packként. De ez csak az elején VEGA only. Sőt, technikailag nem is lenne az, mert egy figyelmeztetés után bármikor felteheted a maximumra a textúrákat, maximum akadni fog. Nem is lenne értelme általánosan VEGA only cuccot csinálni, mert idővel úgyis lesznek jobb VGA-k nagyobb VRAM-mal.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cyberkind #26580 üzenetére

    Elméletben nagyon sokáig elégnek kellene lennie. A probléma a gyakorlat. Egy nagyon jól optimalizált program VRAM kihasználása is 50%-nál rosszabb hatásfokú manapság. És akkor ott van az emberi tényező a DX12/Vulkan API-val, amiből nem ritkán látunk ma 20-30% közötti hatásfokot. Ez konkrétan azt jelenti, hogy ha van egy 8 GB-os kártyád, akkor a betöltött 8 GB-nyi adatból 2 GB a hasznos. A többi csak beszemetelt vagy már nem használt allokáció. A Sniper Elite 4-nek az Asura motorjának van valami félelmetesen jó menedzsmentje, mert ott a hatásfok eléri a 70%-ot is PC-n, amit nem is tudom, hogy miképp csinálnak. Ez már vetekszik a konzolos jellemzően 80% körüli hatásfokkal, de az ugye egyszerű, mert direkten célozható a hardver.
    És akkor ott az a probléma, hogy a nagyobb felbontású textúrákkal a hatásfok is erősen csökkenni kezd, tehát nagyon nehéz leszállítani a legjobb minőségű tartalmat egy kész játékkal. Lehet, hogy lesz olyan kedves a fejlesztő és még egy évig optimalizál, hogy kiadhasson egy friss textúracsomagot, de ez nagyon ritka, mert az már nem hoz extra bevételt.

    Végeredményben azt lehet mondani, hogy ez programfüggő lesz. Láttunk több példát arra, hogy relatíve jó a hatásfok és láttunk legalább ennyit, ahol rossz. Valószínűleg ezért akar az AMD ebből kiszakadni, és áttenni a probléma kezelését hardverbe, mert sajnos a DX12/Vulkan esetében marhára árthat az emberi tényező, amellett persze, hogy sokan megcsinálják relatíve elfogadhatóra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz core i7 #26595 üzenetére

    Technikailag igaz, hogy a Volta ellen megy. Olyan technológiák lesznek benne, amelyeket az NV csak a Voltával hoz. Például az NV is átáll a hardveres memóriamenedzsmentre. A CUDA-val ez a GP100-ra korlátozva már működik, bár nem teljesen hardveres, de a következő lépés nyilván a HBCC szerű dizájn, amit a Volta hozhat legelőször az NV oldalán. A VEGA is ilyen radikális újításokat hoz, amelyek a rendszer rossz hatásfokkal működő komponenseit lecserélik. Nyilván a jövőben eléggé általánossá válik az a probléma, hogy ha tényleg akarsz 8 GB-nyi felhasználható VRAM-ot, akkor a kártyára 32 GB kell fizikailag. Tehát nem meglepő, hogy a Vega és a Volta elindult a hardveres menedzsment felé, hogy a 8 GB-nyi adat tárolására elég legyen 8 GB-nyi memória is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz HSM #26600 üzenetére

    Ez maga a probléma. Egyre csak csökken a kihasználás hatásfoka.

    (#26601) Locutus: A HBM-nél ez nem akkora gond, mert nagyon keveset fogyaszt maga a memória. A problémát a GDDR5/5X/6 jelenti. 32 GB-nyi ezekből a memóriákból már jó 70-100 wattot fogyaszt. Holott az optimális mennyiség a VRAM-ra leginkább 10-30 watt. Nem mindegy, hogy egy adott TDP keretből 20 wattot visz el a memória, vagy 80-at például. Ennyivel kevesebb jut ugyanis a GPU-nak. Ez igazából egy régen ismert probléma. Még az NV-től Dally és Marci a JEDEC-től csinált régebben egy tanulmányt, hogy a memória tipikus fejlődésével eljön az az idő, amikor az új VGA-k csak lassulni fognak. Erre a problémára reakció a wide IO vagy a hardveres memóriamenedzsment.

    Itt a nagyon beszédes ábra a problémáról:

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #26629 üzenetére

    Szóval az Ubi 12 éves engine struktúrája, amire felhúzták a jelenlegi motorjaikat nem működik DX12 alatt. Nahát?! :D

    Érdekes az új alapokra épített Snowdrop alatt működik. Lehet, hogy az Anvil alappal van gond? :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz HSM #26637 üzenetére

    A shader nyelv leginkább azért jön, mert a konzolok shader nyelve fejlődött, mig a PC gyakorlatilag egy helyben toporgott. Ez leginkább azért gáz, mert a konvertáló, amit írnak PC-re sokkal lassabb kódokat generál. Az SM6 gyakorlatilag egy teljes modernizálás. A hardverek működéséhez igazítják az IR-t is, hiszen rég a SIMT a menő, amire egy SIMD-re fejlesztett IR nagyon nem jó. Szóval több probléma kerül megoldásra.

    A Khronosnak ott van már a SPIR-V. Az nagyvonalakban DXIL képességű.

    A wave intrinsics menni fog minden vason, csak nem mindegy, hogy például egy prefixsum egy utasítás, vagy több tucat. Itt igazából sebességkülönbségek lesznek.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smc #26645 üzenetére

    Rendelik is már többen. NV, AMD, Xilinx, és az igénylők csak nőnek.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz VTom #26701 üzenetére

    Régebben már írtam, hogy az AMD-nek exkluzív jogai vannak az Alien címekre. Ez eddig csak játékra terjedt ki, de nyilván nem zárja ki a filmet sem a szerződés.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz távcsőves #26709 üzenetére

    DX12-ben van, a Vulkánban pedig lesz, illetve már van, de még csak tesztelésre, hogy a jövőben egyszerű legyen beépíteni.
    A hagyományos SLI és CF inkább nem lesz, mert túl bonyolult, ha egy meghajtó irányítja az egészet.
    A DX12/Vulkan alatt a fejlesztőé a munka. A hagyományos CF/SLI-nél a driver vezérli az egészet, a fejlesztőnek arra kell figyelni, hogy a kódja kompatibilis legyen a driver igényeivel. Azért döglődik az egész, mert ezt egyre nehezebb összehozni. Ha nem sikerül, akkor mindenki csak néz ki a fejéből, hogy hol lehet a hiba, aztán a végén nem lesz CF/SLI a játékban.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #26724 üzenetére

    - a GloFo és a TSMC FinFET node-jának ára nem lényeges, mert az AMD fix wafer mennyiséget rendel. Ez egy előre fizetett szerződés, ami kötelezettséget von maga után. Például ha a GloFo nem tudja leszállítani a wafereket, akkor büntetést fizetnek, de ha az AMD kevesebbet akar rendelni a megbeszéltnél, akkor az szintén büntetést jelent. Ezt azért csinálja a Glofo, mert kell nekik egy fix megrendelő, mig az AMD azért megy bele, mert így a normál waferár felével meg lehet úszni. A TSMC ilyet nem csinál, mert ők versenyeztetik a megrendelőket. Aki többet fizet azé a gyártósor.
    - a GDDR5X esetében nem az a baj, hogy csak az NV vásárolja, hanem az, hogy csak a Micron gyártja. Annyit kérnék a memóriáért amennyit akarnak, mert nem tud hova menni a megrendelő.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Venyera7 #26728 üzenetére

    A G-Sync esetében nem a jóval magasabb ár jelenti az elsődleges problémát, hanem a rendkívül alacsony választék.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #26732 üzenetére

    A piac elárasztása termékekkel nagyon fontos, mert ma a többség nagyáruházakban vásárol. Ha bemész a Media Marktba, akkor mázli kell a G-Sync kijelző megvásárlásához, míg FreeSync-ből jellemzően 5 felé lesz raktáron. Ennek durvább esett volt, hogy egyszer teszteltettem a berlini áruházat a kinti ismerősömmel. Az eladó nem tudta, hogy mi az a G-Sync, amikor pedig elmagyarázta a spanom, akkor azt mondta neki, hogy az nem G-Sync, hanem FreeSync és vannak ilyen LG és Samsung kijelzőik. Remélem ebből látszik a probléma.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Abba gondoljatok bele, hogy ha az NV a G-Sync-kel hosszú távon számolna, akkor már rég csináltak volna egy olcsón gyártható ASIC-ot a mostani FPGA helyett. A helyzet viszont az, hogy ez nem éri meg. Át fognak állni a VESA szabványára, sőt, a notebookpiacon már at is álltak. Attól, hogy G-Sync a mobil piacon a név, a technológia már az Adaptive-Sync. Ugyanez lesz az asztalon is, csak elmennek a falig. A megcélzott felhasználóbázis pont úgy el fogja fogadni, mint a 3D Vision kivégzését. Vesznek új monitort, mint a 3D-nél. Nem véletlenül van prémiumként hirdetve, az a réteg, akinek ez szól kevésbé haragtartó, ha bejelentik, hogy vége. Jó persze sokan írogatnak majd a fórumukra, mint a 3D Visionnél, hogy köcsög NV, de ugyanúgy GeForce-ot fognak venni. Szóval anyagi kár ebből nem lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Yutani #26795 üzenetére

    Na majd a Quake Champions. ;]

    A PAX East videók alapján a kék színű hajú hősön TressFX 4 volt. Lehet ez lesz a debütáló cím, bár amit lehet hallani a Bethesda üzletről esélyes, hogy a Prey-be is belerakják. Eléggé furcsa dealt kötöttek, tulajdonképpen ag AMD a Bethesda kiszolgálója lesz. A stúdiók rendelnek effekteket az AMD pedig szállítja nekik. A Bethesda pedig megspórolja a kutatási költséget.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Yutani #26797 üzenetére

    A motor az mindegy. A lényeg a deal, amit kötöttek a Bethesdával. Ha tényleg egy beszállító partner lesz az AMD, akkor a kódok jelentős részét ők adják és nem az adott stúdió fejleszti. Elképzelhető, hogy a Bethesdának így sokkal olcsóbb, mert megvágható a kutatási pénz. Az AMD, mint partner megcsinálja helyettük.

    Másik API-t egyébként lehet rakni bármelyik motorba. Bár ha OpenGL lesz a QC, akkor egy rakás specifikus path lehetősége miatt nem biztos, hogy érdemes. Persze az kérdés, hogy az AMD csak effekteket szállít, vagy megírják a kívánt API támogatását is. Utóbbi esetben meg könnyebb a Bethesda dolga, hiszen megrendelhetik a támogatást.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #26799 üzenetére

    Mert a Doomba nem igazán terveztek semmiféle innovatív eljárást vagy effektet. Tudott mindent, amit tudni kellett és azt gyorsan számolta. Nagyjából ennyi volt a cél. Ezt azért elég jól elérte.
    Valószínűleg a Bethesda nem tart fenn olyan komoly technikai részleget, mint az EA. Ezért is pacsiztak le az AMD-vel, hogy az effektekre vonatkozó újításokat fejlesszék ők bele a játékaikba. Ez a Bethesdának tiszta haszon, mert ingyen kap csúcstechnikákat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz velizare #26804 üzenetére

    Gondolom megkapják. Végtére is a technika az AMD-é marad, és úgyis megjelenik a GPUOpenben. A Bethesda csak hamarabb kapja meg.

    (#26805) Fred23: Mert kb. százezer sornyi HLSL shader van egy stúdiónál, amit nem olyan egyszerű hordozni. Majd ha elég jó lesz a HLSL->SPIR-V fordító, akkor több lesz a Vulkan port. A DX12 addig is elterjedtebb marad.
    A shader nyelv problémáját a SPIR-V és a DXIL teljesen megoldja, mivel mindkét IR köré nyílt infrastruktúra épült.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Ren Hoek #26810 üzenetére

    Szerintem mindenképpen a Vulkan lesz az elterjedtebb, mintsem a DX12. Alapvetően nincs nagy különbség a két API között. Persze apró eltérések miatt fel lehet hozni mindkettő mellett a pró/kontra érveket, de nem tud sokkal többet a DX12. Ami igazi érv mellette az a multi-GPU és az executeindirect. A HLSL shaderek megléte nyilván ma fontos, de a SPIR-V nyílt rendszer, a DXIL is az lesz, tehát igen egyszerű lesz ezeket használva GLSL shadert küldeni DX12-re, vagy HLSL-t Vulkan API-ra. Az új platformok nyíltsága tulajdonképpen lehetővé teszi azt, hogy a magas szintű nyelv igazából ne számítson. Abban írja meg a fejlesztő a shadert, amiben akarja, aztán a nyílt rendszert kihasználva keres vagy ír egy fordítót, ami abból SPIR-V vagy DXIL kódot generál. Ez a jövőben egyáltalán nem lesz probléma. Ma még az a D3BC zártsága miatt, de ez az IR úgyis kuka lesz.

    A Vulkan pedig kiegészíthető multi-GPU-val, multidraw indirecttel, akár bindless modellel, tehát végeredményben egyedül a platformfüggetlenség marad meg, mint előny. A többségnek ez sokkal jobban fog számítani, mint annak a kevés csúcstechnikával dolgozó stúdiónak/kiadónak, akiknek amúgy tényleg érnek is valamit a DX12 gyors és amúgy tényleg csúcs fejlesztései. Nem mellesleg nagyon nagy érv még a Vulkan mellett, hogy tényleg úgy építette fel a Khronos, hogy gyártófüggetlen legyen, míg a Microsoft a DX12-t láthatóan GCN-re csinálta az Xbox One miatt, és különböző fallback módok vannak a többi hardverre, ami ugyan nem követel eltérő kódot, de ezek implementációja jobban eszi a processzort, mint a GCN-é. Az Intel is egy brute force fejlesztéssel húzta be magát a legjobb szintekre, ami közel sem hatékony, de volt tranyóbudget bőven rá. Például más ilyet nem tud megjátszani. Ellenben a Vulkan jelenleg rendkívül igazságos az eltérő gyártók hardvereivel, ha lehet ilyet mondani.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #26819 üzenetére

    A játékok mennyisége pusztán a Unity és UE Vulkan melletti kiállása miatt fog a Vulkan irányába eltolódni. Mindkét motorban van ugyan DX12 támogatás, de a Vulkan lesz az elsődleges, így a fejlesztőknek sem lesz értelme a DX12-re menniük, ha Unity és UE motort használnak. Ráadásul a Vulkan annak ellenére jobban áll mindkét motorban, hogy a DX12-höz képest jóval később kezdték a beépítését. Ennyit tesz az, hogy a befektetéseknél látják az értelmét az egyik API-ra költeni, míg a másikra nem. A CryEngine is inkább a Vulkan felé fog menni, ahogy a Lumberyard is, illetve az Open Source motorok is mind Vulkan API-ra mennek a DX11-ről. Aki licencelésből él, annak nincs értelme a DX12-t választania. Be fognak építeni egy alapvető DX12 támogatást, mert az pusztán a hibakeresés miatt megéri, de a megrendelők úgyis a Vulkan módot fogják engedélyezni, mert a jóval több befektetett munkaóra miatt az lesz a jobb.

    Úgy gondolom, hogy a top stúdióknak megéri a DX12 mellett maradni, mert a Microsoft gyorsabban fogja fejleszteni, illetve a top stúdiók eleve arra álltak/állnak be, hogy GCN optimalizálásokat hozzanak át a konzolról PC-re, amihez valóban egy GCN-hez igazított API a legjobb alap. Májustól ezeknél az optimalizálásoknál nem is kell az AGS4-re építeni, hanem jön a szabványos shader modell 6.0. A nem csőlátásban konzolra fejlesztő rétegnek a Vulkan mindenképpen jobb API. Sokkal általánosabban kezeli a PC-s hardvereket, ezért a tradicionálisan PC-s fejlesztésekhez mindenképpen ez az ideális.

    A PC-s felhasználó is jobban jár a Vulkan API-val, mert ha az általános felépítést nézzük, akkor sokkal függetlenebbül kezeli a hardvereket, mint a DX12. Persze nincs bindless, de nem muszáj ilyen kódot írni, bindless módban a DX12 is rendkívül részrehajló, sokkal jobban kezeli a GCN-t és a Gen9-et, mint bármi mást. A Vulkan inkább trükközve oldja meg ezt a problémát. Igazság szerint elég jól, nem mellesleg a jelenlegi modellje kiegészíthető bindlessé, ha szükség lesz rá.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #26813 üzenetére

    Vulkan támogatást kínál a jövőben: Epic, Unity, Crytek, Amazon, Valve, id Software, Croteam, Egosoft, Oxide, Silicon Studio, Rebellion, Fish Labs, meg az openszószos motorok fejlesztői.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Fred23 #26821 üzenetére

    De ők eleve DX12-re fejlesztettek az elejétől. Nekik van egy évek óta írt kódjuk, tehát nincs értelme lecserélni. Én sem írnák át 4000 sor rendert és kb. 300 ezer sor shadert csak egy API cseréért, ha az legjobb esetben is ugyanazt a teljesítményt biztosítja.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #26825 üzenetére

    A verzió az mindegy. Eleve a DX12 is fejlődik, hiszen most kap shader modell 6.0-t, és ettől az API-t még DX12-nek hívják. A Vulkan is fejlődik, bár az 1.1-es verzió valószínűleg csak az év második felére jön.

    De maga a Vulkan lesz a jobban elterjedt hosszabb távon. Mint írtam csak is azért, mert a licenelésre felkínált motorok azt választották. A top stúdiók jelentős része valószínűleg marad a DirectX-nél. Már csak azért is, mert ez gyorsabban fog fejlődni, mint a Vulkan. Eleve tervben van már a shader lépcsők egyszerűsítése, illetve a memóriamenedzsment újragondolása. Azt nem tudom, hogy amikor ezekre megjönnek a frissítések, akkor a DX12 DX12 marad, vagy már DX13, esetleg DX12.5. Őszintén szólva lényegtelen.
    Azt is figyelembe kell venni, hogy a DX12 egyik legnagyobb hibája a top stúdiók által az volt, hogy csak nagyon nehezen tudják kiegészíteni a gyártók. Emiatt az AMD, az Intel és az NV is külön szervizkönyvtárat ír hozzá. A DXIL-lel ez sokkal egyszerűbb lesz, mert magát az IR-t úgy építették fel, hogy nagyon egyszerűen rakhassanak bele a cégek vagy a stúdiók gyártóspecifikus kiterjesztést.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #35434496 #26837 üzenetére

    4K-ban a BF1 single nagyobb részletesség mellett simán tud majdnem duplaannyit. Egyszerűen csak régi a motorverzió. A Mirror's Edge Catalysthez fejlesztett Frostbite verziót nem véletlenül nem használja a legtöbb EA projekt, ez a második játék, ami erre épül. Optimalizálatlan és bugos verzió az újabb verziókhoz képest. Van két újabb Frostbite. Az egyik a BF1-es, amire sajnos nem olyan könnyű átállni a fejlesztések végén, de a Fifa 17-es és a Battlefront frissített motorjára könnyű lépni. De a Mass Effect bugokat látva, valószínűleg nem ez volt a legnagyobb gondjuk a fejlesztőknek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smc #26839 üzenetére

    Benne van driveres hírben, hogy az optimalizált beállítás kiszűri a sík vagy közel sík felületen történő tesszellálást. Kikapcsolni ezt nem érdemes, mert az rontja az igaz HOS-t. A speciális profil direkt azért van, hogy kezelje ezt a dizajnhibát. Ezt később úgyis javítja a Bioware, mert az NV már tuti veri az asztalt, hogy a GeForce-ok raszterizálójának hatékonyságát tesszellált sík felületek csökkentik, ami a képminőség javulása nélkül rontja a sebességet.

    Ha offoljátok a tesszelálást, vagy 4x/8x-re korlátozzátok, akkor az látható képminősédromlást is eredményezhet, bár az eddigi beszámolók szerint a 8x beállítással ez nem vehető észre. Viszont így is a speciális profil a legjobb, mert az csak a dizajnhibákat javítja.
    De a Bioware úgyis hoz patch-et erre, vagy ha nem, akkor az NV is meg tudja csinálni ugyanazt, amit az AMD, és ők is nyernek 8-10%-ot. A Metro Reduxokra úgyis megírták a szükséges modult.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Valdez #26841 üzenetére

    Dehogynem. A mérések úgy készültek, hogy az AMD javítását kikapcsolták. Ezekhez az eredményekhez képest hardvertől függően 10-20%-kal jobb sebességet fognak kapni a felhasználók otthon, akiket a fair-play nem érdekli, csak nem akarják felesleges számításokkal csökkenteni a teljesítményt.
    Nyilván egy tesztnél kérdéses, hogy miképp mérjenek. Aktiválják-e az AMD javítását, vagy várják a programfrissítést és addig a sík felületeket is tesszellálják a Radeonok is, mert az NV nem kínált erre meghajtó oldali javítást ... még. Valszeg, ha a Bioware nem lép, akkor a Metro Reduxokhoz hasonló profilt kap a Mass Effect is. Ott kikapcsolhatatlanul része a profilnak egy tesszellációs driveres korrigálás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz mlinus #26843 üzenetére

    Valójában az a motor sara. A legújabb Frosbite kapott egy jóval jobb animációs pipeline-t. Az egyik hibája volt annak a motorverziónak, amit az új ME használ, hogy elég régi alapra épült az animációs pipeline-ja, igy nehéz volt rajta jó eredményt elérni. Tekintve, hogy elég nagy fejlesztés egy RPG, így kevés erőforrás juthatott erre, ami a rossz alap mellett ennyire elég.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #26842 üzenetére

    Ezt én másképp látom. A BF1-nél jobb a PBR. Különösen a fémes felületeké. Az égboltban egyetértek, de abban a Mass Effect megkapta a Frostbite kísérleti rendszerét. Ez a BF1-ből hiányzott. Ebben tényleg jobb a Mass Effect, de másban nem.

    Az animáció és a mimika az egyes játékokban azért rossz, mert a régebbi Frostbite verzióknál nehéz volt bánni ezzel a modullal. A BF1-ben azért jó, mert kapott egy sokkal egyszerűbben kezelhető új pipeline-t, ami ráadásul sokkal jobb is. Sajnos ez nem igazán a munkamennyiség kérdése, illetve csak részben, sokkal inkább a felhasznált motorverzió animációs moduljának hiányossága.
    Haj megjelenítése dettó ugyanilyen probléma. Öreg a motorverzió.
    Ezeket sajnos nem nagyon tudják frissíteni, mert erre van meg a tartalom, így ezt a modult kell használni. Még a fejlesztés elején lehetett volna azt csinálni, hogy kooperációban dolgozik a Bioware a DICE-szal, és akkor esély lett volna a legújabb animációs modult használni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #26849 üzenetére

    Nem is az új Frostbite-ra kellett volna lepni, hanem az egyel újabbra, amire elég könnyű lenne váltani, hiszen csak optimalizálást tartalmaz. A könnyűséget jelzi, hogy a Battlefront átváltott rá a legújabb DLC-vel.

    A BF1-ben azért vannak átvezetők, hogy azok lejátszása alatt a pályabetöltés megkezdődjön. Akár real-time-ban is meg lehetne oldani, hiszen eleve egy Radeon Pro Duós gépen lettek rögzítve.

    Mint írtam a legújabb motorverziót kivéve elég gyenge az animációs pipeline. Minden Frostbite játékot érint a probléma a BF1-en kívül. Ez van. Az új motorban már jobb rendszer van, tehát a jövő fényes. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #26856 üzenetére

    Újabbat, de azt nem tudom, hogy melyiket. Ha szerencsénk van megkapja a modernizált light tree leképezőt. De persze az sem kizárt, hogy marad a mostani mozaikos deferred.

    Én szurkolok a light tree-nek, mert sokkal gyorsabban kezeli a nagy tereket, mint a mozaikos.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smc #26858 üzenetére

    A tesszellálást igen, de a végső megjelenítéshez használni kell a setupot és a rasztert is, ahol már gyorsabbak a Radeonok. Tehát összességében a Mass Effecthez hasonló nem túlzó, hanem inkább elbaszcsizott dizájnnal nem nyer senki.

    Az NV egyébként nem véletlenül nem fejleszti már a GameWorks-ben a tesszellációs effektet. A Deus Ex MD-ben van az eddigi legdurvább háromszögszám jelenetenként, és ezért nyerik főleg a beépített benchmarkot a Radeonok. Hiába számolja ugyanis gyorsabban a nézőpontfüggő tesszellálast a GeForce, ha a raszternél jobban kikapnák.
    Ez a fő oka, hogy olyan effektek készülnek a Gameworks-ben, ahol rejtett geometriákat lehet tesszellálni. Ez ugyanis nem terheli a rasztert, ami a Radeonok erőssége. A volumetrikus fényeffektjük pont ilyen. Az ott tesszellált geometria nem megy tovább a raszterre. Na persze az igazsághoz hozzátartozik, hogy egy ilyen effektnek semmi szüksége tesszellálásra, de ez már sokadrangú kérdés, hiszen benne van az érintett programokban low minőségben is, ami pici tesszellálást alkalmaz es a minősége szinte ugyanaz. De a lényeg, hogy a raszter miatt nem játszik már senki szándékosan krájsziszkettőset. Még az NV sem, mert többet vesztenek, mint nyernek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #26872 üzenetére

    Nocsak. A DXIL köré húzott infrastruktúra kinyitja a kapukat? Végül is mind a DXIL, mind a SPIR-V nyílt forrású. A fordítók tehát szabadon felhasználhatók, így már csak egy DXIL->SPIR-V konverter kell. Nem elegáns, de tökéletesen működőképes. Gondolom a DX11-et is azért dobják el, hogy a D3BC-t kizárják a fejlesztésből.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #26895 üzenetére

    Nem mindegy, hogy miképpen váltanak motort. Ők eleve a CryEngine-t is nagyon durván átírták, amit tettek az annyi, hogy az eddig megírt kódot átvitték a Lumberyard alá, amit nem volt nehéz megtenni, mert a használt és az új motor struktúrája megegyezett. Tehát nem sok munkájuk volt ezzel, lévén a saját kódjukkal dolgoznak így is, csak mostantól az Amazontól kapnak technikai támogatást, és használhatják az AWS-t, alapvetően csak ezért váltottak.
    Ha mondjuk nem a saját kódjukkal dolgoznának, akkor más lenne a helyzet, de nekik alapvetően nem a Lumberyard képessége kellett, hanem az Amazon Web Services.

    Eddig nagyrészt a Mantle kódot fejlesztették pusztán amiatt, mert ebben volt a legnagyobb időmennyiségük, illetve ez elfogadta a HLSL-t (ugye rengeteg effektet a játékba az AMD ír, tehát olyan API-n kell lenni, ahol ez tesztelhető). Ugyanakkor már be volt építve a DX12 és a Vulkan támogatás is, csak nem volt leoptimalizálva. Ez nem akkora gond, mert a három említett API alapvetően nagyon hasonlít egymásra, tehát az egyik API-ra írt struktúra helyből alkalmazható a másik kettőre. Vagyis a low-level leképező optimalizálása nem vesz el többet két hétnél. Annyit kell eldönteni, hogy a Mantle-ről merre lépnek tovább. Eredetileg a DX12-re akartak lépni, de inkább a Vulkan API-t választották. Ez összességében a terveket nem vetette hátrább, mert ugyanannyi idő és erőforrás kell az aktuálisan használt kiindulópontból mindkét API-ra optimalizálni. Talán Vulkánra még egy picikét könnyebb is, de ez csak a saját fejlesztési modelljük specifikus hatása.
    Persze a shader fordításnál lesz egy kis extra meló, mire a HLSL-ből SPIR-V-t kapnak, de a nyílt forrású infrastruktúrák miatt ez ma már kivitelezhetővé vált.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Crytek #26911 üzenetére

    Jól fog ez futni NV-n is. Az AMD-nek csak azért fut jól már most, mert nagyon jó a driverfejlesztési struktúrájuk, amit kialakítottak. Az az egy nagy csapat sok emberből áll, és nem csak az agyonreklámozott, hanem a fű alatt megjelenő játékokra is van bőven erőforrás, emiatt a Radeon Software-ben már van a játéknak profilja, ki vannak cserélve a shaderekben a tipikus operációk, meg a szokásos (ez bőven hoz úgy +15-20%-ot). Az NV-nek a csapata három részre van vágva, és ott a committeléssel keletkező bugok javítása is rengeteg erőforrást elvisz. Effektíve a feladatokra elérhető erőforrás tekintetében az NV-nek kevés az embere, mert rosszul van struktúrálva a fejlesztési folyamat. Ugyanaz a baj, amikor az AMD havi egy WHQL Catalystet hozott. Ezért ugyan az agyonreklámozott játékokhoz tudnak hozni profilt időre, de a csak simán megjelenőkhöz már nem. Lenne amúgy elég emberük rá, ha nem kellene egy bugot háromszor javítani sorban a három összevonás miatt, ez időben és emberi erőforrásban is háromszoros teher. Valószínűleg egy-két hét múlva kiadnak majd egy profilt a játékra, ami javít a teljesítményen.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Vigilante #26914 üzenetére

    Itt sem erősebb, csak az NV túl lassan tudja hozza a profilokat az összes játékhoz. Egyre inkább az látszik, hogy a többcsapatos driverfejlesztés működésképtelen. Felesleges munkákat generál, ezek elveszik az időt és a humánerőforrást, korábban javított bugokat hoz vissza, és még megbízhatatlan is, amitől ömlenek a hotfixek. Ahogy korábban AMD is rájött erre, úgy az NV is rá fog jönni, hogy ez így hülyeség, csak az erőforrást pazarolják. Talán már rá is jöttek, csak marha nehéz visszaállni a régi modellre, mert szinte egy komplett strukturális reform kell hozzá. De megéri, mert így ez nem maradhat.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FLATRONW #26916 üzenetére

    Az AMD-nek amúgy is finomabban esik a teljesítménye a felbontás növelésével. Tehát ez általánosan látható jelenség. Amiért ez most durvának tűnik az az, hogy az NV-nek nincs normális profilja a játékra, míg az AMD driverében teljes profilja van rá, lecserélt shaderekkel. Ez tipikus driverprobléma. Nincs erőforrása az NV-nek mindenre reagálni, ha egy bugot háromszor kell javítani. Az AMD-nek ma sokkal kedvezőbb a helyzete a játékokra való optimalizálás során, mert csupán egy branch van.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FLATRONW #26918 üzenetére

    A két termék között van ekkora különbség, ha a VRAM vagy a sávszél nem jelent korlátozást. A Fury X eléggé sávszéllimites VGA, míg az RX 480 jóval kevésbé az. Mivel a Unity egy mobil motor, így a sávszéllimit nem lényeges, mert eleve olyan a leképező, hogy spóroljon vele. Ezért tud elhúzni a Fury X, és feláll a valóban reális teljesítménykülönbség az RX 480 és a Fury X között.
    De a GTX 1080 így is gyorsabb a Fury X-nél, ha egyszer lesz hozzá profil. Valószínűleg az NV-nek sokkal nagyobb prioritású feladatai vannak most, minthogy a Vikinghez profilt csináljanak. Az erőforrás pedig szűkös.

    A drivereknél van egy általános fejlesztés is, ami a háttérben zajlik. Ez is közrejátszhat. A GeForce driver GUI-ja nagyon elavult, sok erőforrást zabál és már igen lassú a reakcióideje, stb. Fél évtizede jó volt, de ma már nem az. Éppen ezért a háttérben zajlik a vezérlőpult GUI-jának reformja. Ez már egész jól halad. A gyártóktól annyit tudni, hogy a mostani vezérlőpult el fog tűnni és minden beállítás beköltözik a GeForce Experience-be, ami a driver univerzális GUI-ja lesz. Hasonlóan a Radeon Software Radeon Settings programhoz, ahol szintén egységes felületre kerül minden. A GeForce Experience 3.0 ezért kapott egy olyan alapvető frissítést nemrég, hogy kevesebb memóriát foglaljon és gyorsabban töltsön be. Ez az NV-nél szintén elvisz elég sok embert, miközben az AMD-nek már ezzel a problémával nem kell törődnie, csak a költözést kell befejezni.

    Reálisan gondolva az NV valószínűleg arra jutott, hogy ez a vikinges izé nem olyan fontos játék, hogy szükség legyen day0 profilra. A 4K-t leszámítva eleve elég jól fut a program. Ezzel szemben az általános fejlesztéseket hozni kell. Követni kell a GUI átalakítását, az új trendeket, vagyis a teljes funkcionalitást egy közös felületről.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz mlinus #26976 üzenetére

    Nem. A PS4 libGNM-et használ, vagy libGNMX-et. Utóbbi a magasabb szintű elérés, ami valamennyire hasonlít a DirectX-hez, de nagyrészt inkább egy wrapper a libGNM-en. Ennél több API-ja a PS4-nek nincs. Szó volt a Vulkan API-ról egy időben, de nem prioritás. Egyszer persze lehet, hogy elkészül.

    Egyébként az Xbox One-on is csak az egyik API a DirectX 12. Függetlenül attól, hogy a többi API-t is DirectX-nek hívják tulajdonképpen semmi közük a PC-ben található DirectX verziókhoz. Egyedül a 12-es verzió egyezik meg a PC-s API-val. A 11.x és a mono hozzáférést több helyen is eltér.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz s.bala31 #27066 üzenetére

    Ha csak CPU-t csinálnak, akkor elvesztenek egy rakás üzletágat, amit ma lefednek. Ha csak GPU-t csinálnak, akkor pedig elvesztik a PC-piac növekvő szegmenseit. Csökkenő piacokra nem feltétlenül érdemes koncentrálni, mert az előbb-utóbb kifogy alólad.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #27086 üzenetére

    Ahogy nézem ez a játék tényleg újra lett dizájnolva. Ha ez történik, akkor elég sok tartalom cserére kerül, tehát nehéz összehasonlítani az előzővel, mert már nem az eredeti tartalom köszön vissza mondjuk egy új leképezővel.
    A textúrák közötti különbség is csak ebből adódhat, mert méretben a legtöbb textúra felbontása a kétszeresére nőtt. Kérdés, hogy az új textúrákat ki készítette. Lehet, hogy nem ugyanannak a partnernek adták ki a munkát. Viszont ez nem technikai szintű dolog, hanem pusztán az új partner nem végez olyan jó munkát a rajzolás terén. Ettől még pusztán a számok mezején, tisztán technikai értelemben az új verzió mindegyik korábbi portnál jobb minőséget prezentál, egyszerűen mindenből több van. Innentől kezdve az egész egy dizájnkérdés.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #27088 üzenetére

    Nem értem. Itt arról van szó, hogy hol a hiba. Nem tetszik a felhasználónak, mert megszokta a régit? Rossz munkát végzett a textúrákat elkészítő partnerstúdió? Nem volt teljesen összehangolt a munka a stúdiók között, így esetenként nem illik az adott tartalom az adott leképező működéséhez? ... kb. ez a három lehetőség merül fel, de biztos nem az, hogy kevesebbet számol az új verzió, mert jóval többet számol, elvégre a texelek szintjén jobb minőségűek az új tartalmak. Utóbbira nyilván szükség van a 4K-hoz, hiszen a régi tartalmat nem 4K-hoz tervezték, hanem Full HD-hez. Ezért rajzoltatták a textúrák zömét újra, mert a régi textúrákból nem kértek nagyobb felbontásút, mint amivel szállították.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #27090 üzenetére

    A textúrák mérete annyira lényegtelen a futtatáshoz. Akármilyen méretű textúrákkal is pontosan egy sugár lesz kilőve egy pixelből, és azok egységnyi szűrési feltételek mellett pontosan ugyanannyi texelből térnek vissza a mintával. Ezért látod azt, hogy a textúraméret növelésével vagy csökkentésével szinte alig változik az fps.
    Elsősorban azért fut jobban a program, mert a szoftverfejlesztésnek van egy átlagfelhasználók előtt kevésbé ismert tapasztalati megfigyelése, miszerint egy "1.0-s" verzióban kiadott program teljesítménye másfél év alatt megduplázható ugyanazon a hardveren, csupán a kód optimalizálása által.

    A víz az egyébként lényegesen jobb lett. A régi víz az csupán az UE-vel kapott rendszer volt, míg most csináltak egy saját shadert hozzá. A fényeket sem butították le, sőt a leképező fejlesztése pont azt szorgalmazta, hogy több pontfényforrással dolgozhassanak, csak leszedték a túlerősített lens flare-t.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák