Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz VTom #70263 üzenetére

    Ugyanolyan gyártói teszt, mint amit az NV végzett el a saját eredményeinek a bemutatásánál. [link]

    Az NVIDIA sem csinálta meg később az AMD-nél. Azért került bele később ugyanez a változtatás, mert az NV-nek három külön csapat írja a meghajtót, és nem lehet ész nélkül comittelni a batch-eket. Tehát az NV hiába írta meg októberre a rutinokat, ahogy az AMD, azokat csak most lehetett beépíteni egy kompatibilis batch-be.

    Én azt sem ismertem el, amikor az AMD rakott a 17.10.2-be +30-40%-ot a Destiny 2 profillal, mert tisztán látszott, hogy ez nem csoda, hanem pusztán egy korábbi gond kezelése. Most azt, hogy az NV ezt a kezelést a saját meghajtójára is kiadta csak egy elvárható dolog. Persze tapsikolhattok, hogy most aztán az AMD és az NV nagyon odatette magát, de ez nem így van. A korábbi profilok hibáit javították csak, amelyek valószínűleg nem véletlenül keletkeztek, hanem a direkt bétára való optimalizálástól.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Asbee #70268 üzenetére

    Akkor még egyszer.

    A Destiny 2-re az AMD kiadott egy végleges profilt a 17.10.2-ben. [link] - itt le van írva a mérés, hogy a Vega 56-on 43%, míg az RX 580-on 50%. Minden adat megtalálható a linken.

    A Destiny 2-re az NV most kiadott egy végleges profilt a 388.31-ben. [link] - itt le van írva számos mérésben, hogy miben mennyi %. Minden adat megtalálható a linken.

    Na most ezek a átlag 30-40%-ok nem attól jönnek, hogy olyan jó munkát végzett az AMD és az NV, hanem pont attól, mert mindketten rossz munkát végeztek, csak éppen ezt a végleges, vagy véglegeshez közeli profilokban korrigálták.

    A Gamernexus és a PCgamer általam szóba sem került, mert ők nem tudják, hogy az egyes meghajtók új rutinjai milyen problémákra reflektáltak, ugyanis nem vettek részt a profilok fejlesztésében. Ez a fő oka annak, hogy az AMD és az NV is "up to" kapcsolattal közli a százalékokat, mert direkten olyan pályarészeket választanak, amelyekre az új rutinok reagálnak, viszont ezekről az adatokról a Gamernexusnak és a PCgamernak halvány lila fingja sincs. Viszont ettől még nem hazudik sem az AMD, sem az NV, amikor a saját méréseiket publikálják. Annyi történik csak, hogy sokkal több információjuk van a meghajtó hátteréről, így pontosan tudják, hogy mire reagálnak a frissítések, vagyis ezeket a szituációkat fogják mérni.

    Remélem eddig senki sem gondolta, hogy ezek a gyorsulások általánosak. A legtöbb specifikusan a shaderek cseréjétől származik, márpedig ha mondjuk egy shader gyorsult be teszem azt a négyszeresére, akkor az okozhat 10-15% pluszt a teljes frame-re. De ha az a shader nem fut az adott pályán, akkor ez nem sokat ér. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #35434496 #70273 üzenetére

    Vigyázz, mert berepülök a radarszint alá. Ja nem! :DDD

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz VTom #70279 üzenetére

    Nem azt magyarázom, hogy az NV előző drivere volt a szar. Azt magyarázom, hogy az AMD és az NV, tehát nem az egyik vagy a másik, hanem mindkét cég ugyanúgy elrontotta a profilt azzal, hogy a bétára írták. De aztán hoztak egy véglegesre írt profilt, ami a linkelt meghajtókban a szintén linkelt hatásokat hozta. Ettől a meghajtók mindkét oldalon jók voltak, de a Destiny 2 támogatását mindkét cég elrontotta, amit persze helyrehoztak.
    Az a probléma, hogy mind az AMD, mind pedig az NV ezt a helyrehozó frissítést úgy adta el, hogy jajde a júzerért dolgozunk a játék megjelenése után az up to 50%-kal. A reklámanyagokban az AMD még máig azzal büszkélkedik, hogy két meghajtó között +50%-ot találtak. Woah. Lószart woah, csak elrontották a béta profilokat. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #70282 üzenetére

    Az semmi. Az AMD 17.10.2-es szupergémredi drivere eldobta magát a Destiny 2 6. single küldetésen. :DDD Annyira gémredi volt, hogy közben megmutatta a desktopot. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #70294 üzenetére

    Abban a formában ahogy csinálják megéri. A monitorgyártóknak az volt a baja ezzel, hogy a két Sync szabvány miatt két monitort kell ugyanoda tervezni, vagyis egy ugyanakkora rétegből származó bevétel kétfelé oszlik a tervezés szintjén. Ergo R&D-ben a kétszeresét költöd, holott visszafelé csak ugyanannyi pénzt kapsz. Csak aztán rájött a Dell, hogy nem kell ezt kétfelé tervezni, elég rávágni a G-Sync-re a saját R&D-jét, és így már ez a termék önállóan is képes kitermelni a hasznot. Az LG is ugyanezt csinálja, ezért kerül majd a termékük ~300 ezer forintba, holott technikailag amúgy ~150 ezres kategóriába való. Ilyen formában csak arra kell figyelni, hogy az ár fele haszon legyen, és mindegy milyen drága lesz a kijelző, mert a többi gyártó is ugyanígy dolgozik már. A Samsung is beállhat, hiszen monitoronként 300-400 ezres árcédulával nekik is megéri. Ebben segít az Acer és az ASUS is, ugyanis ők is már csak a prémium árszint fölött képzelik el a G-Sync jövőjét, tehát nem lesz olyan konkurencia, akik új G-Sync kijelzőt terveznek a tömegpiacnak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz akoska07 #70306 üzenetére

    Amióta van G-Sync azóta elég sok dolog változott. A hirtelen fellángolás után lecsökkent a támogatók száma 2-re, majd miután a Dell megmutatta, hogy jó ez a premium szegmens fölé is, újra elkezdett nőni a támogatás. Ennek a fő oka, hogy a G-Sync-et támogató Acer és ASUS is úgy döntött, hogy szétválasztják a kijelzők fejlesztését a többitől, így a G-Sync vonalnak ki kell termelnie a saját R&D-jét. Ilyen formában akármeddig jó ez a vonal, mert abszolút prémium kijelzőkön kap helyet. Az LG-nek is azért éri meg, mert az amúgy 150k-t érő kijelzőjét csupán a G-Sync modul miatt eladják 300k-ért. Ebből az NV leveszi a saját 200 dolláros hasznát, a maradék 400-500 dollár haszon pedig az LG-é. És ugyanígy megcsinálja ezt a többi monitorgyártó is. Lásd az Acer és az ASUS, akik az év elején hozzák az új G-Sync kijelzőket. 1500-2500 dollár közé. Így akármeddig megéri, ha a vételár felét haszonként realizálják.
    Ez egyedül az NV-nek okoz majd fejtörést, mert nem biztos, hogy ők azt szeretnék, hogy a G-Sync egy prémium feletti kategória legyen. Nekik azért kellenének 500 dollár körüli megoldások is, de a monitorgyártók ezt leszarják, amíg a találnak vevőt, aki kifizet 1000-2000 dollárt egy új kijelzőre, ebből nekik így hasznuk van.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz akoska07 #70308 üzenetére

    Olyannyira messze vagyok, hogy Predator X27 lesz az Acer érkező kijelzőjének a neve. DP1.4, HDR10 (ők HDR Ultrának hívják, de ez csak marketing), 384 zónás háttérvilágítás, nyilván 4K, 144Hz, AU Optronics-féle IPS panel, GameView profilozás, szokásos állíthatóság, VESA aljzat, stb.
    Az ASUS is kb. ugyanilyet hoz, csak Swift PG27UQ néven. Az alapja ennek tök ugyanaz, csak más extra fícsőrökkel.
    1300-1500 dollár köré saccolják a 27 hüvelykesek árát. Lesznek nagyobbak később, még drágábban. Azok már 2000 fölé nyalnak.
    Nem egy nagy bűvészet ezeket tudni, hiszen a CES-en ki lesznek állítva, és a gyártók már küldözgetik az anyagokat készülve a kiállításra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cyberkind #70310 üzenetére

    Nem lesz rossz ötlet a TV sem. Lesz erre egy általánosabb megoldás a HDMI 2.1-gyel. Ott maga a HDMI forum intéz minden hitelesítést, tehát a gyártók nem szólhatnak bele, még külön hitelesítési megoldásokat sem kreálhatnak. Ez tényleg univerzális VRR megoldás lesz olcsón. A licenc része lesz a HDMI licencnek, tehát kvázi ingyenes a gyártók számára. Már azt számítva, hogy a HDMI-ért úgy is fizetnek. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #70324 üzenetére

    Majd jön még itt Star Wars Heroes vs. Disney Heroes - Superkid Edition. :DDD

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cyberkind #70519 üzenetére

    Ha változás lesz, akkor az lesz, hogy vagy emelik a játékok alapárát, vagy kevesebb tartalmat raknak bele. Ezt majd a piac kialakítja.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cyberkind #70521 üzenetére

    Ha Day1 nem veszik a játékot egy platformra, akkor az a platform nem értékes, így többet az adott cím nem jön oda.

    Itt igazából az a baj, hogy borzalmasan költséges az egész fejlesztés. A Battlefront 2 az nem csak annyi, hogy kész van és kiadják, aztán vége, hanem oda kell rakni mögé a működéshez szükséges infrastruktúrát is. Ez folyamatos tesztelést jelent, folyamatos fejlesztéssel, és egyben hardveres költség is, hiszen a szerver is dolgozik a háttérben, aminek fenntartási költségei vannak. És emellett még keresni is akarnak vele, tehát úgy kell az egészet megoldani, hogy azért jobban megérje a fejlesztésbe ölni a pénzt, mint berakni a bankba kamatoztatni, vagy bármilyen más viszonylag biztonságos befektetést eszközölni.
    Alapvetően ez a loot box megoldás még mindig a legolcsóbb a user felé, ennél csak drágább alternatívák lesznek. Ha pedig az egyes platformok erre nem vevők, akkor a játékot nem éri meg kiadni az érintett platformokra. Tudják másra is költeni az így felszabaduló pénzüket. Csinálnak kisebb, bénább játékokat olcsóbban. A Team Fortress 2 sokkal egyszerűbb, kevésbé költséges, mégis szórakoztató.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cyberkind #70523 üzenetére

    Nem pont azért drága a fejlesztés. Az EA kidolgozott egy érdekes modellt, amiben egy motort csinálnak mindenre, és ezt lényegében két stúdió tartja fent. Van egy fejlesztéseket végző részleg, ami a Frostbite Team, és van egy R@D részleg, ami a SEED. És a SEED-esek azért nem semmi srácok, elég ha megnézed, hogy miket kihoz a PC-ből Tomasz Stachowiak: [link] és [link]

    Szóval ez az egész az EA-nek technikai előnyt biztosít mindenkivel szemben, de cserébe lényegesen többet is költenek mindenkinél.

    Manapság jellemző az iparágra, hogy több nagy részre szakadt. Az egyik a hardcore terület, amibe sok pénz kell, és multiplatform fejlesztések tekintetében ennek az élén van az EA. A másik a budget terület, ami igazából főleg az indie réteg, ahol az a koncepció, hogy licencelnek egy olcsó motort (Unity vagy UE, igazából mindegy), és arra építenek játékokat. És akkor vannak a nagy vagy viszonylag nagy kiadók, amelyek a kettő közé szorultak, és egyrészt menni kellene az EA után, de az drága, másrészt az a modell is rossz, amire régebbről berendezkedtek, az olcsón licencelhető motorok pedig igen lassúak. Nagyon nehéz itt eldönteni, hogy mi az ideális, mert az EA modellje nagyon sok versenytársnak túl költséges.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cyberkind #70525 üzenetére

    Alapvetően igen. Egy mai videojáték-motor bonyolultsága vetekszik egy operációs rendszerével. És ennek a fejlesztése nem olyan triviális és kiszámítható, mint a tartalom megrajzolása. Utóbbi is elég költséges, de sokszor itt csalnak a fejlesztők és az egyes játékok tartalmait, főleg az animációit egy másiknál újrahasznosítják.

    Az indie réteg azért nem ütközik alapvetően ezekbe az égető problémákba, mert sokkal egyszerűbb játékokat fejleszt. Licencel egy UE4-et például, és azt igazából elég frissíteni, vagy nem, ha nem akarják. Az UE4 viszont sok kiadónak nem jó, mert az kvázi egy Land Rover. Jó szinte bármire, nagyon szerethető fejlesztői szempontból, de amikor ráhajtasz egy versenypályára, akkor más kocsit választanál. A Frostbite egy F1-es autó az UE4-hez képest. Abszolút versenypályára való, iszonyatosan gyors, de ügyelni kell arra, hogy sose csússz ki. :)

    A CDPR azért csalóka, mert ők lengyelek. Itt a munkaerő sokkal olcsóbb, mint nyugaton. Ez azért nagyon számít. És technikailag ők is el vannak maradva a Frostbite-tól. Persze mondjuk ki nem. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz VTom #70634 üzenetére

    :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #35434496 #70695 üzenetére

    Crimson nincs többé. Adrenalin van helyette. :DDD

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz VTom #70704 üzenetére

    A Vegának csak egy, fejlesztők által beépíthető újítása van, amit jelenleg és a közeljövőben alkalmazni lehet. Ez a packed math. A többi vagy hardveres, vagy driveres. A packed mathot használja amúgy a Wolf 2.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz VTom #70781 üzenetére

    Nem úgy néz ki, hogy lesz asztali Cannon Lake. A Coffee Lake van egészen 2019 közepéig. Utána Ice Lake van jelölve. Az a gond, hogy a Cannon Lake-kel leghamarabb 2019 elején tudnak jönni, onnan meg pár hónap az Ice Lake. Akkor már inkább helyből érdemes arra ugrani.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ÁdiBá #70799 üzenetére

    Áh, le se szarják. Kb. meghót a sztereó 3D. Egyedül a TriDef frissülget, de az is csak szőr mentén, csak amiatt, mert az LG és a Samsung még mindig rak bele pénzt. De ez ma már zsebpénz szintű ahhoz képest, amit régen kaptak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ÁdiBá #70808 üzenetére

    Mondjuk bele kellene rakni annyi pénzt, amennyit a Sony belerak a saját VR platformjába. És akkor lenne jó tartalom is hozzá. Addig amíg az Oculus és a HTC biztonsági játékozik nem fog csak magától jönni a tartalom. Illetve fog, exkluzívan a PSVR-re, mert az a rendszer eladást is produkál, ráadásul sokkal egyszerűbb rá fejleszteni.
    A PC egyetlen reménye a Mixed Reality platform.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Devid_81 #70823 üzenetére

    Senki sem tudja, hogy mi lesz. Az Intel ismét egy csomót módosított az útitervén. Folyamatosan csúsztatni kell a termékeket a 10 nm-es gondok miatt. Már ott tartunk, hogy a Cannonlake meg sem jelenik, pedig eredetileg csak egy év csúszásról volt szó. Szóval megint kell várni egy pár hónapot, mire döntenek a készülő termékek sorsáról.

    (#70822) Keldor papa: Gyári támogatás mellett az IGP is menne. A userkének azért nem megy, mert egymaga rakta össze és sok dolgot nem ismer, de egy alaplapgyártó tudja, hogy milyen mikrokód vonatkozik az IGP-re.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #70829 üzenetére

    Persze. Ami nem biztos, hogy működne, azok az energiagazdálkodási dolgok. De a többi csak mikrokód kérdése, amire igazából vakon nagyon nehéz összetákolni egy BIOS-t. A gyártók azonban nem vakok ebből a szempontból. Nekik megvannak az adatok az Inteltől.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #70850 üzenetére

    Itt azért kérdés, hogy mit tekintünk új architektúrának. Régebben sokkal sűrűbben cserélték le a gyártók az ISA-t, illetve a memóriamodellt. Ma azért már jó ideje nem nyúltak ehhez. A Fermi volt az NV-nél az igazán új, míg a GCN az AMD-nél. De ha úgy nézünk az új architektúrákra, hogy azok nem feltétlenül hoznak új memóriamodellt, akkor pedig a Kepler-Maxwell-Pascal ilyen váltás, sőt mindegyik GCN iteráció. Ha a kódolási sémához kötjük, akkor az NV-nél a Maxwell változtatott, míg az AMD-nél a Polaris.
    Leginkább azért nincs sok változás ebben a tekintetben, mert sem az NV, sem az AMD nem akar 4-6 blokknál tovább skálázni, nem feltétlenül éri meg. Emiatt a fejlesztések a blokkokon belül vannak. Ez is amiatt van, mert nagyobb problémákba futnak a rendszerek például attól, hogy a regiszterek allokációja még mindig statikus. Nem véletlen, hogy a Volta és a Vega pont erre reagált egy-egy kezelési móddal, ami persze a valós megoldástól még mindig távol van.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ÁdiBá #70856 üzenetére

    Titant sajnos nem nagyon osztogatnak, de megpróbálunk szerezni.

    Működni működik, csak nem ide való. Supportra is a GPU Cloud van megjelölve.
    Nektek a GV102 lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz proci985 #70858 üzenetére

    Amikor elkezdik a GDDR6 kísérleti gyártását, illetve picit később. Kb. tavasz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ÁdiBá #70860 üzenetére

    A Titan az GV100. Az is marad. Teljesen másra való, mint a GeForce-ok. Ott tudsz mit kezdeni a Tensor magokkal.

    A top elvileg 384 bites buszt kap, ahhoz 24 GB VRAM-ot lehet rakni. 16 GB 256 bithez rakható.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz stratova #70862 üzenetére

    Elvileg nem köthető kettő össze direkten, szóval van némi hardveres butítás is, de nem sok.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #70884 üzenetére

    Az explicit API-k miatt a multi-GPU nem gyilkolható le. Maximum a legacy API-kban, de a DirectX 12-ben és a Vulkan API-ban annyi eszközt detektál a program, amennyit akar. Vagy a WDDM-nek van szabványos multi-GPU módja, amire amúgy is kell támogatás. Ezt nem valószínű, hogy nem támogatná az NV, mert két évig foltozta a Microsoft, hogy végre jól működjön nekik. Nagyon pipák lennének, ha most mondaná az NV, hogy "kösz mindent, de mégsem akarjuk". :D

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Devid_81 #70903 üzenetére

    Alapvetően a 3Dmark Fire Strike nem tipikusan az az alkalmazás, amiben a Volta újításai meg tudnák mutatni a lényegüket. Sokkal jobb ebből a szempontból a Time Spy Extreme. Abban van lehetőség a felezett pontosságra, ami az erre vonatkozó effektek dizájnja miatt több warpot is futtathat az új multiprocesszoron, mint a korábbin.
    Amúgy persze működik, használható erre is, de a Volta újításait ki is kell használni, nem jön a sebesség magától.

    (#70904) stratova: A 3DMark GPU-tesztek eleve úgy vannak felépítve, hogy a meghajtó és a CPU ne limitálja az eredményt. Ebből a szempontból még ha nincs is kiforrva a meghajtó, az nem hátráltatja a hardvert.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Devid_81 #70908 üzenetére

    Ez nem ilyen egyszerű. A Volta újításai nem tipikusan olyan újítások, amelyek automatikusan csak úgy működni fognak. Hasonló ez a Vega packed math képességéhez. Ahhoz is kell szoftver oldali támogatás, és ugyanúgy a felezett pontossághoz az NV-nek is kell ez. Vagy mondjuk az AMD-nél Wave Limits, ami egy külön Vulkan kiterjesztés, mindegyik GCN-re, de főleg a Vegára. Az NV-nek is szüksége lesz egy hasonlóra, hogy a Volta fő újítása, vagyis az egységesített cache egyáltalán bármi előnyt biztosítson egy jól megírt programban.

    A mostani új dizájnokkal az ingyen ebéd eléggé megszűnőben van, trükközni kell ahhoz, hogy jöjjön a sebesség is, mert a korábbi tipikusan GPU-kat érintő problémák, mint a statikus regiszterallokáció, a statikus LDS-használat, a maximalizált wavefront/warp feldolgozási modell általi tipikusan rossz cache-hit a mostani teljesítményszinten, a mostani programokkal kezdik éreztetni a hátrányokat. Hiába növeled a feldolgozókat, illetve mondhatni a nyers paramétereket a végtelenségig, a komplex kódok futtatását már maga a multiprocesszorok erősen statikus menedzselése korlátozza be. Ezekre a problémákra reagál a Vega és a Volta is, csak ezek nem igazán működnek automatikusan.

    Nyilván azt is csinálhatná az NV és az AMD, amit az Intel csinál, hogy teletömi regiszterrel és gyorsítótárral a dizájnt, aztán nem lesz limitáló a statikus allokálás, de akkor a feldolgozók felétől búcsút kellene inteni, tehát nem ajánlott erre menni, mert szoftveres oldalon is kezelhető a probléma, csak ehhez kellenek a fejlesztők is, akik majd kezelni fogják.

    Ezek az új GPU-dizájnok nagyon jók amúgy, csak a lényegük, amiért készültek még nem mutatkozik meg.

    Hosszabb távon egyébként nyilván egy olyan hardver az ideális, ami az allokációt hardveres rásegítéssel oldja meg, mert a mostani hardverek eléggé pazarlók a statikus módszerrel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Devid_81 #70913 üzenetére

    Ebben sokat segít majd a shader modell 6.0, mert az eléggé univerzális shader nyelv, ami átfogóan támogatja a PC-t és az Xbox One-t is. És végre úgy lehet programozni a hardvereket, ahogy azokat tervezték, nem egy 15 éves hardverekre kialakított modellben.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ÁdiBá #70974 üzenetére

    NVLink. De nem működik a Titan V-n. Amúgy a QUADRO NVLINK BRIDGE való hozzá. 599-ért itt megrendelhető, persze muszáj Quadrót venned, másképp nem fog üzemelni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FollowTheORI #78010 üzenetére

    Nem igazán a compute kell az RT-nek. Memória-sávszélesség, de nagyon-nagyon sok. Úgy 2 TB/s az, ahol ez elkezd tényleg működni. Az nem igazán számít, hogy nincs meg a TFLOPS, mert úgyis a BVH mélysége fogja lekorlátozni a feldolgozást. Nem véletlenül repcsizik 1 TB/s-ra a Vega 20. Nem igazán tudsz egy BVH8-cal mit kezdeni TB/s alatt. Márpedig ennyire mély gyorsítóstruktúra kell, még úgy is, hogy egy csomó modellt eléggé visszafognak geometriailag.

    Igazából ezt az RT irányt az fogja nyerni, aki először hozza a HBM3-at, hiszen azzal 4096 biten elérhető a 2 TB/s. Aztán lehet menni a 3 TB/s-ra 6192 bites konfigurációval.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FollowTheORI #78015 üzenetére

    Compute szempontjából eleve egy csomó idle ALU-d van a raszterizálás miatt. Egyszerűen a DXR shadinget betöltöd aszinkron, és máris nyertél egy rakás teljesítményt, méghozzá anélkül, hogy a hardveren változtattál volna. A gondot tényleg az okozza, hogy egy tipikus mai játék BVH8-at minimum kér, és az 80 bájt per sugár. Erre memóriasáv-szélesség mondjuk 10 gigarays/s mellett ~1,5 TB/s-tól lesz. Ez a legnagyobb korlát most, nem véletlen, hogy akkorát lassul az egész, ha a kamera egy komplexebb jelenetre fordul.

    Az optimális egyébként a BVH16 lenne, de az egy 8-10 TB/s-os történet. :DDD Az biztos, hogy ezzel az RT-vel a memóriagyártók nagyot húznak, mert úgy fogja zabálni a hardver a sávszélt, mint még soha.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #59036672 #78154 üzenetére

    Csak férfi. :D

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz snecy20 #78537 üzenetére

    Memória-sávszélesség. Az RT-nek borzalmasan kell a GB/s. Bár inkább TB/s-ot kellene írni. Az a lényeg, hogy sugaranként 80 bájt legalább a BVH olyan háromszögszám mellett, mint ami manapság van a játékokban. Ez nagyon sok. Akit a DXR érdekel semmiképpen se adja 2080 Ti alá. Nem lesz meg a többiben a teljesítmény, hogy Full HD-ben normálisan játszhatók legyenek a játékok.

    A Star Wars RT pedig egy elég rossz példa, mert Turing mellett DLSS van. Anélkül, vagyis igazából natív felbontáson a mért teljesítmény a felére esik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz stratova #78543 üzenetére

    Készletet söpörni nehéz, amikor a GTX 1080 Ti-t nagyobb mennyiségben gyártják, mint a 2080-at. Nem is kevéssel. Előállítási költség szintjén a 2080 azért jóval drágább, és pár hónapig az is marad. Ergo a nagy mennyiségű eladásokhoz szükség van az 1080 Ti-re. Érdemes megnézni, hogy az NV a Turingra korlátozza a saját áruházában a megrendelést, de Pascalt vihetsz nagyobb mennyiségben is.
    Tök jó, hogy mindenki kiborul az áron, de azt is érdemes számításba venni, hogy egy 14 Gbps-os GDDR6-os memória ára 38 dollár a Micronnál, és hasonló áron mehet a többi is. Emellett a GPU mérete is igen nagy, ráadásul a 12 nm-es node is drágább a 16 nm-esnél. Szóval nem azért ennyi, mert ott van még a Pascal, a probléma az, hogy a termékhez szükséges komponensek ára magas. Idén ez nem is valószínű, hogy megváltozik. Majd leginkább jövő tavasszal, amikor a TSMC már erősebben helyezi a kiszolgálást a 7 nm-re, illetve a GDDR6-os memória ára is lecsökken a lassan fokozódó túltermelés miatt.

    Meg kellene barátkozni ezekkel az új árakkal, mert a következő kör csak rosszabb lesz, ugyanis talán 2020-ig megússzuk az EUV nélkül, de utána már mindenképpen egy EUV-s node-ot választanak a GPU-gyártók, és akkor megint árat kell emelni, mert annyira drágák ezek a node-ok, hogy nem lehet igazából kitermelni a megszokott VGA-s árazás mellett. Lehet, hogy sokaknak nem fog tetszeni, de ezek az új árak a piacon, és még nem állt meg a drágulás. Az sem fog segíteni, ha megszöknek a vásárlók, mert ettől a komponensek és a waferek ára nem csökken majd.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz stratova #78553 üzenetére

    A HBM2 sokkal olcsóbb memória, mint a GDDR6 vagy a GDDR5X. Még ha a stack szintjén drága is, akkor is csak kettő kell belőle a Vegára és nem 8-11, miközben a GDDR6 és GDDR5X is drága a stack szintjén. Hatalmas különbség. Az interposer pedig nem nagy költség, ezt olcsó 40 nm-es node-on vagy még nagyobb csíkszélességen gyártják. Legutóbb a 40 nm-es waferekárak mellett egy interposer nem lehet drágább ~20 dollárnál. De ha 65 nm-es interposert használ az AMD, akkor csak ~8 dollár. Végeredményben mindegy, mert még a 20 dollár is olcsóbb a GDDR kiépítésének NYÁK-költségénél. Nem véletlen, hogy mindent HBM-en képzel el mostantól az AMD, mert a GDDR-t az új memóriaárak mellett aránytalanul drágának tartják. Amióta nekik csak egy csúszka a driverben a videomemória mennyisége, azóta igazából nem kell a GDDR-hez ragaszkodniuk.

    Az a baj, hogy sokat nem éreztek ezekből a komponensárakból. Múltkor volt nálam Szegeden a PC Partner egyik embere, aki gyakorlatilag VGA-kat tervez. Ő mesélte, hogy annyira gyorsan alakulnak manapság a komponensköltségek, hogy nehéz követni ezeket a gyártóknak. Ráadásul iszonyatosan sokat szívnak a magas órajelű memóriákkal, mert azokat úgy lehet optimálisan leárnyékolni, hogy hosszú NYÁK-ot csinálnak, de egy combosabb VGA-hoz azért elég sok rétegű kell, és összességében már nem a GPU a legdrágább komponens, ahogy régen, hanem maga a NYÁK és a memória. Ráadásul az újabb hardvereknél a gyártók igen magas hőmérséklethez kötik a skálázást, vagyis meg van határozva, hogy milyen hőtartományon belül optimális a működés, és sokszor ez a tartomány 70-90°C közötti, tehát akármilyen hűtőt is raknak rá, a komponensek tekintetében muszáj a drágább, 100°C-ot is elviselőket választani, mert másképp a tervezett dizájnt nem hitelesíti az NV és az AMD. És itt óriási áremelkedés van, mert olcsóbb lenne egy nagyon komoly hűtőt alkalmazni, és akkor gyengébb minőségű komponenseket, de arra meg egyik cég sem hitelesít dizájnt. Egyszerűen nem fogják megengedni, hogy eladja az adott partner ezeket a VGA-kat a kereskedőláncoknak. Emiatt, illetve a memóriaárak következtében drágul eszeveszett ütemben a VGA-k gyártása, plusz erre még rátesz egy lapáttal, hogy az új node-okon is egészen új szintet üt meg a waferár, ami már egy rossz tényező, főleg akkor, ha a lapka még nagy is.

    Vannak egyébként erre megoldási javaslatok, de ezek olyanok, amelyeket nem tudnak bevezetni egyik napról a másikra, tehát alapvetően ma azt tudják tenni, hogy igazodnak a dráguló komponensekhez.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #78554 üzenetére

    Nem kap. Sokkal olcsóbb gyártani, mint a 2070-et, és nem lesz akkora különbség a két hardver között. Ez azért lényeges tényező.

    (#78563) Keldor papa: Hosszabb távon ez nem marad így. A HBM3-ra mindenki dobja a GDDR-t. Túl drága a NYÁK-költség, sok kell a drága memóriából, illetve nem is érhető el vele a 2 TB/s, amit illene megütni alsó hangon, ha ezt a réjtrészinget komolyan is gondolja a piac. Ahhoz, hogy ez működjön a gyakorlatban is 1 TB/s a minimum, amit el kellene érni, és akkor nem a Full HD lesz a max felbontás, amit értékelhető sebességgel el lehet érni vele.
    Az interposerre vannak nagyon jó megoldások, több gyártónál is van már kísérleti szinten Si-less RDL interposer. Alapvetően a TSI verzió nem szükséges, mert csak memóriákat kötsz össze a lapkával, tehát routing problémába nem futhatsz bele.

    Rövidebb távon itt az lesz, hogy Si-less interposeren lesznek a HBM3 lapkák, azon pedig lesz két olyan lapka, ami egymás tükörképei, és ezek vertikálisan egymásra vannak tokozva. Ezzel hozod a sávszélre vonatkozó számokat, az interposer költsége elhanyagolható, lefaragod a NYÁK-költséget, illetve a lapkák tekintetében is inkább a kis lapkaméretet tartod szem előtt, még akkor is, ha kettőt kell csinálni tükrözve, és azt össze tokozni egymáson. Ezzel az EUV-s node-ok igénybevételét lehet kicsit eltolni.

    Hosszabb távon kicsit szarabb a dolog. :D Nyilván az aktív interposer egy valódi heterogén integrációhoz elkerülhetetlen, tehát a Si-less interposerek csak ideig-óráig hasznosak. Viszont aktív interposerrel lehet eltérő lapkákat is egy tokozásra, akár egymásra integrálni, és itt annyira megnő a legózási lehetőség, hogy már fejlesztési szinten is komoly pénzek spórolhatók meg. A VGA-piacon ma tipikus probléma, hogy sok külön lapka kell. Hiába tervezed ezek IP blokkjait azonosra, akkor is igen nagy a lapkára levetített költség. Ráadásul, ha hibázol egyet, akkor elégettél 50 millió dollárt, vagyis a kockázat is hatalmas. Ezeket a tényezőket vissza lehet szorítani olyan modellel, ahol chipleteket raksz össze egy aktív interposeren. Itt már nem is biztos, hogy VGA-kban fogjuk mérni ezeket, mert ilyen integráció mellett nincs különösebb előnye a dedikált hardvereknek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Devid_81 #78583 üzenetére

    A 10 nm-rel van baj. A 14 nm-ből csak a kapacitás kevés, mert mostanra már azt számolták, hogy a lapkák 30%-a 10 nm-en készül, de azon nem tudnak gyártani. Ez van. Az első generációs 10 nm-ből nem lesz semmi. A második generációs 10 nm jobban működik. Arra az Ice lake jön, de az sem tökéletes. A harmadik generációs node-ra ígérik azt, hogy oké lesz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #78625 üzenetére

    Már nem. A Micron tele van GDDR5X készletekkel, amelyeket el kell adni, és hát nincs kinek, ha az NV nem rendel, szóval az árban tuti meg fognak egyezni. Ez elég készlet az ünnepi szezonra. Aztán marad, ami marad, tavaszra nem valószínű, hogy lesz. :) De. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ÁdiBá #78647 üzenetére

    Sávszél kell neki. Nagyon sok. Ez TB/s-os szinten fog igazán működni.

    (#78662) Devid_81: A 7 nm-es Vega 20 idén csak Radeon Instinct sorozatba megy. Vannak is már minták a kicsi verzióból. Asztali szinten a Vega 12 érhet ide az ünnepekre. Az ilyen aprócska nagyjából RX 570 szintű dolog.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Devid_81 #78667 üzenetére

    A 7 nm-es Vega a Vega 20. Ebből lehet rendelni egyslotos mintát. A SIGGRAPH-on is kint volt. A számítási teljesítménye hasonló a Vega 10-hez, de 0,5 helyett 1 TB/s a sávszélessége, illetve csak 120 wattot fogyaszt. Plusz a Vega 20 újításai, GMI, DL Ops, PCI Express 4.0. Lesz belőle egy gyorsabb verzió is ~225-235 watt körüli fogyasztással, de annak még nincs mintája, vagy legalábbis nem volt ott a SIGGRAPH-on.

    A roadmapben négy Vega 20 szerepelt. Egy kicsi egy slotos Instinct, egy nagyobb kétslotos Instinct, illetve egy olyan verzió, ami nem gyorsító, hanem úgy készül, hogy egy Matisse CPU mellé van helyezve ugyanarra a tokozásra, és PCI Express helyett négy GMI-vel van összekötve a CPU-val. Ez elvileg az Intel új, BGA-s Xeon Phi generációja ellen megy majd. Emellett lesz egy Radeon Pro verzió. Gaming változat egyelőre nincs rajta a roadmapen. Jó lehet, hogy a rendezvény professzionális beállítottsága miatt, de nem láttam még olyan útitervet, amin ez rajta lett volna.

    Én annyit tudok, hogy idén a Vega 12 van gaming szinten is tervben, de nem tudni, hogy csak OEM-eknek szánt termék lesz-e, vagy dobozos piacra is jön. Emellett ami még biztos, hogy jön az év végén a szokásos nagy driver, ezt már jó előre beharangozták, hogy "beszarásdurva" lesz, de igazi újdonságot nem tudtam róla kideríteni. Pár mostani funkció lesz polírozva, illetve a HiAlgós csapat dolgozik valamin a háttérben, mert a Chillre már nem kell sok erőforrás. Nem tudom, hogy mi az, de ha tippelni kellene, akkor valószínűleg egy ReShade-hez, illetve ENB serieshez hasonló, gyári injektor lehet, mert az új API-k sajátosságai miatt ezek nem igazán működnek DX12 és Vulkan mellett, de hasonlóan, ahogy a Chillnél, itt is sokat jelent, ha az ezt fejlesztők látják a driver forráskódját, de ezt ugye a ReShade és az ENB series programozóinak nem fogják megmutatni.

    Végül a nem VGA-s projektek futnak. Ezek közül ugye fontos a Subor konzolja, mert az Kínát eléggé durván letarolhatja, és már nyivákolnak is a Kínát célzó PC-s gyártók, hogy az AMD mennyire szar helyzetbe hozta őket ezzel (ebben azért részben igazuk van :) ). Emellett a Smach Z is egy kiemelt projekt lett, ami nem rossz kütyü, de az ára az nagyon ott van. Értem, hogy másik piac, de a kicsi majdnem annyi, amennyi a 2080, míg a nagy a 2080 Ti-hez közelít. Nem látom rá a tömeges igényt, jó persze, más ilyen szintű teljesítménnyel még nem próbálkozott kézikonzolban, de akkor is. :D

    Szóval kb. ennyi. Elmondanám, ha tudnék mást is. :))

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz stratova #78671 üzenetére

    A Hawaii back-end számban hiába ugyanannyi, a Vega back-end sokkal erősebb a gyakorlatban. Ezért olyan veszettül erős a kis Vega a Ryzen APU-ban. Ezek a számok nem jelentenek sokat, ha körülötte kicseréled a rendszert, és a gyakorlatban hatékonyabbá teszed.

    A Vega 12-ben 1280 shader lesz ~1700 MHz-es órajellel és 256 GB/s-os sávszéllel. Messze a Polaris 11/21 fölött van ennek a teljesítménye. Persze a lapka inkább a Polaris 11/21-hez van közelebb méretben, de ez a lényege igazából, hogy egyszerre kiváltsa az összes Polarist, és akkor a teljes termékskála Vega lesz. Kivéve a Polaris 12-t, de az igazából csak arra van, hogy képet adjon, tehát nem kritikus termék a stratégia szempontjából, irodába viszont megteszi.

    A device ID nem sokat jelent önmagában. Akár az is lehet, hogy valaki kért Kínához egy módosított specifikációt, vagy csak egy projekt fut a háttérben aminek ez a lapka az alapja, de sose fog rá termék épülni. Kína egyébként opció, mert a Subor miatt sok cég nagyon zabos az AMD-re, őket próbálják talán megnyugtatni egy speciális Polarissal. A "miért nem rendeltetek ti is egyedi lapkát" szöveg nem igazán jött be a gyártóknak. :)) Még ha rá is eszmélnek, hogy milyen igaz, akkor is már mindegy. :DDD

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz proci985 #78675 üzenetére

    Nagyon nehéz egy általános neuronhálót kialakítani. Ezért van ez játékhoz kötve. Az a gond, hogy a DLSS igazából nem csoda, tehát a 4K-s DLSS beállítás azért rosszabb minőségű, mint a natív 4K, mert alapvetően a nem kritikusnak ítélt részeket kisebb felbontásban készíti el. Innen jön a sebességnövekedés is, hogy csak ott legyen nagy a felbontás, ahol igazán számít. De ha erre nem jó a neuronháló, akkor bizony tud ám komoly recéket okozni, főleg amiatt, hogy alacsonyabb lesz a felbontás a natívnál. Ez a nehézsége az egésznek, és mivel a gépi tanulás eléggé kiszámíthatatlan, így előfordulhat, hogy az esetek kb. 10%-ában furcsán recésnek lát majd dolgokat a játékos. De ezen azzal lehet javítani, hogy tovább tréningelik a neuronhálót.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz akoska07 #78687 üzenetére

    Csináltunk róla tesztet: [link] - háromszor gyorsabb a konkurens IGP-nél. Átlag kétszer az előző generációs APU-nál. Ezt alapvetően a back-endből és a rasztermotorból szedi össze. A számítási teljesítmény azért nem lényeges, mert már a korábbi APU is sávszéllimites volt.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Devid_81 #78731 üzenetére

    Kérdés, hogy az NV mit csinál a Pascállal. Azért ennek az architektúrának vannak igen komoly korlátjai is, például nem lehetnek bizonyos erőforrástípusok ugyanabban az erőforráshalmazban, illetve hardveres szinten nem bindless az UAV-re és a CBV-re vonatkozóan, amire így egy CPU-oldali emuláció van beépítve a driverbe, és ez megnöveli a processzor terhelését. És ha nem úgy írsz egy DX12-es alkalmazást, hogy ezeket figyelembe veszed, azaz nem rakod ki a Root Signature-be a buffer vieweket, ami a Pascalon még a pixel shader teljesítményt is csökkenti, akkor az komolyat tud ütni a Pascal teljesítményét.

    A Turing át lett itt alakítva. Ez az architektúra a GCN-hez hasonlóan minden buffer viewre vonatkozóan bindless, tehát egyrészt nem kell neki a CPU-oldali emuláció a bekötésre, másrészt jobb számára, ha a buffer viewek nem direkten a Root Signature-be kerülnek, hanem egy memóriahalmazba. Ettől még a pixel shader teljesítménye sem csökken, illetve akármilyen erőforrástípus elhelyezhető egymás mellett egy erőforráshalmazon belül. A Turing tehát effektíve úgy működik a DX12 felé, ahogy a GCN, ergo azok az optimalizálások ideálisak számára, amelyek a GCN-nek jók, és a Pascal-féle optimalizálásokat nem szereti. Bár azt hozzá kell tenni, hogy amíg a GCN-nek és a Turingnak az NVIDIA ajánlásai maximum 2-3%-os mínuszt okozhatnak, azt is maximum szökőévente előforduló szituációkban, addig a Pascal számára a Microsoft előírásai szerint írt kód 10-30%-os deficitet jelenthet eléggé sűrűn.

    Az ultimate kérdés, hogy az NVIDIA mit akar. Mert ők most már dönthetnek úgy is, hogy a Microsoft optimalizálási javaslatait kell követni, amiket a Forza Horizon 4 követ, és ennek nem lesz baja Turing mellett, viszont növelni tudják a Turing előnyét a Pascalhoz képest, miközben csökken a processzor terhelése, ez mondjuk automatikus, a saját ajánlásaikkal sincs CPU-oldali binding emuláció, tehát mindenképpen kevesebb processzormag kell a Turingnak, így később fog CPU-limitbe ütközni.

    Amit az NV megfontol most, hogy az ajánlásaik nem teszik egyszerűvé a DirectX 12 használatát. Oké, hogy direkten bele lehet rakni bizonyos UAV-ket, CBV-ket, SRV-ket a Root Signature-be, de nem minden formátumot, ugyanis a Microsoft nem úgy alakította ki ezt, hogy majd buffer vieweket fog tárolni. Az az alapvető modell, hogy ide memóriahalmazok kerülnek, amelyek képesek akármilyen formátumú buffer viewet tárolni. Az sem praktikus, hogy minden erőforrástípusnak külön erőforráshalmaz kell. Működik vele az API, de nagyon nehézzé teszi a memóriamenedzsmentet, ami ettől pazarló lehet. Erre van egy beépített fallback, ami a Tier_1-es hardverekre eleve úgy alakítja ki a működést, hogy kompatibilis legyen az erőforráshalmaz Tier_2 szintjére írt kódokkal, csak ugye, ha erre bízod a dolgokat, akkor ütni fog egyet a teljesítményen, eléggé negatívba, ezért választják inkább ma a fejlesztők a szopást, mert sok a Tier_1-es hardver a felhasználóknál, illetve az NV is kiemelten azt ajánlja, hogy erre optimalizáljanak, mert ez a GCN-nek nem probléma, nem veszít sebességet, ahogy a Turing sem fog, de a Pascal megcsuklik egy Tier_2-re felhúzott kódtól, bármennyire is egyszerűbb ilyet írni. Na most az NV el tudja adni azt, hogy a Turinggal követik a DirectX 12 működését, és a fejlesztőknek egyszerűbb lesz, ezért ajánlják mostantól inkább a Microsoft optimalizálási stratégiáit a korábbi helyett, de félő, hogy ezzel a Pascal tulajokat magukra haragítják. És nyilván ettől joggal félnek, mert ahogy fentebb leírtam a Pascal is tud bizonyos teljesítményt DirectX 12-ben, ha igazodnak a fejlesztők az architektúra sajátosságaihoz, amely igazodás nekik lehet, hogy nehézkes, de más hardver teljesítményét nem bántja. Viszont az NV egy üzletként tekint erre, aminek jobb az, ha Turing ellép a Pascaltól, és ennek fentebb olvasható a módja.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Devid_81 #78737 üzenetére

    Csak ha az NV úgy akarja. :) Tényleg nem kell a Pascalnak lassúnak lennie, de megvan az igen egyszerű módja, hogy az legyen.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz akoska07 #78952 üzenetére

    A Semi-Custom divízió nem úgy működik, ahogy azt a sok hülye médiamunkás elképzeli. A Sony leghamarabb a Navihoz 2021-ben juthat hozzá. Nagyjából másfél év az RTG és a Semi-Custom közötti technikai lemaradás, mert ennyi idő kell ahhoz, hogy az RTG IP-it a Semi-Custom divízió átrakja a saját eszközeire, hogy aztán az könnyen módosítható legyen. Ez a fő oka annak, amiért egyik piacon lévő konzol sem használ PC-s szinten is elérhető IP-t. Ezt a másfél évet nem tudják kivárni, így inkább saját dizájnt terveztetnek maguknak. Nem mellesleg erre amúgy is szükségük van, mert saját IP-ket is beleraknak a rendszerükbe, amit viszont az RTG az AMD-nél nem érhet el. Kb. akkora baromság, hogy a PS5 Navit használ, minta mekkora hülyeség, hogy a PS4Pro Polarist.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz akoska07 #78964 üzenetére

    Azt akartam írni, hogy a PS5-ről nagyrészt hülyeségeket írnak az újságok. A Sony egy saját dizájnt kér. Ezt kérték már a PS4-re is. Azzal nem tudnak mit kezdeni, hogy sokan azt Polarisnak tartják, míg a PS5-re már megy a Navi bullshit, de egyik sem igaz. A PS4Pro olyan funkciókat is tartalmaz, amiket egyik PC-s GCN sem tud, oké talán a Vega elvben meg tudná oldani a superstencilt, de sebesség nem nagyon lenne mögötte.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák