-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz
#32839680 #49773 üzenetére
Ez a legnagyobb probléma egyébként vele, hogy a fejlesztők leszarják. Mert a technológiában lenne koncepció, ha nem szarnák le, de amíg nem indítják el a saját kutatásaikat ezen a területen, addig szarnak az egészre elven fog működni az alkalmazása. Hoz olyan minőséget, amilyent, aztán le van fosva. Pedig igazán tréningelhetnének saját neuronhálót. Na úgy aztán brutálisan működhetne.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az F1 2019 és 2020 is AMD-s cím mégis van benne DLSS. A kettő nem zárja ki egymást. A probléma az, hogy hiába van benne a motorban a támogatás, nem ad jó minőséget azokkal a tartalmakkal, amiket a Horizon használ.
Mindegyik technológiának kell, és ez hiányzik az AI upscaling technikákból. Ha mögé raknák a fejlesztők a pénzt és az időt, akkor ezek működnének.
(#49805) Cifu: Pont ez a lényeg, hogy a DLSS igazából csodaszer lehetne, csak a neuronháló miatt nem tud azzá válni, mert általános neuronhálóval nem lehet lefedni specifikus igényeket. Mindig lesz ajátékban nem kevés olyan tartalom, amit nem ismer majd fel, és borzalmasan rondán jelennek majd meg. Ha mondjuk egy fejlesztő játékspecifikus neuronhálót fejlesztene, erre pénzt és időt áldoznak, akkor a felismerhető tartalmak mennyisége maximalizálva lenne, tehát igen ritkán fordulnának elő a rendszerből eredi tipikus minőségromlások. Úgymond konzisztenssé válna az AI upscaling minősége, nem lenne az, hogy az egyes jeleneteknél működik, majd ha jön a problémás tartalom, akkor hirtelen bitang ronda lesz. Ennek az elérése lenne a legfontosabb, de ehhez szükség van a játékfejlesztőkre is, mert ők tudnak a saját tartalmaikra neuronhálót tréningelni. Ezt a problémát nélkülük nem lehet megoldani, mindegy, hogy az AMD vagy az NV vagy az Intel szállít valamilyen AI upscaling lehetőséget.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #49920 üzenetére
Volt egy eredeti videójuk, amivel kiegészítették a két képkocka közötti részt.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ez teljesen más technológia. A képkockák kiegészítése megoldható a DAINAPP-pal. Ez is AI, de nem szabad összehasonlítani például a játékokba való AI upscalinggal. A fő különbség az idő. A játékokban valós idejű válaszra van szükség. Természetesen lehetne igazán jó általános AI upscaling is a játékokban, ha egy képkockával szöszölhetne a GPU 10-20 percet, de erre egyszerűen nincs idő, mert te a kattintástól nagyjából 100 ezredmásodpercnyire akarsz új frame-et, nem 10-20 perccel később.
Amit láttok programokban AI upscalingot, vagy ilyen olyan dolgokat, azok nem adnak ám valós idejű eredményt, elindítod a programot és örülsz, ha tíz percen belül végez. Ennyi időre levetített számítási kapacitásból persze, hogy nagyságrendekkel jobb képet hoznak össze, mint a DLSS.
Amit belinkeltél az is igazából számítási kapacitásból él. Fel kell húzni mögé egy bivalyerős szervert, hogy működni tudjon. És ott már elgondolkodik rajta az üzemeltető, hogy az AI-ra költött számítási kapacitás azért nem kevés fogyasztás. Sokkal drágább egy ilyen szervert üzemeltetni, mint elfogadni a videók sávszéligényét. Ennek akkor lesz igazán értelme, ha túlmegyünk például a 16k-s felbontáson, mert ott már nem biztos, hogy annyira gyorsan javul a hálózat sebessége, mint amilyen gyorsan nő a pixelek száma.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az egy DAINAPP. Semmi extra. Ha belerakod az erőforrást akármelyik videóval meg tudod tenni ezt. Sőt, a Google-nek van olyan AI-ja, ami a kezdő és a végponti frame közé be tud rakni vagy 60 frame-et. Effektíve két képből csinál animációt. Ez mind számítási kapacitás kérdése. Otthon nem nagyon fogod ezeket megcsinálni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A legfőbb probléma, hogy sokan csak a technológiát látják. Most már ezt és azt is lehet például. No, de milyen ára van ennek-annak. A fő oka, hogy számos AI technológia csak papírsárkány még ma is, hogy alapvetően drágább üzemeltetési költséggel old meg egy adott problémát, amivel eddig együtt éltünk. Ebből a cégek eladják azt, hogy micsoda innováció ez, de amikor megkérdezed, hogy árban ez mekkora extra kiadás, akkor hallgatnak, mert pontosan tudják, hogy a költségek szintjén nem nyersz vele, hanem egyenesen buksz. Ilyen formában már az alapprobléma nem is tűnik olyan nagy dolognak.
A problémamegoldás akkor reális, ha azt megoldod mondjuk egy AI technológiával, és közben nem generálsz vele egy még nagyobb problémát. És ez nem a gyártóktól függ, teljesen független tőlük.
Pont ez a lényeges kérdés, amit felvetettél. Egy szolgáltatónak mi éri meg. Kifizetni a szükséges sávszélt a piac felé, hogy eljuttassák a tartalmakat az ügyfeleknek, vagy spórolni ezen, de közben építeni egy marha nagy szervert sokkal drágábban, hogy AI-val dolgozzák fel a tartalmakat. Oké. Megoldottuk azt, hogy hatékonyabb legyen a sávszélesség használata, de közben behoztuk azt a problémát, hogy ki kell termelni a szolgáltatással egy bitangdrágán üzemeltethető szerverparkot, amire korábban nem volt szükség. Melyik kezemet harapjam le effektus...
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Callisto #50144 üzenetére
[link] - itt leírtam, hogy mi az alapvető különbség. A részleteket már nem tudom leírni. De az alapvető különbségen ezek nem változtatnak, az AMD programozható bejárást alkalmaz, míg az NVIDIA fixfunkcióst. Idővel mindegyik hardver programozható lesz, már csak azért is, mert az új konzolokhoz igazodni kell.
(#50145) Senki9876: Vannak infók, azért nem írok ide mostanság.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Kicsit bonyolultabb ez ennél, mert valóban vannak bizonyos infók megosztva, de a 28-as bemutató nincs, azt akkor látom először. De persze valószínűleg a nagy része már nem lesz meglepi nekem.
#50151 b. : Valami bűzlik Dániában, ha érted mire gondolok.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
#32839680 #50302 üzenetére
A DXR 1.1 és 1.0 között az 1.1 sebességelőnyét nem igazán a hardver adja, hanem a hatékonyabb rendszer. Ami a DXR 1.1-ben probléma lehet, hogy a hardver ütemezője nem tudja követni a sugár útját, így annak ellenére is szüksége van memóriaműveletekkel járó bekötésekre, hogy ezt maga a rendszer nem követeli meg. Ez a nem optimálisan tervezett hardvereken lassítani fog.
#50306 Jack@l: Két implementáció biztosan nem lesz sugárkövetésre egy játékban. Egyszerűen extrém költséges lenne, miközben haszna nulla. Lenne két eltérő sebességgel futó kódod, amik ugyanazt az eredményt adják.
Eleve az is probléma lesz a multiplatform címeknél, hogy a konzol és a PC esetében eltér a sugárkövetés. Tehát eleve kell valami köztes alap.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #50371 üzenetére
A Carrizo esetében pont nem. Ott már az IGP-t HPL-lel csinálták, és a CPU volt HDL. Azóta ez nem igazán változott az APU-knál, az IGP-t mindig HPL-re rakják.
A GPU-knál az AMD a HPL-re a Vega 20-nál állt át.Az AMD manapság már csak a CPU-kra használ HDL-t, ott is csak az egyes részeire.
A HDL-nek mindig az a lényege, hogy olyan sűrűn helyezzél tranyókat el, amennyire csak lehet. Ha mondjuk egy node hátrányban vagy, akkor ez eléggé hasznos ám. Ha egy node előnyöd van, akkor ennek nincs sok értelme, mert maga a gyártástechnológia megadja a sűrűséget, hátrányok nélkül.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
SaGaIn #50376 üzenetére
A shaderek sosem kopnak ki. Az RT effektek is jórészt shaderek.
#50377 Malibutomi : Az RT visszaverődés sem működik shader nélkül. A nagy része annak a munkának több shader kód futtatása.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
awexco #50606 üzenetére
1. A konzoldizájnokra vonatkozóan az RTG nem dolgozik. Az egy leválasztott ágazat az AMD-n belül. Le tudnak kérni technológiákat az RTG-től, de vissza oda technológiát nem juttathatnak licenc nélkül.
2. Dolgoznak más semi-custom projekten. Nem csak a konzolokat kell összerakni, a Frontier és az El Capitano is egy semi-custom rendszer. Van egy rakás semi-custom megrendelés, és emellett a Sony és a Microsoft is fizeti az R&D zsét a konzolok továbbfejlesztéséért.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Laja333 #50739 üzenetére
Teljesen mindegy, hogy melyik VGA ment a hónap elején, mert a hónap közepén jött egy driver, ami +10-15%-ot rádobott a korai teljesítményre. Ezért jönnek azok a magas 3Dmaki számok.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz
KillerKollar #50743 üzenetére
Miért ne tették volna? Az egész egy bemutató volt. Meg ott volt a beetetési faktor is.
#50745 b. : Melyik megoldás? Nem tudlak követni.
#50747 KillerKollar: Azért az iparágon belül elég nagy rálátás van arra, hogy melyik komponensből mennyi van. Ezek a cégek sok dolgot ugyanonnan rendelnek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
KillerKollar #50754 üzenetére
Valószínűleg azt a 10 vásárlót túlélik.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #50809 üzenetére
Eleve nehéz lesz a korábbi tapasztalatokból kiindulni, mert eléggé más az RDNA2 uncore részének felépítése. Tehát az általánosan minden GPU-ra jelentkező tipikus limitek is mások.
Az új dizájn bizonyos helyeken nem annyira jó, mint a régi, míg más helyeken egy valóságos szörnyeteg. Az általam ismert felépítés alapján elég durva rendszer lesz a tipikusan egyszerű felépítésű leképezőkben, amit például az eSport játékok használnak. CS: GO, meg a hasonló, viszonylag kis igényű játékokban, ahol nagyon sok munkát tud a chipen belül tartani, ott elképesztően brutális lehet, de ahogy kell a munkákkal a chipen kívül menni, kezd belefutni a sávszél limitjeibe is. Van egy határ, amin túl már romlik a hatékonyság.
Eléggé úgy néz ki, hogy más a teljesítménykarakterisztika a korábbi GPU-khoz képest. Lesz olyan, ahol bármilyen mai GPU-t "kettéhúgyoz™", de olyan is, ahol a 3080 nem lesz meg a csúcs-Radeonnak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
4K-ra még elég. 8K-ra már kevés lesz.
A CS: GO csak példa.
Itt tipikusan az a lényeg, hogy mennyi munkát tart a lapkán belül. Ha sokat, akkor brutálisan gyors, megközelíteni sem tudja semmi. És a tipikus eSport címek felépítése olyan, hogy nem éppen komplex a leképezőjük, tehát ezzel az új dizájnnal rengeteg munkával nem kell a memóriáig menni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem ismerem a legújabb drivert, csak az október közepeit. Abban több modern AAA címben 4K-ban, 10%-ra van +/- a 3080-hoz képest. Valahol ennyivel gyorsabb, valahol ennyivel lassabb. És a kettő közötti átmenetek.
#50824 Petykemano: Sok dolog át lett tervezve az uncore-ban. A fő cél az lehetett, hogy ne dögöljön meg a réjtrészing, ha komplex geometriát kap. De ehhez nem elég maga a hardver. Kell hozzá szoftveres háttér is.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A VRAM ettől teljesen független. Nagy VRAM elsődlegesen a részletesség tárolására kell, nem a feldolgozásra. A pufferek jó része nem eszi meg a VRAM 1%-át sem. Ellenben, ha nem tudod hol tárolni a részletesebb textúrákat és a részletesebb geometriát, akkor ugye a hardver sem tudja ezeket gyorsan feldolgozni. A textúráknál ez különösen igaz, mert a mintavételek száma megegyezik low és high részletesség mellett is, ezért nem számít, ha leveszed a textúrák részletességét low-ra egy játékban. Ugyanazt a sebességet kapod. Ellenben a high részletességhez szükséged lesz a kapacitásra. Ez különösen igaz lesz a DirectStorage miatt, mert az zabálja a kapacitást, hiszen ahhoz, hogy a GPU kikódolja a tömörített tartalmat, előbb be kell másolni azt a VRAM-ba, és akkor a tömörített és a kikódolt tartalom is ott lesz. Effektíve tehát a DirectStorage miatt nő a VRAM terhelése. Ezért mennek most nagy kapacitásra. Vannak olyan félelmek itt, hogy még a 12 GB sem lesz elég, így egy korábban 12 GB-osnak tervezett Radeont átvittek 16 GB-ra.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
KillerKollar #50945 üzenetére
Igen is, meg nem is.
A Smart Access Memory valójában a mai játékokban nem sokat ér. Azt a next-genre fejlesztették. A gyorsulás amit mutattak az igazából ~90%-ban a Rage mód miatt van.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
KillerKollar #51031 üzenetére
Inkább a 6800 túl drága.
A 6900 XT ellesz 999-ért, mert a teljesítményen túl e-péniszt is ad. Azokra hajtanak, akiknek ez megér 350 dollárt. Találni fognak nem kevés ilyen embert.
A 6800 viszont túl közel van a 6800 XT-hez.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem tudom, hogy mennyire fognak meghágni érte, de az NDA-s anyagokon nincs rajta. Szóval a Dirt 5 és a Godfall esetében az RT effektek bekapcsolása -15-20%-ot jelent a Navi 21-en. De ezek nem végleges kódok. Mindkettő RT shadow effekt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #51260 üzenetére
Ennél bonyolultabb a dolog. Eleve az egyetlen szintetikus mérés nyári, azóta az AMD szerint is egy csomót javult a driver. Másrészt egy rakás tényező határozza meg a sebességet, például az is, hogy mit számol a hardver. Én csak bedobtam ezeket az adatokat, mert megvannak, de kiindulni nehéz belőle.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
#98320896 #51267 üzenetére
Van bennük tükröződés és GI is, de nem RT-vel, viszont meglepően jó minőségűek ezek az effektek, különösek a Dirt 5-nél.
Ez itt egy PC-s verzióból származó kép a Dirt 5 esetében, amin épp látszik a tükröződés:
És a Dirt 5 ezt 4K-ban tudja 110-120 fps környékén.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
#98320896 #51271 üzenetére
RT effektként is meg lehet oldani hasonló minőségű tükröződést, csak úgy jó ha a 40 fps meglesz 4K-ban.
Az open worldnek ma már nincs különösebb jelentősége. Alapvetően minden motor streaminget alkalmaz, mert már egy ilyen versenyjátékban is olyan részletességű a tartalom, hogy nagyon sok memória kellene a működéshez streaming nélkül. Bele tudnának rakni ugyanebbe a motorba, ugyanilyen részletességgel nagy map-eket is, csak az sokkal több humánerőforrást emésztene fel a pálya letervezésének szintjén. De rosszabbul nem futna csak attól, mert nagyobb a map, elvégre a motor streaminget használ.Speciel a tükröződést nem az AMD rakta bele. Tudtommal az AMD oldaláról a Dirt 5 a FidelityFX denoisert, CAS-t, CACAO-ot, VS-t, HDR Mappert és Downsamplert használja. Effektíve tehát se a GI-t, se a tükröződést, se az RT shadowot nem ők adták, utóbbihoz csak egy komponenst dobtak be.
#51274 nkaresz1976 : Biztos forrásból.
A Dirt 5-ben az RT a shadow lesz. Az a tükröződés a Codemasters saját, nem RT megoldása. Tényleg, meglepően jó, magam is nehezen hittem el, amikor megtudtam, hogy nem RT, de nem az.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Raggie #51275 üzenetére
Attól függ melyik mintaprogramról van szó. Van DXR 1.0-s, DXR 1.1-es, és olyan is, ami mindkettőre le van portolva.
#51277 Raggie: Ebből a leírásból meg nem mondom, hogy az AMD nyáron milyen verziót használt. Az a baj, hogy a minta maga openszósz, tehát módosítható.
Amit belinkeltél az DXR 1.0-s. Másképp meg se moccanna October 2018-as Win10-en.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Van csak Turbo profil a neve. Ha gondolják átnevezhetik, de különbséget nem jelent.
#51310 Simid : A cikkben visszaolvasható, hogy mit írtam. A Rage mód 3-8% a környezettől és alkalmazástól függően. Ha hűvös környezet van, akkor például nagyon tud menni.
Az SMA 5-6% átlag, de vannak kiugró esetek, mint a Forza Horizon 4, vagy a Horizon Zero Dawn, de a Death Stranding is többet profitál.
#51391 devast : Az AMD nem saját megoldást készít az AI upscalingre. A FidelityFX Super Resolution adja magát a rendszert a DirectML-hez és compute shaderhez, ez támogatni fogja az Xbox Series S/X és PC-s gépeket, illetve az xCloudot. A neuronhálóra az AMD ad sajátot, de elfogadja például a Microsoftét is, vagy a fejlesztőknek fel lesz kínálva, hogy az Azure-on készítsenek saját verziót. Aki Xboxra kiadja a játékát, annak ez ingyenes. Emiatt nincs erről még szó, mert a FidelityFX Super Resolution nem csak az AMD technológiája, hanem egy évek óta zajló kooperáció a Microsofttal.
#51398 Pug : A SAM-hoz nem kell programoldali támogatás. Ez itt csak abból áll, hogy ha aktív a SAM, akkor a teljes VRAM kapacitása host visible és host coherent flages. Ha nem aktív, akkor a VRAM-ból csak egy 256 MB-os terület ilyen. Direkten erre nem kell célozni, a fejlesztőnek csak azt kell eldöntenie, hogy milyen adatokat rak eszközlokális flages memóriába, és mely adatok mennek host visible és host coherent flages részbe. Ennyi az egész. A rendszer kompatibilis ide-oda, csak annyi történhet, hogy ha sok egy játékban a host visible és host coherent flages memóriába rakott adat, akkor 10%-kal is gyorsabban fut SAM-mel. Ha nagyon sok, akkor hozható a 20%-os extra tempó is. Ennél több azért ritkán, mert azért a PCI Express 4.0-nak is megvannak a maga korlátjai.
#51422 CME : Azok a játékok profotálnak a SAM-ből 5-6%-nál többet, amelyek viszonylag sok host coherent és host visible flages, GPU számára is szükséges adattal dolgoznak. Például Forza Horizon 4, vagy a Decima motoros cuccok, Death Stranding és Horizon Zero Dawn.
#51425 Pug : Nem kell hozzá fejlesztő oldali támogatás. Ez igazából nem egy célozható funkció. Az a kérdés, hogy mennyi CPU és GPU által használt adat megy host coherent és host visible flages memóriába. Ha kevés, akkor 5-6% az előnye, ha relatíve sok, akkor 10-20% közötti. Nagyon sok amúgy nem mehet, mert a PCI Express 4.0 így is limit marad, tehát a 20% fölötti extra azért ritka lesz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Tensor magok ehhez nem kellenek. Az RDNA 2 tud int4-es adattípust kezelni az összes ALU-n. Ezzel működik a Microsoft és az AMD Super Resolution rendszere a DirectML API-n keresztül. Plusz vannak nyilván metaparancsok is, ezek azonosak Xboxon és PC-n.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Felesleges a texel/pixel fill rate-et és a számítási teljesítményt hasonlítgatni. Az arányok azért ilyenek, mert az AMD úgy tudja skálázni az RDNA-t, hogy nem kell az ideális arányokat felrúgni. Az NV úgy tudná jobban skálázni az Ampere-t, ha több GPC-t építene be a rendszerbe, de a belső buszuk ideálisan nem tud kiszolgálni 6-nál több GPC-t, a 7 az már túl van a határon. A GPC-n belüli TPC-k száma is limitált, azokat sem lehet a végtelenségig beépíteni, a raszterizálójuk kb. 5-6 TPC-t tud normálisan kezelni. Ha beledobnak tízet, akkor csak azt érik el, hogy lesz négy kihasználatlan TPC-jük per GPC. Emiatt csinálták azt, hogy rámentek a co-issue-ra a TFLOPS-oknál, mert az még egy vállalható tényező, hogy egy ütemezőre ráraknak két SIMD-et, és ha van két egymástól nem függő warp, akkor az úgy skálázódik, és aránylag kis tranzisztorköltség is, de ők is tudták, hogy ahhoz, hogy egy játékban ezek a TFLOPS-ok elérhetők legyenek, kis, na jó nagy túlzással a bolygók ideális együttállása is kell, tehát a gyakorlatban a megadott TFLOPS felével érdemes számolni, mert az mindig elérhető, nem kellenek hozzá ezer évente bekövetkező csillagászati eseménye. Úgy már azért nem olyan eltérők az arányok.
#51451 arn : 184 TOPS-szal, ha a Navi 21 elméleti maximumát tekintjük. De a valóságban ennél azért komplexebb a dolog, mert erősen számít a cache-rendszer is, illetve a multiprocesszorok belső felépítése. Az eddigi mérések alapján viszont az Infinity Cache durván meg tudja ám boostolni a gyakorlati AI eredményeket. Emiatt az elmélet sokszor nem sokat ér.
#51452 Mumee : Mert a Rage mód nagyon függ a környezettől. Hidegben működik erősen. Erről elég sok adat van már a másik doksiban.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
#32839680 #51456 üzenetére
Nagyjából. De valójában ez már régebb óta benne van a driverben, csak Turbo néven. Most meg Rage mód lesz a neve. Egyszerűen csak egy alapértelmezettől eltérő órajelskálázási profil. Az ötlet tehát nem új, de láthatod, hogy a Rage mód jobban hangzik, mert erről beszél mindenki.
#51459 morgyi : A multimédiás blokk a Renoirban található VCN továbbfejlesztése. Tudja ugyanazt, plusz még tud AV1-et. Ezeknél a blokkoknál már nem nagyon lehet újat mutatni, mert alapvetően csak az új formátumok támogatása kerül beléjük. Ez megtörtént.
#51462 arn : Az AMD megoldása ugyanaz. Ugyanazokat a DirectML kódokat tudja futtatni. Ez egy szabványos API, ami akármelyik, compute shadert futtató hardveren lefut. A különbség annyi, hogy az RDNA2 tartalmaz dedukcióra szabott adattípusokat is, így nem kell például FP16-ban dolgoznia, hanem jó int4-ben is. Ebből szedik a teljesítményt az AI hardverek, hogy a pontosságit visszaveszik eléggé kicsire, mert a dedukcióhoz az is elég. A tréninghez kell nagy pontosság. A dedukcióhoz csak el kell döntened, hogy a képen az a róka róka-e, és ezt meg tudja csinálni a hardver alacsony precizitással is, innen jönnek azok a veszettül nagy TOPS értékek.
A hardveres implementáció sokban különbözhet, mert a DirectML nem igazán szab meg erős feltételeket erre. Kb. compute shadert kér és ennyi, ez a de fakto követelmény, amin túllépve metaparancsokkal lehet kezelni a hardveres specializálódást. Ilyenek lesznek minden hardveren.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
#32839680 #51491 üzenetére
Durva lenne, ha nem lehetne mátrixműveleteket mással csinálni. Azt hiszem sokmillió program nem futott volna az elmúlt 30 évben a számítógépeken.
Mint írtam a DirectML alapvető követelménye a compute shader. Bármelyik hardver, ami képes compute shaderre, már képes lefuttatni egy DirectML-re írt, mátrixműveletekkel turván teletarkított kódot. Tehát úgy 2009 vége óta majdnem minden GPU. A modernebb hardverek abban különböznek, hogy ezeket a mátrixműveleteket gyorsabban is megcsinálják, mert a feldolgozóik modernebbek, és/vagy nincsenek FP32-es precizitásra korlátozva, hanem menet int8, vagy kellően modern rendszer esetében az int4 is. Nyilván nem mindegy, hiszen int4 mellett nyolcszor annyi operációt is elvégzel, mint FP32/int32-ben, és a dedukció így is működni fog. Nem mellesleg a modernebb hardverek sokkal robusztusabb cache-rendszeréről, ami a gépi tanulásnak eléggé fontos eleme, hiszen akkor igazán optimális a végrehajtás, ha a feladatokat a lapkán belül tartod. Ezért vannak durván kitömve cache-sel a direkten AI-ra tervezett gyorsítók.
#51463 Z10N : Úgy tudom, hogy 6T SRAM. Tehát eléggé más, mint a rég box eDRAM-ja.
#51471 morgyi : DXR 1.0-ban is mindegy ez. Sosincs olyan helyzet a DirectX pipeline-ján belül, ahol egyszerre történik textúra mintavétel és ray intersection. Akkor kellene külön busz az RT-re és a textúrázásra, ha lenne fixfunkciós BVH az RDNA 2-ben, mert akkor az a részegység is ide lenne felfűzve, és akkor már lehet számítani konkurens végrehajtásra. De a Microsoft és a Sony programozható bejárást kért az AMD-től, így a fixfunkciós módszert már az elején elvetették. Helyette intrinsics ops van bejárásra.
Az NV azért használ független adatbuszt, mert nekik van fixfunkciós BVH-ra szabott részegységük, amit etetni kell textúrázás közben is. De textúra mintavétel és ray intersection egymással párhuzamosan náluk sincs, ezt maga a DirectX pipeline nem engedi.#51477 morgyi : Az NV is csinálhatná azt, hogy a fő ALU-kat egészítik ki int16/8/4 feldolgozásra, és akkor nem kellene nekik sem tensor core, de mivel van tensor core, így felesleges tranzisztort költeni a fő ALU-k okosítására, eleve baromira sokat elköltenek a tensor core-ra. Tehát jelenleg az igaz, hogy az NV-n ezek nem működnének tensor core nélkül, de ha másképp tervezik a hardvert, ahogy mondtam fő ALU-kat kiokosítják, akkor persze ugyanúgy mennének a tensor core hiányában is.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
#32839680 #51514 üzenetére
A ray intersection az hardveres, a bejárás maga a CU-kon történik, és erre vannak külön intrinsics funkciók a konzolon, meg a PC-s RDNA2-n. De ezeket egyébként a shaderek cseréjével utólag is be lehet hegeszteni a játékokba, csak kedvezőbb a direkt támogatás. Utólag ugye az sok munka a meghajtó oldalán.
A programozhatóság elsődlegesen bizonyos algoritmusok megoldása miatt kellett. Amennyiben ezt használja egy program, akkor a fejlesztő írhat teljesen egyedi BVH bejárást compute shaderben. Az AMD-nem volt erről előadása. Szerintük ez olyan dolgokra ad lehetőséget, mint a flexibilis LOD, a kevert node-ok alkalmazása, a bejárás korai leállítása, "on the fly" BVH generálás... meg hasonlók. Ezek a DXR 1.0-ban és 1.1-ben nem használhatók, de Xboxon van erre külön megoldása a Microsoftnak, mert az már fejlettebb DXR-t alkalmaz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ez egy feature test. Az a lényege, hogy minimalizálva van minden olyan munka, ami erősen befolyásolhatná az eredményt, így a kapott sebesség nagyban a rendszer csak sugárkövetésre vonatkozó teljesítményétől függ. Mondhatni szintetikus a jellege, ezek sosem voltak szépek, de célirányosak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
válasz
Jack@l #51763 üzenetére
Se bug, se artifact nincs. A teljesítményre nincs mindenről összehasonlítási adatunk, de a Metro Exodus, a SotTR és a COD: Modern Warfare alapján möglepő.
#51762 smc: Ez többször szóba került már. Sajnos az NDA dátuma is NDA-s.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #51765 üzenetére
A Metro Exodus pont ilyen.
#51767 Locutus : Nem az effekten múlik a Radeonok sebessége, hanem a BVH gyorsítóstruktúrán. Ha azt nagyrészt bele tudja erőszakolni a 128 MB cache-be, akkor nyert ugye van a rendszernek. Ezt úgy lehet egyébként megfektetni, hogy a BVH legalább 9 szintű lesz, de ehhez nagyon durva geometriai részletesség kell, és annyival hatékonyabb bárminél az RDNA2 a kis háromszögekkel dolgozó geometria feldolgozásában, hogy akkor meg máshol kerül előnybe.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.