-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Alogonomus
őstag
Valószínűleg már a most készülő játékok esetén is felhagytak az Nvidia hardveres kialakításához optimalizált RT megoldásokkal, mert a Cyberpunk fiaskója tökéletesen megmutatta, hogy Nvidia optimalizálással a teljes konzolpiacon súlyos hátrányba kerülnek, valamint az AMD-s PC-khez is kevésbé fogják venni az olyan játékot. A Cyberpunk óta eltelt 2 évben már nem is jelent meg egyéb AMD-s hardver esetén súlyosan "büntető" RT-s játék.
A jövőt nézve pedig az Epic az UE5, vagy az Ubisoft az új Snowdrop esetén is már az AMD hardverek lehetőségeit veszi alapul.
Még a korábban velejéig zöld CDPR is UE5-re vált az új Witcher kapcsán. -
Hellwhatever
aktív tag
Nem lehet hogy nem a kóddal van a gond hanem egyszerűen az AMD hardverek és a körítés ennyit tudnak?
1. Az összes valamire való konzolban AMD hardver van lassan 10 éve.
2. PC-n olyan mély és gazdag profilozási lehetőségeket kínálnak amilyet a konkurencia (állítólag) nem.
3. Folyamatosan a legfrissebb gyártástechnológián gyártatnak.Ezek ellenére évről évre valahogy mégsem jön össze a tényekkel arányos teljesítmény. Szerintem ezt nem lehet csak a fejlesztők által írt kóddal magyarázni.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Ki ne találjuk már, hogy sugárkövetés kell ahhoz, hogy sötétebb legyen egy autóban. Ezt cirka 15-20 éve is megoldották sugárkövetés nélkül. Ez sokkal inkább annak az eredménye, hogy a CD Projekt RED nem alkalmaz elég képzett programozókat...
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Éppenséggel nem nagy a hátrány. Alig lehet észrevenni, ha nem nézed kifejezetten azt, amit az RT ad. De ez tipikus, hiszen az RT-t egyelőre csak effekt szintjén használják, holott ez sokkal több lenne, ha értelmesen be lenne építve a motorokba. Szerencsére már ez sincs messze, és akkor nem ilyen nyomi minőséget fogtok látni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Amit csak az RT Diffuse Lighting okoz, és ez egy annyira olcsó RT effekt, hogy szinte mindegyik GPU megoldja. Ugye fontos, hogy nem kötelező ám a semmi extrát nem biztosító pszicho módot választani, mivel medium RT szint fölött alig van érzékelhető előny. Sőt, alapvetően az RT-nek van egy olyan hátránya ebben a játékban, hogy olyan felületeket tesz fényessé, amilyeneket nem szabadna. De hát ezt a bugot máig nem sikerült megoldani. Persze nem siettetném őket, mikor is jelent meg a játék? Alig volt még a piacon.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
És ezek egyike sem reagál arra a kritikus problémára, hogy az a kurva sugár csak pár méterig számol. Pedig a valóságban nem csak pár méterig halad a fény. Ez így fingreszelés, és kb. annyi haszna lesz, mint a pszichó módnak. Amíg nem engedik a sugárkövetést tényleg pár méteres távon túl is működni, addig rendkívül limitált lesz az az előny, amit ki lehet hozni belőle.
A multiple bounce is hasztalan addig, amíg nincs API a sugarak csoportosítására. Képi előnye nem lesz, de az L1-L2 cache-t azt szét fogja szemetelni, aztán mindenki néz, hogy miért lassult a normál feldolgozás is. Hát azért, mert nem hasznosítható adatok zúdultak be a cache-be.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Piszmaty76
aktív tag
Nekem pl. a 4K ultrához méltó nagy felbontású textúrák a 16-24 gigás vramok korában, esetleg tisztességes mesh-ek hiánya bármikor fájdalmasabb mint a raytracing-é. Én is vágyok szebb és valósághűbb grafikákára (főleg amióta láttam pár UE5 demót) raytracing-gel és egyéb anyámtyúkjával, de ahhoz szerintem lehet várni egy pár VGA generációt.
Thermaltake Overseer RX-1, Seasonic Prime 750W Titanium, ASUS C8H X570 wifi, R9 5900X, Thermalright Peerless Assassin SE, G.SKILL 32GB KIT DDR4 3600MHz CL16 Trident Z RGB, Sapphire 7900XTX Nitro+, Samsung 960 pro NVME gen3. 256GB/Kingston KC3000 NVME gen4. 2TB, LG QNED863QA 55" (HDMI 2.1)
-
Callisto
őstag
És? Attól még szar az engine. RT-t mérni jó, de nem amiatt néz ki annyival jobban vele, hanem mert a többivel nem foglalkoztak. Majd az RT megoldja hozzáállás. Azóta is kalapálják... Fejlesztőként főleg ráismerek az ilyen munkákra.
[ Szerkesztve ]
"A wise man can learn more from a foolish question than a fool can learn from a wise answer." - Bruce Lee
-
Abu85
HÁZIGAZDA
Tükröződésre nem csak egy alternatíva van. Már a Half-Life 2-ben is tükröződött a víz, és hasonló trükköket lehet csinálni ma is. Ami az RT-t korlátozza, hogy ha a tényleg látható határig menne a számítás, akkor mindent be kellene tölteni maximális LOD-dal a memóriába, mert az RT jelenleg se kivágást nem támogat, se dinamikus LOD-ot. Ezzel a VRAM használata 70 GB lenne. Ezen most úgy tudnak spórolni, hogy csak nagyon limitált távolságig számolnak RT-t, hogy ne kelljen 70 GB-nyi assettet a VRAM-ba rakni, amúgy se lenne rá kapacitás. De egyébként, ha megnézed, akkor az RT maga úgy is eléggé növeli a VRAM terhelését, hogy kis távolságig történik. És ez azért van, mert nincs kivágás, és nincs dinamikus LOD.
Ha nagyon érdekel ez a téma, akkor a gondot az Intel tök jól elmagyarázza az alábbi videóban: [link] - még egy megoldást is felvázolnak rá, amivel prezentálják, hogy mennyit javulnak a DXR kódhoz viszonyítva.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Callisto
őstag
Azért, mert szóba került, hogy márpedig az RT milyen sokat hozzáad és ennek úm. bizonyítására a CP-t hozzák fel általában. Holott ez az engine pont egy rossz példa, mert az RT előtérbe helyezésével arra építve készült és a legacy megoldásokat hanyagolták emiatt. Ha utóbbiba is energiát fektetnek ahogy egy kell, akkor az óriási különbségek nem lennének annyira szembetűnők. Főleg azokon a területeken amikre hivatkoznak a laikus, hozzá nem értő emberek. RT teljesítményt mérni jó, de hivatkozási alapnak arra, hogy milyen szembeötlő különbséget tud okozni némi RT nagyon rossz.
[ Szerkesztve ]
"A wise man can learn more from a foolish question than a fool can learn from a wise answer." - Bruce Lee
-
félisten
Az órajelek alapján elméletileg képes lehetne rá ahogy nézegettem az okfejtést . Szerintem itt is a sávszél limit szabályozza majd be az SKU-k helyét.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
Lehetséges. ha igaz a 150W fogyi Pletykák és 370 dollár körüli ár azért egy népszerű kártya lehet 6700 és 800 közötti teljesítménnyel is.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Petykemano
veterán
Nekem az a gyanúm, hogy változtak a célok.'
A navi23-at még extreme fullhd kártyaként reklámozták.
Ez abban nyilvánult meg, hogy kevés feldolgozóval, de magas frekvenciával kiválóan alkalmas volt alacsonyabb felbontásra, de magasabb felbontásokon elvérzett.Az rdna3 egyik nagy újítása ez a co issue / WLIV2 dolog, Amivel elvileg duplázzák a feldolgozók számát.
Ehhez relatív kevés helyet használnak, tehát nagyon hatékony a lapkamétettel. Persze ennek haszna nyilván csak magasabb felbontáson van.Tehát az a gyanúm, hogy amikor azt mondja abu, hogy navi21-et alulról elérheti, akkor azt valószínűleg úgy kell érteni, hogy míg a navi23 4K-ban a kevés feldolgozó miatt elvérzett, a navi33 nem fog.
Nézzük csak a méreteket újra.
A navi22 335mm2
Abu azt állítja, hogy a navi33 a 237mm2-es navi23-tól azért ránézésre nagyobb. Nem tudom, mennyit láthat szabad szemmel egy hozzáértő, de azt tippelném, hogy legalább 280mm-Nak kéne lennie, amit szabad szemmel valamilyen kép alapján megállapítható. Az egyébként nagyjából összhangban lenne azzal is, amit számítottam.
Ugyanakkor egy 280mm2 - a navi22-től 15%-kal kisebb - lapkától az, hogy elérje a navi22 csúcsteljesítményét nem lenne nagy kunszt, hiszen az kb egy N6-ra átültetett N22 elvárható mérete és teljesítménye.
+35%, ami a 6800XT beérése lenne, már hozzáadott érték.Ha ezt ~280mm2 helyett egy 203mm2-es lapkából kihoznák, az maga lenne a csoda.
Találgatunk, aztán majd úgyis kiderül..
-
Sontir Fel
őstag
Nekem első sorban azért fontos, hogy lássam, rendben van-e a konfig. Ha mindenkinek 23k pontja van a 6900esael és nekem csak 20, akkor gond lehet
Másodsorban valamit mégis csak reprezentál, most csak ez van. Amit láttunk pontokat, az nem túl acélos. Nem értem ezt a hosszú embargót AMD részéről. Megy a szivárogtqtás, jönnek a gyenge eredmények, biztos lesz aki feladja a várakozást aztán vesz inkább egy dzsíforszt
BFBC2/Steam/BF2-3-4/Erszoft/BF42/: Mr.Norissz Origin: Mr_Norissz
-
Aljasvip
senior tag
Egy kis önvizsgálat azért nem ártana az ilyen "esik a színvonal" és "azért bannoltak" kijelentés előtt.
A Ryzen topik koronázatlan "ECO mód mindent megold" helytartójaként, aki úgy érkezik a Cyberpunk topikba, majd ide, hogy az FSR hiánya borzasztó, az RDNA2 topikban letett "hagyatékod" csak hab a tortán.
Persze itt az új nickeknek lehet adni az áldozat szerepet, de azért akad akinek jó a memóriája. -
PuMbA
titán
Ahogy én is be szoktam ismerni a hibákat és visszaírok, hogy figyelj, igazad volt, én is elvárnám, de nagyon ritkán kapom meg sajnos és gyakorlatilag emiatt írtam, hogy esik a színvonal. Még az RDNA2 topikba is leírtam, hogy értékelem az őszinteségét az egyik tagnak, akivel nem értettünk egyet és kicsit is kinyitotta elméjét, hogy megértse amit írni akartam. Szóval ja, nekem még nem nagyon írtak ilyeneket, de én legalább leírom. Egyre többen indulatból írnak, egyből leírják, hogy hülyeséget írok, hogy aztán 5 hozzászólás múlva elhallgasson, mert tényleg nekem volt igazam. Régen ez nem volt, többször egyetértettünk és mindenki befogadóbb volt.
[ Szerkesztve ]
-
-
pRoject22
őstag
"Sajnos tudom. Ki is bannoltak egy napra az RDNA2 topikból, mert megemlítettem, hogy RT és hogy az NVIDIA ebben gyorsabb. A legrosszabb, hogy én csak az igazat mondtam, de én lettem kibannolva. Süllyed a PH színvonala erősen és egyre kevésbé tetszik, 2005 óta vagyok itt."
Ne aggódj, a többi topikból is kitíltanak ha nem egyezik a véleményed az övékkel, hiába nem szegtél meg szabályt, hiába nem vagy trágár és hiába írod tök normálisan, ha nem tetszik nekik akkor repülés van, párszor leírtam már ,hogy itt vélemény diktatúra van keményen
[ Szerkesztve ]
¯\_(ツ)_/¯
-
bitblueduck
senior tag
mert ha a GPU és a VRAM órajel a helyes értéken van, valamint a hőmérséklet se kiugró, akkor ebből az következik számomra, hogy az fps érték, azaz a teljesítmény biztosan jó
simán lehet az, hogy a GPU, VRAM 100%-on pörög, hőfok rendben van mert a hűtés teszi a dolgát és mégis a végeredmény más. kicsit extrém példa, de intel driverek esetében 1-1 frissítés között két-három számjegyű lehet a gyorsulás százalékokban.
de eleve minek következtessek a teljesítményre hardver metrikák alapján? kicsit ez így fordítottnak hangzik számomra. ha teljesítmény probléma van akkor kéne talán ránézni az okára pl hőfok.An open mind is like a fortress with its gates unbarred and unguarded.
-
Sontir Fel
őstag
Nem feltetlen. 3Dmarkban vannak olyan orajelek amik lefutnak fagyas vagy hiba nelkul, de kozben kevesebb pontot kapok mint alacsonyabb orajelen.
#59058Alogonomus: igy gondolom en is, de ettol fuggetlenul az ismert pontok szerint elmaradnak a 4080-tol. Nem rohanok 4080-ast venni, lassuk meg. Az elobb b.tett fel egy kepet, 1.100 usd az xfx 7900xtx, 1200 eurora varom itten... az meg mar az elkepzelt hataron felul van nalam
[ Szerkesztve ]
BFBC2/Steam/BF2-3-4/Erszoft/BF42/: Mr.Norissz Origin: Mr_Norissz
-
Yany
addikt
Lehet, hogy egy új terméknél az ilyenek alapnak számítanak (egyébként szerintem nem), de lényegében ezek a tapasztalatok szépen elraktározódnak a felvevőpiac emlékezetében és erodálja tovább az amúgy sem túl robusztus imidzset. Ez a debüt nagyon nem professzionális a termék minőségét illetően, de a kommunikáció az AMD részéről is sunnyogó, ami kritikán aluli. Már bőven vannak pletykák, amiket vagy el kéne oszlatni, vagy meg kéne magyarázni, ahogy az NV is reagált a tápcsati bohóckodásra, vagy legalább annyit.
De ez a kuss a gyártó részéről és ez a temérdek minőségre vélt vagy valós foltot tapasztó hírcsokor együttesen különösen szerencsétlen. Hát ők tudják...
[ Szerkesztve ]
Építs kötélhidat - https://u3d.as/3078
-
HSM
félisten
Óriási tervezési hiba, hogy be lehet úgy dugni, hogy nem csatlakozik jól... Meg ne hajlítsd meg 3 centin keresztül... Hol élt aki ezt így elképzelte? Szerintem el lett kapkodva igazából az egész, ahogy ezt bevezették.
#59398 Devid_81 : Azt hiszem, jó lesz nekem az XFX Merc 6800XT még egy darabig. Se bohóckodó Vaport chamber, se csinos mini-gyulladó csatlakozó. Unalmasan Plug&Play...
[ Szerkesztve ]
-
HSM
félisten
Ezért is lett volna rajta a tetején az a néhány pin, hogy azok csak akkor érintkezzenek, ha teljesen bedugtad. Volt is róla szó, hogy talán rövidebbre kellene hagyni emiatt.
A képeden látható 4 pines CPU csatlakozók nem a rossz csatlakoztatástól égtek le, hanem a rájuk kötött, 150-200W-ra agyonhúzott CPU-któl.
[ Szerkesztve ]
-
Alogonomus
őstag
Az egy dolog, hogy nem készítettek föl egy $2000-os kártyát a tápellátás figyelésére, miközben a sok éves $200-os kártyám is lekapcsolt, amíg egy gyengébb 8 pines kábellel ingadozott a tápellátása.
Az pedig egy másik dolog, hogy míg egy $200-os alaplapba nyugodtan bedugható "izomból" a 24 tűs 12V ATX csatlakozó, mert alátámásztható a csatlakozóterület, plusz általában egyszer kell csak összedugni,, addig egy $2000-os kártya megtámasztás nélküli csatlakozójába nem akarja senki beleerőszakolni a csatlakozót, amivel esetleg eltörhet valamit a kártyában. -
Abu85
HÁZIGAZDA
Éppenséggel lehet használni H.264-et is. Maga a Xilinx Content Adaptive Machine Learning formátumfüggetlen technológia. Azért az AV1-ben mutatják, mert messze annak a legjobb a minősége. Ez egyszerűen ebból ered, hogy az AV1 egy sokkal jobb tömörítési technika a H.264-nél. De ha H.264-et kérsz, akkor arra is megcsonálja a feldolgozást Xilinx algoritmusa, csak ettől még maga a formátum ősrégi, és sokkal komolyabb limitjei vannak, mint a HEVC-nek, vagy az AV1-nek. Ezért is lettek új formátumok, mert a limitjeit így lehet kezelni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Igazából ez egy szoftver. A Xilinx általánosan használja a saját ügyfeleinek körében, például szinte mindegyik streaming szolgáltató (Disney, Netflix, HBO, stb.) ezen keresztül küldi az anyagot, mert egyszerűen az AI algoritmus nagyon jó képminőséget ad még alacsony bitráta mellett is. PC-s GPU szintjén egyelőre az RDNA 3-ra van megírva a kód, de maga az algoritmus nem olyan, hogy dedikáltan kötődne egy fix hardverelemhez. Szimpla szoftverről van szó, amit technikailag akármilyen, komolyabban programozható GPU-ra meg lehet írni. És ez alatt kb. a compute shader szintjét kell érteni, mert ha az van, akkor igazából majdnem minden megoldható. Az való igaz, hogy az optimális működés érdekében azért igyekezni kell architektúraspecifikus kódot írni, de ettől a rendszer még szimpla szoftver marad. Alapvetően licencelhető is, tehát ha valakinek tetszik, akkor kipengeti a zsetont az AMD-nek, és megkapják a technológia használatának jogát. Aztán azt olyan GPU-ra írják át, amilyenre akarják. Még az NVIDIA is meg tudná szerezni ezt a kódot, csak pénzkérdés az egész.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Alogonomus
őstag
Másik oldalról nézve viszont az Nvidia kártya startkor mutatott teljesítményéről tudod, hogy az a maximum, amire valaha számíthatsz tőle. AMD kártya startkor mutatott teljesítménye viszont csak a potenciálja 70-80%-a, ami talán csak egy év múlva fog 100% közelébe érni, viszont egy AMD kártyával így stabil javulást tapasztalsz éveken keresztül, míg Nvidia kártyával lassú kiöregedést.
-
-
Ahhha most má értem.
És azzal nem próbálkoztak, hogy PC-be is kiadják ezt a brutál erős CPU/GPU cuccot?
Tehát mittomén aki nem akar nagy PC házat összerakni viszont kellene neki egy konzol erejű PC akkor egy kisebb "dobozba" is összehozhatná ezt?
Sztem ez megint egy fogyó eszköz lenne. Tudod mint egy Intel NUC csak nagyobb lenne kb mint egy Series S.S23 Ultra / Watch 6 / Q80T 65" / 14600KF / RTX 4070 S / JBL / S3000 Pro / WH950NB
-
Hát aki 1080p-re vesz 4090-et az jó nagy barom.
Ezeknek a teszteknek semmi értelme így, tesztelje 1440p-be vagy 4K-ba amire valóak azok a VGA-k.
Ja hogy ott már nincs akkora különbség.
Abu:
"Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak"
Te melyik vagy?S23 Ultra / Watch 6 / Q80T 65" / 14600KF / RTX 4070 S / JBL / S3000 Pro / WH950NB
-
Erre csak 3 dologgal tudok reagálni:
-Optimalizálatlan játékok.
-Lefizetett fejlesztők.
-Rosszul használt hardverek. (a fent mutatott 1080p 4090 esete)
Ha a konzolokon meg tudják oldani az optimalizálást akkor PC-re is meg lehetne csak nem 20 percig tartana hanem 1 hónapig mivel többféle összeállítás van.
Elég lenne úgy optimalizálni hogy:
AMD CPU + AMD VGA
AMD CPU + NV VGA
Intel CPU + NV VGA
Intel CPU + AMD VGA
Ha egy játék képes felismerni azt, hogy DLSS3-re kifejlesztett VGA van a gépbe akkor mást is fel tud ismerni és annak a hardver optimalizációját használná.
Amúgy meg teljesen mind1. Az NV optimalizált gémeket 4K-ba visszük végig az AMD-re optimalizáltakat meg 1440p-be nagy kunszt.S23 Ultra / Watch 6 / Q80T 65" / 14600KF / RTX 4070 S / JBL / S3000 Pro / WH950NB
-
félisten
az Ampere mellett is ez volt.
Ki az aki egy 5600X/ FHD/ RTX 4090@ 800 ezer -1millió kombót hajt? itt nincs mellette 7900XTX...kíváncsi lennék azzal mit mutat egy 5600X.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
HSM
félisten
Én nemrég próbáltam a next-gen Witcher 3-ban mindkettőt minőségi beállításon, ugyanaz a minőségvesztős homályos kép. A DLSS kicsit kevésbé, mint az FSR2.1, de inkább maradtam natív, de alacsonyabb felbontáson ugyanahhoz az FPS-hez TAUU-val, tűéles, részletes, gyönyörű képpel.
Ami meg a tempót illeti, max RT-vel az RX 6800XT-n volt natív FHD-n 30-35FPS, a 3060-al natívan 20, minőségi DLSS-el épphogy 30, de úgy meg a képminőség ment a sutba. Számomra egyáltalán nem lett volna ez így alternatíva. Persze, a 6800XT nyilván drágább, de van is mögötte teljesítmény. Az RT-hez szükség is van rá.
[ Szerkesztve ]
-
Alogonomus
őstag
Az állást nagyban befolyásolja majd, hogy hány játék esetén jelentkezik az a komoly előny, amit a két legutolsó Call of Duty játékban láthattunk, illetve az UE 5.1 játékok aránya, mivel abban az RT látszólag az RDNA 3-nak kedvez, legalábbis a 4080 vs. 7900 XTX tesztben mindkét felbontás esetén az XTX jött ki jobban az RT bekapcsolásából.
-
Yany
addikt
Hát nem csak a felső, de a középkategóriában sem képes piacot szerezni: [link] Nem kicsit jobban megy a 4070Ti, mint a Radeonok.
Ez nagyon gyengus. Érdemes lenne valakinek ott a csapatban elfilózni, hogy mivel a teljesítménnyel nincs gond, vajon mivel van. Én már többször is elsoroltam.Építs kötélhidat - https://u3d.as/3078
-
T.Peter
őstag
RX 7900 XTX vs Unreal Engine 5.1 with Lumen, Nanite, Ray Tracing, and TSR! (Tested in Fortnite) - YouTube
Unreal Engine 5.1 | RTX 4090 | Fortnite Updated with Lumen, Nanite, and more! - YouTube
Ezek alapjan mondjuk mindegy, mert nem sok kulonbseg van frame rate-ben hw rt off/on kozott. -
Abu85
HÁZIGAZDA
A Portal RTX-ben van már az RTXGI, és rém szar a működése. [link] - itt volt róla korábban adat. Igazából nem is az RT limitálja ezeknek az effekteknek a sebességét a mai VGA-kon, mert alig terheli az RT hardvereket. A gondot a shaderek okozzák, amelyek valamiért úgy vannak megírva, hogy a hardvereket LDS- és regiszterlimitbe rakják, így ne tudjanak állandóan működni. Tehát alapvetően ha elkezd futni a shader egy GPU-n, mindegy, hogy Radeon vagy GeForce, akkor állandóan adatra fog várni a multiprocesszor, mert nem lesz elég konkurens szálcsoport, hogy az adatbetöltést átlapolja más munkával.
A Cyberpunk 2077 is azért fut szarul a mai hardvereken magas RT-vel, mert maga a kód szándékosan úgy van megírva, hogy ne tudjanak a hardverek állandóan működni, hanem folyamatosan adatra várjanak, és eközben csak malmozni tudnak, mert adat nélkül nincs munkavégzés.Az Ubisofttal az AMD mást barkácsol. Ott maga az API cseréje a lényeg, hogy az API limitációkat kiüssék. Ez például teljesen más, mint a Portal RTX, mert itt a gyorsításon van a hangsúly. A Portal RTX-nél a kód arra van kihegyezve, hogy ne tudjon semmin se gyorsan futni, mert le van terhelve annyira a statikus erőforrás-allokáció, hogy ne tudjon aktívan dolgozni maga a GPU az adatra való várakozás miatt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.