Új hozzászólás Aktív témák
-
félisten
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz Devid_81 #45857 üzenetére
Technikai magyarázat rá. [link] Az eddigi legösszetetteb RT cím ami valaha készült, tiszta sugárkövetést használ,speciális Nvidia technikákkal, és a teljes jelenetre számol minden egyes sugarat és visszaverődést többszörösen ütköztetve ráadásul. Nem csak a látható részekre, hanem a pályán lévő összes felületre és azok kölcsönhatásait a látható felületeken is észrevenni. Ez egy techdemo igazából a jövőbe mutat egy régi játékkal. Kíváncsi leszek Intelre hogy mit tud ha támogatni fogja egyáltalán.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
gV
őstag
válasz Devid_81 #45857 üzenetére
ez van manapság, callisto protocol meg amd-n megy jól ill. tud fsr-t, dlss-t meg nem.
viszont ha ez lesz a trend, egyelőre jó oldalon vagyok, mivel a portal személyében olyan játékhoz nyúlt az nv ami már megjelenése óta megvan. míg a cp esetében fel se merült bennem, hogy megkellene vennem. -
félisten
Mivel nem értek hozzá én két lehetőséget látok. Az egyik az, hogy AMD nem adott ki hozzá még driveres támogatást, most lesz 2 nap múlva publikus még a játék és ez majd javulni fog valamelyest, ha nem is sokat.
A másik hogy Nvidia most elengedhette magát ezzel a játékkal mert nem egy olyan új AAA cím, amiben figyelembe kell vennie mindhárom gyártót és azok teljesítményét.
megvették, a már lecsengett de még jól hangzó 15 éves címet és beletették amit lehet megmutatva mi is a valódi eltérés RT terén a két-három gyártó között. Ezért írtam hogy kíváncsi leszek Intelre, mert az ARC-ok fel vannak gyúrva rendesen. Alapból már hozzák több játékban azt amit a 3060-70 RT alatt.
Anno azért születtek elméleti számítások kielemezve az új generációkat az új RT gyorsítot és ebben nincs benne az Nvidia speciális eljárásai, az RTXDI és a ReSTIR GI [link] amit pl a 3060 is támogat.
Egy ilyen elmélet számítás járt twitteren: [link]de amúgy szerintem szimplán majd hoz AMD driveres támogatást aztán jobb lesz a helyzet.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Raymond
félisten
Pedig a linkelt cikk elmagyarazza. Ne a 6900XT-re koncentralj az eredmenyeknel, nezd meg a Turing es az Ampere aranyat. Itt a 2080Ti a sima 3060 szintjen van, pedig az eddigi jatekoknal ez a 3070 es a 3070Ti kozotti szinten volt. Itt sokkal nagyobb a teher az RT kepessegekre igy az Ampere es az Ada elonye jobban latszik.
Privat velemeny - keretik nem megkovezni...
-
HSM
félisten
No, valami ilyesmi arányt simán el tudnék fogadni, amit itt fejtegettek.
A driverre gondoltam én is, kíváncsi vagyok, hoz-e majd javulást.#45863 Raymond : A Turing-nál nem lep meg, korábban többször volt róla szó, hogy vannak azért szűk keresztmetszetei RT-vel, aminek látszottak azért jelei is. Persze, a Radeonokon is, de azért nem ilyen meredeken.
-
nagyúr
-
Yutani
nagyúr
válasz FollowTheORI #45867 üzenetére
Nem, még RT nélkül is gyengébb benne az AMD. Pl. a 6600 XT a 3060 sima alatt van, a 6700 XT meg a 3060 Ti alatt, és a 6900 XT csak a 3080 sebességére képes ebben a játékban 1080p-n. Normál esetben az AMD kártyák gyorsabbak az említett NV kártyáknál.
#tarcsad
-
veterán
válasz Valdez #45870 üzenetére
A 3. oldalon a screenshoton látszik, hogy disabled van az RT mellett, plusz a kommentek között is az Admin megírta, hogy nincs idő RT-vel is tesztelni (még a rendszert sem tudta frissíteni 13900K-ra 5800X-ről).
Holnap országszerte 10 fok várható. Ebből 2 Budapesten, 1 Győrött, 2 Miskolcon...
-
félisten
[link]
"21 reference cards were a mess tbh. Every review sample is cool and quiet and then some real world retail ones are atrocious 75+/100+C edge/hotspot with fans @ 2000rpm. I don’t even know what the fuck is wrong with those, but they exist"Charlie szerint:
"Quality control issues and AMD don't use thermal paste for the GPU die, they use those carbon pads. They should in theory last forever and won't suffer from pump-out, but don't perform as well as paste. This is why I want a nice aftermarket air cooled 7900 XTX card."Úgy néz ki az AIB kártyák jobbak lesznek minden téren.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
HSM
félisten
Erről a domború GPU-jú 3080/3090-ek jutnak eszembe, meg az AIB kártyák, amik a legsilányabb hővezető padokat használták a forrófejű GDDR6X-re. Kész üzletág épült fel ezen kártyák utólagos használhatóvá tételére, hogy ne throttlingoljon a 100+ fokon izzó memória miatt, mai napig megtalálhatóak pl. itt is az aprón az ilyen szolgáltatásokat kínáló hirdetések.
Én egyébként nem tartom problémának ezt a fajta carbon hővezető anyagot, számomra inkább előny, mivel saját tapasztalataim alapján egy jó minőségű nem marad el egy jó pasztától, sőt. A felületi egyenetlenségeket elméletileg még jobban tolerálja, mint a paszta, és ahogy említi az idézeted, nem romlik semmit idővel a teljesítménye.
Nekem egyébként nagyon tetszenek ezek a referencia hűtők, ahogy a 6800XT/6900XT hűtője is igen szimpatikus volt. Különösen jónak tartom az irányt, hogy nem 40 centi hosszú és 20 centi széles óriások, amikhez kb. már speciális házat kell venni, hanem józan, szűk 3 slot magas méretek, de abból igényesen megkonstruálva, hagyományos, bevált tápcsatlakozókkal.
A magyarázata, hogy a referencia mellett érvelek egy nem referencia (XFX Merc 319) 6800XT-vel az adatlapomon, hogy ezt sikerült a szimpatikus példányok listájáról beszerezni. Eléggé ki is lett centizve a 34 centis hossza miatt, pedig nem pici a házam.
[ Szerkesztve ]
-
Raggie
őstag
Ez a komment a Navi21-ről szól. Tehát igazából nem zárja ki azt, hogy ezekből tanulva az AMD most a Navi31-nél szigorúbb quality controllal vagy más gyártósori technikával jobb és konzisztensebb Ref kártyákat adjon ki a kezei közül... bár persze simán lehet még rosszabb is.
[ Szerkesztve ]
Clint Eastwood FTW
-
HSM
félisten
válasz Yutani #45879 üzenetére
Nem így hívták, de éppen ugyanez volt a feladata. Több ponton mérve a GPU, ahogy most is, mert különböző terhelésekre különböző részei terhelődtek jobban. Ha jól emlékszem volt egy szenzor a shader tömbön, egy a videó motoron, és egy a memóriavezérlőn a GPU szélén.
Most a hotspottal annyi a különbség, hogy nem 3 külön-külön monitorozható szenzorod van, hanem csak azt látod, ami a legmagasabb értéket adta a szenzorok közül és elnevezték hotspotnak...[ Szerkesztve ]
-
Yutani
nagyúr
Abu írt olyasmit, hogy korábban csak egy átlag GPU hőmérsékletet kaptunk, amihez képest a hotspot lehetett sokkal melegebb is, de nem tudtunk róla, mert nem volt külön monitorozható. A Navi10-nél jött a monitorozható hotspot, ami a GPU egy olyan része, ami a legjobban melegszik, és az ott lévő szenzor adatait lehet kiolvasni publikusan is.
Biztos vagyok benne, hogy előtte nem volt ilyen hotspot, mivel előtte nem volt közfelháborodás a 110°C tJunction miatt. Ha más nem is, de ez az egy biztos.
#tarcsad
-
HSM
félisten
válasz Yutani #45881 üzenetére
Ha egy kicsit kritikusabbak vagyunk, nem nehéz belátni, hogy alapvetően a csiptervezők a hőmérő szenzorokat mindig a hotspotok közelébe tervezték, egyszerűen azért, mert akkor látták el a feladatukat (csip megvédése a leolvadástól).
Persze, értem én a dumát, hogy a mai 'nagyonmodern' GPU-k már tizedpontosan megmondják szenzor nélkül is, mennyire meleg a csip tízezer különböző pontján, de ennek semmi jelentősége abból a szempontból, hogy korábban is lehetett már hotspotokat látni, legfeljebb nem láttad ennyire pontosan, mikor olvad le a GPU a legmelegebb pontján, mert nem biztos, hogy az éppen aktuális hotspoton volt a kevés szenzor egyike.Btw, ugyanez a közfelháborodás volt, amikor bejöttek az X58-as procik, és közelebb került a mérés a hotspotokhoz a korábbi Core2-esekhez képest, és hirtelen mindenki ki volt borulva, hogy 60 helyett 80 fok lett a szokásos műterheléses ideális hőfok-plafon. Nem a GPU-k lettek melegebbek, csak jobban belelátni, és megfelelő technikai dokumentációk nélkül ez sokakat megijeszt.
-
félisten
The efficiency when using FPS limiters (tested by Computerbase) is beyond abysmal :
Doom Eternal 144FPS Limit
4K:
4080=222W
4090=244W
7900XTX=345W
1440p:
4080=125W
4090=139W
7900XTX=248W"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
-
Petykemano
veterán
Valószínűleg az AMD-nél is valami hasonlót láthatunk, persze azzal a különbséggel, hogy a 900-as szint az előző generáció esetén inkább a 90-es kategóriájú Nvidia kártyákkal volt versenyben, míg most inkább a 80-as kategóriával.
Úgy lenne tehát fair az összehasonlítás, ha nem (csak) az egész lapka területét ábrázolnánk, hanem a hasznos lapkaterületet.
Egyébként maga a videó arról szól, hogy nem viszik a 4080-at. Azt nem tudom, hogy az adatgyűjtés a Navi31 rajtját követően történt-e, mert utána mintha lett volna valami megugrás.
Találgatunk, aztán majd úgyis kiderül..
-
paprobert
senior tag
Itt az újabb példa, hogy mekkora hülyeség a DLSS3:
A frame generation funkció menti meg a Witcher3 új verzióját a 60 fps alatti CPU limittől.
[link] youtube.com[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
-
Petykemano
veterán
válasz paprobert #45891 üzenetére
Azért ehhez kellett 5 év.
2017-ben még úgy jelent meg a 6-8 magos ryzen, hogy "á minekaz? 4 mag mindenre is elég"
Aztán persze ez relatív hamar megdőlt, és a 6 mag indokolttá vált, de a 8 fölötti magszám már inkább olyan prémium volt, amit csak azok engedhettek meg maguknak, akik dolgoztatták is a magokat.Ez alapján most úgy tűnik, hogy a generációnkénti jelentős IPC emelkedés ellenére a 6-8 magos CPU-kra lehetne azt mondani, hogy mindenre is elég és a 12-16 magos procikra azt, hogy "áh, minekaz?" és úgy tűnik, nemsokára eljön a pillanat, amikor 12-16 magos processzort kell majd játékra venni.
Vagyis... ez most egy ilyen VS
Mert ha DLSS-t használsz, akkor talán nem.
De amit mondani akartam az épp az, hogy az AMD kezében tulajdonképpen most ott van egy fegyver ez ellen. Ahogy érvényes mondás lehet az, hogy "minek vegyek drága sokmagos CPU-t, ha ott a DLSS3, ami megvéd a CPU limittől", úgy legalább annyira érvényes mondás lehet, hogy "minek használják DLSS3-at a CPU kíméletének céljából, ha egyébként van elég erős CPU elérhető áron""ha van elég erős CPU elérhető áron"
Lehetne pl a $200-250 Ryzen 5: 8 magos
És $300-350 egy Ryzen 7: 12 magosMost ezt nem azért mondom, merthogy én erre vágyom és máris rohannék a boltba.
Csak hogy ebben a kérdésben az AMD-nek lenne mozgástere.Felmerült bennem még az a kérdés is, hogy vajon a CPU terhelése AMD kártyával is ilyen magas?
Találgatunk, aztán majd úgyis kiderül..
-
HSM
félisten
válasz Petykemano #45893 üzenetére
A 2017-es Ryzenen nem sok értelme volt a sok magnak játékokra, mert CCX-ekre darabolva a magok fele csak dísznek volt jó a legtöbb játékban.
Most is ugyanez látszik, az 5800X3D szinte mindig előrébb végez, mint pl. az 5900X. Persze, nem lehetetlen, hogy idővel ez változzon, de azért van bennem nagy adag szkeptikusság ezzel kapcsolatban."ott a DLSS3, ami megvéd a CPU limittől"
A probléma, hogy nem véd meg, a linkelt videóból is tisztán látható, hogy az input lag még nőtt is, nemhogy nem csökkent a DLSS3-tól. Lehet, a darabosság élményén javít, de a karakter irányításának az élménye ekkora késéssel nehezen tudom elképzelni, hogy kellemes legyen."Felmerült bennem még az a kérdés is, hogy vajon a CPU terhelése AMD kártyával is ilyen magas?"
Tegnap kipróbáltam a játékot egy RX 6800XT-vel. WQHD maxon, kimaxolt RT-vel volt kb. 20-30 FPS-em FSR meg hasonló marhaságok nélkül, CPU-limitnek nyoma sem volt az 5600-as Ryzenemmel. Hasonló számokat láttam amúgy másoktól is RTX3070-ekkel, szóval a szokásos RT-tempót hozta a Radeon.
A képi világ számomra nagyon meggyőző volt, szívesen hagynám bekapcsolva az RT-t is, látszik a hatása, bár nem biztos, hogy ennyi FPS-el akarom majd kínozni magam.Egyébként a tesztben arra jutottak, nem az tűnik a bajnak, hogy erős CPU kellene alá, hanem hogy kevés magra összpontosul a terhelés, és valami más baj is van, mert ugyanazt az RT nélküli képvilágot a DX11 mód lényegesen magasabb FPS-el hozza. Ebből az látszik, inkább a kódbázison lenne még tennivaló a motorban.
[ Szerkesztve ]
-
paprobert
senior tag
válasz Petykemano #45893 üzenetére
#45893 Petykemano
" és úgy tűnik, nemsokára eljön a pillanat, amikor 12-16 magos processzort kell majd játékra venni."
Az a baj, hogy ez nem lenne gyorsabb 16 maggal sem, mert itt az egy szál limitál.Amúgy jól látod, amint lett elég mag mindkét gyártónál, megint az egy szálas tempó lett az a tulajdonság, ami a differenciál a termékek között játékra (+ az effektív latency).
""minek vegyek drága sokmagos CPU-t, ha ott a DLSS3, ami megvéd a CPU limittől", úgy legalább annyira érvényes mondás lehet, hogy "minek használják DLSS3-at a CPU kíméletének céljából, ha egyébként van elég erős CPU elérhető áron"
Egyelőre nincs olyan CPU amire ezt rá lehetne mondani, hogy elég erős egy szálon, és ez sajnos nem ár függvénye. Egyszerűen nem létezik.
Az AMD-nek jól jön a kisebb DX12-es driver overhead, de az nem tud egy képkocka-duplázást behozni (másnéven ha a GPU teljesítménynek legalább a felét bennehagyja a CPU), a 10-20-30% ahhoz kevés.
#45894 HSM
"A probléma, hogy nem véd meg, a linkelt videóból is tisztán látható, hogy az input lag még nőtt is, nemhogy nem csökkent a DLSS3-tól."
56-ról 59 ms-ra.[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
-
HSM
félisten
válasz Gyuri27 #45895 üzenetére
Egy hardveres korlátot nem tudsz szoftveresen javítani. Azt tudták javítani, hogy ne fusson bele feleslegesen sokszor a korlátba. De attól még a korlát ott van. Elég, ha megnézed a 3300X (1ccx, 4 mag), a 3600(X) (2ccx, 6mag) és a sima 5600 (1ccx 6 mag) erőviszonyát játékokban. A 3300X ott van, ahol a 3600 (fele L3-al, kétharmad annyi maggal!), míg az 5600 porba alázza mindkettőt, ami nem a 10% IPC javulástól van, hanem mert egy CCX lett mind a 6 mag.... [link]
De viccből ide lehetne venni az 5600 ellen a 12 magos, 4 CCX-es 3900X-et is, ami szintén a 3300X/3600(X) szintjét szokta hozni, néha akár alulmúlva a 3300X-et is, messze lemaradva akár csak az 5600-tól is.#45896 paprobert : Sajnos én még mindig azt gondolom, ilyen rossz esetben ez csak játék a számokkal. A jövőbe senki nem lát, így komoly mellékhatások nélkül nem tűnik reálisnak CPU nélkül nem létező képkockákat kiköpdösni.
A CF/SLI jelenséget látom én ebben visszaköszönni, végül ott is rájöttek az emberek, hogy nem ugyanaz a natív 60 FPS, mint a többkártyás rendszerek AFR-es 60FPS-e.[ Szerkesztve ]
-
paprobert
senior tag
CF/SLI esetében a frametime konzisztenciával komoly gondok voltak. Ha leátlagoltad Excel-ben, akkor működött, viszont amikor használtad, bizony, akadozott.
A DLSS3-ra azt mondja Alex, hogy kisimult tőle a játék. Innentől kezdve nehéz azt mondani rá, hogy átverés.
Ráadásul az 55 ->110 fps-re duplázás már a DLSS3 sweetspot-ba esik. Egy 30-ról 60-ra duplázás viszont artifactelne, ott értem az aggodalmadat.Ez azt is jelenti, hogy a R5 3600-at ebben a játékban a DLSS3 sem nagyon menti meg a nehéz helyzetekben, illetve csak nagyon nagy jóindulattal, hunyorítva.
640 KB mindenre elég. - Steve Jobs
-
HSM
félisten
válasz paprobert #45898 üzenetére
Nekem a konzisztenciával volt a kisebb bajom CF-nél. A nagyobb az input lag volt, ugyanúgy késett a kép 60FPS-el, mint ahogy 30-al, nem jó úgy játszani. Kb olyan élmény volt, mintha egy befőttesgumival próbálnám rángatni a karaktert.... A CF is ideális tartományban ezt hozta, magas lag, valamivel simább képi élménnyel.
A CF-et is ezért vetettem el annak idején, amiért itt is feleslegesnek tűnik. 55-60 FPS ha már megvan, akkor duplázás nélkül is jó az élmény, főleg egy megfelelő sync-képes monitorral (enyém 48-144Hz között működik, jobbak legalább hasonlót tudnak már). 20-40-ről lenne jó duplázni, de ott meg ismét nem jó, mert egekben a lag.... Akkor jó most ez valamire?Az FSR-t is sokan dícsérik, nálam kb. 10 másodperc sok is volt belőle... Aki ezt bírja nézni natív helyett, egészségére.
DLSS-t nem néztem még, most épp polcon van az RTX3060-am.[ Szerkesztve ]
-
Petykemano
veterán
"Persze, nem lehetetlen, hogy idővel ez változzon, de azért van bennem nagy adag szkeptikusság ezzel kapcsolatban."
Ez akkor fog változni, ha kapcsolat létesül a CCX-ek között.
Ez megvalósulhat úgy is, hogy összeolvad/összeköthetővé válik az L3$ (már ami megmarad belőle, mert elég valószínű, hogy az SRAM-okat kiemelik 3D tokozásra)
De megvalósulhatna akár egy IOD alá/fölé pakolt L4$ módján is.A szkeptikusság jogos.
"Egyébként a tesztben arra jutottak, nem az tűnik a bajnak, hogy erős CPU kellene alá, hanem hogy kevés magra összpontosul a terhelés, és valami más baj is van, mert ugyanazt az RT nélküli képvilágot a DX11 mód lényegesen magasabb FPS-el hozza. Ebből az látszik, inkább a kódbázison lenne még tennivaló a motorban."
Ebben az esetben tulajdonképpen a kérdés tárgytalan.
És ha a limit valóban
- ST terhelés eredménye
- ami nem egy könnyen javítható bug eredménye, hanem ilyen felépítésű a motor és kész
akkor azon lehet, hogy megint sokat segít majd a Zen4 3DTalálgatunk, aztán majd úgyis kiderül..
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Az NVIDIA szerint a partnereik prémium AI PC-ket kínálnak
- iPhone topik
- Luck Dragon: Asszociációs játék. :)
- f(x)=exp(x): A laposföld elmebaj: Vissza a jövőbe!
- VR játék lesz az Alien: Rogue Incursion
- antikomcsi: Való Világ: A piszkos 12 - VV12 - Való Világ 12
- Linux kezdőknek
- Célkeresztben az OnlyFans, amiért pornót nézhetnek a gyerekek
- Fotók, videók mobillal
- Kerékpárosok, bringások ide!
- További aktív témák...