-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Devid_81
nagyúr
Ma jar le az RTX 4090 review NDA/Embargo vagy holnap?
...
-
Komplikato
veterán
Tudom, hogy mindenkit az RTX 4000 kártyák érdekelnek, de bármi új infó van arról, hogy a gyártók az előző generáció kiszórása okán adnak ki 16GB-os RTX 3070 kártyákat, mint a kiszivárgott GigaByte modell? És ha igen mikor?
"Figyelj arra, aki keresi az igazságot és őrizkedj attól, aki hirdeti: megtalálta." - (André Gide)
-
Devid_81
nagyúr
Egesz jo lett, azt hittem sokkal rosszabb lesz fogyasztas szempontbol.
RT kozel 2x sebesseg az Amperehez kepest.A legnagyobb gond itt az RTX 4080 es az ara, de majd latjuk hogy alakul a piac 3-6 honapon belul
...
-
GeryFlash
veterán
[ Szerkesztve ]
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
GeryFlash
veterán
2022-ben, 1500 euroert se sikerult megugranunk azt hogy DLSS nelkul a Cyberpunk 2077 4K/60FPS-t tudjon Ultra RT-vel. Azert ez hihetetlen, nem tudom hogy ez kinek a szegyene, az Nvidia-e vagy a CdProjekt-e. Mindenesetre sehol nincs meg a 2-szeres perfomance a 3090-nel szemben, jellemzoen 50-80% kozott van, attol fuggoen hogy RT on vagy OFF.
[ Szerkesztve ]
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
Komplikato
veterán
válasz GeryFlash #39058 üzenetére
Szerintem a RED Engine elavult, tehát nem azért mentek át a fejlesztők az UE5-re, mert kukázták a motort, hanem mert évekig tart átírni, hogy tudja azt, amit a NextGen motoroknak kellene.
"Figyelj arra, aki keresi az igazságot és őrizkedj attól, aki hirdeti: megtalálta." - (André Gide)
-
Yutani
nagyúr
-
GeryFlash
veterán
Amugy innentol kezdve nem ertem mi ertelme nezni az RT nelkuli teljesitmenyt, szerintem akar mar most, de a kovetkezo generacional mindenkepp kikerulhetne/hatterbe szorulhatna mar a sima ,,raszter" teljesitmeny ami a game benchmarkokat illeti (persze ezzel Abu es az AMD nem ertene egyet).
Ami a kovetkezo evek jatekait illeti, hiaba lett kozel 6-szoros ugras a PS4 PS5 kozott TFLOPS-ban, mar a mostani jatekokkal se birnak el igazan a next-gen konzolok, emiatt nem szamitok a 2023-24-ben erkezo next gen jatekoktol nagy hardverigeny emelkedest.
Valamennyit nyilvan fog noni az UE5-s jatekok es a hozzahasonlo kepessegu motoru jatekok megjelenesevel, de nem szamitok szamottevo novekedesre. Ergo a 2024 es az utana kovetkezo 2026-os generacional mar tenyleg csak azt kell nezni, hogy 4K full RT-nel hany FPS-t tud. Persze elkepzelheto hogy mestersegesen fenntartjak a hardver igenyt azzal hogy PC-n mindig egyre tobb sugarat lonek majd ki, azzal vegulis a vegtelensegig lehet novelni a hardverigenyt.8K gamingre meg nem szamitok, szerintem inkabb a 4K + magas kepfrissites lesz az irany, aztan ki tudja...
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
#82860288
törölt tag
Ennek a végén akkora kripto reklám van, mint a ház.
-
GeryFlash
veterán
válasz Yutani #39062 üzenetére
Relative perfomancenal miert nem lehetett berakni az RT teljesitmenyt, gondolom igy a rankingben sem fog szerepelni vagy esetleg minimalis sulyozas mellett...
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
Yutani
nagyúr
válasz Yutani #39062 üzenetére
Vitathatatlanul jó kártya lett a 4090, de túl van árazva a $1600 árával. Mondjuk ha a korábbi csúcs kártyákat vesszük alapul, akkor szépen illeszkedik a sorba, de ez azt jelenti, hogy amennyivel gyorsabb, annyival drágább is. Ez nem portfólió csere, ez portfólió bővítés. Felfelé.
Ugyanakkor érdekes látni, hogy az alsó kategória is hogy túl van árazva. (itt)
#39065 GeryFlash: Felesleges betenni az RT-t a relatív teljesítmény táblába, ha vannak ott nem RT-képes kártyák is. Azt viszont megtehetnék, hogy az RT-s chartokhoz (8 játék) is csinálnak egy relative performance táblát, de így is látni, hogy agyonver minden korábbi kártyát RT-ben. Az AMD-ket kétszer is.
[ Szerkesztve ]
#tarcsad
-
Abu85
HÁZIGAZDA
válasz GeryFlash #39063 üzenetére
Nem a raszter a problémája az RTX 4090-nek. Ahol nem teljesít ott egyszerűen CPU-limitje van még 5800X3D-vel is. Előjött ugyanaz a jelenség, amiről a HUB csinált anno videót ( [link] ), csak most már nem csak a kisebb CPU-kat érinti, hanem a leggyorsabbakat is. Ez ugye annak a következménye, hogy a 4090 egyszerűen gyorsabb, így sokkal gyorsabb processzor is kellene neki, de az meg nincs. Ez nem raszterből eredő probléma, ez egyszerűen nyers CPU-limit, amit a meghajtó működése okoz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#82860288
törölt tag
Tessék 8K@60+fps
-
félisten
Computerbase hozza a kötelezőt minőséget. [link]
DLSS3 nélkül A 4090 300W ra visszafojtva is 54% kal gyorsabb mint a 3090 Ti @450W.
600W alapbeállításból manuálisan engedélyezhető, ha a tápegység engedi.
A 4090 és 4080 16GB is már teljes értékű 4K kártya.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
nagyúr
Ami érdekes benne, röviden:
- Teljesítménynövekedés cca. 65% a 3090 Ti-hez képest (sejtettük, hogy nem lesz 100%, na)
- Fogyasztás 430W, 300W-ra korlátozva 5-20%-ot dob el, átlagosan a CB játékmixben 10%-ot
- A DLSS3 framegenerálás nem duplázza az FPS-t, hanem 60-70%-kal növeli, miközben a késleltetés is megnő 30%-kal. Tehát vagy a működés bonyolultabb, mint amiről eredetileg beszéltek, vagy a köztes frame-ek generálása is bír nem elhanyagolható erőforrás-igénnyel, kb. "teljes" frame számításának 20%-ával. Vagy mindkettőIgazából technikailag nagyon jó lett az új generáció - ha 300W körüli szintre normáljuk a fogyasztásokat, akkor a hasonló chipek közötti előrelépés 70-80%, míg az előző generációban kb. 40% volt.
Az ára meg olyan, amilyen. Mindenki el tudja dönteni magának, megéri-e ennyiért.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
félisten
A 4090 a 3090 utódja lenne de természetesen ahhoz nézve sincs meg a 2x növekedés de ez nagyon sok játékban a CPU limit miatt van.
Pl Vanguard ban és Forza 90% a gyorsulás már mosta Ti-hez nézve..
Remélem következő genben a CPU limiten változtat Nvidia.
A DLSS3 nincs 30% ez az FPS számtól függ , pont ahogy feltételeztük. Minél magasabb az FPS annál kisebb a késleltetés, bizonyos szint után alacsonyabb is lehet.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Alogonomus
őstag
Mennyire biztos, hogy a megakadó eredmények CPU-limitből származnak, és nem a komolyabb Ampere kártyáknál alacsonyabb felbontás esetén már gondot okozó részleges kihasználtság okozza?
Készültek LN2-es eredmények is húzott processzorral, és az fps értékek a tuningoltsággal arányosan javultak? -
Devid_81
nagyúr
Ugy latom a DP 2.0 hianya meg sokaknal az Nv-Link hianya (melo miatt) elegge kiverte a biztositekot.
Egyszeru gamerkent ezek nekem mondjuk pont nem hatrany, de gondolom ilyen kategoriaju VGA-nal ezek mar elfertek volna....
-
gV
őstag
köszi tippet, hogy erre érdemes egy pillantást vetni, az Ampere elég rosszul öregszik. a TPU megjelenéskori tesztjét nézve a Turing úgy is közelebb került, hogy később bekapcsolták a 3000-es szérian az rBAR-t.
____elnézve milyen jól megy 300W-on a 4090 eltudom képzelni, hogy a kisebb kártyák miatt kellett a 450W.
-
Abu85
HÁZIGAZDA
válasz Petykemano #39077 üzenetére
Abból kiindulva, hogy az NV kiemelten az 5800X3D-t ajánlja teszthez, gondolom a driverük által végzett munka hatékonyabb gigantikus cache-sel. Valószínűleg majd a Raphael-féle 3D V-Cache lesz ennek a GPU-dizájnnak a nagy megmentője januárban, azzal csökkennie kellene a CPU-limit erősségének.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
válasz Alogonomus #39080 üzenetére
A sávszél határig tolja ki , két különböző dolog. DP 1.4 gyel azok amik DSC támogatottak mennek 144 Hz-n HDR -rel 4 K ban de mivel itt van HDMI 2.1 és ott is megy a DSC ez akár mindegy is mert azon át akár 10 K 120 Hz is mehet de, 4 K 144 Hz simán.
jelenleg DP 2.0 kijelzők nincsenek még, HDMI 2.1 monitorok is alig. Ugye ez egy játékos kártya. Általában aki meg grafikához veszi ott nem a képfrissítés a lényeg hogy 120 Hz vs 144 Hz hanem a színtér lefedettség és pontosság.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Alogonomus
őstag
"DP 1.4 gyel azok amik DSC támogatottak mennek 144 Hz-n HDR -rel 4 K ban"
A számok mást mondanak.
A DP 1.4 sávszélessége a szabványban engedélyezett leggyorsabb HBR3 kábellel 8,1 Gbit/s Ezt tudja a DSC feltornászni 32,4 Gbit/s értékig, amiből 25,92 Gbit/s használható adatátvitelre. Az pedig 4K felbontás esetén 8 bit színmélység mellett 120 Hz, 10 bit színmélység alkalmazásakor 97 Hz átvitelére elég. -
félisten
válasz Alogonomus #39083 üzenetére
Vagy nem. [link]
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Yutani
nagyúr
A The Verge 12900K-val tesztelt, és nekik konzekvensen nagyobb FPS értékek jöttek ki 1440p-n és 4k-n is a TPU teszthez képest minden játékban, amely közös pont a két tesztben (Forza Horizon 5, Control, AC Valhalla, Watch Dogs: Legion, Cyberpink 2077).
Miért ajánl az NV egy olyan procit, ami teljesítményt hagy a kártyában?
#tarcsad
-
Devid_81
nagyúr
According to the rumor, NVIDIA is already saving AD102 GPUs for GeForce RTX 4090 Ti
Best dies are already saved for a 2.75Ghz boost (2.95 typ. gaming) 475W 18176 CUDA cores 96MB L2 cache 24Gb beast. Performance 10~20% above 4090
...
-
nagyúr
Igen, de a marketing 3090 Ti duplázásról beszélt, úgyhogy azt kell számon kérni 4K-n azért nem annyira jellemző a CPU-limit, meg az egyes játékokban nézve sem látszik sehol a dupla sebesség, csak egyes kiemelt esetekben RT mellett.
Az azonos chipek közötti teljesítménynövekedéshez én is a 3090-et használtam.DLSS3: nem hiszem. A CB teszt alapján azt gondolom, hogy azért nő a késleltetés, mert kevesebb "valódi" frame-et számol a kártya, kell a "gépidő" a beszúrt frame-eknek.
#39078 gV : lehet, hogy olyan lesz ez a gen, mint az AMD-nél a Polaris volt - megveszel egy középkategóriás kártyát, aztán a tesztekhez képest 60-70% fogyasztás mellett lesz 90-95% teljesítményed.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
válasz Yutani #39085 üzenetére
Tesztelhetnek mással is. Az NV-nek van egy ajánlata, és ők a legjobb eredményeket az 5800X3D-vel számolják, és ezért ajánlják elsődlegesen ezt. Valószínűleg a meghajtóra eső többletterhelésük némileg kevesebb a több cache által, elvégre játékokról van szó, amik eléggé profitálni tudnak ebből. De ettől az 5800X3D sem váltja meg nekik a világot, mert a valós probléma a szoftverükben van, csak a sok cache képes jobban elfedni ezt a gondot.
A TPU amúgy nem 5800X3D-t használt csak sima 5800X-et. Azt az NV nem ajánlja.
#39088 Albus_D : Az ajánlat nem kötelező érvényű, az NV csak azért ajánlja az 5800X3D-t, mert azzal van a legkisebb limitben a 4090. De nem tudnak mit csinálni, ha a tesztelők nem ezt használják. Egyébként a tesztcsomag része volt az 5800X3D is, csak ugye sok tesztelő így se tudta használni, mert hozták a régi eredményeket egy más konfigurációról. Azokat nem tudták volna újramérni 5800X3D-vel. De például a Hardware Unboxed újramérte.
Valószínűleg az NV is sokkal jobban örülne a Raphael-féle 3D V-Cache-nek, de az egyelőre nem érhető el, tehát adták azt, ami a hozzáférhető CPU-k közül a legjobb társa tud lenni a 4090-nek. Ezt ők ki tudják mérni, és elhiheted, hogy ha nem az 5800X3D lenne a leggyorsabb társ, akkor nem azt csomagolnák a tesztkit mellé.
#39090 Ribi : Az NV le se szarja, hogy kinek milyen ellenérzése van az AMD procikkal. Nekik az a lényeg, hogy a legkisebb limitben legyen a termékük. Kurvára mindegy számukra, hogy 5800X3D, 7950X vagy 12900K mellé veszed meg a 4090-et, de az már nem mindegy, hogy a tesztekben melyik procival mutatják meg az elérhető teljesítményét. Nyilván törekednek alá rakni a legjobban működő alapot.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Yutani
nagyúr
Valóban, a TPU sima 5800X-et használ, igazad van (rosszul emlékeztem). Akkor azt látjuk, hogy érdemesebb 12900K-van tesztelni, mint 5800X-szel.
Viszont talátlam 5800X3D tesztet, méghozzá a Techspotnál. Ez alátámasztani látszik, amit mondtál, mert a The Verge és a Techspot közös metszetében lévő játékokban az utóbbinál magasabbak az FPS számok. Még több az átfedés a TPU és a Techspot tesztek között, és ott eszement különbségeket lehet látni az 5800X3D javára (vs. 5800X).
#tarcsad
-
Petykemano
veterán
DLSS3
Amikor bejelentték, nekem az volt a meggyőződésem, ez jött le a leírásokból, hogy a CPU és GPU együttműködéséből renderelt két képkocka között a DLSS3 renderel egyet az előzőekből számolva, párhuzamosan, de gyorsabban, mint ahogy a CPU-GPU renderelt képkocka elkészülne.
De úgy tűnik, hogy nemhogy csökkenti, hanem növeli a frame-time-ot. (a csak felskálázást alkalmazó DLSS2-höz képest)
[link]Ami arra utal, hogy tulajdonképpen nem úgy működik, hogy "megjegyzi" az utolsó két képkockát, amit már kiküldött a kijelzőre és amire a felhasználó megfelelő reakcióidő mellett reagálhat, hanem az utolsó egy-két képkockát tulajdonképpen visszatartja, elkészíti az AI generált 2.5-ik képkockát és csak utána engedi a kijelzőre.
Én nem hiszem el, hogy az AI képgenerálás annyira hosszú ideig tartana, hogy tehát hogy tényleg hosszabb ideig tartana, mint a rendes frame generálás. Biztos, hogy sokkal kisebb erőforrás és időigénye kell, hogy legyen.
Azt sem hiszem el, hogy a GPU ne tudná megjegyezni az utolsó két CPU-GPU által generált képkockát és a következő CPU-GPU által generált képkocka generálása közben annál sokkal gyorsabban legenerálni a 2.5-iket.Az egyetlen magyarázat, amire én gondolni tudok, hogy azért nő a frametime, azért kell visszatartani az utolsó CPU-GPU generált képkockát, mert ha az AI generált képkocka aközben készülne, miközben az utolsó CPU-GPU által generált képkocka már ki lett küldve a kijelzőre, akkor arra a user már reagálhat és nagyobb hibák keletkezhetnek a valóság és a AI generált képkocka között.
De ez meg azért nem áll össze, mert ugyanaez a CPU-GPU generált képkockával is megtörténne.Szóval valaki el tudja magyarázni nekem, hogy miért nő a frametime DLSS3 használata mellett?
Találgatunk, aztán majd úgyis kiderül..
-
Sonja
veterán
Ha csalódni akarsz, bízz az emberekben!
-
gV
őstag
[ Szerkesztve ]
-
Callisto
őstag
válasz Petykemano #39096 üzenetére
A latency nő nem a frametime és azért nő, mert két frame közé generál. Tehát nem az utolsó kettő alapján utánuk, hanem az utolsó és az aktuálisan éppen renderelt közé, mert így lehet a legkevesebb az artifact (képhibák).
Ez azt jelenti, hogy az aktuális képkockát egy frame-mel később fogod látni ahhoz képest amikor renderelve lett. Remélem érthető volt.[ Szerkesztve ]
"A wise man can learn more from a foolish question than a fool can learn from a wise answer." - Bruce Lee
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Hibátlan - GIGABYTE GTX 1660Ti Windforce OC 6G 6GB GDDR6 VGA videókártya dobozos
- Rog 4070 Ti //KERESEM!!//
- Újszerű - POWERCOLOR Radeon RX 5500 XT 8GB GDDR6 VGA videókártya
- ELADÓ 32 DB Nvidia RTX 3060 Ti és 8 DB Zotac Gaming Geforce RTX 3080 Trinity / KOMPLETT BÁNYAGÉP
- BESZÁMÍTÁS! GIGABYTE WindForce 2X GTX 960 4GB GDDR5 videokártya garanciával hibátlan működéssel
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen