Új hozzászólás Aktív témák
-
peterm711
aktív tag
válasz Valdez #13893 üzenetére
Ja az elvek embere vagy, az persze nem számít, hogy az amd általában azokat rúgja valagba, aki a legtöbbet fizetett neki. Igy volt ez anno a 7970-nél, most a furyknál is (2xx szériát nem tudom, nem követtem annyira) lásd csíkozódás, nem jól működő órajelek, bajok a ventilátor vezérléssel, és persze pocsék támogatás ami az új játékokat illeti. Ne modd azt hogy semmi düh nem lenne benned, ha ez fogadna 600+ euro kiperkálása után, többiek rég játszanak mindenféle gond nélkül, neked meg ottvan az idegeskedés, ez ám a fehasználóbarát hozzáállás és üzletpolitika
-
#85552128
törölt tag
Gyönyörűek azok a frametimeok: [link] az AMD "flagship" kártyákkal gyakorlatilag 5 másodpercenként beakad/szaggat a játék, még a kevés VRAM sem lehet(ne) kifogás mert a 980 ugyanennyi ócska GDDR5-tel stabil.
Ugyanez a 8 gigás 390-nél viszont nincs jelen, szóval meg is van a probléma oka... Hová tűnt az a nagyszerű memóriakezelés ?[ Szerkesztve ]
-
Valdez
őstag
válasz peterm711 #13901 üzenetére
Alacsony büdzsével sajnos nem lehet csodát tenni. Nekem egyelőre semmi különösebb bajom nem volt az amd kártyákkal, és perpill nekem csak ez számít.
A referencia 7900gt meg 1 év után ment garanciába, mert behányt rajta a ram, persze 'okosba' vettem, így örültem ha kaptam valamit helyette.[ Szerkesztve ]
-
#85552128
törölt tag
válasz SpongyaBob #13907 üzenetére
A pénz meg nem a 20%-ból van, szóval ugyanazt mondtad csak más nézőpontból (ha az AMD-nek lenne 80%-a akkor nekik kellene kedvezniük...)
Rise of the Tomb Raider: PC graphics performance benchmark review - CPU core performance scaling
AMD kártyával minél több magon fut annál rosszabb a min. FPS
[ Szerkesztve ]
-
#45185024
törölt tag
válasz #85552128 #13908 üzenetére
Ezt gondolom nem az Intel oldaláról linkelted
Mennyire örülhetnek ezeknek az eredményeknek.
Ha valóban a memóriatörlések okozzák a droppokat akkor nagyon érdekes lenne megnézni Lara alatt egy 960 2GB VS 960 4GB tesztet is.
Arra kíváncsi lennék lehet e már tudni hogy a 2.0 GCNből kiveszik e ezt a kritikus ideig tartó memóriatörléses részt. -
nagyúr
válasz korcsi #13912 üzenetére
A teszt úgy zajlik, hogy adott adott ideig nézzük a kiszámolt képkockák késleltetését (azt az időt amíg megjelennek) egy átlagértékhez képest (variancia). Az adott idő alatt kiszámolt összes képkocka a 100%.
Ez a grafikon azt jelenti hogy a kiszámolt képkockák hány %-a (vízszintes tengely) milyen késleltetést szenved/mennyi ideig tart míg megjelenik (függőleges tengely) ehhez az átlagértékhez képest.Azt kell nézni, hogy nvidia-n az eltérés/késés a képkockák 99%-ában 1ms alatt van pl. az átlaghoz képest, az AMD kártyáknál meg elszáll 4-5ms-ra... tehát itt látható késleltetés, akadás, stutter stb van/lehet.
Tehát pl 100 képkockából 5 nem lesz meg 1ms eltérés alatt... hanem csak 4-5ms eltéréssel/késéssel jelenik meg az átlaghoz képest.Ha pl az átlag az 60FPS, ami 16.67ms és ehhez képest AMD-n néha van +4-5ms eltérés, ami az idő negyede (framerate negyede).
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
korcsi
veterán
válasz FollowTheORI #13914 üzenetére
És az átlaghoz, vagy egy kitüntetett értékhez (60fps/16,6ms) képest nézik? Mert én ezt nem találtam a cikkben.
Nekem a grafikonból úgy tűnik, a legrövidebb frame time-ot veszik alapnak, ha átlagot néznénk akkor minden ennél gyorsabb képkocka 0ms-os tartományba esne.[ Szerkesztve ]
referencia 5700(XT) plexi ARGB-s blokk eladó!
-
nagyúr
válasz korcsi #13915 üzenetére
Nem olvastam én se utána pontosan mit csinál a PCPER, de átlaghoz nézik szerintem. Ami minden kártyánál ugye más, és csakis önmagához lehet mérni ezt a varianciát amugyis.
Szóval tuti nem fix érték, hanem mindig az átlag amit a kártya produkál az adott programban.
(Ami az átlagnál jobb azt nullának veszik pl.)
Közben engem is érdekelt és van rá időm megnéztem: [link]
Utolsó graf előtt írják:
"Our current running theory for a stutter evaluation is this: find the current frame time variance by comparing the current frame time to the running average of the frame times of the previous 20 frames. Then, by sorting these frame times and plotting them in a percentile form we can get an interesting look at potential stutter."
Ha azóta nem változtattak akkor az előző 20 képkocka mozgó átlagához mérik.
De mindenképp valami ilyesmi.[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
korcsi
veterán
válasz FollowTheORI #13916 üzenetére
Kimerítő válasz, köszönöm!
referencia 5700(XT) plexi ARGB-s blokk eladó!
-
nagyúr
válasz hugo chávez #13919 üzenetére
Én sem tudom mi lehetett... hacsak nem arra gondol hogy jött a GHz edition olcsóbban a megjelenés után nemsokkal...
Mert az tényleg kicsit pofánverés volt...
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
#85552128
törölt tag
Ha DX12-re akarsz kártyát akkor várj a DX12-es játékokig vagy inkább az új szériáig főleg ha hosszabb távra tervezel... AMD oldalon még ha papíron jobbak is ezek már 2-3 éves éves GPU-k, de úgy egyik gyártó kártyájával sem érdemes hosszabb távra tervezni mikor fél éven belül/múlva jönnek jobb kártyák.
Cikkek (hát még a PH tesztek ) alapján a Radeonok DX11-ben isjobbakkhm. jobbnak kellene lenniük[ Szerkesztve ]
-
füles_
őstag
Tom Clancy’s The Division Beta GPU test
Most nem sütöm el a Fallout 4 1.3-as patch poénomat,de a 280X-szem megint olyan gyors mint a GTX 970
-
nonsen5e
addikt
válasz füles_ #13924 üzenetére
Azért az nem semmi, hogy a 280X (olyan driver support mellett mint amilyen) a 780 Ti nyakán mennyire ott van, a 7970 meg, hogy otthagyja a régi ellenfelét, a GTX 680-at.
Ezek az eredmények meg annak ellenére, hogy a Division is tele van dobva GameWorks effektekkel és NV cím.[ Szerkesztve ]
D4 klán: HunPH - invért privát rám
-
nonsen5e
addikt
válasz #85552128 #13926 üzenetére
Messze még a release, megeszem a kalapomat ha érdekes módon nem butulna rendre le minden AMD kártya teljesítménye a release-re.
De amúgy ez a játék most miért áll ennyire az AMD-nek? Főleg úgy, hogy semmi hozzá optimalizált driver sem érkezett (egyik oldalról sem?), mikor GW is van benne. Más játékok meg GW-vel miért mennek akkor olyan szörnyen? Érdekes.
[ Szerkesztve ]
D4 klán: HunPH - invért privát rám
-
füles_
őstag
válasz nonsen5e #13925 üzenetére
A GTX 680-at valahol az R7 370 is lehagyja
Itt egy másik teszt is
Bár ebben jóval kevesebb VGA van -
Malibutomi
nagyúr
válasz nonsen5e #13927 üzenetére
Most boritekolhato, hogy a szokasos menet lesz.
Kiadas elott (nagyon)kicsivel bepulnek az optimalizat GW kodok, egy nappal release elott ezzel a koddal kijonnek majd a benchmarkok ahol sehol nem lesznek az AMD kartyak, kiadas utan pedig az AMD szidasa kovetkezik, hogy nem kepesek kiadni egy 0 day drivert.Vagy a kevesbe valoszinu, hogy az AMD feltorte a GW-ot, es mar tudnak optimalizalni, csak kis idobe telik Ez a grafikon is nagyon hasonlo a fallout-hoz ahogy fules mondta
[ Szerkesztve ]
-
#85552128
törölt tag
válasz Malibutomi #13930 üzenetére
Battlefrontnál is jó volt a béta a megjelenésre meg tele volt grafikai buggal a játék az "optimalizált" AMD driverrel szóval nem kell oda GW, elég ha bármi változik ami egy bétához képest eléggé valószínű...
[ Szerkesztve ]
-
Malibutomi
nagyúr
Na viccelodesen kivul, ez inkabb csak azt mutatja hogy az NV nem optimalizalt meg.
-
nagyúr
válasz Malibutomi #13932 üzenetére
ne viccelj, pár napja adták ki a gameready drivert. az slijük is működik már, én viszont nem tudtam ráműteni a cfet.
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
sayinpety
tag
válasz Laja333 #13860 üzenetére
Velemenyem szerint mindenki ugyanabba a hibaba esik D3D12vel. Sokan Mantle APIn tanultuk meg az explicit GPU accesst, am a Mantle egy manual multi-engine API. Megkoveteli az explicit queueing modelt. Minden workloadrol manualisan kell donteni. Tobb munka, am atlathato. A D3D12 auto multi-engine API. Nem kovetel workload meghatarozast, kepes onmaga donteni melyik queue legyen felhasznalva. Ha copy engine nem letezik marad a compute. Ha compute engine nem letezik marad a graphics. Ebbol lehet galiba. Compute workloadot nem mindig jo compute enginebe tolteni, am a D3D12 auto multi-engine megteszi. Copy workload egyszerubb. Mindig jo a copy engine. Az auto multi-engine nekem nem mukodott. Lefutott a testcode, am sokkal lassabb volt a Mantle pathnal. Ma mar nem hasznalom az auto featuret computera. Copyra igen. Nekem ket compute scheduling forma valt be. Default path a long running compute outsource sema. Ismerem melyik workload okoz stallt. Melle elindithato egy compute workload. Alternate path a short running compute batch sema. Nagyon nehezen megoldhato, am talan eleg jo lesz a GPU usage a batchek vegeig. PCn a GCN default pathot, am a Kepler, Maxwell, Intel altenate pathot hasznal.
D3D12n nehezen kezelheto a signal update. GCN minden wavefront vegeztevel updatel, am Kepler/Maxwell csak a command list vegen kepes ra. Nincs ra jo orvossag sajnos. Szerencsere Pascal nem lesz elavult.[ Szerkesztve ]
-
imi123
őstag
válasz Malibutomi #13938 üzenetére
Hát el kell keserítselek.
Én már csak a szememnek hiszek.
És úgy látom egyre többen vannak így.Tévedni emberi dolog, de állati kellemetlen.
-
nagyúr
válasz nonsen5e #13925 üzenetére
Szerintem nincs teledobva... amugymeg be sincs kapcsolva alapból. A PCSS meg a HBAO+ külön kell ráküldeni... kb ennyi a GW/Nvidia extra. Max a Titan/Ti-re áll be alapból ezeket is bekapcsolva, de szerintem még az se, nem része egyik se az Ultra beállításnak.
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
sayinpety
tag
válasz schawo #13936 üzenetére
Engem nem zavar a munka. Kepes vagyok ket pathot irni. Signal update sem erdekel, amig az overhead kezelheto.
Ami zavar a D3D12ben a tudas hianya. Mantle APIn es konzolokon van ds_swizzle_b32, ds_ordered_count, s_setvskip. D3D12ben egy sincs. s_setvskip hianyat tulelem, am a SIMD lane swizzle es ordered atomics hasznos. Sokkal lassabb nelkuluk a codepath. -
peterm711
aktív tag
válasz hugo chávez #13919 üzenetére
Aki később vette, annak lehet semmi, de annak aki megvette day 1 a kártyát mint én, az szívott kemény 3-4 hónapot a pocsék driverek miatt, órajel beakadások, textúra villogás, microlagg, monitor villanás 2d-ben, ventilátor vezérlés gondok, kötelező dll másolgatás a régebbi driverből, és persze ebből "semmi se az amd hibája volt". Kapásból ennyi, nyugodtan vissza lehet keresni. Nem tagadom, volt mikor nem volt semmi gond, még vizes blokkot is vettem rá, annyira elégedett voltam vele, csak hát nem tartott sokáig.
-
Malibutomi
nagyúr
válasz peterm711 #13947 üzenetére
Csikszelesseg meg architektura valtasnal ez konnyen elofordul. Most is siman megeshet majd az erkezo uj kartyaknal mindket oldalon.
Pl. 2013-ban pl. mikor kijott a GTX780 ott is jodarabig vartak a tulajok a mukodo driverre. Majusban jott a kartya es kb augusztusra a normalis driver.
-
#45185024
törölt tag
Ha Larához lesz Crimson Driver szoljatok már
Errol tudtok valamit
cikk cime Minden, amit a PC-s Rise of the Tomb Raiderről tudni kellA játék könyvtárában már található egy Nvidia-féle DX12-es DLL fájl, de nem lehet aktiválni.
[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Alkalmazásbemutató: Keep
- Gaming notebook topik
- Súlyos adatvédelmi botrányba kerülhet a ChatGPT az EU-ban
- Debrecen és környéke adok-veszek-beszélgetek
- Futott egy Geekbench kört egy új HTC készülék
- Apple notebookok
- Anime filmek és sorozatok
- gban: Ingyen kellene, de tegnapra
- NVIDIA GeForce RTX 3080 / 3090 / Ti (GA102)
- Az USA vizsgálja a RISC-V kínai terjedésének kockázatát
- További aktív témák...