Hirdetés
-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
deja vu
addikt
De aki nagy felbontáson szeretne játszani, oda jelenleg nincs AMD opció, csak nvidia kártya jöhet szóba.
Iphone 7 Plus | Sony A7R+Zeiss FE 35mm F2.8+Zeiss FE 55mm F1.8 | Eizo CX271+Eizo CS270+Eizo SX2262W+Eizo S2233W | Z170 Ext4+I7-6700K+Noctua U14S | GTX1070 Gaming | 16gb 3600MHz | 850PRO 768GB | Seasonic Platinum | Define R5+3xNoctua | Razer Taipan
-
#85552128
törölt tag
9 címből 5-nek az előző része is AMD-s volt a maradékból a Doomot az nVidia is promózta, olyan "AAA"
techdemóracímre mint az AOTS pedig nincs szükség (ettől egy random early access játék is több embert érdekel). Több köze van ahhoz, hogy erre az évre jutott megjelenésük mintsem "szakértelemhez", 2014/2015-ben ugyanez volt a helyzet az nVidia javára.A Mirrors Edge mondjuk Ansel támogatást is kapott, szóval több köze van az nVidiához.
Hogy a BF1 mennyire AMD-s cím azon is lehetne vitatkozni, egy nyomorult kupont nem tudnak a kártyáikhoz adni...[ Szerkesztve ]
-
#85552128
törölt tag
Jó akkor nem az előző, hanem az azelőtti.
"Ez náluk egy ilyen szabály lehet, hogy a nagyon konkurensre írt játékokat nem reklámozzák."
Nem mondod, hogy ami jobban megy a konkurens terméken azt nem reklámozza egy cég ? Ez nem "szabály", hanem logika Az AMD is abbahagyta a BF4-es mantle hasonlatokat amint az nV már gyorsabb volt DX11-ben. Kár ezt nV szabályként feltüntetni, senki nem a saját maga ellensége.
Várjuk ki a végét, a Battlefront is az volt papíron, a játékban meg semmi nyoma nem volt, hogy ez AMD-s cím lenne (hacsak az első két hétben eltűnő eget, havat AMD kártyákon nem annak szánták). Bár abból legalább volt bundle...
[ Szerkesztve ]
-
#85552128
törölt tag
Volt AMD bundle is belőle, a lényeg, hogy az AMD-s stúdiók akik korábban is azok voltak adnak ki most több játékot egyszerre, ahogy tavaly és azelőtt az NV-vel volt ez.
Abban a tesztben konkrétan a Frametime katasztrofális a Fury X-en/480-on nem a mért FPS - persze ezt a benchmark mód nem írja ki, nem véletlenül. Elég baj, hogy a nagyobb tesztoldalak ezt nem nézik, valahol még a min, FPS-t se...
[ Szerkesztve ]
-
Jack@l
veterán
"És ettől most hiába szalad világgá mindenki, ez az explicit API-k átka, hogy tulajdonképpen csak akkor mérhető a GPU fps, ha az alkalmazás fejlesztője erre a gondolt."
GOTO utolsó hsz-em... FCAT méréseket is azzal végzik.
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
nagyúr
Hmmm, én azért szívesen megnéznék egy olyan mérést, ahol a CPU és a GPU FPS egymás mellé van téve. Mekkora lehet a különbség közöttük? Puszta véletlen lenne, hogy a PresentMon ugyanúgy 25%-os sebességnövekedést mutatott a DOOM-ban az OGL és a Vulkan között RX 460-on, mint a többi site-okon?
[ Szerkesztve ]
"... and with your wicked wishes we will rise again"
-
#85552128
törölt tag
Hány olyan 4K monitort látsz itt amelyik támogatja az LFC-t ? A max értéknek 2.5x kell nagyobbnak lennie mint a minimum, hogy ez működjön, s mivel az összes 4K monitor 35/40 - 60 Hz-es így nem fog működni (na nem mintha a tartós 30-35 FPS amúgy olyan jó lenne főleg egy FPS-nél, azért a freesync sem csinál csodát).
[ Szerkesztve ]
-
nagyúr
Mit értesz képátlapolás alatt? Egy CPU-frame-ből több GPU-frame-et állít elő, releváns különbségekkel? Ha igen, milyen sűrűn csinál ilyet?
Ill. továbbra is az lenne az érdekes, hogy egymás mellett kellene látni a két mérés eredményét."... and with your wicked wishes we will rise again"
-
-
nagyúr
Jó, tehát akkor, ha jól értem:
- Ha van 8xTSAA, akkor a presenteket a compute parancslista küldi, és a PresentMon pontosan 0 frame-et fog detektálni
- Ha nincs 8xTSAA, akkor nincs compute listás varázslás, és a PresentMon helyes eredményeket ad visszaMagyarul, ami mérés készült a DOOM-ról PresentMonnal, az mind helyes, mert ami nem lenne helyes, az 0 FPS
[ Szerkesztve ]
"... and with your wicked wishes we will rise again"
-
nagyúr
Akkor ez továbbra sem világos. A CPU és a GPU oldalon mért FPS között csak akkor lehet különbség, ha nem ugyanannyi a CPU oldali presentek száma, mint a GPU oldaliaké. Ez csak akkor lehet, ha a GPU eldob frame-eket és / vagy olyanokat is megjelenít, amihez nem volt CPU-oldali present. Csinál ilyet a Vulkan renderer?
A frame-time-ok persze shiftelődhetnek ide-oda, és emiatt valóban jobb lenne a GPU-oldalt látni, de az átlagos FPS tekintetében nem szabadna eltérésnek lenni."... and with your wicked wishes we will rise again"
-
-
Jack@l
veterán
"Régen nem. Nyilván single-engine volt az API, nem lehetett más a CPU és a GPU fps."
Az esetleg nem-e lehet netán, hogy fogja a doom a cpu időt, fogja a gpu időt ami egy frame kiszámításához kell és azt kiirja, mint "cpu fps" meg "gpu fps".
Csak az egyszerűség kedvéért, mielőtt multi engine és hasonló mesékbe kezdenénk?
Meg aztán felettébb okos döntés lenne fullra járatni a cpu-t, miközben a gpu ugyse tud több fps-t megjeleníteni. Memória és latency overheadről már nem is teszek említést.[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Yany
addikt
Abu, ignorálod gbors hozzászólását, pedig jogosnak tűnik a kérdése. Új állapotok kiszámításához józan paraszti ésszel kell a cpu. Mitől lesz újabb képkockánk (csökkentett input laggal), ha cpu-t nem használsz? Mi lesz a következő képkockán?
Építs kötélhidat - https://u3d.as/3078
-
Jack@l
veterán
Akkor lehet kevertem a másik techdemóval.
CPU fps-nél másra gondoltam, arra az fps számra amit maga a proci ki tudna számolni, ha nem kellene várnia a gpu-ra plusszban. 20 éve mérhető ez így ebben a formában, persze csak a motoron belül.
Amit te mondassz az a latency vagy response time, fura hogy mostanában ezt nyomod orrba szájba a vr kapcsán, de nem tudod mi az.[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
nagyúr
Tehát akkor összefoglalva: azáltal csökken a késleltetés, hogy a képkocka számításának megkezdése a GPU-n azelőtt történik, hogy a CPU elkészült volna. Ez mondjuk vet fel problémákat, de ezen lépjünk túl, el tudom képzelni, hogy egy 60 FPS-sel futó hajszimulációban nincs jelentőségük. Az is világos, hogy a mindenféle varázslások eredményeképpen a GPU-ra jutó számítási feladat rövidebb lesz.
Ellenben:
- Ha a GPU frametime rövidebb, mint a CPU frametime, akkor vagy CPU-limit van, vagy tudna gyorsulni a GPU is
- A GPU nem jelenít meg több frame-et, mint amit a CPU kiad, csak másképp lesznek időzítveUgye?
"... and with your wicked wishes we will rise again"
-
Yany
addikt
Hm...
Tegyük fel épp egérrel fordulok jobbra. A CPU kiszámolja az új kamerabeállításokat az egér elmozdulásának megfelelően (most leegyszerűsítem), majd a GPU renderel egyet ennek megfelelően.
Ha jól értelek, még mielőtt befejezné a rendert, a gpu nekilát egy következő képkocka számításának (is).
Amit nem értek:
- Eldobja az előzőt képkockét, vagy azért végigtolja annak a renderjét is közben a gpu?
- Hogyan időzíti az új képet?
- A folyamatosan húzott egér (1000Hz) tegyük fel minden képkockára (53fps) új és új nézőpontot eredményez, de a két egymás után kiszámolt képkockán akkor lesz egy microstutter, mert azokon ugyanaz a kamera állapot lesz? (hiszen ugyebár a második számításakor kihagytuk a procit)[ Szerkesztve ]
Építs kötélhidat - https://u3d.as/3078
-
-
nagyúr
Dehogynem. A teljes mérési idő alatt ugyanannyi frame van, tehát csak annyi történik, hogy ugyanaz a mennyiségű msec másképp oszlik el ugyanannyi frame között. A példád úgy lenne helyes, hogy 1000/(2+2) vagy 1000/(3+1).
"... and with your wicked wishes we will rise again"
-
HÁZIGAZDA
Most akkor arról van szó, hogy az API előtti rész pl egyszer fut le, de az utána lévő többször, így magasabb a GPU fps a CPU fps-nél? Azaz ugyanazt a jelenetet (ez a szimluáció / present, nem?) a GPU többször is kirajzolhatja (render) pl más szögből? Nekem legalábbis így tűnik lehetségesnek, hogy más a CPU és GPU fps.
[ Szerkesztve ]
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
HSM
félisten
Ide a rozsdás bökőt, hogy meg lehetett volna oldani 8Ghz-esre, ha igény lett volna rá a 4GB-oson, így vagy úgy... Pláne, hogy ugye nem csak a Samsung gyárt GDDR5-öt... De írták is több helyen, hogy a kiélezett árazás miatt fel sem merült, nem fért volna bele a megcélzott árszintbe....
-
HSM
félisten
Értelmesebb megoldásokra gondoltam. Ne mondd nekem, hogyha a Samsunghoz pl. odaálltak volna, hogy kéne a jelenlegi mennyiség 100X-osa, akkor nem kaptak volna a lehetőségen... Csak az nyilván drágább, mint a készleten halomban elfekvő 7Ghz-eseket olcsóért felvásárolni.
(#25333) Petykemano: Nem hiszem, hogy ezen a konstrukción érdemben lehetett volna még spórolni. A ref hűtésből már nincs mit faragni, a VRM-ből is max egy fázist, a PCB se lehetett volna sokkal kisebb. Ezt nagyon prímán megcsinálták így költségminimumra, de még igényesen. A baj, hogy eleve erre az energiatakarékosabb működésre lett építve, ezért is lett kissé túllőve a PCIE-felőli fogyasztás a megnövelt órajelekkel.
480E kiadást meg azért nincs értelme kiadni, mert pár kattintással magad is belőheted a gyári Overdrive-ból bármelyik kártyával. -
Oliverda
félisten
Akkor csak ezekre gondolhatsz:
"Ez a lépés már nagyon időszerű volt, ugyanis az Nvidia a Maxwell-alapú GeForce termékekkel faképnél hagyta a Radeonokat, mind teljesítményt, mind hatékonyságot tekintve."
"Mindez nem meglepő, hisz időközben a konzolpiac (PS4, Xbox One) is erre rendezkedett be, ugyanakkor az Nvidia sikeres fejlesztései komolyabb módosításokra sarkallták a fejlesztőket."
"Az AMD ezzel faraghat hátrányából konkurenshez képest, az Nvidia ugyanis már jó ideje profitál egy hasonló végeredményre képes technikából."
"A vállalatnak emiatt ki kellett hagynia egy generációt, az így keletkezett réseket leginkább átnevezésekkel próbálta betapasztani. Az Nvidia ezt elegánsan hidalta át a Maxwell GPU-kkal, az AMD végül pedig komoly hátrányba került a konkurenssel szemben."
Amúgy jár a pacsi amiért ilyen szorgosan olvasod a cikkeket, szerintem jó helyen kapirgálsz.
p.s: A PDF-et pedig továbbra is várom, cGPU-k előre!
[ Szerkesztve ]
"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."
-
Jack@l
veterán
Feldobtad a napom ezzel az aranyköpéssel
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Simid
senior tag
-
huskydog17
addikt
"Nem igazán számít. Még 4K-ban sem annyira. Ott is elég a 4 GB."
De, igenis számít! Ha az ember abszolút maximális részletesség mellett szeretné tolni, akkor nem elegendő a 4GB VRAM, ezt nem csak a Guru3D, de a PCGH is megerősítette.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
TTomax
nagyúr
-
huskydog17
addikt
Köszi az infókat, de hiába ismét csak az elmélet, ha a gyakorlatban nem működik. A PCGH és CB egyértelműen leírta, hogy 4 GB mellett nem olyan jól megy a játék, mint 8 GB mellett. Ez különböző formákban testesül meg, olvasd el a PCGH és CB tesztjét elé egyértelműen leírják a problémákat.
Amúgy abban igazad van, hogy valóban nem lehet egész pontosan lemérni a VRAM fogyasztást, mert akármennyi van a VGA-n, a játék azt teletölti.
"Wie viel Speicher der First-Person-Shooter genau benötigt, ist unklar – denn das Spiel belegt immer so viel VRAM wie vorhanden ist."A különbség annyi, hogy míg te az elméleti résszel jössz, addig ők a gyakorlati részt mutatják be. Amúgy nem is kell értenünk a mély technikai működést ahhoz, hogy értelmezni tudjuk a gyakorlati eredményeket, melyek úgyis eltérnek az elmélettől.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Jack@l
veterán
"nem tudja teletölteni" "tippel" Mi jöhet még ma?
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
do3om
addikt
"Ilyenkor a program nem is inicializálja ezt a pici szeletet, mert a driver azt hazudja, hogy egy 4 GB-os kártyán van kb. 3,5 GB"
Nem is olyan eltérő a két technika, ezt az NV-nél is megtudták oldani, persze őket meg szidod miatta hogy csalnak.
Ha érdekel valami szerelési anyag írj privátot. Eladó Schneider Mágneskapcsoló 18,5kW/38A
-
#85552128
törölt tag
Nem félre mér, hanem azt jelzi ki amit a driver és/vagy a DirectX api lejelent neki...
Egyébként attól, hogy csak 3.5 GB-ot használ (forrás ?) még a Windows is lefoglal magának valamennyit, ha meg még külön gyorsítótár is van (minek ?) akkor simán kijön az a 3900+ MB-os foglalás. Tehát a program jól jelzi a teljes foglalást, max a kártya még annyit sem tud felhasználni, mert limitálva van kevesebbre...[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- AMD RX 6700 XT 12GB GDDR6 Reference Eladó! 92.000.-
- ASRock RX 6900 XT 16GB GDDR6 Phantom Gaming OC Eladó! 175.000.-
- BESZÁMÍTÁS! ASUS STRIX GeForce RTX 3090 24GB GDDR6X videokártya garanciával hibátlan működéssel
- Nvidia Quadro NVS 310 / 512MB
- nVidia GIGABYTE GeForce RTX 3080 OC 10GB VISION videókártya
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: Ozeki Kft
Város: Debrecen