Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Finomszemcsés preempcióval gyakorlatilag garantált az aszinkron timewarp elkészülte. Az NV-féle rajzolási szintű preempció is jó, addig amíg 2 ms alatt van az üzemmódváltás. Ha valami beragad 2-nél több ms-ra, akkor a timewarp garantáltan lekési a szinkronablakot. Ezek eléggé nyíltan beszélt problémák a fejlesztők és az Oculus/Valve, illetve a gyártók által.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Crytek
veterán
Több helyen és többször is leírtam már én mikor veszek bármilyen gyártó/márkájú VR szemcsit.
De frissítésképpen:- Min 2x kisebb/könnyebb kivitelű lesz
- Max 50k
- Minden 2. game ONLY VR lesz csak.Szóval lehet nem éled meg és én sem hogy valaha ilyenem legyen
Next PC Upgrade: 2022
-
Abu85
HÁZIGAZDA
válasz gainwardgs #13556 üzenetére
Csak azt tudom, hogy Xbox One-on hogyan csinálják. Ott az OIT-t ordered atomicsre építve használják és mutexszel zárolják a wavefrontokat. Ennek az előnye, hogy memóriakímélő és gyors. Ezzel a módszerrel az OIT az Xbox One-on 1 ms-os feladat. A gond az, hogy a PC-be ezt csak GCN-re lehet átmenteni jó eredménnyel, mert nem minden hardver tudja a feldolgozási sorrendet. Láthatod a Lichdom Battlemage című játékban (patch előtt), hogy a mutex zárolás más hardveren is lefut, de az eredmény hibás lehet. A másik megoldás a PPLL adatstruktúra használata, amely megoldja a problémát minden hardveren jó eredménnyel, de 3-4 ms-ba kerül, tehát sokkal lassabb, mint a mutexes megoldás. A harmadik opció az OIT kikapcsolása, de akkor olyan ronda lesz mint a HairWorks.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
Ezek a hardveres különbségek, a kérdéseim pedig a szoftverre, ill. a közönség érzékenységére vonatkoznak. Nyilvánvaló, hogy a GCN (még az első is) sokkal jobb hardver-alap VR-hez, mint a Maxwell (talán a Pascalnál is) - viszont ez nem magától fog kijönni, hanem a szoftverektől.
Ha egy játék stabil 400 FPS-sel megy, akkor nem kell preempció.
Ha egy játék állandóan droppol, akkor nem fog segíteni az aszinkron timewarp sem.
Ha ellenben másodpercenként 3-5 frame lesz eldobva, akkor könnyen lehet, hogy az AMD-n szuperül fog futni, míg az nVidia csomagolhat VR-ready zacskókat a cucca mellé.Van legalább 3-4 olyan VR-ready AAA játék, amit ki lehet próbálni, és választ lehet adni ezekre a kérdésekre? Amíg nincs, addig szerintem felesleges nagy mondásokat tenni.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
A ritka drop nem számít. Nem kellemes, de viszonylag könnyen túléli az agy. A problémát az jelenti, ha folyamatosan lecsúszik a timewarp a szinkronablakról. Itt van egy olyan jelenség, hogy az aktuális grafikus API-kon belül nincs frame megszakítás. A megkezdett munkát be kell fejezni, még akkor is, ha már tudjuk, hogy a szinkronablakról lecsúszott. Ez akár még 3-5 ms-nyi extra számítást is jelenthet, de ugye már mindegy. Viszont a hardver innentől folyamatos hátrányba kerül, mert a még futó, de már felesleges számítás miatt késik az új, de fontos számítás.
Erre lesz egy megoldás idén, de csak a Mantle-be. Ez az instant killnek gúnyolt képesség, ami tulajdonképpen a szinkronablak lekésése után azonnal megöl minden késői timewarp-hez tartozó számítást.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
-
nagyúr
Ha elköltök szumma 1200-1500 USD-t arra, hogy VR-ezzek, akkor a "nem kellemes, de viszonylag könnyen túléli az agy" kb. ekvivalens azzal, hogy "vigyétek a sz**otokat a p****ba" De lehet, hogy csak nekem magasak az elvárásaim.
Ha a program sűrűn lekési a szinkronablakot, az minden architektúrán gond lesz, mert abban látatlanban is biztos vagyok, hogy az aszinkron timewarp folyamatos használata csúnyán fog hatni a képminőségre. Szóval eleve úgy kell belőni a cuccot, hogy az idő elég magas %-ában biztosan tudja a 2x90 FPS-t - kérdés, hogy ez kinek mennyire sikerül jól. Ahol nem, akkor AMD-n ronda lesz az eredmény, nVidián pedig majd csak étkezés előtt lesz javasolt játszani...Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Nyilván, ha nem számít a pénz, akkor megveszed a Falcon Northwest Tiki-t és le van tudva. Vagy DIY alapon veszel egy Dual Fiji kártyát. Ezzel biztosan nem lesz gond, mert erre lett tervezve. Csak ennyiért autót is vehetsz majd.
Nem akkora gond a timewarp. Bőven megéri használni, mert biztonságos, hogy ha megkétszerezed a valós frame-számítás szinkronablakát.
Az AMD ma még nem alkalmaz semmilyen képminőséget csökkentő módszert a saját SDK-jában. Az NV alkalmaz egy multi-res shading eljárást, ami a kép szélét csökkentett minőségben számolja. Ezt a fejlesztő aktiválhatja, vagy letilthatja attól függően, hogy mennyire van a programja a "hányáshatáron".
A multi-res shading célja egyébként pont a timewarp szabadabb alkalmazása. Kevesebb számítással csökken a késés esélye.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#45185024
törölt tag
Be szabad ezt ide vágni ? Nekem ez nagyon tetszett jól összefoglalták
beszélgetés az OCULUSról
"75 FPS a belépő hogy ne legyél tőle rosszul..."[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz #45185024 #13563 üzenetére
90 Hz-es a Rift, de mindegy. Viszont a timewarp miatt nem kell 90 sztereó 3D képkocka. Elég 45 és a másik 45 pedig lehet timewarp. Persze ez csak az elmélet. A valóságban kelleni fog a magas frissítés, mert ideális szinkron a gyakorlatban nincs, így a timewarp is a késleltetés csökkentésére megy rá. Legalábbis ez az eredeti célja, de annyira általános a megoldás, hogy többféleképpen lehet használni. Bár az a módszer, amiről írtam most nem ajánlott.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
Ha jól értem a VR tervezett működését, timewarpolni akkor is kell, ha fix 90FPS-sel megy a cucc, mert a gyors fejmozgás miatt a 11ms-os késés is sok, azt is érdemes utánhúzni. Ez talán még működik is jelentős torzítás nélkül, bár a "hiszem ha látom" alapelv itt is érvényes. Nekem azzal van problémám, ha a frame lekési a szinkronablakot, és akkor már 22ms-nyi mozgást kell utánhúzni - érzésem szerint ez már ronda lesz. Persze jobb a ronda, mint a hányás, de (szerintem) a ronda sem elég jó.
Ill. érdekes kérdés még, hogy ha a VGA fogja is bírni a 2x90FPS-t, vajon a CPU is fogja-e tudni a 90-et (gondolom, a scene-t elég egyszer számolni).Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Maga a timewarp eléggé általános megoldás, tehát többféle felhasználási módja van. Most, ha csak arról beszélünk, hogy mi az ideális, akkor nyilván egyértelműen az, ha minden kész nyers képkockát timewarpolunk. De ezt elsődlegesen azért tesszük, mert az aktuális szabványos grafikus API-k csak a jelenet kamerapozícióját fogadják el. Alternatíva a LiquidVR LDL funkciója, amely képes a jelenet kamerapozícióját megváltoztatni a képszámítás előtt. Ilyen módon úgy is kaphatsz felezett késleltetést, hogy nem timewarpolsz.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#45185024
törölt tag
Ez a mondatod annyira zseniális hogy rá kellene nyomtati az Oculusra
"Jobb a ronda, mint a hányás"
De ha ennyire fontos az FPSt akkor azt hogy oldják meg hogy 90 alá ne essen le?
Mert akkor az kellene hogy azt fixre beállítod és ismerve a kártya adatait pl 970 és akkor magától beállítja a kártyához a grafikát, szóval hogy érted ne engedje be 90 alá semmiképpen.[ Szerkesztve ]
-
Egon
nagyúr
Komoly előrelépés a GDDR5X memóriaszabvány
Érdemes összehasonlítani a hwsw-s cikket, a ph-n a témában megjelent cikkekkel - érdekes különbségekre derül fény...
"Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
nagyúr
Öööööö... Én azt hittem, hogy a kamerapozíció változtatása render előtt alap Akkor még 90FPS esetén is 22ms a késleltetés, ha pedig a frame késik, akkor 33ms. Az már nagyon sok, akár 8-10 fokot is kellhet korrigálni. Ouch.
(#13567) Pepeeeee: IHV oldalról fix FPS-t csak akkor tudnál, ha meg tudnád előre mondani a kép számítási idejét, az meg nem megy. Becsülni lehet, de az csak javítja a problémát, nem oldja meg. Továbbra is masszív overkill kell sztem...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Venyera7
senior tag
-
oliba
őstag
válasz Malibutomi #13573 üzenetére
Én azért bíztam benne, hogy 980/280x szerinti új termékskálán is HBM2 lesz, de ilyen értékek mellett szinte már a csúcskártyán sincs olyan sok értelme. X2 megoldásokon jó lehet a helytakarékosság miatt.
-
Abu85
HÁZIGAZDA
A mi cikkünk nem a specifikációból származik, hanem a gyártói leírásokból, amelyek részben tartalmazták a specifikációt, de részletezve van, hogy az EMI, a tokozás, illetve az árnyékolás miatt, valamint a dupla órajel fogyasztásnövelő hatása miatt miket kell módosítani. Ez sajnos nem egyszerű. Csak akkor kell kevés módosítás, ha a GDDR5X GDDR5 módban működik, de ekkor nincs magas órajel. Viszont nem gond az EMI.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Egon
nagyúr
Az itteni cikk azt sugallja, hogy a GDDR5X sz*r (naná, nyilván csak a HBM lehet a király... ). A hwsw-s cikk alapján viszont komoly előrelépést hozhat (nyilván elsősorban az alsó- és középkategóriában).
Csak a negatívumokat sikerült kiemelned (nem igazán lett kihangsúlyozva, hogy a nagyobb fogyasztásért cserében dupla tempót kínál, illetve hogy bár az érintkezők száma nőtt, azonos tempó eléréséhez értelemszerűen fele széles memóriabusz elég, ergo a GDDR5-höz képest igenis jelentős fogyasztás-csökkenés és egyszerűbb nyák érhető el vele (azonos tempó mellett). Kimaradt, hogy a chipek mérete is csökkent.)."Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
oliba
őstag
Látom nem én vagyok ezzel egyedül. PH cikkben a GDDR5 egy elavult szar ramnak van írva, ahol szinte a gyártási értelme is meg van kérdőjelezve, míg HWSW, vagy Ipon
"Az alacsonyabb feszültségek és az újítások jóvoltából a GDDR5X memóriachipek azonos órajelen alacsonyabb fogyasztás mellett üzemelnek, mint GDDR5-ös társaik, ám a Micron szerint a helyzet változik, ha a gyorsulásban rejlő előnyt, azaz a magasabb effektív órajelet is kihasználják. Utóbbi esetben a GDDR5-ös memóriachipekével azonos, illetve némileg magasabb fogyasztásra kell felkészülni. A GDDR5X ennek ellenére is vonzó, hisz az azonos vagy picivel magasabb fogyasztás mellé jóval nagyobb teljesítmény társul, így az energiahatékonyság mindenképpen jobb."
Ez PH-ra fordítva: kell bele hőérzékelő, mert leolvad a nyákról.
Malibutomi: hol a bizonyíték? Hol vannak a mérések? Csak, mert itt nagy mendemondák elhangzanak, attól még nem bizonyít semmit sem. GDDR5 fogyasztása is bizonyított az összes nvidia kártyán. Szegény AMD-s gárda hirtelen vissza is bújt az asztal alá, hogy reszeljenek kicsit a kártyáikon.
[ Szerkesztve ]
-
Malibutomi
nagyúr
A meresek a kartyak tesztjeiben vannak.
Fury X GPU-ban mindenbol ketszer annyi van mint az R9-380-ban, memoria dupla annyi rajta, a fogyasztasa megis csak kb 40%-al tobb.
A 290x-hez kepest kb 45%-al tobb cucc van a GPU-ban, a kartya fogyasztasa megis kevesebb mint az elode.Szoval a GDDR5X lehet ugyanolyan gyors mint az elodje kevesebb fogyasztassal, vagy gyorsabb ugyanolyan de inkabb tobb fogyasztassal. A HBM pedig gyorsabb, joval kevesebb fogyasztassal, viszont dragabban.
Mindkettonek megvan a maga felhasznalasa, nem igazan utkoznek egymassal velemenyem szerint. Mas-mas kartyakon fognak feltunni.
[ Szerkesztve ]
-
oliba
őstag
válasz Malibutomi #13580 üzenetére
A Tonga GPU valamelyik Apple cuccban szerepel és sokkal alacsonyabb TDP-vel, mint ami van nekünk asztali fronton. Emellett még tovább csiszolhattak a gpu-n is, hogy jobb legyen a fogyasztás.
290x pedig más architektúra, így összehasonlítani nem igen érdemes. Fury X pedig annyit fogyaszt, mint a 290X. Az a pici eltérés ami van, az bárminek betudható. Itt egy friss mérés, ahol nem is olyan rossz a fogyasztás.
Nem fikázom a HBM-et, nem akarok én rosszat neki, de az egész téma abból kezdődött, hogy hogyan állnak bizonyos hírportálok a GDDR5x-hez.
A másik, hogy kb minden legyártott Fruy/Nano cucc csíkoz, mert ilyen jól sikerült implementálni a HBM-et. A végén kiderül, hogy nem is lehet épkézláb terméket gyártani ezzel a memóriatípussal.
[ Szerkesztve ]
-
kovsol
titán
válasz Malibutomi #13580 üzenetére
Gddr5 esetén tudtommal a java részt a hosszú busz etetese fogyasztott sokat. Ezt meg csak a hbm esetén küszöbölték ki.
May the Force be with you!
-
nagyúr
válasz Malibutomi #13589 üzenetére
Nem hiszem, hogy HBM-mel adnának ki kártyát. HBM2-vel inkább. A HBM pilotnak jó volt, és az AMD-nél szerencsés (balszerencsés?) módon volt is rá valós műszaki igény, a másik oldalon nem lett volna semmi értelme.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Malibutomi #13592 üzenetére
Hogy lenne mindegy? Egy új technológia akkor válik relevánssá, ha a gyakorlatban is bizonyít. A HBM-nek ez nem igazán sikerült - bízzunk benne, hogy a HBM2-vel nem lesz semmi komoly gond, és akkor 12-18 hónappal a "pilot" után beszélhetünk arról, hogy a HBM sikeres, mint technológia.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
#45185024
törölt tag
Osztottképernyős móddal bővül az Xbox One-os ARK: Survival Evolved
"
A kérdés már csak az, hogy ez milyen hatással lesz a játék egyébként sem kiemelkedő teljesítményére. Ahogy a Digital Foundty rámutatott, az ARK: Survival Evolved nem fut éppen jól Xbox One-on: a 30fps-t sem tudja tartani, és egészen sokszor esik le 15fps környéki mélységekbe. Az osztottképernyős mód pedig jellemzően negatívan befolyásolja egy játék teljesítményét"
15 fps Mennyitől számít képregénynek ?[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Nem szar csak van sokkal jobb.
Előrelépést a HBM hoz. A GDDR5X egy kényszermegoldás, mert az implementálása nagyon nehéz. Az EMI régóta probléma ezeknél a magas effektív órajelű rendszereknél. 6 GHz az, ameddig úgy relatíve egyszerű leárnyékolni a VGA-t. Efölött már egyre nagyobb probléma az EMI. 7-8 GHz még talán megoldható, de például a 14 GHz-es GDDR5X+FPGA tesztszett 256 bites busszal 37 cm-es. Egyszerűen nagyon hosszú NYÁK-ot kell tervezni, hogy az EMI ne jelentsen gondot.
A másik gond a fogyasztás, bár az csak hűtés kérdése. Ugyanakkor a 14 GHz-es effektív órajelen 3,5-5 watt egy ilyen lapka kapacitástól függően. Szimpla GDDR5 módban fogyaszt kevesebbet, de akkor 8 GHz a max órajel.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Valójában HBM2 nincs. A HBM az egyetlen specifikált szabvány, csak a magasabb órajel miatt HBM2-nek hívják, de szabvány szinten csak egy HBM update. A két rendszer, amit mi külsőleg számmal megkülönböztetünk, valójában ugyanabba a JESD235 specifikációba van besorolva. Tehát pontosan ugyanaz a technológia.
Akkor beszélünk külön technológiáról, ha más besorolást kap. Például GDDR5 (JESD212), illetve GDDR5X (JESD232).Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Malibutomi
nagyúr
Megint elbeszelunk egymas mellett.
Azert mindegy mert nem azt irtam hogy HBM1-el adnak ki kartyat, hanem hogy HBM-el. A HBM2 memoria is HBM, a technologia alapja ugyanaz.
A hangsuly azon volt, hogy az nvidia is a HBM technologiat valasztotta a GDDR technologia helyett a csucskartyaira (most nem irtam a GDDR utan sem szamot). Ennyi.
A sikeressegrol en nem beszeltem, arrol vagy a bukasrol majd beszelunk egy jo ido mulva ahogy te is irod.
(#13594) Pepeeeee
Nem no duplajara a grafikai terheles pont az osztottkepernyo miatt.[ Szerkesztve ]
-
Egon
nagyúr
Előrelépést a HBM hoz.
Nem igaz. A GDDR5X is hoz előrelépést: kisebb fogyasztással (és egyszerűbb nyákkal) ugyanakkora sávszél, vagy akár dupla sávszél, cserében nagyobb fogyasztás. Ha ez nem előrelépés, akkor mi?
Hadd ne idézzem már be a komplett Oliverda-féle cikket: ciki lenne...A GDDR5X egy kényszermegoldás, mert az implementálása nagyon nehéz.
False. Idézet a konkurenciától: "az implementációhoz csak kisebb módosítások szükségesek. "
No meg a HBM-et olyan könnyű implementálni (interposer), nemdebár?"Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
nagyúr
válasz Malibutomi #13597 üzenetére
Akkor még egyszerűbb a dolog. A HBM jelenleg egy olyan technológia, aminek még nincs releváns implementációja (ami van, az egy szűk niche-ben piacképes, és alulteljesíti az elvárásokat). Ettől még mindenki hisz a technológiában - az nVidia is, és 2016H2-ben látja azt az időpontot, amikor kommerciális terméket lehet rá építeni. Happy?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Malibutomi
nagyúr
Happy
Korbeertunk, abbol indult az egesz hogy itt irtak olyat hogy a GDDR5X mellett nincs is szukseg HBM-re, de ahogy irod a piaci szereplok hisznek benne. Ezt peldaztam fentebb en is az NV valasztasaval, csak belegabalyodtunk a megnevezesekbeEgyebkent kivancsi leszek a HBM2 kartyakra. Leboges lenne ha azok is csikoznanak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- AKCIÓZVA! Lenovo ThinkBook 13s Fémházas Profi Ultrabook -60% i5-10210U 8GB 256GB SSD FHD IPS WIN10
- HP Elitebook 850 G3 i5 / 15.6" Full HD / 8Gb / 512Gb ssd / USB Type C / Win10
- TP-Link TL-SG1016D 16 portos gigabites Switch, első magánszemély tulajtól
- Dell Latitude 5590 / i5 8350u / IPS FHD 15,6" / 16GB DDR4 / 256Gb SSD / Win11
- Bomba ár! Acer Travelmate P215 - i3-8GEN I 8GB I 256GB SSD I 15,6" FHD I HDMI I Cam I W10 I Gari!
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Alpha Laptopszerviz Kft.
Város: Pécs