-
GAMEPOD.hu
AMD Radeon™ R9 290 / 290X / 390 / 390X téma összefoglaló
Új hozzászólás Aktív témák
-
Malibutomi
nagyúr
-
aktív tag
-
daneeeeee
aktív tag
Biztos, hogy így van ahogy mondod de én nem is erről beszéltem, hanem arról hogy a mantle alapvetően mindenhol jól jönne. A gyors VGA-n még gyorsabb lesz a program, a sokkal lassabb APUkon pedig lehetőség adódik, hogy az eddiginél jobb minőségben vagy gyorsabban fussanak a játékok.
A Plant vs Zomies 2 mantle támogatása elsőre lehet, hogy feleslegesnek tűnik, viszont mondjuk gyenge apukon lehet, hogy ezzel teremtődne meg az esély hogy fusson a játék (vagy magasabb felbontáson/részletességgel fusson.)
Ez szerintem piaci előny hiszen a PvsZ2 nem csak a HC gamereknek szóló alkotás és a GCN-en pedig szebben/gyorsabban fut mint a konkurencia azonos kategóriájú termékein.radi8tor1:Bocs az offért.
[ Szerkesztve ]
-
Tirexi
addikt
Ja ja ja persze persze meg még mit nem.
A VGA hűtését oldották volna meg a 290x-en a hülye API-k helyett amiről úgy is tudjuk, hogy mind olyan címekben lesz csak amikben egy 780 is lazán 100FPS-t produkál majd.
Amikor meg majd jön egy orosz csoda amiben nem lesz ilyen Mátnli akkor meg majd megy a sírás.
Ez semmi más mint az AMD-nek az újabb reklámkampánya, hogy az én VGA-mat vedd amelyben olyan technológia van amit 100 játékból 10 használ. Mint pl a DX11.1/2 meg a barátai.
Arra leszek én kíváncsi, hogy a ráírt driver mennyire fogja majd normálisan használni ezt az egészet. DX-re sem tudnak normális driver-eket csinálni csak BETA BETA BETA.
Elmondom neked kajak jobban várom már ezt a Mantle dolgot mint itt bármelyik AMD felhasználó. Kíváncsi vagyok már arra a 40%-ra nagyon de nagyon. -
Enclave
aktív tag
"...amúgy nem mindegy, hogy 11 vagy 14 fps a minimum? mindkettő pocsék..."
Lehet hogy pocsék mindkettő, mégis 4k-ról van szó, ilyen monitor pedig nem fog egyhamar elterjedni a mostani árakat figyelembe véve. Viszont a 19 és 12 fps között van különbség, ráadásul egy 290X-et is lehet valamennyit tuningolni, akkor pedig tovább nő a különbség... Inkább arra lennék kíváncsi, hogy ennél az egy játéknál miért tér el az átlagtól a különbség... (hiába pocsék eredmény a 4k esetén, akkor is elvileg kisebb különbségnek kéne lennie, max 15%-nak, kb. 13 - 12 fps és 12 - 11 fps-nek )
Semmi sem állandó, csak a változás.
-
-
MPowerPH
félisten
Nem az R9 elso szeriajara. Igy gondoltam. Mikorra tenyleg beerik az a Mantle dolog, es a jatekok tobb mint 50%-a ki is hasznalja, addigra mar nem 290X lesz a csucskartya, hanem annak egy ujabb generacioja.
Egyebkent a BF4 csak egy patch-et kap, ami szerintem messze nem hozza ki azt, ami a Mantle-ben valojaban rejlik. Erre meg csak tech demok vannak, ugye azokat meg nem lathatjuk.
Don't Tread On Me
-
h1mpi
nagyúr
Azért mert így élhet a 8 napos pénz visszafizetési jogával. Ha személyesen veszi át akkor nem max. megy gariba. Nem félek én se a futártól se az eladótól
(#7384) Malibutomi: Én meg úgy tudom nem él, mert a boltban mielőtt kifizeted, akár ki is próbálhatod.
Netes rendelésnél viszont nem[ Szerkesztve ]
Eladó egy használt HyperX Alpha Gamer füles - 13 990 Ft
-
Abu85
HÁZIGAZDA
Itt fontosabb kérdés az, hogy miért nem a Mantle előtti héten ürítették a készleteket, mert január 30-án még átlagos volt a kereslet. Február első hetében viszont elborult. Egyetlen dolog, ami a jó ellátás és az igénynövekedés között történt az a Mantle patch megjelenése. Mellesleg januárban is négyre limitálták a vásárlások számát személyenként a nagyobb webáruházak.
Scrypt-re nem igazán lesz jó ASIC miner. Ez nem olyan, amire egyszerű dedikált hardvert építeni. Erre maximum DSP-ket lehetne bevetni licencben, de a legtöbb DSP dizájnt nem tervezik extrém skálázhatóra. Persze lehet rá egyedi DSP-ket tervezni, de olyan előnye nem lesz, mint a BitCoinnál. Ehhez hasonlítva maximum az FPGA-ra váltás előnyét kínálja fel.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ahogy a Mantle megjelent, az eredmények megjöttek az amúgy normál ellátás felborult és hirtelen hiánycikk lett. A mining részen semmi sem történt, ami hirtelen arra késztette volna a piacot, hogy pont a Mantle megjelenése után ürítse ki a készleteket.
Egyébként a Mantle megjelenésének hetében 450-650 dollár volt 290-290X. Január 10 után teljesen normalizálódtak az árak. Normális lett az ellátás. A Mantle megjelenése után fosztották ki a raktárakat. Most ez eredményezte újból a magas árakat.
DX alatt lehetetlen olyan frame-time egyenletességet elérni, amit Mantle alatt.A scrypt-ről régóta ismert, hogy az ASIC nem fog olyan előnyt hozni, mint a BitCoin-nál a GPU-khoz történő váltás. Leginkább ahhoz lesz hasonlítható, mint amikor FPGA-ra cserélted a GPU-t Bitcoinnál.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A spike-okat nem javítani kell. A Mantle direkten engedi a memória menedzsmentjét, de ezért cserébe nem csak a GCN C.I.-re, hanem a GCN S.I.-re is kell egy vezérlési séma. Ez az oka, hogy GCN C.I.-n tökéletes, mert arra van írva a vezérlés.
Amiben igaza van a piacnak, hogy ezt a Mantle-t nem kellett volna megvárni. 2007-ben felmerült, hogy a textúrákat készítők is tudnak segíteni. Akkor kellett volna lépni, mert a driver+API többletterhelésére nem a tartalomkészítőknek kell optimalizálni! Ez tisztán a programozók dolga. Eközben nagyon csúnya irányba mentünk el, és ma ott tartunk, hogy több ember másfél éves munkája egy BF4 kaliberű DX render. Aminél az egy ember által írt Mantle kód három hónap munka után gyorsabb.
Annyi nem lesz. Az Alpha maximum 10x-et ígér ebben a mutatóban.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Inkább kiegészíteni. Egy alternatív path kell a GNC S.I.-re. A mostanival semmi gond nincs. Az maradhat a GCN C.I.-re.
Úgy jön ide, hogy pontosan tudjuk, hogy a Mantle mit fog okozni a piacnak. A fejlesztők egy jelentős része ezt fogja tartani "Az API-nak". Gyártófüggő ide vagy oda, azt kínálja, amiért sok-sok éve könyörögnek. Ma már az is belefér nekik, ha az AAA játékfejlesztés egy gyártóra korlátozódik.
Sajnos az első tesztek alapján nem lesz meg a 25x. Nem olyan egyszerű ez, mint gondolták.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
Egyetlen kékhalálom sem volt az elmúlt évben, pedig FF-ot használok, flashplayerrel. Win7 64bit, driverek 13.1-től 13.6 beta 2-ig, és VGA volt minden, Sapphire Tahiti-LE, Powercolor 7950, Sapphire 7970 Dual-X, (utóbbi kettő együtt is, igaz, CF nélkül) és most a 280X Vapor-X.
Ami érdekes, 4 hónapja kb. vettem egy z87 lapot (Giga z87X-D3H) a Z77-es helyett, no, az viszont a két legfrisebb végleges BIOS-ával (F7 és F8) heti 1-2 kéket tuti dobott, többekközt Youtube videóknál. Érdekes, mert viszont a két végleges közti bétával, az F8d-vel teljesen hibamentes hónapok óta, semmi kéket nem dob. Lehet, nálatok is inkább errefelé kéne keresni a kék hibák okát.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A GPU-n belüli parancsfeldolgozással nincs gond (illetve van, de nem ettől, hanem az aszinkron végrehajtási modell hiányától). Azzal van gond, hogy a processzor nem adja oda elég gyorsan a parancsot. Ezt Repi több prezin is elmondta, hogy ez olyan probléma, amivel sem ők sem pedig az AMD/NVIDIA/Intel nem tud mit kezdeni a driverekben. A BF3-ban is érezték, illetve ezért próbálkoztak a deferred contexttel, de attól még rosszabb lett a helyzetük. Utána mentek oda az Intelhez, az NV-hez, majd végül az AMD-hez, hogy kéne egy új API. Az AMD bevállalta és a többit már ismerjük.
Akármilyen programot vagy drivert írhatsz az nem tud mit kezdeni azzal, hogy az API túl lassan dolgozik.
Nincs lényeges különbség az NV és az AMD driverei között, ha nincs deferred context. Immediate context alatt mindkettő nagyjából ugyanolyan gyors. A deferred contextet meg az AMD nem támogatja, mert egyrészt láthatóan nem működik, másrészt úgy tudnák megoldani ahogy az NV. A processzorból fixen elvesznek egy magot csak a parancslistához. Kétmagos prociknál ez nagyon nem ajánlott. A Thiefbe is úgy van már beépítve a deferred context, hogy csak akkor aktiválja a játék az NV-nek ezt a módot, ha legalább hat logikai processzort detektál. Egyébként ennek a játéknak nagyon jó a deferred contextje 4 hónapot csak ebbe öltek bele a fejlesztők. Lényegében elérték, hogy sose legyen lassabb, mint az immediate context manuális threading mellett. Ez eddig csak a Civilization 5-nek sikerült. A legnagyobb kérdés, hogy az a 4 hónap megérte-e, mert a hat+ szálas procikon nyertek vele 2-5%-ot az immediate context manuális threading modelljéhez képest.
Nem véletlenül felejtjük el a szekvenciálisan dolgozó API-kat és állunk át teljesen a konzolokban látható parallel command buffer API-kra. A Mantle mellett a DirectX 12 és majd az érkező OpenGL 5 is ilyen lesz. Akármennyire ragaszkodott az MS deferred context koncepciójához nem elég a prebuild adatok többszálúsítása, mert akkor is egy render threadben fut össze minden. Utóbbit kell többszálúsítani. Amíg ezt nem osztjuk szét, addig szopunk. Nyilván azért az MS is védhető mert ők nagyon univerzálisan akarnak gondolkodni. Nem akarnak előnyt adni egy gyártónak a parallel command buffer modellel, de van amikor be kell vállalni. Idővel mindenki tervezni fog rá ideális architektúrát.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem láttam olyan teszteket, amelyek nagy különbségeket mutatnak. Az NV szintetikus mérései is csak deferred contextre épülnek, mert IC mellett nem mérnek ki lényeges eltérést. Egyszerűen arra a modellre 12 éve fejlesztenek drivert. Nincs hova továbbfejlődni, mert az elmúlt 12 évben volt idő maximalizálni a teljesítményt az adott driver struktúrára és már az adott architektúrára is (talán a Maxwell még kivétel, de annyira nem különbözik a működése a Keplertől, hogy a mostani rendszer ne legyen elég hatékony).
Ma a legfőbb eltérés az NV és az AMD modellje között, hogy az NV nagy sűrűn lecseréli az adott játékba rakott shaderek egy részét sajátra. Az exe alapján a driver az eltárolt shadert tölti be a játékba írt helyett és azzal fut. Ebben a koncepció az, hogy az eredeti shadert jobban optimalizálják, miközben az algoritmuson nem változtatnak. Régen a VLIW korszakban az AMD is csinálta, de manapság már ritkán nyúlnak ilyen koncepcióhoz, mert a GCN a legtöbb shader esetében keveset profitál belőle. Az NV-nek ez azért jó, mert viszonylag sokan használnak übershadert, és jellemzően, hogy a regiszterek allokációja túlzóra sikeredik, ami összességében a GPU kihasználtságának csökkenéséhez vezet. Ez a GCN-re azért nem hat igazán, mert egy shader egységre sok regiszter jut (egy GCN shader egység 4 kB-ot kap), míg a Kepler (1,33 kB/shader egység)/Maxwell (2 kB/shader egység) esetében már kevés, a Fermi esetében még jó volt (4 kB/shader egység). Alapvető optimalizálása az NV-nek, hogy a übershaderek allokációját átszervezik, hogy ne foglaljon le a kelleténél több regisztert a shader futtatása.
Csak, hogy legyen itt minden az Intel is 4 kB/shader egység paramétert használ a Gen7/7.5 architektúrában. Ez az optimális. Ennél kevesebbet a telefonokba/tabletekbe tervezett architektúrák használnak.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Teszteket láttam, csak semmi eget rengető különbséget nem fedeztem fel, ami miatt az egyik driver jobb lenne. Egyedül a deferred context játékokban van eltérés. Ott kétmagos mellett gyorsabb a Catalyst míg több mag mellett a GeForce. Nyilván érthető miért. A Catalyst nem foglal le direkten egy processzormagot. Tehát ez teljesen megmagyarázható.
A CPU-limithez a drivernek sincs sok köze. Az az API-ból ered. Maximum a driver működési struktúrájának van rá enyhe hatása, de nem túl nagy. Nincs univerzális döntés ebből a szempontból, mert a driverek a szerver threadokat szétosztják az elérhető magokra, de a mennyire az nagy kérdés. Senki sem tudja igazán erre a választ, mert ha túl sok magra osztod szét a munkát, akkor kevesebb szabad erőforrás jut a program számára, míg ellenkező esetében a túl kevés szerver szál csökkenti az átlag sebességet, még ha javít is a folyamatosságon és a minimum fps-en. Jellemzően játékokra külön profilozzák a driver szerver szálak számát.
Van egy alternatív speciális megoldás is, amit az NV néha alkalmaz. Ezt nagyon ritkán vetik be játékban, mert hozzányúl a játék szálaihoz. Lényegében egy driveres threading timing koncepció, ami a késleltetés növelése árán ad lehetőséget több szerver szálat futtatni, amivel gyorsulhat a program anélkül, hogy elvesztené a folyamatosság élményt. Ezt régen alkalmazta az AMD, de mára kivették, mert az egy GPU-s késleltetést 2 GPU-s AFR szintre rúgja, és eközben 10-20%-ot ha nyersz. Lehet, hogy ez kell az adott játékban a győzelemhez, de 2 GPU-s AFR szintjén lévő késleltetéssel úgy gondolják, hogy nem éri meg. Az NV is számos profilból kivette. A Skyrimben és a Crysis 3-ban még benne van. A BF4-ben is benne volt elég sok driverben, de az újból már hiányzik. Nem ideális megoldás.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
ÁdiBá
addikt
-
HSM
félisten
Nem értek veled egyet. 1,2B tranzisztor van benne, míg a Haswell-ben 1,4B. Teljesítményben is (jól skálázódó programok esetén) szépen beékelődik az i5-ök és i7-ek közé.
Nem akarok ebből nagy OFF-háborút, úgyhogy nem fejteném ki jobban, de a fő baj az FX-el, hogy még nem volt időszerű egy ennyire többszálúságra optimalizált architektúrát bevezetni, szoftveresen még mindig sokhelyen egyszálú végrehajtás miatt. Ettől függetlenül költséghatékony munkagépbe sok feladatra sokkal inkább vennék FX-et, mint egy HT-s I7-et. Szerintem az AMD elgondolása bár alapvetően nem olyan fürge, mégis sokkal jobb konstrukció, mint a HT, ami a benchmarkokban nagyon szépet alakít, de a gyakorlatban ezer sebből vérzik. -
HSM
félisten
Amit írsz, a frontend szerintem a kisebb gond. Ha nem is skálázódik tökéletesen (no, meg ugye van némi "közös" 2 magonként FPU terén, az is lehet ok) gond a sebességében ilyenkor nem lesz. Egyedül azokban a programokban teljesít rosszul, amik kifejezetten támaszkodnak az egyszálú teljesítményre. Ez viszont az esetek nagy többségében az SW sara.
-
-
HSM
félisten
(#14059) ÁdiBá: "Az mindig a maximális teljesítményt fogja nyujtani, nem kell neki csoda driver, csoda mantle csoda dx..."
Annak az "Extrém" 6-magosnak jobban kell a szoftveres optimalizálás, mint bármi másnak, hogy bármit érjen. Ha aláraksz egy 1 vagy 2 szálú programot, semmivel nem lesz gyorsabb, mint egy tizedannyiba kerülő i3-as rendszer. De lehet, még egy szénné húzott Pentium "Anniversary"-val is le lehetne alázni.
(#14063) Devid_81: Azért csodákat ne várjunk DX12/Mantle-től. Egy API-s szűk keresztmetszetet megszüntet, ezzel csökkentve a proci terhelését, de erős procira továbbra is szükség lesz számolgatni. A játék nemcsak grafikából áll...
(#14091) deadwing: Ha nálam lejjebb veszem a hővédelmi korlátot csak annyit érek el, hogy többet dobálja el az óajeleket. Ventiprofilt kell csinálni, ami a megcélzott hőfokon tartja a kártyát, a hőfoklimitet meg jó magasan hagyni, hogy vész esetén ne süsse meg magát a kártya.
(#14097) gbors: Én megmondom a frankót, kicsit csalódtam a 290 sebességében. Full-HD+SSAA-val játszom leginkább (amiben lehet) és nem volt olyan hű, de sokkal gyorsabb a 290 a 280X után. Pedig én csak 1000/1450-en hajtottam a 280X-em, mégis utána a 950/1250-es 290, órajeldobálás nélkül is talán ha 20%-ot hozott átlagosan. Van pár cím, ahol (elvileg) ennél többet hoz, de nálam ez a 20% környéke dominált, pedig többet vártam volna.
Azért megtartottam a sok gari, meg a szimpatikus TrueAudio és +1GB ram miatt.
Új hozzászólás Aktív témák
A topicban tilos bármilyen offtopic hozzászólás írása!
Ilyen célra használjátok a Lokál fórumban található offtopicot.