- EAFC 24
- Steam topic
- PlayStation 5
- S.T.A.L.K.E.R. Clear Sky
- Limitált ideig már kipróbálható a The Alters PC-s verziója
- Forza sorozat (Horizon/Motorsport)
- UbiForward24 - Jövő hónapban indul az xDefiant első szezonja
- World of Tanks - MMO
- Befutott a Lollipop Chainsaw RePOP első előzetese
- Fortnite - Battle Royale & Save the World (PC, XO, PS4, Switch, Mobil)
Új hozzászólás Aktív témák
-
#85552128
törölt tag
"Jó, így már nem terelsz, de pl a TDP felvetésekre nem mondtál semmit, pedig eddig olyan fontos volt, hogy mennyi is a tdp."
Nem csak a mennyiség a fontos, fel van tüntetve az AMD specifikációknál egyáltalán bármilyen TDP ?
"Melyik meg nem jelent feature-ről beszélünk a 4G-ről? Úgy ahogy lehet 3,5G-re optimalizálni, úgy lehet 4re is"
A kb. 250k-s "csúcskártyánál" eleve úgy indulunk, hogy azzal kel foglalkozni ne fussunk ki a VRAM-ból ? Ok, lehet...
"A textúra felbontása meg azért annyi, mert törlés nélkül elég véges a memória"
Véges ? A Ti-n 6 GB van, a Titanon 12 GB, a jövőre megjelenő csúcskártyákon meg standard lesz a 8 GB, de 16 GB vagy több is lehet, köszönhetően a HBM2-nek.
Nem a memória véges, a HBM1 és a FIJI memóriája véges és azért jönnek ezzel a törléssel, hogy elhidd elég lesz a 4 GB mindenre...[ Szerkesztve ]
-
#85552128
törölt tag
"Számít mi van oda leírva, azon kívül hogy azt mondhasd, hogy több mint az nv-é? "
Ha elolvastad volna az elejétől azt a beszélgetést láthattad volna miért volt felhozva...
Mert csak úgy lehet valami jobb, ha több? Ésszel használni a meglévőt és abból kihozni többet miért nem lehet jó?
Igen az AMD eléri azt ~4 GB-vel amit más a ~12-vel már csak az a kérdésem, hogy akkor a gyengébb 390X-ből miért jön 8 GB-os ?
"Nyilván a vramból való törlés csak a fanatikus amd-sek fegyvere... "
Nem, ez a Low-Level API-k egyik funkciója (mégis ugye már 8 GB-os leendő csúcskártyákról pletykálnak...) és nem csak AMD-n használható
De ugye DX11-ben nincs ilyen funkció implementálva - illetve van de rontja a teljesítményt...[ Szerkesztve ]
-
#85552128
törölt tag
Az egész dolog lényege az volt, hogy az AMD fel sem tünteti ezt az infót és a ZeroCore-t, ha már annyira a specifikációt nézzük a 970-nél.
Csak ugye más szemében a szálkák, sajátunkban a gerendát sem látjuk...De a 290X TDP-je továbbra is 250 és 300W között van ezt nem én hanem tőled és tőlem is hozzáértőbb oldalak állítják...
"Mert a piaci igények ezt diktálják? A jelenlegi API-nál van létjogosultsága a több ramnak, ezt nem firtatom. "
Innentől kezdve pedig nincs miről beszélni...
"De hogy ne tereljek a 4G-s fijinek is meglehet a célterülete,alacsonyabb felbontás, de magasabb fps, 144hz fhd, oculus 90hz-el, stb."
Oculus 2016 Q1-ben jön ki, addigra már jöhet 8 GB-s Fiji is...
A Fiji-nek igazából azt kell bebizonyítania, hogy már most jobb mint a 980 Ti és a -2 GB sem fogja semmiben sem limitálni..."Akkor hajrá nv-sek, törölhettek ti is. "
Méghogy nem vagy AMD fan
[ Szerkesztve ]
-
#85552128
törölt tag
"De egy ősrégi 7970-et is előbb vennék 50K-ért, mint egy GTX970-et...."
Ezzel szerintem magadat és az "objektivitásodat" minősíted...
"Az Nv kamu-TDP-je jobb a Maxwell-nél, amit szándékosan alullőtek?"
Milyen kamu TDP ? Minden tesztben gyári TDP limittel mérnek, így "alullőtt" TDP limittel is gyorsabb.
Ha te customot veszel (és OC-zed) akkor persze hogy többet fogyaszt, de gyorsabb is jóval mint a ref...
Miért baj az hogy van még benne potenciál ? Így is gyorsabb..."Az se véletlen, hogy koncerteztek a korai példányok, mivel a TDP-hez lett belőve a táprész, csaképp a TDP nem annyi volt, mint papíron...."
Nem a Strix 970 TDP-je 163W-ra van beállítva biosból, ez +18W-al a referenciához képest, de magasabbra is boostol... Viszont így is cicereg, tehát a gyártók eleve alul méretezték még a referencia TDP-hez képest is.
[ Szerkesztve ]
-
#85552128
törölt tag
válasz Yllgrim #6160 üzenetére
Nem cicereg allandoan, terhelesfuggo, de amikor igen akkor sem hallani a hazbol mert a hutes elnyomja. Az ujabb tipusoknal meg mar a cw is ritka, az enyem meg osszel volt veve.
En mondjuk 1450/7800-on hasznalom amivel eleve nagyobb terhelest kap es a strix az egyik leggyengebb custom...[ Szerkesztve ]
-
#85552128
törölt tag
válasz Firestormhun #6183 üzenetére
Nemrég említettem én is, akkor az volt a "magyarázat", hogy támogatja csak másképp/megoldható... Úgy látszik mégsem.
Angolul: AMD confirms GCN, including Xbox One GPU, does not support DX12 feature level 12_1
"Hallock said it shouldn’t be an issue that AMD cards only support feature level 12_0 since all the features relevant for games are included in 11_1 and 12_0. Also, most games will stick closely to what the consoles use and will therefore mostly use 12_0. Keep in mind, though, he’s the global head of technical marketing, so his words shouldn’t just be taken as gospel. Computerbase also pointed out Nvidia said the same thing when their Kepler cards didn’t support feature level 11_1."
" If you want a fully compatible DX12 card you should look into getting a Nvidia GTX 960, 970, 980, 980 Ti or Titan X."
Lesznek itt még érdekes dolgok...
[ Szerkesztve ]
-
#85552128
törölt tag
válasz Malibutomi #6187 üzenetére
Nem az nV hanem az MS csinálta, ugyanúgy ahogy a 10.1, 11.1, 11.2-t - amikor is ugye az AMD volt előnyben...
A Shader model 3 meg a DX10.0-nál az nV-nél volt hamarabb, van ilyen[ Szerkesztve ]
-
#85552128
törölt tag
válasz Malibutomi #6189 üzenetére
Az MS hozott létre annak a két dolognak egy külön Feature levelt...
Simán mehetett volna a 12_0-ba mint opcionális funkció, főleg ha olyan "jelentéktelen".
Az MS-es GDC prezentációban is benne volt.Nekem is mindegy, nem DX12-re vettem a kártyát...
[ Szerkesztve ]
-
#85552128
törölt tag
válasz Malibutomi #6192 üzenetére
Ugyanez terjed visszafelé, az RB Tier 3-al, főleg mivel pH-n minden egyes cikkben ez van kihangsúlyozva...
(#6191) Televan Ez most nem teljesen igaz, mivel így az XO sem támogatja így ez őket is érinti, legalábbis jobban mint eddig.
Nyilván nem lesz belőle akkora érvágás vagy megoldhatják emulációval is, de ezért mondják sokan, hogy nem DX12-t kell szem előtt tartani kártyavásárlásnál...[ Szerkesztve ]
-
#85552128
törölt tag
válasz FLATRONW #6195 üzenetére
Azt ott rosszul írtam csak már nem tudtam szerkeszteni.
Akkoriban pont az nV hozott mindent hamarabb, ugyanúgy nem származott belőle számottevő előnyük
Na jó a 8800-ból igen, de ott sem a DX10-es újdonságok miatt, meg ugye eléggé megkésett az akkori ATi válasza és nem is volt valami siker a 2900XT...
Meg ha jól emlékszem a 6600GT/7600GT is akkor "best buy" volt.[ Szerkesztve ]
-
#85552128
törölt tag
"és abból, hogy a Kepler a TWIMTBP játékokban, miért van ennyire leszakadva a Maxwelltől."
Egyetlen egy, kiírom számmal is: 1 GW játékban volt jelentősen nagyobb különbség a Maxwell előnyére, ami inkább a fejlettebb hardverfelépítés miatt jött elő (48 / 56 ROP - 780Ti/970) azóta meg arra is jött driver.
AMD-nél meg szinte minden új játéknál probléma van GW nélkül is, az itteni Dragon Age: Inquisition topiban is kb. 4 ember jelezte, hogy rendszeres crashek vannak még most is AMD kártyával pedig az "saját" cím...Persze lehet ezen lovagolni, hogy mekkora átvágást csináltak és egy ideig pár FPS-sel kevesebb volt, csak nem az AMD-t kéne felhozni mint pozitív példa...
[ Szerkesztve ]
-
#85552128
törölt tag
válasz Yllgrim #6270 üzenetére
Csak ezen a fórumon 4 ember jelezte, hogy crashel a játék és érdekes módon mindnek AMD VGA-ja volt... Az EA fórum is tele van/volt vele.
Még a márciusi AMD driverben is benne volt mint "known issue" a Mantle crash, de ugyanúgy DX11 alatt is megvan/volt hónapokkal a megjelenés után.
A GTA V MSAA bugja meg 1 hónapja nincs javítva...[ Szerkesztve ]
-
#85552128
törölt tag
A 14/16nm-re váltás azért már önmagában elég kedvező dolog, de nem hinném, hogy az architektúrába mélyebben belenyúlnának. FIJI kb. feleennyi lenne méretre mint most, majd pakolgatnak bele pár magot és kész is az új csúcskártya, esetleg egy új GCN revízió, de több nem hiszem, hogy lenne. Eleve arra játszanak (legalábbis eddig), hogy a konzolok miatt előnyben lesznek.
[ Szerkesztve ]
-
#85552128
törölt tag
Ha helyben van minek rendelné ? Én is inkább elmennék érte mintsem egész nap a futárt várjam, ráadásul 1 nappal hamarabb is kézhez kapom.
Amúgy nem olyan ritka, még egy játékmegjelenéskor is szokott ilyen lenni - igen még Magyarországon is...A kép pedig kitűnően reprezentálja, hogy ismét jókora vásárlói hullámról csúszik le az AMD...
[ Szerkesztve ]
-
#85552128
törölt tag
Egy külföldi CF user véleménye: [link]
"Crossfire is that amazing service for loyal customers that pay AMD double, triple or even quadruple the amount of money compared to other customers and receive an awesome "F**K YOU" for game and driver support. Highly recommend."
A fölötte lévő sem rossz :
"What is this "crossfire profile" you speak of? I only know them out of myths. My second R9 290 is only installed for the cozy warm feeling in my flat."[ Szerkesztve ]
-
#85552128
törölt tag
Elvileg 79 az alap temperature limit vagy kitoltad ?
Nekem Dragon Age Inquistion alatt szokott felmenni a Strix 970 82-re, +50W-os Power Targettel és 86-os temp limittel (meg egy kis oc-val )
79 szerintem túl agresszív limit (jó egy ilyen giga g1 meg sem közelítené még a 70-et se, de akkor is).[ Szerkesztve ]
-
#85552128
törölt tag
Húzd ki a monitorkábelt és dugd vissza, ezzel én vissza tudtam hozni amikor előjött.
Elméletileg ki lehet kapcsolni, hogy ne menjen zerocore-ba csak be kell rakni egy "virtuális" monitort: Possible workaround to fix ZeroCore issues:
Bár így is sem garantált, hogy néha nem jön elő...
Azt nem írtad milyen csatlakozást használ a monitor, elméletileg csak DVI-vel probléma, HDMI/DP-re váltással alapból kikapcsol.[ Szerkesztve ]
-
#85552128
törölt tag
válasz mcwolf79 #6570 üzenetére
Azért nyomatják mert magasabb felbontáson jellemzően jobbak mint az nV kártyái.
Amúgy valakinek a 30 FPS is megfelel, (főleg, hogy konzolon még 1080p-n is annyi van) meg lényegében játékfüggő, van ami most is megy 50-60 FPS-el.Mondjuk az már nekem is sok volt, amikor a
7870370-et úgy mutatták be mint Future Proof 4K Ready a 4 GB GDDR5 miatt[ Szerkesztve ]
-
#85552128
törölt tag
Azért ezek az "egyéni" beállítások is megérnek egy misét...
Az ezeréves Skyrimben 8xMSAA valahol semmilyen, valahol meg FXAA/SMAA, BF4 - Mantle OFF (talán még mindig benne van a Frostbite-ban a VRAM memory leak ? ), Sniper - Mantle On.
Nyilván olyan helyzetekben tesztelte ahol a saját kártyájuk gyorsabb, majd a független oldalak eredményei alapján kell ítélkezni...
1080p és 1440p-re leszek kíváncsi.Amúgy "múltkor" még a Far Cry 4 nem Average 54 és 43 min volt ?
[ Szerkesztve ]
-
#85552128
törölt tag
Metro Last Lighttal tesztelik
"Average: Metro: Last Light at 1920x1080, representing a typical gaming power draw. Average of all readings (12 per second) while the benchmark was rendering (no title/loading screen). In order to heat up the card, we run the benchmark once without measuring power consumption."A GPU is nagyobb feszt kap mint egy ref 290X (1.14 V vs 1.21 V).
[ Szerkesztve ]
-
#85552128
törölt tag
válasz stratova #6618 üzenetére
A 6 Pin-ről is lelehet szívni 75W-nál többet, elméletileg akár 150W-ot is. Attól függ, hogy van a kártya konfigurálva.
Pl. az nV biosokban a PCIe és a két PSU sávhoz is külön be kell állítani mennyit vehet fel belőle, és ugye léteznek 6 pin -> 8 Pin adapterek is, mivel a +2pin csak gnd. Attól függ, hogy az AMD Bios hogy kezeli ezt és, hogy a táp képes e elég anyagot szolgáltatniSzerk.: Egyébként ja, elvileg a 3.0 magasabb fogyasztást enged.
[ Szerkesztve ]
-
-
#85552128
törölt tag
De mire az lenne addigra már lesz új, versenyképes (?) processzoruk vagyis akkor eljutunk oda, hogy soha nem is volt/lesz alternatíva
Nem véletlenül hagyták a fenébe az egészet pedig egy új chipsettel, 28nm-en azért nem lennének ezek rosszak még ma sem 1 GPU-s Konigokhoz, az APU refresh helyett több értelmét láttam volna egy ilyennek...[ Szerkesztve ]
-
#85552128
törölt tag
válasz CsonkaImo #6699 üzenetére
"Olyanok verik a falba a fejüket, akiket úgy sem érint a Quantum."
És ? Itt semmi köze ahhoz, hogy érdekel e valakit a termék vagy sem, nem is arról lett vélemény formálva...
Abu szerint pl. egy APU is elég bele
Egyébként a probléma csupán annyi, hogy akkor sem kéne reklámozni a konkurens termékét egy "saját" demó termékkel... Ezzel csak az amúgy sem túl erős CPU brandjüket csorbítják tovább.Bár ez a döntés is kitűnően reprezentálja, hogy utólag mit gondolnak a saját fejlesztésükről
[ Szerkesztve ]
-
#85552128
törölt tag
válasz CsonkaImo #6704 üzenetére
Tudom, ha valami AMD negatív dolog röppen fel akkor az ultimate kifogás amivel rögtön "lezárható" az a "nincs köze a topichoz".
Pedig azért ha nem is közvetlenül, de van...Hétvégén pl. az AMD találgatósban egész nap az nV/Gameworks/W3 fikázás ment, senki nem dobta fel, hogy nem oda tartozik...
[ Szerkesztve ]
-
#85552128
törölt tag
válasz stratova #6713 üzenetére
Te kb. mindig beírod még akkor is amikor határon folyik a beszélgetés, úgyhogy nem számollak bele
De amúgy te is este írtál be, délelőttől ez ment mert valaki felmerte hozni, hogy a pH-n állandóan az nV bajok vannak felnagyítva, az AMD-ről meg csak a pozitívumok jelennek meg...[ Szerkesztve ]
-
#85552128
törölt tag
válasz #Morcosmedve #6720 üzenetére
Mondjuk több értelme lett volna ha most csak bejelentik, jövőre pedig mondjuk egy Zen CPU-val és esetleg az új csúcskártyával demózzák.
Senki nem a technikai részt sérelmezi, hanem azt, hogy marketing szempontból a konkurens CPU használata baromság volt...
[ Szerkesztve ]
-
#85552128
törölt tag
válasz #Morcosmedve #6723 üzenetére
De itt nem a GPU-t nyomják, hanem a "Quantum" koncepcióját (AMD logóval a dobozon...) , ott pedig a CPU+GPU rész is egyaránt fontos. És CPU+GPU-t gyártó cégként azért ez így eléggé "érdekes" volt Olyan mintha a Sony Xbox One-on demózna egy PS4 exkluzív címet
[ Szerkesztve ]
-
-
#85552128
törölt tag
És megint visszatértünk a W3-hoz, ahhoz az egyetlen játékhoz amiben a Kepler pár napig/hétig gyengébben teljesíttett... Gratulálok, még sok ilyen szakmai elfogulatlan hsz-t tőled
Elhiszem, hogy addig kell ütni a vasat amíg meleg és még sokáig a köztudatban tartani, mert ritkán adatik ilyen lehetőségJut eszembe GTA V MSAA grafikai hiba javítva van már a GCN 1.0-s kártyákkal ? Csak 3 hónap telt el legutóbb mikor néztem (2 hónappal a megjelenés után) még mindig nem volt javítva...
[ Szerkesztve ]
-
#85552128
törölt tag
3 hónapja kísérleteznek ez ám a jó támogatás...
Persze most sem az AMD hibája.
Esetleg a többi kártyát is megnézhetnék mert ahúzott 290X390X még a 970-et sem éri el FHD-ban: [link]De ahogy látom a Project Carst sem sikerült javítani persze az meg a játék hibája: [link]
Ha már állandóan a Keplerrel példálóztok legalább ezeket is említsétek meg, mert AMD oldalon jó néhány ilyen esetet lehetne felmutatni egy új megjelenésnél - persze AMD-ék háza táján minden happy
Előre várom mi lesz majd a holnapi Arkham KNighttal, mert az nV driver a frissített SLI profillal kint van...
Komolyan mondom az amit itt egyes AMD "fanok" írnak egyik másik cégről csak abban segít, hogy ellenszenvem legyen az AMD iránt...[ Szerkesztve ]
-
#85552128
törölt tag
válasz Malibutomi #6771 üzenetére
Nem nagyon érdekelnek a "miértek" ugyanúgy mint ahogy jó néhány vásárlót sem....
Ismét egy olyan játék jön ami nV kártyával jobban fog futni pedig állítólag az AMD mögött fejlesztők és kiadók hadserege áll csatasorban (a valóságban meg egy Hardline-on kívül más még nem jött ami AMD-s és vége az év első felének...).Ja és nyilván nem most kaptak az AMD-sek sem hozzáférést a játékhoz, csak szokás szerint megkésve jön a support...
[ Szerkesztve ]
-
#85552128
törölt tag
válasz Malibutomi #6775 üzenetére
Örüljetek, hogy van a Gameworks mert ha nem lenne akkor nem tudnátok mire fogni, hogy szarul megy
Witcher 3-ban GW effektek nélkül is lassabb volt a 290X mint a 970 pedig ugye elvileg fordítva kéne lennie...(#6777) rocket: Most épp a low-levelen van a hangsúly, ha ott is lesz valami a driverrel (elvileg nem kéne) tényleg vicces lesz.
[ Szerkesztve ]
-
#85552128
törölt tag
válasz Malibutomi #6778 üzenetére
Az új driverrel 0.6 FPS a különbség a 290X javára a 780Ti-vel szemben, úgy hogy több ROP-ja van és a játék eléggé ROP intenzív.
Szerintem elég jó munkát végeztek, ennyi különbség a megjelenéskor is volt a két kártya között.[ Szerkesztve ]
-
#85552128
törölt tag
válasz Malibutomi #6782 üzenetére
Egyfolytában azt halljuk, hogy az AMD-nek mennyi fejlesztőt sikerült magához csábítania.
Teljesen jogos kérdés, hogy miért nem látjuk ennek eredményét, ha az nV jóval kevesebb kiadóval képes azt hozni, hogy szinte havonta jönnek az általuk támogatott AAA játékok....
A másik dolog megint ezen játékok természete, egy Dying Light, Far Cry 4, Mordor, Witcher, Batman nem összevethető egy olyan okádékkal mint a Hardline, vagy az egyelőre fenntartásokkal kezelt NFS... Az egyetlen valamire való AMD-s játék az éven talán a Battlefront lesz az év végén...[ Szerkesztve ]
-
#85552128
törölt tag
"Batmant is előrendelted már, biztos jókat lehet majd benne ugrálni a háztetőn, de csodálkoznék ha valakit 1-2 óránál tovább lekötne... "
Látom átjött a játék lényege (bár MP játékot SP-hez hasonlítani is érdekes), elárulom lefog pár milliót napokra/hetekre
A BF4-es példádat meg nem tudom minek hoztad fel, az évi játékfelhozatalról volt szó ami jelenleg a Hardline-on kívül semmi más, így meg elég nehéz rávenni az embert, hogy AMD VGA-t vegyen.[ Szerkesztve ]
-
#85552128
törölt tag
Pontosan, én a Dragon Age megjelenésekor vettem VGA-t, de eszembe sem jutott, hogy 290X legyen pedig AMD-s játék, de tudtam hogy csak a gond lenne belőle...
Utólag látva mennyit szívtak az AMD-sek vele jól döntöttem, teljesítmény szempontjából akkor kb. egyformán teljesítettek, de mostanra már szinte minden jobban fut 970-en mint 290X-en...[ Szerkesztve ]
-
#85552128
törölt tag
válasz Xmister #6800 üzenetére
Nálam 130 óra alatt egyszer sem omlott össze nV-n, pedig az 1. naptól játszottam.
Az egyik patch/DLC után voltak gondok, amire pár nap alatt jött driver update.
Mantle alatt meg hetekig "known issue" volt az AMD driverjegyzékben is, illetve többen úgy tudták megszüntetni, hogy downclockolták a GPU-t...[ Szerkesztve ]
-
#85552128
törölt tag
válasz Xmister #6804 üzenetére
Igen, alapproblémákra te felhozod, hogy nem volt 0day tökéletes az SLI tényleg egy súlycsoport...
Bezzeg amikor a 295X2-re hetekig nincs CF profil akkor jön a "problémás" a multi-gpu kifogás..."nVidia drivers tried: 345.20, 347.52, 347.88, 350.05 (the supposed DAI beta), 350.12. "
"to a BSOD or equivalent and a reboot of the system. "
Nem kell atomfizikusnak lenni, ahhoz hogy lássuk ez HW/Táp probléma, legrosszabb esetben is a driver crashelne nem a gép indulna újra...
[ Szerkesztve ]
-
#85552128
törölt tag
válasz Xmister #6811 üzenetére
Egy rossz Driver igen, de nem egy specifikus játékban, hanem mindenhol.
Éppen ezért amikor "whole computer freezing" meg "crashing to BSOD" az inkább hw issue Főleg ha az a játék jóval nagyobb terhelést rak a rendszerre mint az átlag és ezáltal minden komponens sokkal nagyobb stressznek van kitéve.
Kettő ember is írta, hogy a grafika csökkentése megoldotta a problémát ami ugye a terhelést is csökkenti, az utolsónál meg egy alaplapcsere segített, de volt aki a szellőzés ellenőrzését ajánlotta nem véletlenül...
Én végig tudtam vinni a játékot egyetlen crash nélkül kb. 130 órámba telt, úgy gondolom bőven volt ideje kijönni a driver bugnak Viszont igaz, hogy ebben a játékban maxra húzva akár +10°C-al melegebb a VGA ezért is írják sokan az R200-as usereknek, hogy vegyék lejjebb a GPU órajelet ha crasht tapasztalnak.[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.