-
GAMEPOD.hu
Mielőtt hozzászólásban feltennéd a kérdésed olvasd el a Témaösszefoglalót, a Téma tudnivalókat vagy használd a keresőt.
Az esetek nagy többségében megtalálható a válasz!
Új hozzászólás Aktív témák
-
HSM
félisten
válasz Remus389 #15200 üzenetére
"De elég korszerűnek néz ki, lényeg hogy meg kell bízni a tervezőkben."
Na, ezt meghagyom másoknak.Nem, nem is ülök más autójába, vagy repülőjébe ha egy mód van rá.
Nem értek hozzá jobban, csak tudom, hogyan működnek a dolgok...(#15205) MasterMark: Ennyi.
(#15204) Remusz911: Ja, ezért van TDP limit égetve a kártyába. Húzhatod, csak menni nem fog.
[ Szerkesztve ]
-
HSM
félisten
válasz and1ao #15216 üzenetére
Igen ám, de ha a kettőt összeereszted, abból zárlat lesz. Jó esetben a 12V-ról csak a high side tölt. A low side-ot azért szokták nagyobbra méretezni, mert tipikusan tovább van nyitva. Egy biztos, így összeadni nem lehet őket.
(#15221) lacus83: A Furmark pont arra jó, hogy kiteszteld kontrollált körülmények között, hogy viselkedik szélsőséges terhelésen a kártya, és ne játék közben égjen le, amikor épp a menüben hagytad, míg kimentél főzni egy kv-t....
-
HSM
félisten
válasz távcsőves #15223 üzenetére
"4*6 A az nálam 24 Amper. Ez szorozva 12 volt feszültséggel az 288 Watt teljesítményt jelent. Elméletben."
Legjobb tudomásom szerint a leadott áramerősséget/feszültséget szokás nézni, az pedig 100A-es és 1V-os nagyságrend... Ez az áramerősség oszlik el a 4-5-6 fázisokra, melyik kártyára mennyit tettek. -
HSM
félisten
válasz and1ao #15242 üzenetére
Én tartom az álláspontom. A jobb 480-akon tisztességes VRM van, arra rá lehet engedni bátran egy normálisabb tuningot. De ami néhány szerencsétlen 470-re került... Hát, azzal én nem nagyon merészkednék a gyári BOOST-clock fölé. De lehet van típus, aminél még tuning nélkül is a fejem fognám.... Amiken a "tuning" abban merülne ki, hogy ha már a gyári órajelet se tartja, legalább ne gyulladjon ki, felhúzom a ventilátort kicsit...
[ Szerkesztve ]
-
HSM
félisten
válasz távcsőves #15244 üzenetére
Most linkeljem be újra a Guru3D tunig nélküli hőkamrás képeit pár 470-ről?
Persze, működési hőmérséklet a ~100 fok, de nekem ez messze több, mint amit elvárok egy kártyától. És itt még semmi tuning nem volt. 60-70 fok príma, 80 még elmegy, de alapon 100... Minden, csak nem igényes, se nem tisztességes. A szükséges minimum, egy dekával se több.
[ Szerkesztve ]
-
HSM
félisten
válasz távcsőves #15247 üzenetére
Én is arról (is). [link]
Képességei alapján tetszene az RX470, de nálam ahogy írod is, ezek miatt kiesett.
Mindegy, elvagyok a 290X-emmel, ahogy beállítottam a 70 fokot se nagyon éri el rajta a VRM...A második bekezdésedre... Nincs semmi baj az említett VGA VRM-jével, csak ki van centizve. Engem zavarna. Nekem az nem tartalék, ha alapból 90 fok felett megy nyitott tesztpadon...Persze, furmarkban tesztre volt kártyám, amit elengedtem egy nagyon rövid tesztre ~110 fokos VRM-ig, de hogy üzemszerűen járassam 100 körül, mint írtam, nekem nem opció. De nem vagyunk egyformák. El tudom fogadni, ha valakit ez nem zavar. Engem igencsak.
[ Szerkesztve ]
-
HSM
félisten
válasz ncc1701 #15249 üzenetére
Ez így kezdetnek marha jó, csak akkor a Guruék hogy mértek 93-at? Nem futtattad véletlen masszívan memória sávszélesség limites beállításokon?
Én anno csináltam képet egy szerintem korrekt Furmark futtatásról a 290X-emen. [link]
Mondjuk sanszosan a 2X-es MSAA már memória limites lenne az RX-eken, lehet azokon csak MSAA nélkül lesz értelme futatni, de nyilván ezt egy tulaj látja, mikor izzad a kártya, mikor nem. A 290X így éppen nem volt az ezeken az órajeleken.
Én csak egy érdeklődő vagyok, nem tudom saját kártyán kipróbálni.[ Szerkesztve ]
-
HSM
félisten
válasz lacus83 #15256 üzenetére
Igen, ha jól emlékszem, épp a 280X-eknél sütötte el és épp az MSI, hogy a forró VRM-et egy friss BIOS-al úgy "javították", hogy onnantól a valódinál kisebb értéket jelzett vissza a kártya.
Tehát a régi BIOS-al pontos volt (ahogy a legtöbb 280X), a frissítettel pedig a valóságosnál jóval alacsonyabb hőfokokat jelzett vissza a VRM.Egyet értek veled, sajnos a szoftveres mérés tévedhet, illetve megtéveszthető is. Itt tenném hozzá, hogy sajnos sokszor a kártyára szerelt backplate akadályozza meg a mérést, bár ez inkább a 480-asokon fordul elő.
Nálam itt is figyel a gép mellett a pontos fogyasztásmérő, és egy infrás hőmérő is. Egyszer rászántam a pénzt sokéve, nem bántam meg.
Természetesen a mezei user ahogy írod, "toszik" erre, tönkremegy a kártya, gariztatja. Csaképpen itt van a hoppá, hogy ha gariztatni kell, akár 2 hónapra is VGA nélkül maradhat az ember, és akkor addig lőttek a szórakozásnak.... Tehát adott esetben énszerintem csak jobban megéri kicsit foglalkozni vele (akár gondos kártyaválasztás, akár gondos tesztelés, beállítás, és esetleg finomhangolás kérdésével is), hogy a minimumra csökkenjen annak a valószínűsége, hogy garizás váljon szükségessé... Ja, igen, és a gariban a legszebb, hogy fogalmad sem lesz róla, mit kapsz vissza, mert mikor megvetted még elég valószínű, hogy új, de a csere után adhatnak akármit, javított, visszavitt használt kártyát is, és gondolom ennek sem kell sorolni a hátrányait....
[ Szerkesztve ]
-
HSM
félisten
Azt, hogy nem ugrál a kártya a base és boost clock-ja között használat közben.
(#15284) Lacccca87: Nincs szükségem "fizikai kontaktusba" kerülni a kártyával, hogy véleményem legyen róla.
Az érvek nélküli VRM-es véleményedre inkább nem mondanék semmit. Én írtam érveket, Te meg csak jól lehurrogtad a nagy semmivel. Majd ha hozol érveket, lesz miről beszélni.
-
HSM
félisten
válasz Lacccca87 #15292 üzenetére
Nem vagyok jós, csak több VGA-val volt már eddig közelebbi tapasztalatom, mint ahányat a legtöbben egyáltalán képről láttak. És itt nem 3 hónapokról beszélek (lol), hanem többéves üzemeltetésről.
Nem hitegetem magam. Egyszerűen a 4GB 470-ek jóval lassabbak, a 4GB 480 szó-szó, a 8GB 480-ak meg kb szint, de azok meg drágábbak, mint amit szánok rá. Úgyhogy maradok. Nem kell hitegessem magam semmivel, ezek tények, ki lettek mérve különböző oldalakon feketén fehéren. Ez pl. egy frisebb teszt: [link],
néhány %-ra vagyok a 390X-től, úgy nézd. Lehet, te szívesen fizetnél rá egy néhol még lassabb kártyáért vagy 20 000 forintot a meglévőre, de én nem.Nagyon vicces, hogy mérnökökre hivatkozol, amikor látványosan fogalmad sincs róla, hogyan dolgozik egy mérnök, vagy milyen problémákat és hogyan kell megoldania. Én tudom, mert annak tanulok.
De segítek... A mérnök elé odadobnak egy költségkeretet, ennyiből kell működő VGA-t csinálni. A mérnök meg elkezdi vakarni a fejét, mi mennyibe kerülne rá, és egy ilyen költséghatékony terméknél gyakran már olyan csipcsup dolgokat is le kell hagyjanak, mint az árnyékolás a DVI csatlakozóról, a második tartalék BIOS, a hűtés a memóriacsipekről... Nem azért, mert ezek nem jó és hasznos dolgok, hanem azért, mert másra fontosabb a keretet fordítani. Nyugodj bele, a 6 fázisból sem csak 4 lenne bekötve, ha nem egy ennyire szélsőségesen költséghatékonyra tervezett termékről lenne szó. Akkor nem kellett volna rá óriás hűtőborda, és mehetett volna rá a 480-as Gaming memóriahűtővel egybekötött platnija. Nem véletlen, hogy az alig nagyobb igényű 480-ak ennyivel komolyabbra vannak tervezve, főleg a drágábbak. Azok tisztességesen megépített cuccok. Bár ott is azért már jönnek a gagyibb, olcsóbb megoldások, ahogy látom... És itt az olcsóbb, gagyibb alatt nem rossz kártyát kell érteni, hanem kompromisszumosat. Ami nyilván mint a topikban látható, van, akinek tökéletesen megfelelő, de van aki ennél többre vágyik.
Nincsen baj sem az olcsóbb 470-ekkel, se a drágább 480-akkal, csak nem árt, ha az ember azért tisztában van vele, hogy a 480-asnál nem csak azért az alig +10% sebességért fizet... Valamint a drágább és olcsóbb 480-ak között sem feltétlen csak az a 10Mhz a különbség, ami a gyári tuningban van...
(#15297) lacus83: Én nem vágyom az összefoglalóba. De ahogy érzitek.
[ Szerkesztve ]
-
HSM
félisten
válasz távcsőves #15307 üzenetére
"A mérnők egy problémát kap, amit megold."
Erről beszéltem én is. Megoldja, mégpedig úgy, hogy hűtés nélkül hagyja a memóriákat, üresen két VRM fázis helyét, és nem rak rá dupla BIOS-t sem, csak egyet meg hasonlók. Mert olcsóbb az izzadó VRM-re egy nagyobb sünit tenni, mint bekötni a +2 fázist. Az esetlegesen képhibázó memóriát is jobb esetben nem veszi észre a user, vagy nem tudatosul benne, mi okozza, az emiatt esetleg cserélt kártyák úgy tűnik még mindig olcsóbbak lehetnek, mint tenni rájuk hűtőt.
A "költség optimalizálás" csak olyan pici részben szól bele, hogy a versenyképtelen árúra sikerült terméket (pontosabban ekkor még csak prototípust) épeszű gyártó piacra sem dobja.[ Szerkesztve ]
-
HSM
félisten
válasz távcsőves #15310 üzenetére
Egyébként mielőtt egymásnak estek, fontos lenne pár dolgot leszögezni... Pl. hogy használtok-e V-sync-et, vagy Chill-t, vagy bármi egyéb hasonló hókuszpókuszt, mert azoktól kapásból lehet két ugyanolyan kártya közül az egyik 20 fokkal is hidegebb....
Nálam alap, hogy a V-sync ki van kapcsolva, nálam ezért is esnek ki a gyengébb megvalósítású kártyák, mert a procim is erős, és rendesen meghajtásra kerülnek így....
-
HSM
félisten
Rég nem jártam erre, viszont azóta boldog tulajdonosa lettem egy Sapphire Rx580 8GB Nitro+ kártyának, gondoltam megosztom veletek azt a pár érdekességet, amit a WattMan/Trixx feszültség finomhangolás közben tapasztaltam. A kereső nem dobott ilyen témát, remélem nem feleslegesen írok.
Szóval, az érdekes működés. Én kétféle szoftverrel használom, a Trixx állítja nálam a ventilátor profilt, a WattMan pedig a feszültség és órajel lépcsőket. A kártya a gyári 1411Mhz-es OC BIOS-al üzemel.
Trixből beállítom az alap 1340Mhz órajelet az OC Nitro BIOS-al, 0mV offsettel.
Eredmény: 1150mV VID, hogy ebből mi marad, látható a GPU-Z képen.Oké, WattMan, -5% clock (az éppen 1340Mhz lesz), minden automata, eredmény 1131mV VID, hát ez érdekes.
Teszt tovább. Trixx, 1411Mhz, ez a gyári OC BIOS órajele, eredmény ugyanaz, mint korábban, 1150mV.
Következő teszt, marad az 1411Mhz, de most WattMan-ból. Eredmény 1200mV.
Ilyenkor ráadásul bármit írok be neki feszültségnek, nem érdekli, megy tovább 1200mV-on. Mint kiderült, meghülyül attól, hogy az egyik közbülső DPM módnak magasabbb a feszültsége, mint a felette lévőknek, ha azt a középső kakukktojás 1175mV-ot átírom egy megfelelően kicsi értékre, egyből visszakapom a csúszkát a felső órajelhez, és működik, mint a karikacsapás!
Mondjuk 1163mV-ra állítva 1169mV VID-et kap a kártya, ami megfelel a kerekítésnek kb.
Ami még érdekes, hogy amit beállítok a Trixx-ben offsetet, az utána "láthatatlanul" befolyásolja, amit a WattMan adni fog feszt. Pl. a Trixx-ben -48mV offsetet beállítva majd a WattMan-ból 1163mV-ra rakva az eredmény 1119mV VID, ami pont megfelel az 1169mV-48mV-nak.
-
HSM
félisten
-
HSM
félisten
válasz korcsi #27130 üzenetére
Hasznos, hogy az command line-ból is meghívható, rá fogok emiatt nézni, köszi a tippet!
Majd még az alap ventilátorvezérléssel próbálok még játszani, ha ez a tool le tudja 1ghz-re vinni a memória órajelet, és tudok egy használható ventilátor beállítást, akkor trixx se kéne...
Eddig ezt az 1ghz ram beállítást csak a trixx tudta, se AB, se WM, pedig nekem nagyon fontos, hogy két monitorral is passzív és hűvös maradjon a kártya.Nem mintha bármi bajom lenne a trixx-el, de minél kevesebb cucc fut, annál jobb, ez a filozófiám.
[ Szerkesztve ]
-
HSM
félisten
Ami még nagyon érdekes, hogy ha a Trixx-ből állítok be órajelet, akkor valami ilyesmi szerint kezd működni, mintha WattMan-t ezekre a manuális feszültségekre tenném:
Ez azért nagyon rossz, mert ha kifogy a kártya a TDP keretből, akkor sokkal durvábban kell visszavegye az órajelet, hiszen a köztes órajelek nem kapnak arányosan kisebb feszültséget. Ez a működés közben is érezhető, ha nincs 100%-ra kihajtva sem tud hatékonyan pihenni a kártya.
Ezzel szemben a WattMan automata feszültség nagyon szépen veszi vissza a feszültséget is, ha nincs szükség/lehetőség a maximális órajelre.
Plusz hogy legyen egy eredmény is a kártyával, kapott egy FireStrike-ot 1430/2100-on. [link]
-
HSM
félisten
-
HSM
félisten
válasz hackeeeee #27135 üzenetére
Nem, a Trixx offset minden feszt megteker, ha az OverdriveNTool-ból állítok feszt, az is megkapja az offset-et.
Próbáld ki, ha gondolod, GPU-Z link speed teszt render és közben játszol a beállításokkal.(#27136) korcsi: Lásd, mint nálam, ha nem korrigáltam a dolgokat. Ugyanakkor a trixx féle megoldás is csapnivaló, próbáld ki ha gondolod, rakd trixx-ből mondjuk 1200MHz-re a GPU-t, ugyanazt az 1,15V-ot kapja ilyenkor nálam, mint 1411Mhz-en... Ellenben WattMan auto feszültségnél ezt visszaveszi 0,95V-ra, elég durván nagy difi.
-
HSM
félisten
válasz Speed® #27146 üzenetére
Igen, ráadásul lehetőleg a pontos kártya típuson kívül a kártyán lévő memóriamárkának (Samsung, Hynix, Elpida, Micron a felhozatal, ha nem tévedek) is megfelelő gyári BIOS.
Egy lehetséges gyári-BIOS lelőhely: [link]
Ugyanitt BIOS-frissítő program is akad... [link]Amúgy nem feltétlen csak bánya lehet (bár több, mint valószínű), én pl. az RX560-amnál a gyári agyatlanul pici TDP limitet emeltem kicsit fel MOD-bios-al. Persze, eladáskor visszatettem rá a gyárit, nálam ez nagyon alap.
[ Szerkesztve ]
-
HSM
félisten
válasz 30z.Samu #27152 üzenetére
Vélhetőleg a gyári program csak ellenőrzi a verziószámot és el is köszön... Nem hiszem, hogy végigellenőrzi az egészet.
De igazából mint kérdés sem merül fel, hogy volt-e piszkálva a BIOS-a, hiszen a BIOS alá van írva, és a driver ezért nem hajlandó alapból kezelni, mert nem stimmel az aláírás a BIOS tartalmához. A driver ugyanis végigellenőrzi a hitelesítéshez.
[ Szerkesztve ]
-
HSM
félisten
válasz 30z.Samu #27154 üzenetére
Láttam a kérdést, de nem tudom neked ezt így 100%-ra megmondani, mivel nem látom pontosan milyen kártyád van, ugyanaz a G1 Gaming-e, amihez a BIOS van, nem írtál semmit a memória-fajtáról, stb...
Topikot se követtem az utóbbi években, volt-e valakinek azzal a konkrét BIOS-al/kártyával tapasztalata, stb...
Nekem a Sapphire RX580 8GB Nitro+-ra volt a gyárinak megfelelő BIOS itt fenn.[ Szerkesztve ]
-
HSM
félisten
válasz 30z.Samu #27156 üzenetére
Ez a WF2-es verzió, nem a G1 Gaming. Sajnos mivel a 480-asok terén hiányosak az ismereteim, nem tudom, ezek kompatibilisek-e egymással.
Esetleg a gyári BIOS-t megpróbálhatod rátenni WinFlash-al, az emlékeim szerint azonos verzióra is hajlandó "frissíteni". És ugye az csak a Hynix memóriásra jó, ahogy nézem a honlapot. -
HSM
félisten
Attól függ, mivel és milyen felbontáson, beállításokon játszol, de első hallásra igen kevéskének tűnik. A 3470 sem egy erőmű, de az szerintem már közelebb lehet az optimálishoz egy átlagos játék mellett.
A CPU annyiból kell a VGA alá, hogy a játék dolgait (fizika, animációk, AI, egyebek) az számolja, tehát hiába tudna mondjuk a VGA 100 képkockát másodpercenként kiszámolni, ha a CPU mondjuk csak 15 képkockára elegendő jelenetet tud prezentálni a VGA-nak számításra másodpercenként, abból akkor egy sokat pihenő VGA és 15 FPS lesz az eredmény. Ez persze fordítva is igaz, tökéletes kombináció nincs, mivel játékonként, de akár beállításonként is eltérő lehet a CPU és VGA erő igény.
[ Szerkesztve ]
-
HSM
félisten
válasz MasterMark #27166 üzenetére
Nekem meg még az RX560 alatt is régi húzott HEDT volt... [link]
Sőt, előtte a HD7770-em alatt is. [link]
Mondjuk azt hiszem, ezek már az ellenkező véglet.Mondjuk hogy ON is legyek, a jóféle RX580 mellett már egyáltalán nem tűnik ez a CPU sem túlzásnak, pl. BF4 alá, az RX560-nál még egyértelműen a GPU érződött szűknek FHD-n ha jól emlékszem, high beállításon, az 580 mellett kimaxolva már ezt nem merném kijelenteni.
Együtt a három eredmény: [link][ Szerkesztve ]
-
HSM
félisten
válasz stigma #27170 üzenetére
Szerintem itt amit mérlegelni kell, az leginkább a +4GB VRAM. Az azért igencsak jól jöhet, és akkor a különbség a vajsima játék szemben a be-bedadogóval. Számomra kicsit aggasztó volt az RX560-nál, hogy még az arra való beállítások is meg tudtak tölteni 3-3,5GB ramot a rajta lévő 4-ből.
De ugye ez is erősen játékfüggő, ha nem jászol olyannal, ami használna 4GB VRAM felett, akkor konkrétan semmi haszna a 8GB-os kártyának a 4GB-ossal szemben.
[ Szerkesztve ]
-
HSM
félisten
válasz Speed® #27175 üzenetére
Nem feltétlen van összefüggés.
Pl. a ram igény jelentős része nagyobb felbontású, vagy több textúra, ami a vizuális minőséghez sokat adhat, de különösebben nem ad hozzá a "GPU igényhez".
Persze, másik lehetséges mód a VRAM töltésre a magas felbontás + magas MSAA, az tényleg kifekteti az 580-ast hamar, amiatt tényleg nem kéne a 8GB-os.
Én amúgy azt tapasztalom (pl. az R9 290X után) így az RX580-al, hogy fura egy állatfajta, valahogy nem érződik olyan erősnek elsőre, mint amilyen, ami szerintem a kevés ROP hozománya, de egyébként ezt kímélve bőségesen van benne tartalék.
Ahogy az Rx560 is vígan ki tudott használni 3-3,5GB-nyi VRAM-ot, pedig fele ilyen erős sem volt.... Nálam pedig csak FHD van.[ Szerkesztve ]
-
HSM
félisten
válasz MasterMark #27178 üzenetére
Ez pont az, amit írtam... Törölni kell állandóan, és akadozni fog tőle a játék. Rossz esetben pedig bele se férsz, és akkor vagy nem ajánlja fel a túl magas grafikai opciókat, vagy beállítod, de valójában rosszabb minőségű textúrákkal fog menni, azt hiszem az id tech 5 motor pl. ezt csinálja. Esetleg opció, hogy állandóan cserélget mindent, de az képregény sebességhez vezet hamar, így ezt nem szokták már manapság alkalmazni.
Fórumtárs egyébként azt is írta, ez így egyből betöltés utáni kép, tehát itt még nem sok alkalma lett volna mit törölni.
[ Szerkesztve ]
-
HSM
félisten
válasz Cyberboy42 #27181 üzenetére
Meg nagyon más arányúak a kártyák, a 1060 jóval erősebb ROP oldalon, de a nyers számítási kapacitása jóval kevesebb. Tehát alapvetően más igényű motorok alatt máshogy fognak viselkedni.
-
HSM
félisten
Szerintem egyszerűen arról van szó, hogy a HBM-hez ami kell speciális tokozás, és plusz gyártási körök, nem feltétlenül teszik profitábilissé és nem feltétlenül teszik lehetővé a kellő volument kisebb tömegkártyákon, mint pl. az RX580 kategóriája.
Nekem egyébként nincs bajom a folyamatos fejlődéssel, teljesen meg vagyok elégedve az RX580-ammal is, picit mégfeljebb nyomott órajelekkel teljesen jó kis cucc ez a mai napig.
-
HSM
félisten
Elvileg olcsóbban is gyártható, ha 12nm-re váltanak, tehát idővel nem csak gyorsabb, de olcsóbb is lehet.
De mint írtam, már az 580-asom skálázódása is parádés, nagyon szép meredeken esik a fogyasztása, 1200Mhz körül már kb termeli az áramot, és könnyedén be lehet lőni bő 1400Mhz magasságába is 24/7-re a legkisebb erőlködés nélkül. A korai 480-asok esetén azért nem volt még ilyen szép a kép.Amúgy tartok tőle, hogy kisebbségben leszek a véleményemmel, de én a Vega64-t többre tartom, mint a kis RTX-et. Amire technikai szempontból nagyon kíváncsi leszek, az a Vega architektúra utóda, ha majd kijött.
[ Szerkesztve ]
-
HSM
félisten
Pont ez a baj az RTX-el is... Ahogy fest most a sugárkövetés gépigénye, a legnagyobb RTX-en kívül nem sok értelme van, ha valaki nem képregény sebességet akar szigorúan csak FHD-n...
Engem ezért sem hoz nagyon lázba ez a sugárkövetős móka, mert ebben a formában két pofára eszi meg a legdurvább VGA-kat is, miközben a képileg hozzáadott érték ezzel nem feltétlen áll arányban a hagyományos, jó megvalósításokkal szemben. -
HSM
félisten
Pedig ha megnézed az eddigi dolgokat, még a horrordrága 2080Ti RTX-et is rendesen megviseli a sugárkövetés, a kisebb verziókon ez hatványozottan igaz. Mindezt FHD-n.... Tehát ja, nyújt majd vmit a jövőben, vagy nem... Kb. mint a Vega-s NGG, ha jól emlékszem a nevére. Valószínűleg nem rossz koncepció, de senki nem fog külön motort írni egy VGA-ra....
Persze, hoztak a zöldek egy kis teljesítménynövekedést RT nélkül is, de könyörgöm, milyen áron? 250-300k-tól mennek a 2070-2080-ak.... Középkategóriában meg marad a 1060, aminél már eddig is jobb vételnek tartottam már a mostani Rx 580-akat is.... -
HSM
félisten
válasz Cyberboy42 #27227 üzenetére
A BIOS-a alapján elég picik a limitjei, 145W. Ehhez képest pl. a Nitro-m el van engedve 175W-ig is. Ez és a nem túl nagynak tűnő hűtő azért OC-nál, nagyobb terhelésen komoly fal lehet.
Ha ez nem gond, amúgy korrekten összerakott cuccnak tűnik. -
HSM
félisten
válasz Speed® #27230 üzenetére
No igen, erre céloztam, 80 fok, halkan, azért ennél vannak komolyabb teljesítményű darabok. Persze, nem rossz ez, szó se róla.
No, meg tényleg bírta az 1400Mhz-et, vagy csak beállítottad, de alatta ment? Nincs véletlen egy 3Dmark FS eredményed?
Nálam ugye ennyit ment 1430/2100-on: [link], de rendesen többet kért enni, mint 145W. -
HSM
félisten
válasz Speed® #27234 üzenetére
Sajnos ha nem a sima powertune tdp limit, hanem a BIOS "power limit" fogja meg (ami pl ezen a gigán ugyanúgy 145w), azt nem jelzi vissza az órajelen, csak throttlingolni kezd, amit csak onnan fogsz észrevenni, hogy nem annyi a pontszám/fps, mint lennie kéne...
Én se véletlen kérdezem, hogy oké, ez volt visszajelezve, de hogy megvolt-e az ennek megfelelő teljesítmény is, avagy sem. -
HSM
félisten
válasz Speed® #27237 üzenetére
Kérdés, egyáltalán az 1365-öt tartotta-e?
Nekem pl. az előző RX560-amon volt ez nagyon feltűnő, 6100 grafikus pontot adott a fs 1300 meg 1400Mhz-en is, és 6400 pont körül fal, akármit csináltam, csodálkoztam is, hogy ez egy kicsit túl könnyen ment és miért nincsenek meg a pontok. Picit emeltem a BIOS power limiteken, máris felszaladt 7000 pontra a pontszám, 1375mhz-en, és 1300-on is hirtelen meglett a 6700 pont [link]...
Nyilván a kártya étvágya is megjött szépen a gyári 50w körüli limithez képest, de bőven bírta, jóféle tápcsatlakozós példány volt. És ebben az a gonosz, hogy akármilyen órajel volt beállítva ő azt jelezte vissza minden monitorozós programban, hiába volt nyilvánvaló, hogy nem úgy volt[ Szerkesztve ]
-
HSM
félisten
válasz Speed® #27239 üzenetére
Nem akarok én belemagyarázni semmit. Tisztelettel megkérdeztem, van-e mérés, nincs. Engem emiatt túlzottan nem győztél meg, kb. kizártnak tartom, hogy az a hűtés tényleges 1500Mhz-et meghűtsön. Ez van, ha lesz ellenkező bizonyíték majd frissítem az álláspontom.
A 290-est még jó, hogy lehagyja (már ahol nem fut ROP limitbe csúnyán, pl. valley bench) ahhoz még az alapórajelének is elégnek kéne lennie.
-
HSM
félisten
válasz Speed® #27241 üzenetére
Vártam már ezt a fordulatot... És nem nyert. Volt ismerősi körben ilyen hűtésű kártya 570-es GPU-val, és nem volt valami meggyőző 1350-en sem.... Használható volt, mint írtam, okés, de OC potenciál az már nokedli se maradt benne. Ezért vagyok szkeptikus az 580 oc eredményekkel, vagyis azok hiánya miatt.
Biztos nem ment rosszul, azt látom én is, hogy ez a GPU pl. 1200mhz körül már kb. visszatermeli az áramot fogyasztás helyett, emiatt a gyengébb kivitelű kártyák is viszonylag szépen mennek, én csak azzal vagyok szkeptikus, hogy amit kiírt 1400 mhz az tényleg annyi volt-e a gyakorlatban, nem-e inkább egy olyan százassal kevesebb.[ Szerkesztve ]
-
HSM
félisten
válasz Speed® #27243 üzenetére
Ez teljesen rendben lévő eredmény, nálam is ennyit dob, viszont ez túlzottan nem dobta fel a GPU étvágyat nálam.
(#27244) Sethdobaloah: Neked nem szintén egy Nitro+-od van? [link]
Egyébként centire ugyanezeket dobja nálam is a Nitro+, én a sima, nem XTR Gigabyte Aorus 580-al voltam szkeptikus.Szóval, igazából én egy bátor (nem XTR) Giga 580 Aorus tulaj FireStrike eredményére lennék kíváncsi 1400Mhz magórajel felett, mennyi az annyi. Azon nem lepődök meg, hogy a Nitro szépen bírja a 175W-os limitjével, azzal vagyok szkeptikus a Giga mit alkot a 145W-os limitjéből. Mert az oké, nálam alulfeszelve 1350-en még nagyjából végig 150W alatt marad, de 1400-1450 körül ahol már rendesen kéri a feszültséget is, na ott már rendesen felszalad 160W fölé is.
(#27245) lovas001: Korrektül megy a Strix, nálam is hasonló 1430MHz magórajel körül a Nitro+.
[ Szerkesztve ]
-
HSM
félisten
válasz Daffni2 #27248 üzenetére
Mondjuk azt tegyük hozzá, hogy nem írtad, milyen driver/3Dmark, mert a friss driverrel, 1365/2000Mhz-en nálam azért néhány százzal több pontot ad, mint a régi alap eredményem, ami még a régebbi szoftverekkel, driverrel készült.
[link]
Ez a 18.9.3-as driver csomaggal készült.[ Szerkesztve ]
-
HSM
félisten
válasz Daffni2 #27251 üzenetére
(#27252) amdboy: Próbáltál neki kis plusz TDP-t adni?
A képméret/színek témára megoldás lehet a Radeon Settingsben a monitornál van HDMI méretezés, ha nem tévedek, az nem mindig 100% alapból, illetve valahol kéne lennie egy színtartományos beállításnak, AMD-n a teljes színtartományt átviszi alapból, Nv-nél viszont a korlátozott az alapértelmezett. -
HSM
félisten
válasz amdboy #27258 üzenetére
Sajnos ezt passzolom, mivel mindkét monitorom DP-os, és fogalmam sincs, az új Radeon szoftverben ezek a beállítások pontosan hol vannak.
HDMI-s TV-s fórumtársak remélhetőleg ha erre járnak majd segítenek.A TDP-s beállítás a Gaming, globális beállítások/ globális WattMan menüben van, alul power limit %. Csak óvatosan kell húzgálni, a kártya hűtésének határain belül maradva, nehogy megsüljön..
Szerk: Az egyikre találtam linket: [link]
Szerk.2.: Ez meg a másik: [link], limited, vagy Full RGB mód.[ Szerkesztve ]
-
HSM
félisten
Ha elégedett vagy vele, szerintem csak vesztenivalód van. Mondom ezt úgy, hogy amúgy Rx580 párti vagyok ebben a kérdésben, és a Nitro 580-ammal is nagyon elégedett vagyok.
(#27262) david_97: Nagyon másmilyen a két kártya. ROP és azt hiszem frontend terén is jóval erősebb a 1060, plusz driveresen is tud pár okos dolgot DX11 alatt, ami adhat neki komoly előnyt rajzolási parancs intenzív szituációkban. Ugyanakkor az 580 jóval több nyers számítási teljesítményt kínál, 6 Tflops felett 4,5-el szemben, plusz az architektúra is tud pár okos trükköt, amit a 1060 nem, és a +2GB ram is jól jöhet bizonyos címekben.
(#27261) amdboy: Remélem beválnak majd a tippjeim.
[ Szerkesztve ]
Új hozzászólás Aktív témák
● Hozzászólás előtt olvasd el!
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen