Új hozzászólás Aktív témák
-
Anaren91
senior tag
válasz DonMaster #206 üzenetére
Tudom hogy volt már pár hozzaszolas a kommented után de azért ezen kicsit felakadt a szemem 😂 Én Münchenben lakom 1500 euró körül keresek de hidd el nem rohangalok gsynces monitor után tekintve hogy csak a kis lakasomra 800 eurót fizetek ki. Szal lehet hogy jobban keresünk itt kint de hidd el hogy itt sincs kolbaszbol a kerítés. Az más tészta hogy jó vegzettseggel meg nyelvtudassal ennek a többszörösét meg lehet keresni de nem olcsó itt se az élet. Főleg a szórakozás.
[ Szerkesztve ]
-
Yutani
nagyúr
válasz huskydog17 #398 üzenetére
Nem tudom, az megvolt-e, hogy a HBCC nem sebesség növeléső feature?
#tarcsad
-
irhejja
tag
Hát ez annyira nem lett nagy szám... nem is számítottam GTX 1080Ti verő megoldásra, de bíztam benne, hogy a GTX 1080-at stabilan verni fogja 5-10%-al valamennyire rosszabb fogyasztás mellett... de így
Radeonokról vagy akár Maxwell GeForce-okról megérheti erre váltani a FreeSync miatt, de Pascal GeForce-ról nem tudom
Most van egy FreeSync-es monitorom és egy GTX 1080-am agyalhatok azon, hogy melyiket cseréljem le
-
irhejja
tag
Engem a fogyasztás igazából nem érdekel, inkább a vele járó hő, illetve a hűtéssel járó hang az ami valamennyire zavar(hat).
Mondjuk nekem annó a kazánnak beállított R9 390X-el sem volt gondom, egy manuális ventiprofillal hűvös maradt és hangja sem volt zavaró (amúgy is headset-el játszom az esetek 90%-ban) annak meg ha jól emlékszem 275 watt körüli TDP-je volt, szóval a 295 nagyjából ugyanott van...
Mindenképp megvárom a AIB modelleket, referencia nálam sosem játszott és nem is fog.
-
BReal
addikt
Én is arra gondoltam. Nyilván ha nincs 100, 100+ W különbség, csak max a fele, akkor a hőtermelés is kisebb, halkabb a venti. A 390X kazánsága a 290-290X referenciából ivódhatott be az emberekbe. A probléma ezzel ott kezdődik, hogy pl. a 390-nek referencia változata nem is volt emlékeim szerint. De igaz, a 290 referenciája tragédia volt (valami 90 körüli hőfokok nagyon hangos zaj mellett), aztán a custom megoldások ugyanúgy 71-2 fokon tudták tartani bőven tolerálható hang mellett. Szóval ezek a tojást lehet rajta sütni, olyan a hangja mint egy szuperszonikus gépnek jelzők csak a 290-290X referenciára illettek. Csak sajnos ez beivódott bizonyos fejekbe, és ezt terjesztik...
[ Szerkesztve ]
-
DonMaster
addikt
válasz Anaren91 #401 üzenetére
m,ost ere csak anynit tudok mondani, hogy még itt 800euro/ho amiböl kikel vonni a lakást stb költségeket amivel örülsz ha marad 100eurod a hovégére.
addig te 1500eurobol oké 800-at lakásra a maradék 700 -bol még mindig többed marad hovégére és igy elöbb fogsz/lesz pénzed lehetöséged g-sync-es monitort venni mint aki -nek jo ha 100euro marad hovégén, Persze ttöl még nem kell kergetni de többpénzel több pénzed marad hiába a költségek magasabak ott mint itt, a monitor ára kb fix, és az is biztos hogy németországban nem 27%áfa van ami megincsak plusz 1 pont hogy ott menynivel olcsobb igy és többpénzel olcsobb monitort venni könyebb mint kevés pénzböl drága monitort.LG V30-> Iphone 12 Pro Max
-
FLATRONW
őstag
válasz huskydog17 #398 üzenetére
Elég érdekes, hogy pont annál a játéknál szerez előnyt. Kb. 1GB VRAM-ot használ a játék, nem hiszem hogy 2xSSAA mellett több kellene, mint 2 GB.
-
-Skylake-
addikt
Jolvan mar kezdtem megijedni, hogy kimarad a kibaszott Luxmark meres...
"Those who would shave the beard for pussy deserve neither the beard or the pussy." - Ben Franklin, probably
-
CalebForeva
újonc
Hát lehet ezt szépíteni, de:
Eddig akárhányszor vga-t vettem, mindig, kivétel nélkül megnéztem, hogy x összegért mit ajánl az nvidia és mit ajánl az amd...és x tesztet/specifikációt átrágva már az eszemet se tudom, hogy mikor volt utoljára amd kártyám.
Lehet arra hivatkozni, hogy "minek ennél jobb", de ez a leggyengébb érvelés, amit valaha hallottam. Ha én igenis akarok egy csúcskártyát és megvan rá a pénzem, akkor a 1080 Ti-nek abszolút nem ellenfele....a 1080-nak épphogy....DE még akkor se a vegát választanám, HA olcsóbb lenne, mint a 1080 (nem az...), mert a +100 watt az +100 watt.
Ennyire egyszerű, a számok magukért beszélnek. Aki ezek után azt mondja, hogy "márpedig jobb és a 100w nem is olyan sok meg ha visszahúzom a teljesítményt, akkor már nem is fogyaszt annyival többet (persze, pont azért veszek új csúcskártyát, hogy visszahúzzam)", az egészen egyszerűen elfogult. Pont.
-
PuMbA
titán
válasz CalebForeva #414 üzenetére
" olyan sok meg ha visszahúzom a teljesítményt, akkor már nem is fogyaszt annyival többet (persze, pont azért veszek új csúcskártyát, hogy visszahúzzam)", az egészen egyszerűen elfogult. Pont."
A lényeg pont az, hogy a teljesítmény nem csökken, csak az órajelt húzod vissza, ahogy a tesztekben láthatod. Egy ponton túl eléred az architektúra határát és nem számít az órajel Elfogultság nincs, de látszik, hogy az AMD elszámolta a kártyát. A potenciál látszik benne, ami most sajnos nem ér semmit és ez érthető is. Reméljük, hogy 1-2 év múlva majd kiadnak normálisabb Vega-kat is, illetve a Vega 56 emiatt jobb is, mint a 64.
[ Szerkesztve ]
-
nemlehet
őstag
Egyébként ezt sokszor eljátsza az AMD. Egekbe emeli a feszeket meeeert... Gondolom, hogy a legszarabbul sikerült darabok is stabilan menjenek.
Pl nekem az FX 8150-en jelentős undervolt mellett sikerült felhúzni a procit 4.5 GHz-re így a perf/watt aránya máris sokkal sokkal jobb. A barátom 8350-én is hasonló a helyzet. De nála a 290-et is sikerült megszelidíteni egy kis állítgatással, azóta nincsenek problémái a hűtéssel. (ott mondjuk OC nem volt, csak undervolt).Nem tudom, hogy ezzel gyári szinten lehet-e valamit kezdeni, de láthatóan van ezirányú tartalék a legtöbb cuccban. Az, hogy 1-2% plusszért bevállaljanak 50W+ fogyasztást az nagyon rossz döntés volt. Így is úgy is kikap, de legalább a pref/watt aránya is borzasztó.
Nokia 3310->3410->3100->6500 Slide(RiP Nokia)->Acer Liquid Metal ->Xiaomi Hongmi-> Xiaomi Redmi Note 3
-
stratova
veterán
válasz huskydog17 #398 üzenetére
Kár hogy csak 1080p felbontáson mérték le, megnéztem volna magasabbal is. Gondolom azért ezen látszik legjobban, mert a memóriamenedzsmentje érzékenyebb lehet ennek az engine-nek az alacsonyabb VRAM és rendszermemória-használatért cserébe. Ezt írja NV oldala róla:
Ordinarily, this level of detail would require gigabytes of system memory and GPU VRAM, but thanks to a highly efficient streaming system Last Light’s world uses less than 4GB of memory, and less than 2GB of VRAM, even at 2560x1440 with every setting enabled and maxed out. More impressive still is the fact that there are no streaming texture errors, or instances of textures visibly popping from low to high quality as the player moves through the world.A tévedés jogát fenntartom.
[ Szerkesztve ]
-
Raysen623
addikt
válasz CalebForeva #414 üzenetére
Ha valóban átrágtad volna a kártya specifikációkat beleértve a két GPU felépítése közötti különbségeket is, akkor nem írtad volna le azt amit írtál. Innentől kezdve kár bármi szót vitára fecsérelni. Pont.
A MÁV-nak öt ellensége van: a négy évszak, meg az utasok.
-
DonMaster
addikt
válasz CalebForeva #414 üzenetére
aki csucskarit akr venni az minimum 1db 1080ti-t de inkább 2 1080ti vagy inkább titan xp-t vesz vagy abbol is sli-t.
az amd nem az 1080ti- eleln inditotta a vega64-et bár továbbra is az itteni teszt nem az erösebb vega64-röl van hanem a közepes vega64-röl
és a közepes vega64 is simán egálnak mondhato az 1080-al szemben.
fogyasztás 100w-al több ez jo vicc, már bocs de aki 200e+ ért vesz vga-t az nem a havi + 600ft-nyi többlet áram számlán nem fog kiadkadni,meg a ha olcsob lenne mint az 1080 az is vicces mert ennél ez még csak a kezdöár + még szerény országunkban elsem érhetö , szoval ez az ár mizéria és még driver sincs rá majd 1-2honap mulva vissza kell erre térni, hogy megnézzük téynlegesen milyen jo is ,és hogy miyeln ára van akkro leeht téynelges átrágásrol beszélni, addig semmiféle átrágásrol enm lehet beszélni.
LG V30-> Iphone 12 Pro Max
-
BReal
addikt
válasz CalebForeva #414 üzenetére
Ha egyszer benne van több mód a kártyában, már miért ne lenne lényeg (már akinek számít), hogy jelentősen csökkent fogyasztással (33%-kal) a teljesítmény mindössze 4%-ot csökken?
Az már más kérdés, és jogosan tehető fel, hogy mi az ördögért nem ez lett az alap mód, és volna egy turbo1, turbo2 mód. De az, hogy egy beépített (amihez tényleg semmit nem kell állítanod, csak egy opciót átállítani) funkció használatára való hivatkozással valakit elfogultnak nevezel, az nonszensz.
[ Szerkesztve ]
-
nemlehet
őstag
válasz #74018560 #421 üzenetére
Mert egyrészt növeli az input lagot, másrészt csak akkor működik, ha legalább stabilan dupla (vagy több) FPS-ed van a monitor frissítéséhez képest.
Ügye a FastSync leegyszerűsítve annyit csinál, hogy szoftveresen kiválogatja egy bufferből azokat a frameket amik nem okoznak screen tearinget. Most hogy mennyi az input lag, vagy mennyire zavaró az más kérdés, de alapvetően ez egy rosszabb megoldás a problémára mint a FreeSync vagy a GSync.[ Szerkesztve ]
Nokia 3310->3410->3100->6500 Slide(RiP Nokia)->Acer Liquid Metal ->Xiaomi Hongmi-> Xiaomi Redmi Note 3
-
félisten
válasz #74018560 #421 üzenetére
Talán mert nagyjából egy halott koncepció?
DX12/Vulcan alatt már nem működik, DX10/11 alatt korlátozottan megy, ill. játéka válogatja."Csak egy dologtól félek. Ha meghalok, az asszony eladja a gépeimet annyiért, amennyit bevallottam neki." KERESEM: Lian Li PC-C50 .............................................. CSERÉLEM: RX6600 8GB ITX <-> RTX3050 8GB ITX
-
#74018560
törölt tag
válasz nemlehet #423 üzenetére
Nem kell dupla FPS, amugy is le szoktam limitelni a monitor frissitesere.
Imput lag: nem erezhetoAxBattler DX12-nek amugy sincs ertelme, mert lassabb es ugyanugy nez ki. Nemtom mi hasznal kizarolag Vulkant, nalam eddig minden tok sima ment FastSyncel.
Pug hozzateszem nem szoktam multizni, single playerben meg semmilyen hatranyt nem erzel, ha egyaltalan emberi erzekszervekkel merheto a kulonbseg.
Mert kb arrol van szo h 1 frame nem 16ms utan update-elodik, hanem 20ms... Na bumm, neten meg az internet kapcsolat ingadozik ennyit uh ezert se ertem miert kell ezen porogni[ Szerkesztve ]
-
félisten
válasz #74018560 #425 üzenetére
Látom sikerült elsiklanod a lényeg mellett: FastSync addig lesz elérhető, ameddig a programok régebbi DX-et is használnak; pár év múlva eltűnik a süllyesztőben.
"Csak egy dologtól félek. Ha meghalok, az asszony eladja a gépeimet annyiért, amennyit bevallottam neki." KERESEM: Lian Li PC-C50 .............................................. CSERÉLEM: RX6600 8GB ITX <-> RTX3050 8GB ITX
-
BReal
addikt
válasz #74018560 #425 üzenetére
1. A DX12 a legtöbb játékban nem lassít, hanem gyorsít. Legalábbis AMD kártyán. De NV-nél is bizonyos címekben gyorsulás van. Így azt kijelenteni, hogy lassabb, marhaság.
2. Csak Vulkan nincs semmiben a játékok közül, csak épp ha bekapcsolod az azt használó játékban, amit eleve azzal jelentettek be (Doom), akkor 30% gyorsulás van Vulkan alatt. 2 hónap múlva érkezik a Wolfenstein II-vel is, a Quake Championsben is lesz Vulkan. A Star Citizen is Vulkanra áll át DX12-ről. -
repvez
addikt
Tetszenek ezek a cikkek, csak azt nem értem, hogy a több oldalnyi techno maszlagot mindenki érti vagy csak én vagyok vele úgy, hogy olvasom, de lényegében halandó ember számára értelmezhetetlen?
Sokkal jobban tudnám értékelni ha ezeket amit leirt gyakorlati szempontból érthető formában lenne találva akár az előző generációhoz képest vagy az Nvidia párjával össze hasonlítva, hogy el tudja az ember dönteni, hogy melyik gyártó terméke lesz jobb a saját felhasználására.
Mert ahogy a cikkben le lett írva minden nagyon szép minden nagyon jó, csak az nem derül ki, hogy akkor az Nvidia párja mitől jobb egy elavultabb technikával bizonyos esetekben. Illetve miért nincs játék oldalról támogatva ezen új képességek már abban a ciklusban amikor a kártya megjelenik? Így egy csomó felhasznalatlan eroforras kárba vész illetve nem mutatkozik fejlődés a jatekokban. Vagy lobby érdekből nem az optimális megoldás lesz használva nehogy felboruljon a gazdasági viszony egy kis és egy nagyobb gyártó között ha épp a kisebbnek sikerülne alkotni valami nagyot. -
félisten
válasz #74018560 #428 üzenetére
Nincsen, de ebből a tendenciából nem tudom, ki jósolna hosszú távú támogatást?
"Csak egy dologtól félek. Ha meghalok, az asszony eladja a gépeimet annyiért, amennyit bevallottam neki." KERESEM: Lian Li PC-C50 .............................................. CSERÉLEM: RX6600 8GB ITX <-> RTX3050 8GB ITX
-
nagyúr
A technikai újdonságok simán átlapozhatóak, ha számodra érdektelenek.
A teszteredményekből pedig le tudod szűrni, hogy a számodra kedves játékokban vajon hogy teljesíthet az adott kártya, így melyik a jó választás a számodra.
Az ilyen tesztekkel annyi a probléma, hogy sosincs jó időben. Ha a kártya éppen kijön, akkor minél hamarabb legyen meg a teszt - sokszor még félkész driverekkel, a játékokhoz hiányzó optimalizációk nélkül, és így tovább. Mivel mindenki kíváncsi, mit tud a kártya...
Ha három-négy hónap késéssel lennének kint, akkor már a drivergondok általában nincsenek meg, viszont sokan már eldöntötték, hogy igazából melyik is a szimpatikus kártya a számukra.Abban egyetértek, hogy a "hétköznapi" tényezőket kellene tesztelni, de kétlem, hogy erre lenne erőforrása a PH!-nak - vagy úgy bármelyik profitorientált oldalnak. Az olyan apróságok, hogy milyenek a kártyában lévő hangkimenet tulajdonságai, vagy hogy a VRM-ek hűtése megfelelő-e az adott hűtéssel, már inkább az adott kártya fórumában derülnek ki - hónapokkal a megjelenés után...
[ Szerkesztve ]
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
#74018560
törölt tag
-
Yutani
nagyúr
válasz Malibutomi #433 üzenetére
Lehet, hogy gyorsít, de nem azért fejlesztették ki alapvetően. Ez egy ilyen pozitív side effect.
#tarcsad
-
FLATRONW
őstag
válasz #74018560 #435 üzenetére
A RoTR-ben az átlagon ront, de nincsenek hirtelen fps beesések.
Pl. néhány helyen a barlangokban DX11 alatt leesik az fps egyik pillanatról a másikra, azért mert pár mm-el máshova nézel, pedig a kirajzolandó kép lényegében nem változik semmit. Ilyennel DX12 alatt nem találkoztam. -
stratova
veterán
válasz Malibutomi #433 üzenetére
Legalább működik s bár átlagot nézve egy rossz szavam nem lehetne a pcgameshardware.de-re mert jó teszteket csinálnak, de itt örültem volna magasabb felbontásnak ÉS fogyasztásmérésnek, HBCC ON/OFF.
Apránként szépen bekapcsolnak minden képességet, a nagy kérdés az ki fogja ezeket le/újratesztelni és milyen részletességgel. Igaz amíg hiány van AMD-nek kb. mindegy, de ahogy lesz készlet már nagyon nem.
De ennek a bányász-patchnek nagyon nem örülök, nem segíti elő az árak realizálódását, amit most még a RAM áremelkedés is sújtani fog...[ Szerkesztve ]
-
#54625216
törölt tag
Van aki 11 db. 1080ti-t rak egy gépbe.
-
subaruwrc
félisten
ennyi selejt gpu van hogy tudnak a tesztelői csomagba is dobni egyet ?
-
Cathulhu
addikt
válasz subaruwrc #442 üzenetére
Az interposer marha serulekeny, meg azt sem ajanljak, hogy a pasztat megprobald kitakaritani a GPU es a HBM-ek kozul, szoval siman lehet nagy a selejtarany.
Ashy Slashy, hatchet and saw, Takes your head and skins you raw, Ashy Slashy, heaven and hell, Cuts out your tongue so you can't yell
-
repvez
addikt
Nem érdektelen csak épp nincs érthetően elmagyarazva. És igen erre értettem, hogy gyakorlati szempontból mit nyerünk az adott funkcióval.
A játék tesztek meg nem fedik le a teljes jatekstilus palettát. Nincs benne szimulátor, nagy területű Sok egységes fps Stb...
Nem mellékesen régebbi játékok vannak amik esetleg még hírből sem ismerik az új featuret, így nem is mutatkozhat meg annak jótékony hatása a régebbi rendszerrel kapcsolatban. Ezért írtam, hogy az új vgak megjelenése idején már kellene lennie olyan programnak ami támogatja és ki is használja az adott feature-t.Az sem derül ki, hogy ha a true audio használatánál nativan támogatja e a hdmi-n keresztül a tobbcsatornas hangkiadasat plusz kábelek nélkül. Mert ezt az alaplapi hangnal sem írjak le a tesztek során.