-
GAMEPOD.hu
nVidia GeForce GTX 970 / 980 (GM204)
Új hozzászólás Aktív témák
-
bombibmw
veterán
Ha van játék,ami használja 100%-ban az Sli-t,akkor az az Assetto Corsa.
Szinte kifacsarja a gépet,annak minden összetevőjét.
Jó,megvan fullon a 100fps,de közben izzad a gép,mert olyan effektek vannak bekapcsolva,aminek talán semmi értelme,de mégis van.
Stabilitástesztre különösen ajánlott.
Holnap lövök egy videót,ha lesz időm.[ Szerkesztve ]
-
Anfänger
őstag
válasz ALLAT001 #12015 üzenetére
Helyesbítek,teszprogramban 49 fokos a vga leszabályozott ventikkel.
Bf4-ben 45 fokot mutat max hömérsékletet most 4 óra gameplay után.
4 °C nem nagy különbség,de a félreértések elkerülése végett írom,hátha valaki venni szeretne ilyen hütöt .Nichts ist unmöglich? Dann schlag mal ne Drehtür zu! :)
-
nagy.matyika
aktív tag
válasz SSJPeter #12034 üzenetére
Ennyi tuningtól nem lehet baja és látszólag tünetmentes is. Valami kompatibilitási dologgal vívtam eddig közelharcot. Egy régebbi fajta fujitsu monitorom van, amit r9 270x el boldogan használtam egy évig. Ezzel meg első perctől kezdve szívtam, hogy amikor pl játékba belépve vagy kilépve kap egy fekete képernyőt, fogta és lekapcsolt a monitor, majd vissza. Gondolná bárki is, hogy a HDMI kábeles használat okozta?! DVI-al tökéletes megy. Öcsém ugyan ilyen monitorja HDMI-n ugyan ezt produkálja más géppel. Jó szopatós a szitu.
A zöld pöttyökre meg nem tudok érdemben mit nyilatkozni. Kétszer omlott össze a kép tipikus memória hibásan húzás közbeni tesztnél, utána meg egyszer, üresjáraton, amikor már alapjelen ketyegett, lehet még melege volt és nem volt stabil. Azóta békén is hagytam, de pl egyszer láttam olyat, hogy metro áruház oldalán a sötétkékben futott pár zöld pixel? Mi a fene. Mindegy, próbálgatom, nem hiszem, hogy ettől az óvatos tuningtól reccsent meg, mert gyakorlatilag a fagyást leszámítva képhiba mentesen futott minden test és játék számtalanszor. Ma is ment a Unity bőven és semmi hiba. Az is lehet, hogy most utoljára már csak a monitorom szopatott HDMI-n, hogy kontaktos lett valami. Minden esetre TV-n se láttam ilyen képhibát. Figyelgetem a dolgokat és max gariztatom, nem hiszem, hogy emiatt ugrana bármi is.
Minden esetre megy be az extra hűtés, mert a Grand Kama majdnem hozzá is ér a Backplate-hez. Lehet, hogy pont ezért van gyanúsan melege a memóriáknak.
[ Szerkesztve ]
Intel I7 4770K, Gigabyte Z87-HD3, KLEVV Urbane 2400 MHz 2*8 GB, Gigabyte GTX 970 g1 Gaming, OCZ Agility 3, WD Green 1 TB, Scythe Grand Kama Cross 2, Noiseblocker Eloop stb.
-
SSJPeter
őstag
válasz nagy.matyika #12057 üzenetére
Hát én is remélem, hogy nem lett baja a kártyádnak...
Let’s go Brandon!
-
nagy.matyika
aktív tag
Szerintem nem lett Ettől függetlenül milyen rohadt bosszantó tud lenni ez a sok apróság, ami esetleges hardver összeférhetetlenség esetén megmutatkozik és milyen bosszantó kiszűrni, hogy vajon mi lehet a gond. Vicc érted az szívat, hogy HDMI-t használok egy HDMI-s monitornál. Haha
Intel I7 4770K, Gigabyte Z87-HD3, KLEVV Urbane 2400 MHz 2*8 GB, Gigabyte GTX 970 g1 Gaming, OCZ Agility 3, WD Green 1 TB, Scythe Grand Kama Cross 2, Noiseblocker Eloop stb.
-
-
ÁdiBá
addikt
A Dx12 van valamilyen, bármilyen tesztprogramja amit ellehet érni Windows 8(.1) operációs rendszeren illetve le lehet futtatni egy maxwell GTX970/980 videokártyával?
Olvastam róla hogy már van ilyen program, csak abban nem voltam, vagyok biztos hogy ez a szoftver nagyközönség előtt is elérhető - e már.ÁdiBá
-
Abu85
HÁZIGAZDA
Nincs. Még a publikus Windows 10-ben sincs benne a DirectX 12.
A Microsofttól lehet kérni hozzá SDK-t, amit a Windows 10-re lehet telepíteni. Utána a gyártóktól kell hozzá kérni drivert, mert a mostaniak nem kompatibilisek azzal a környezettel, amit az MS Update az SDK mellett fel fog rakni a Windows 10-re.
Windows 7-8.1 operációs rendszerrel a DirectX 12 nem működik, maximum akkor lesz lehetséges, ha valaki készít hozzá egy Mantle wrappert. Tudtommal ilyen fejlesztésbe még senki sem kezdett.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
blu79
addikt
hát , ha nem fogják támogatni a DX12 -t akkor mért írták rá a dobozra, meg mért így reklámozták ? én éppen ezért vettem 970 -et mert támogatni fogja a DX 12 -t, mikor megjelentek a hírek a DX 12 -ről már akkor olvastam , hogy még a régebbi videókártyák is támogatni fogják....és a win 8.1 is támogatni fogja....csak a win 7 nem fogja támogatni meg a későbbiek ....
¯\_(ツ)_/¯ = G-sync 165Hz ips 1440p « Ahogy a programozók készítik programjaikat, az első jöttment harkály lerombolhatná az egész emberi civilizációt »
-
Abu85
HÁZIGAZDA
válasz szasanyi #12066 üzenetére
A DX12 a DX11-nél nem követel többet. Minden extra opcionális. Itt vannak a véglegesített részek, amelyekről tudni lehet, hogy melyik architektúra mit támogat:
Feature_level_11_1:
NV Fermi/Kepler/GM107-es Maxwell: nincs
A többi hardvernél megoldottBinding és Tiled Resources szint:
NV Fermi/Kepler/GM107-es Maxwell: TIER1 és TIER1
NV GM204-es Maxwell: TIER2 és TIER3
AMD GCN: TIER3 és TIER 3
Xbox One: TIER3 és TIER3 + mindenféle egyszerűsítő extra
Intel/Qualcomm megoldások TIER1-esek mindenbőlSAD4 utasítás és fedettségminta támogatása:
NV Fermi/Kepler: SAD4 nincs, fedettségminta van
NV GM107/GM204-es Maxwell: nincs
AMD GCN/Xbox One: mindkettő támogatott
Intel/Qualcomm egyiket sem támogatjaMegosztott virtuális memória:
AMD Kaveri, Intel Broadwell, Xbox One támogatjaMás még nem derült ki.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Mint írtam régebben a Microsoft nem foglalkozik már azzal, hogy ki mit támogat az API-ból. Megkövetelnek egy minimumot, ami lényegében megfelel a DX11 szintjének, és utána minden opcionális. A DX12 úgy van felépítve, hogy automatikusan kikapcsolja azokat a részeket a kódban, amelyek a létrehozott erőforrásszintekkel nem kompatibilisek. Tehát bármilyen DX12 driverrel rendelkező hardveren futni fog a DX12 játék, csak nem biztos, hogy az összes effekt aktív lesz.
Egyelőre úgy néz ki, hogy Windows 10 only lesz a DX12.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
szasanyi
félisten
Sajnos az én számomra nem mindig nyilvánvaló annak a szakzsargonnak és/vagy szakkifejezéseknek a jelentése amiket használsz. Tehát akkor a jelen helyzet szerint a Maxwell minden DX12 játékot képes lesz futtatni, de valószínileg nem fog tudni minden vizuális feature-t megjeleníteni az architektúra sajátosságai / hiányosságai miatt. Jól értem? Ha nem, akkor egyszerű magyar nyelvre fordítsd már le az előzőekben általad leírtakat lécci!
-
helkis
addikt
válasz szasanyi #12070 üzenetére
jól érted, a dobozokra kár volt ráírni nv oldalon, hogy dx12..
ennyi erővel akkor egy GT430-as is dx12-es kártya..ill. egy kérdés ABU-hoz: ha pl TIER3-as a hardver, azt programból/driverből lehet butítani kisebbre (ill. ezzel sebességnövekedés érhető-e el)? vagy csak abban a path-ban fog menni, amilyen vas van alatta?
[ Szerkesztve ]
"Egyedi vagy és megismételhetetlen! Csakúgy, mint bárki más!!!'" - 3Dmarkillers - hwbot.org
-
#16729600
törölt tag
Mire kijön a piacra egy épkézláb DX12 es játék,addigra a mai DVGA generációt réges rég az ipartörténeti múzeumokban fogják mutogatni
-
keIdor
titán
Csúszik a csíkszélesség váltás az AMD-nél és az Nvidiánál.
Akkor 28nm-es lesz a GM200. 2016 végére én már az első Volta-t várom...¡GLORIA A LAS PLAGAS!
-
daveoff
veterán
-
keIdor
titán
-
szasanyi
félisten
válasz keIdor #12078 üzenetére
Ez szerintem is biztos. Máskülönben ki / miért vennék az userek az egyre jobb és egyre drágább dVGA-kat? Viszont az is biztos, hogy a jelenlegi grafikai színvonal 1-2 évre biztosan elég lenne fejlesztés és/vagy tupírozás nélkül is, inkább a valós problémákra kéne nagyon hangsúlyt fektetni (konkrétan optimalizálás).
-
Milka 78
nagyúr
válasz Televan74 #12075 üzenetére
Szerintem ne kapkodj.Nekem is itt van a zsebembe a 980-as ára égeti is a zsebemet,de csak azért is kivárok.Eleve mindenhova elég a mostan karim és ki tudja mit hoz a jövő.Lehet májusig még hozzá tudok tenni és 390x vs 980ti lessz belőle.Nálam bonyolítja a helyzetet,hogy a Hybrid-nek is rá kell mennie (980-ra talán rá is megy).
-
daveoff
veterán
válasz keIdor #12084 üzenetére
Tiszta sor, valószínűleg így lesz, vagyis biztos. De eddig nem erről pofáztak, végül is nekem aztán mindegy. Viszont a Mantle már egy éve kint van a piacon, és még semmilyen új effektet nem tudtak felmutatni, így a DX12-től se várok elsőre semmi többet. Aztán lehet, hogy a DX12-őt már úgy adják ki, hogy valami hasznát is látjuk.
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
keIdor
titán
válasz daveoff #12086 üzenetére
Biztosan jobban terjed majd a DX12, mert emellett ott áll a Microsoft és az nVidia is az AMD-vel együtt, a Mantle mellett meg csak az AMD, egyébként szerintem a Mantle meg is marad mesének a jövőben is.
Arra volt jó, hogy a Microsoft bejelentse a DX12-t, másra nem.¡GLORIA A LAS PLAGAS!
-
ffodi
veterán
válasz nagy.matyika #12027 üzenetére
A Samsung és Hynix chipek, melyeket ezekre a kártyákra szerelnek alapvetően ugyan azzal a specifikációval rendelkeznek, vagyis 7 GHz effektív órajel 1,5 V-on. Vagyis ha ennyit nem megy a cucc (tehát alapon), akkor ott baj van. A tapasztalat pedig azt mutatja, hogy a Samsung-okat jobban lehet tuningolni. A Hynix-oknak tipikusan 7800-7900 MHz környékén végük van (alapfeszen), még a Samsungok szaladnak simán 8000 MHz felett, az enyémek pl. akár 8500 MHz-en is 1,5 V-on.
A tuning nem jár garivesztéssel, ha nincs külsérelmi nyoma, pl égésnyom, forrasztásnyom, a dolgok következtében szétszedés nyoma etc..... Habár a te garid most lehet ugrott, mert rákérdeztél.
"A minőséget régen gyártották, ma már csak biztosítják." Magassy I. axiómája
-
Abu85
HÁZIGAZDA
válasz szasanyi #12070 üzenetére
Lényegében azt jelenti, hogy minden DX12-es driverrel rendelkező hardver képes DX12-es játékot futtatni. Ha egy cucchoz lesz DX12-es driver, akármilyen, akkor arra mehet a DX12 plecsni a dobozra. Visszamenőlegesen ez igaz számos több éve megjelent VGA-ra is. Elméletben természetesen ott van, hogy pár hardver vizuálisan többre lesz képes.
(#12071) Televan: Van. Számos játéknak nincs végleges neve, de azt tudni, hogy a Nitrous és UE4 motorral érkező Stardock játékok közül az összes támogat DX12-t. A Star Control és az Offworld Trading Company tuti támogatja.
(#12072) helkis: A program az indításkor létrehozza az erőforrást és ellenőrzi, hogy mire képes. Mindig a legmagasabb elérhető szint lesz beállítva. A beállítások menübe lehet rakni kikapcsolásra vonatkozó opciót.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagy.matyika
aktív tag
Nekem ennyit nem ment sajnos, viszont alapértékeken szépen ketyeg. Örülök is, hogy vége a kálváriának! Ezek után mégegyszer biztos, hogy nem állok neki tuningolni. Amúgy nekem a memória alap feszen 7600 nál fosta el magát kétszer is szóval nem tud annyit, mint nektek.
Nem hinném, hogy ugrott. Rákérdeztem ugyan, de nem úgy, hogy nekem nem megy annyit, mint a Samsungok tuningolva, hanem, hogyha tuningolnám, nem menne annyit úgy hallottam Erre közölték, hogy a tuning garivesztést okoz. Szóval elvileg én csak kedvesen érdeklődtem Betettem most a gépház oldalára egy ventit. Szépen keringeti a levegőt így játék közben sem megy 60 fok fölé a kártya. Csak az lehet a magyarázat a tüneteimre, hogy a proci hűtő méretéből fakadóan nem tudott a kártya hátulja megfelelően hűlni. Most már szerintem minden ok.
Valaki azt mondja meg nekem, hogy hogy a fenébe tudom megerőszakolni, hogyha a DVI-on megy a monitor és HDMI-n a TV, akkor ne a TV legyen az elsődleges képernyő. Az a vicc, hogy mindenhol a monitor az elsődleges, mégis hogyha windows-ba képernyőtükrözés után az elsőre kattintok, akkor utána csak a TV-n megy a kép.
Intel I7 4770K, Gigabyte Z87-HD3, KLEVV Urbane 2400 MHz 2*8 GB, Gigabyte GTX 970 g1 Gaming, OCZ Agility 3, WD Green 1 TB, Scythe Grand Kama Cross 2, Noiseblocker Eloop stb.
-
Montesantos
senior tag
válasz nagy.matyika #12090 üzenetére
Képernyő felbontás.... kiválasztod a megfelelő megjelenítőt..... alul: legyen ez az elsődleges megjelenítő pipa be
[ Szerkesztve ]
Gabi
-
smallmer
őstag
Sziasztok,
gtx970 ből melyik a legjobb verzió? mindenki a strixet dícséri, ti mit tudtok mondani ezzel kapcsolatban?
-
nagy.matyika
aktív tag
válasz Montesantos #12091 üzenetére
Sajnos így sem veszi be normálisan
Intel I7 4770K, Gigabyte Z87-HD3, KLEVV Urbane 2400 MHz 2*8 GB, Gigabyte GTX 970 g1 Gaming, OCZ Agility 3, WD Green 1 TB, Scythe Grand Kama Cross 2, Noiseblocker Eloop stb.
-
Abu85
HÁZIGAZDA
válasz daveoff #12076 üzenetére
Még az elején vagyunk a váltásnak, de az új API-kkal sokkal másabb motorok érkeznek. Olyasmi megoldások, ahol igazából nem mindenféle trükkökkel próbáljuk javítani a grafikát. Ezek azért terjedtek el ma, mert nincs több felhasználható batch teljesítmény. Az új API-kkal viszont tízszer több rajzolási parancs is megoldható, így nem azon kell gondolkodni, hogy xy valamit hogyan rajzoljuk ki úgy, hogy az ne igényeljen rajzolási parancsot. Egyszerűen csak kirajzoljuk és kész. Sokkal közelebb kerülünk azokhoz a modellekhez, amit ma a filmes CGI effekteknél használnak.
Ez hozni fog olyan újításokat, mint például a filmes motion blur. Tehát már önmagában ebből a szemléletváltásból kapsz új effekteket. És akkor még ott az asszinkron compute is, nem beszélve a számtalan kutatási lehetőségről.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
ffodi
veterán
válasz nagy.matyika #12090 üzenetére
Hülye kérdés, de melyik DVI-on van a monitor?
"A minőséget régen gyártották, ma már csak biztosítják." Magassy I. axiómája
-
daveoff
veterán
Értem én ezt, de most írtad le, hogy hozni fog újításokat, de nem azonnal. Így szerintem nekünk, akik félévente, évente cserélgetjük a kártyáinkat tök mindegy, hogy a GM204 jelenleg mit támogat, és mit nem abból, ami még nincs is. Én csak erre akartam kilyukadni.
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
Abu85
HÁZIGAZDA
válasz daveoff #12086 üzenetére
Az új effektek nem feltétlenül lesznek csak az új API-kon aktiválhatók. De itt az a lényeg, hogy ha bekapcsolod ezeket, akkor csak a low-level rendszereken fognak futni értékelhető sebességgel. Próbáld ki a StarSwarm tesztprogramot a RTS scenarioban, extreme presettel. A Steamről letölthető. Ott a felső sarokban ki-be lehet kapcsolni a temporal AA-t. Nézd meg, hogy milyen hatása van az fps-re. Fut DX11-en csak nincs értelme, mert sebességed nem lesz. Ezzel szemben low-level API-val szinte lényegtelen, hogy aktív vagy inaktív az az effekt, a sebesség nem igazán változik.
A Civilization BE használ egy specifikus AA-t az AMD API-jában. Ez jobb minőséget ad annál az AA-nál, ami DX11 alatt érhető el. Első körben szerintem az AA gondokat fogják előtérbe helyezni a fejlesztők az új API-kkal.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
- EVGA GeForce GTX 1080 Ti FTW3 GAMING 11GB GDDR5X 352bit (11G-P4-6696-KR) Videokártya
- PowerColor RX 6800 XT Red Dragon 16GB GDDR6 256bit - Számla + Garancia, Ár alatt! BeszámítOK!
- MSI GTX 1660 ti armor oc
- ELADÓ 32 DB Nvidia RTX 3060 Ti és 8 DB Zotac Gaming Geforce RTX 3080 Trinity / KOMPLETT BÁNYAGÉP
- Rog 4070 Ti //KERESEM!!//