Hirdetés
- Rövid teaser trailert kapott a Splinter Cell animációs sorozat
- No More Room In Hell 2 - Jövő hónapban indul a PC-s korai hozzáférés
- Friss előzetest kapott a Devil May Cry anime sorozat
- Premier dátumot kapott a Two Point Museum
- Free Play Days 2024 - 38. hét: Nem kevesebb mint tíz játékot próbálhatunk ki
-
GAMEPOD.hu
nVidia GeForce GTX 670 / 680 / 760 / 770 (GK104) téma összefoglaló
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
A Tomb Raider a 732.1-es patch óta megint jobban fut Radeonon. Olyan jó 20%-ot dobott, miközben a GeForce-on lassított, mert végre megjelennek a korábban kimaradt effektek. Most ez az állapot úgy néz ki, hogy normalizálódik. Úgy néz ki, hogy a hibák is eltűntek. Egyedül a gyári OC-s GeForce kártyák instabilitása maradt meg.
A Bioshock Infinite többször is 20 fps alá dobja a minimumot még a Titanon is. Egy HD 7950-en 30 fps fölött marad mindig. A patch sem javított. Állítólag a motor paraméterezése Radeonra van szabva, így nehéz lesz megoldást találni a droppokra.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #13982 üzenetére
Nyilván nem Rory két szép szeméért paraméterezték úgy a motort, hogy a Radeonnak kedvezzen. Ezt patch-csel lehetne korrigálni. Már eleve az ini beállítások eléggé elnagyoltak a többi UE3 játékhoz képest.
Szerk.: Simán ki lehet javítani, csak akarat kérdése az egész. Szerintem a driverből is lehet neki hegeszteni valamit. Egy próbát mindenképp megér az NV-nek. Más pufferkonfigurációkat érdemes kipróbálni. Az átlag sebesség valszeg esni fog, de a dropok csökkennek, vagy akár meg is szűnhetnek.
De valóban ez a fejlesztő felelőssége, hogy ilyen megtörténhet.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz tapppeeer #13984 üzenetére
Én jó hardver párti vagyok. Ha az AMD jobbat csinál, akkor arról lesz jobb a véleményem. Most jobbat csináltak, és ez nagybetűs tény. Nem véletlenül van GCN architektúra mindkét új generációs konzolban. Az is tény, amit leírtam. A techreport például azért nem frissített az említett patch-re, mert a GeForce sebessége esett.
Azért érdemes megjegyezni, hogy én nem rakatok bele olyan játékokat a tesztekbe, amelyeket az AMD nagyon odatol az orrom alá, de pontosan tudom, hogy azért tolnak oda, mert a konkurencián valami hibát csinál. Ha az AMD-t szeretném nagyon győztesnek kihozni, akkor már rég ott lenne a Far Cry 3 a tesztekben, kielemezve, hogy a GeForce-on abszolút nem fut képi hibáktól mentesen. Csak tudom, hogy ez nem az NV hibája, és ezért inkább nem is megyek bele ebbe a belharcba.
Most is ugyanez a helyzet. Ide van tolva elém a SimCity, hogy csináljunk vele IGP tesztet. Gondolod nem tudom, hogy az AMD miért tolja az orrom elé? Pontosan azért, mert DX9-es API-t használ és 3000 rajzolási parancs/frame paraméterrel dolgozik. Az Intel drivere 2000-nél bedobja a törülközőt. Azt akarják, hogy mutassuk meg, hogy a játék A10-5800K-n 80 fps fölött van, míg egy Core i5-3450 a 20 fps-ért küzd. De ez megint belharc. Az EA-t az AMD valahogy lekenyerezte, hogy nagyon húzzanak a Radeonok felé a játékaik. A játékot figyelembe véve sokkal jobban is lehetett volna batch-elni, és akkor az Intelnek sem lenne gondja a driver oldaláról.
Ha az AMD felé akarnám a mérleget tolni, akkor simán beleraknám a GeForce-on és Intelen hibásan vagy problémásan futó programokat a tesztrendszerbe. Csak akkor az nem érne semmit, mert feldobnám a saját szabályainkat. Inkább a technológiai szempontból építjük fel a teszteket, ahogy eddig. Ott pedig győzzön a jobb architektúra.(#13986) krx21: Igen. Pont a HDAO-val van baj. Azt az utolsó patch teljesen elrontotta NV-n. Még a sebességre is negatív hatása van, nem csak a képi hiba van. Ha nem ez lenne messze a legjobb képminőséget nyújtó AO a játékban, akkor nem érdekelne, de a HDAO minősége jelentősen jobb a másik két megoldásnál.
Gondolom a BioShock Infinite esetében is azért került bele a driverbe egy HBAO profil, mert előre gondolnak arra, hogy esetleg el lesz rontva a HDAO patch-csel. Nem akarom azt hinni, hogy szabotázs, de tekintve, hogy az Ubi nem igazán töri magát a javításon nem tudom hova tenni az egészet.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Igen. Tegnap Titan LE volt. Ma már GTX 780-nak nevezi ugyanaz az oldal.
Gondolom holnap jön a hír, hogy eltolták a megjelenést, ami meglehetősen fura egy be nem jelentett terméknél, de a mai IT média ebből a csámcsogásból él. Kreálnak egy bejelentést, elnevezik a terméket és bejelentik a csúszást.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz ricshard444 #14431 üzenetére
A Grid 2 annyiban változott, hogy már nem a forward+, hanem a forward++ lighting van benne. Ez lényegében jobb minőséget ad, kicsit több számítással. De zömében olyan lesz a hatás, mint Showdownnál. Lényegében az Advanced Lightingból származik a legtöbb előny, mert sokkal több fényhatás jelenik meg a pályán, a sokkal több fényforrásnak hála, míg a GI az annyira nem látszik majd. Ami még extra, hogy a HDAO az kiegészült egy bilaterális szűrővel, amit láthattunk a Bioshock Infinite-ben.
A játék DX11.1-es, de nem használ olyan kódot, ami FL11_1-hez van kötve.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz BeLucZ #14448 üzenetére
A Metro 2033 DDOF effektje igazából nem rossz, csak helyenként tényleg rosszul működik, de ez az első compute shaderes DDOF megoldás. Sok kutatása volt benne a fejlesztőknek és az NVIDIA-nak. Azóta persze jöttek jobb megoldások is a problémára, de valahol mindig el kell kezdeni.
MSAA az új Metróban nem lesz. SSAA lesz helyette.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz apevia #14459 üzenetére
Az FXAA-t sem kell engedélyezni, ha a játékba be van építve. Sőt, nagyon ajánlott úgy használni, hogy az inaktív, ha a játékban van más post-process AA opció.
Ha a Metro LL-re gondolsz, akkor három AA lesz benne. Az AAA, amit az eredeti Metróból maradt, de az állandóan aktív lesz. Aztán az FXAA, ami igen speciális verzió, vagyis jóval jobb a minősége, mint az alapalgoritmusnak. És erre kérhető még SSAA.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Sondi1986 #14488 üzenetére
Az az oldal tele van bullshittel. DX12 jelenleg még tervezőasztalon sincs. Ez biztos. Egyszer nyilván lehet, de most még a DX11.x-ek vannak tervezés alatt. A következő DX verzió az új konzolokhoz való felzárkóztatás. Ergo jönnie kell egy új shader modellnek (ez nyilvánvalóan szükséges, mivel sokkal többet tudnak az új konzolok, mint amit a DX11.1 megenged). Esetleg az ASTC lehetne még követelmény (akár opcionális formában), annak gyakorlatilag mindenki örülne, túl szegmentált a textúratömörítések szempontjából a helyzet. Az ASTC egy átfogó és ingyenes megoldás a problémára. Pont olyan, ami a piacnak kell.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz Tirexi #14587 üzenetére
Ha az új konzolok képességeit nézed, akkor még a DX11.1 is kevés. A legújabb HLSL egy játékszernek tűnik amellett, amire a PS4 PSSL képes. Ez komoly gondot jelenthet a jövőben a PC-nek, szóval nem hogy kell a DX11.1, hanem egyenesen kevés, amit kínál. Már most ott kellene tartani PC-n, hogy végtelen mennyiségű erőforrással, textúrabekötéssel és mintavételi lehetőséggel rendelkezzenek a fejlesztők. Ehhez képest a HLSL még mindig nagyon limitált, és durván ostromoljuk a határait.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A fejlesztők nem pont így gondolják. Nagyon sok szó van a mai multi-pass effektek egyszerűsítéséről. Például megoldható a DOF egy menetben is. A gondot mindig az jelentette, hogy a ma ismert algoritmus 6 UAV-t igényel, és a DX11-ben 8 van a teljes futószalagra, vagyis minden másra 2 marad. Nem véletlen, hogy a virtuális UAV-re is rávetemednek, mert egyszerűen nincs elég valós slot az API-ban. A DX11.1 64 UAV-t kínál a teljes futószalagra. Ebből már sokkal jobban lehet gazdálkodni, és nem kell lassú virtuális UAV-kre vetemedni, ami szintén limitált, mert a textúraméret 16kx16k csak.
Hogy ebből a felhasználó mit nyer? Nos, az új DOF a jelenleg alkalmazott megvalósításoknál 2-5x gyorsabb.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #14604 üzenetére
Nem haragszom. Nem is azért mondtam, hogy vegyetek hardvert, hanem azért, hogy a DX11.1 nem, hogy kell, hanem még kevés is, amit kínál. Hidd el a PC-seknek fog a legjobban fájni, hogy a next-gen konzolra készült játékok bizony nem a PC-n lesznek szebbek. Ezért kell minél hamarabb továbbfejleszteni a DX11.1-et is. A hardverekkel akkora gond nincs, hiszen a konzolok sem kapnak spéci egyedi GPU-kat, de az aktuális DX PC-s API funkcionálisan sokkal butább, mint a konzolos API-k.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #14607 üzenetére
Technikai értelemben nem muszáj hardvert frissíteni. De API-t mindenképp kellene. Ellenben ma is vannak elérhető hardverek, amik elég jók ahhoz, hogy támogassák azt, amit a konzolok. A fejlesztői oldalról a legnagyobb igény az erőforrások, a textúrabekötések és a mintavételi lehetőségek számának jelentős növelése, akár végtelenítése, ahogy az új konzolok kínálják.
A DX11.1 egy API frissítésével nyilván nem lesz olyan modern, mint a frissebb teszem azt DX11.2. De ahogy a DX10.1 is jelentős előny volt a DX11-es programok alatt, így a DX11.1 is az lesz a modernebb API leskálázásánál. De mondom, ha a fejlesztői igényeket tekintjük, akkor vannak hardverek, amelyekhez csak szimpla driverfrissítés kell, hogy támogassák az érkező API-kat. Persze lehet venni konzolt is, ez egyéni döntés.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Egyelőre még be kell fejezni a kódok, mert optimalizálni kell rajta. De a jövőben nyilván mindenkinek be lesz ajánlva.
A DX11.1 nem kell a működéséhez. DX11-ben is működik, csak DX11.1-ben gyorsabban. Ehhez mindenképp kell Windows 8.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ne parázzatok a Metro LL miatt. A max az igen durva terhelés. Ha kikapcsoljátok az élsimítást és a GPU-s fizikát, akkor helyből +40-50 fps-sel lehet számolni. Ha így is kevés, akkor van benne felskálázás, vagyis a beállított felbontás alatt is képes számolni, majd azt nagyobb felbontásúvá alakítja. Ilyenkor a mai 300 dolláros kártyák 60 fps fölött lesznek. Persze annyira nem lesz szép, de futni fog.
Rengeteg skálázási lehetőség van, és igen gyenge gépeken is fut, de eközben maxon mindent képes kifektetni. Főleg a GPU PhysX, az helyből fps felező/harmadoló, amit még a max AA tovább harmadolhat.
Az én eredményeim maxban vannak, de egy-két effekt öli meg a teljesítményt.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz daneeeeee #14627 üzenetére
Persze. Az SSAA ami nagyon öli a teljesítményt. Azt azért nem hiszem, hogy megenne 2 GB memóriát. A Több VRAM-mal rendelkező kártyák is hasonló sebességet vesztenek. A Metro nem azt az SSAA-t használja, amit például a Tomb Raider, hanem egy jóval lassabb megoldást.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Tirexi #14725 üzenetére
Inkább a compute shadereket kapcsold ki. Azokkal lehet Kepleren nagyon sokat nyerni. A GI inaktiválásával rögtön 50% pluszban vagy, de még van a játékban ezen kívül két igen megterhelő compute shader. A többi compute számítás annyira nem para a tradicionális GPU-knak, még talán a soft AO sem, az csak sokat számol.
A CodeMasters figyel a PC-sekre. A konzolverzióban rengeteg PC-s portba beépített effekt hiányozni fog. Éppen ezért a PC-s verzió sokkal szebb lesz. Skálázható is a grafika, ha esetleg a hardver nem bírna el pár beállítást. Alacsony grafikán még az 5 wattos Temash APU-n is megy a program, szóval szerintem rendkívül széles hardverkínálatot fedtek le.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Tirexi #14727 üzenetére
Ha nem használná a Codemasters a compute shadert, akkor ugyanazokat az effekteket csak sokszoros erőforrásigény mellett tudná megcsinálni. A Crysis 3 elég sok egyszerűbb compute shader effektektet használ. Azért fut gyorsan. De a CryEngine 3 nem hasonlítható össze az EGO motorral. A Codemasters sosem akart deferred leképzőt, mert sok korlátozással jár, így csináltak egy modern forward leképzőt. Az eredménye az lett, hogy semmilyen render nem képes felvenni a lépést az EGO renderjének sebességével, ha az MSAA-t is aktiválják.
Igen, az AMD nagyon tolja a PC-s játékok támogatását, és főleg afelé, hogy kijöjjön a Kepler gyengéje. Úgy vannak vele, hogy ha nem tetszik már a PC, vagy nem akarsz Radeont venni, akkor veszel konzolt, amiben AMD hardver van. Ők ezzel mindenképp nyernek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
PhysX Off mellett nyilván. Ez harmadolja az fps-t meg az SSAA. Ha ezeket kikapcsolod, akkor nem egy gépigényes a játék. Eleve kikerült belőle egy csomó effekt, ami a Metro 2033-ban volt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A tesszellációs eredmények elég meglepők. A Titán esik 10%-ot, és 10-15%-ot esik a HD 7790-7970 is. A GTX 670/680 már 15-20%-ot is esik, míg a kisebb GeForce-okon a max tesszelláció 30-50%-ot is levesz, miközben a HD 7750 és 7770 is csak 20%-ot veszít. Lassan két éve nem értem a hardverbe épített skálázható tesszellátor lényegét, de úgy néz ki, hogy a fejlesztők sem nagyon találják, hogy hol lehetne ezt előnybe hozni. Esetleg azt tudom elképzelni, hogy az NV azt hitte, hogy mindenki Unigine Heaven féle tesszellációt rak majd a játékba szép hosszú csúszkákkal.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Tirexi #14952 üzenetére
A PhysX és az SSAA-t leszámítva baromi korrektnek néz ki a játék. Az SSAA-t azt vágjuk, hogy lezabálja az fps-t, főleg az a megoldást, amit ebbe a játékba építettek, míg a PhysX az nyilván megrendelésre készült, így kétségtelen, hogy erős hardvert kell építeni alá. Amit sajnálok, hogy számos effekt kikerült az új Metróból, ami a régiben például benne volt, de annyi baj legyen. Legalább fut.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #14958 üzenetére
Nem, az SSAA az egy régi AA megoldás, nincs feltétlenül köze a DX11-hez, de van olyan algoritmus, ami például igényli.
A mai játékokban az a probléma, hogy az SSAA működik, míg az MSAA nem. Ez eldönti a kérdést. Olyan MSAA-t lehet beépíteni mint, ami a BF3-ban van. De az AMD már többször kimutatta, hogy ez annyira erőforrás-igényes, hogy szinte semmiben nem lassabb az SSAA, és jóval jobb a képminősége. Az NV is valszeg hasonlóan vélekedik, abból, hogy inkább SSAA van az új Metróban. Alternatív megoldás az AMD-nek a compute shaderrel gyorsított MSAA-ja, de ezzel sem lehet sokat nyerni sebességben, meg félmegoldás is, mert kihagy részeket a képről.
Van egységes szabvány. Ez az MSAA, de ez nem működik jól a deferred render motorokban. De erre is van megoldás. Ott a DiRT Showdown és a GRID2 forward+ leképzője. Azzal teljesen kompatibilis az MSAA.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Tirexi #14969 üzenetére
A játékba épített benchmark nem sokat ér sajnos. Nagyon elborult a fejlesztőknek az agya a jelenettel. Egyébként az alacsony kihasználtság részben a tesszellációnak és a motor effektjeinek köszönhető. Utóbbinak azért, mert rendkívül egyszerű shaderek futnak, és a grafika inkább a dizájn miatt szép. Viszont rengeteg effekt precompute, vagyis bele fan égetve a hatás a textúrába, hogy a GPU-nak ne kelljen számolni. Így viszont mai hardverek számítási kapacitása általánosan kihasználatlan, vagyis rossz lesz a skálázódás. A tesszelláció erre rátesz úgy, hogy kicsik a háromszögek, és a raszterizálás hatékonyságát 30-40% alá tolják. Ezért látod azt, hogy nem változik sokat a futtatás sebessége, mert erős limitet képez a GPU raszterizáló motorja. A benchmark része a programnak így nem ér semmit.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Tirexi #14973 üzenetére
A 70%-os GPU kihasználás az nem feltétlenül jelenti azt, hogy a program működése rossz. Meg kell érteni, hogy ezt a játékot nem a mai normák szerint tervezték, hanem egyfajta alternatív irány szerint, ami kicsit hasonlít a 2007-es év előtti filozófiához. Ez viszont így nem skálázódik olyan jól, mint egy modern motor, vagy úgy, ahogy a Metro 2033. Viszont sokkal kevesebbet számol, ergo a Kepler architektúra igényeinek kellemesebb.
Ne a benchmarkkal próbálkozz, hanem játékon belül. A benchmark dizájnja teljesen hibás.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz BeLucZ #15028 üzenetére
A Tomb Raider az ma sem kedvező. Máig hibásan van számolva GeForce-on a TressFX. Egyszerűen rosszul mozog Lara haja, illetve beakad. Emellett vannak még kisebb képminőségre vonatkozó bugok, valamint váratlan fagyások, amire az a hivatalos workaround, hogy le kell venni a GeForce gyári! órajeleit. A Tomb Raider nem lett GeForce-on tesztelve, és ahogy látom túl sok hajlandóság sincs erre, de azt odaírják minden patch readme-jébe, hogy látják a problémákat és dolgoznak rajta. Ez a hetedik frissítés után kezd komolytalanná válni. Gainwardgs-nek igaza van abban, hogy ez még közel sincs javítva. Arra a 30 másodperces benchmarkra ráoptimalizáltak, de igen nagy minőségi eltérés van a játék teljes egészére a Radeon és a GeForce között.
Ez egyébként abszolút nem jó a piacnak. Főleg úgy, hogy az NV-nél a nagy ATI/AMD szopatásokat ő csinálta: [link]. Májustól ő nem csak sales, hanem tartalomstratéga, vagyis azt csinálja az AMD-nél, amit az NV-nél régebben. A GRID 2 lesz az első "remekműve". Elvileg azt is ő intézte el, hogy a Bioshock Infinite-et GCN-re paraméterezzék, amikor ennek igazából semmi értelme nem volt, mert az UE3 motort úgy is lehet paraméterezni, hogy ne legyenek egyik gyártónál se dropok. Számos példa van erre.(#15031) Tirexi: A Metro LL-ben nincs egy deka compute shader sem. Még a jellemzően számolt AO effekt is egy nagyon egyszerű pixel shader, amit úgy javítanak fel, hogy textúrába van égetve az effekt egy része. Minőségben gyenge, de cserébe nagyon keveset kell számolni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #15022 üzenetére
Nem procilimit volt. Ez egy tipikus jelenség lesz ebben a játékban, mert nem a mai normák szerint tervezték, így a GPU-k számítási kapacitása nehezen használható ki. Főleg a GTX 670-é. Ezért nem megy minden hardver magas kihasználtság mellett, mert szimplán nincs mit számolni. Ugyanilyet tapasztalhatsz a 2007 előtti játékokban is, csak ott nem érdekel, mert 100 fps fölött vagy.
(#15033) Tirexi: Főleg azért mert az AMD még nem írt a játékra profilt. A héten kapták meg a kódot az újságrói review verzióval. Gyakorlatilag a Metro 2033 profilja van rámentve, de az új Metro más, mert egy csomó effektet kivettek belőle, ami az elődben megvolt, és alapvetően átalakult a motor is. Tehát a Metro 2033 profilja nem sokat ér.
Reméljük azért Roynak nem gurul el a gyógyszere, gyakorlatilag innentől kezdve a teljes évi játékfelhozatal Gaming Evolved, és nem lenne jó a piacnak, ha visszavágnának. Bár gondolom az AMD úgy gondolkodik, hogy a legrosszabb eshetőség, hogy a juzer konzolt vesz, amiben meg szintén saját hardver van. Szóval sok jóra megint nem számítok. Ez a PC így kezd durván szívatás lenni a játékosoknak.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Firestormhun #15041 üzenetére
A Metro LL-ben a Radeonok kevesebb sebességet veszítenek max tesszellálásnál, mint a GeForce-ok. Erre konkrétan rámértem.
Még mindig nem érti mindenki, hogy két eltérő tesszellációs elv van a gyártóknál. Az NV skálázható rendszert használ, vagyis a chip skálázódásával változik a tesszellátorok száma és a rasztermotor képessége is. Nagyobb chipben több, míg kisebb chipben kevesebb teljesítmény van. Ezt az NV még a Ferminél dolgozta ki, mert azt hitték, hogy a játékok olyan skálázható tesszellációt fognak használni, mint ami van a Heaven benchmarkban.
Az AMD az Xboxos tesszellátorról gyűjtött tapasztalatok alapján látta, hogy a fejlesztők nem fognak minden modellről 10-20 különböző minőségű verziót készíteni, majd ahhoz illeszteni az UV mapokat. Inkább lesz egy alapmodell és egy tesszellált. Ezért nem használnak skálázható tesszellációt, mert a játékokban ez az effekt nem skálázható, így a hardverek oldalán is egységes képességű rendszer kell hozzá, minden lapkában.
Ha a skálázódást beleszámolod, akkor a Tahiti/Pitcairn/Bonaire tesszellációs teljesítménye a GK104 és a GK106 között van. A GK106-tal a Cape Verde és a többi egy gen9-es tesszellátort használó rendszer ér fel.
Nagyjából elmondható, hogy egy Gen9 tesszellátor egység azonos órajelen 3-4 darab NV kepleres tesszellátor teljesítményét tudja. Nyers tempó mellett az Intel tesszellátora is nagyjából 3 kepleres tesszellátorral ér fel. A játékokban az Intel megoldása azért nem érződik annyira, mert az AMD rengeteg trükköt használ. Például egy egységben is nagyobb tár van a vertex reuse képességhez, mint a GK110 összes tesszellátorában. Ez akkor jó, ha sok sík felületet kell tesszellálni. [link] - ezek a csodálatos eredmények is ebből származnak. Illetve a másik nagy trükk a Gen9-ben, hogy le tud menteni komplex felületeket az L2-be, és soha többet nem dolgozza fel, míg a többi hardvert vért izzad ebben. A harmadik trükk a hierarchikus Z-vel való machinálás, mert sok kis háromszögnél azok a hardverek, amelyek nem mozaikolják a feldolgozást túlterhelik a hierarchikus Z-t, és rengeteg sebességet vesztenek. Az Intel erre még nem csinált megoldást, míg az AMD és az NV ez ellen védekezik.A Tomb Raider nem használ hagyományos tesszellációt a terepre. Olyan rendszert használ, mint a Crysis 3. Nincs a felület geometriailag felbontva, így tulajdonképpen pixel shaderben jön létre a HOS. Ez kedvezőbb a rasztermotoroknak, de többet kell számolni.
A Far Cry 3-ba sose terveztek tesszellációt.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #15052 üzenetére
Ez nem teljesen igaz. A Tomb Raidert az AMD sem kapta meg hamarabb, csak az NV ezt nem említette. Amiért kedvezőbb volt a Radeonoknak a kód, hogy ezeken a hardvereken fejlesztették, így az AMD-nek nem számított, hogy nem kaptak korábban kódot. Egyszerűen nincs szükség rá, ha a programot az egyik architektúra igényeihez optimalizálják. Valószínű, hogy a Tomb Raider képi hibái a hajjal és megmagyarázhatatlan fagyásai máig erre vezethetők vissza GeForce-on. Én erősen valószínűnek tartom, hogy alig tesztelték ezt a játékot az NV hardverein.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz cyberkind #15186 üzenetére
Hát persze. Mondjuk inkább úgy, hogy a SEGA Alienre adott pénzét elköltötték a Borderlands 2-re. A SEGA már 2009 után le akarta lőni az egészet, csak a Gearbox keménykedett, hogy sínen van. Kellett a pénz a saját játékukra ugye.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz keIdor #15261 üzenetére
Mert van rajta AA, maximum SSAA nincs rajta.
A motor eleve használ egy analitikus élsimítást, amit az előd, és ahhoz van alapértelmezetten egy post-process AA is. Ezek kikapcsolhatatlanul jelen vannak.(#15263) TTomax: Az MSAA nem működik ennél a motornál. Beépíthetik, hogy számoljon, de zömében nem lesz eredménye. Ezért használnak SSAA-t.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz keIdor #15267 üzenetére
Az ilyen downscale megoldás. Ha nagyon nincs meg a sebesség, akkor az a beállított felbontás helyett csak a pixel sorok és oszlopok 70%-át számolja ki, majd felskálázza a képet a kijelzőre. Ez mossa el. Nem olyan rossz az, hogy ezt beletették.
(#15270) TTomax: Olyan MSAA-t lehet belerakni, ami van a BF3-ban. Nyerni nem nyersz vele. Majdnem akkora az erőforrásigénye, mint az SSAA-nak. Szóval nem véletlen, hogy inkább ezt választják manapság a fejlesztők. Egyedül a Codemasters keresett a deferred leképző helyett alternatív forward leképzőt. Az EGO motorokon az MSAA jól is alkalmazható, és alig zabálja a sebességet. Erre természetesen át lehet térni, de nem mindig érdemes.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #15286 üzenetére
Ez ebben a formában nem igaz. Azért választják manapság az SSAA-t az MSAA helyett, mert utóbbi lassú deferred render mellett, és nem működik jól. Az SSAA nem gyorsabb, de legalább működik. Ezért látsz ma egyre több játékban SSAA-t.
A fejlesztők elkezdtek számolgatni, hogy az SSAA sebességben a deferred MSAA-val kb. megegyező, képminőségben pedig sokkal jobb. Ennek megfelelően a mérleg az SSAA felé billent. Az MSAA-t a Codemasters viszi tovább olyan hagyományos formában, ahogy azt régen megszoktad. Nekik ez egyszerű, mert az EGO motor kompatibilis még a driverből kényszerített élsimítással is.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Tirexi #15333 üzenetére
A forward rendert használó játékoknál lehet aktiválni. A DiRT/GRID/F1 játékok EGO motorja például helyből elfogadja (persze az újabb EGO motorok beépítve tartalmazzák a gyártók fedettségmintás MSAA-it, tehát még driverből sem kell erőltetni, mert amit beállíthatsz a driverben az ott lesz a grafika menüben ... hatalmas respect ezért a Codemastersnek). A legtöbb játék viszont deferred render, szóval azokkal ezek a driveres beállítások nem kompatibilisek.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz belinho #15414 üzenetére
Pontosan. Ha nem stabil, akkor az OC-t kell csökkenteni elsőként. Akár a gyári OC-t is. Persze utóbbi esetben lehet élni a garival, mert a termék nem teljesíti azt, amire szánták, vagyis nem stabil gyári OC-vel.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Tirexi #15532 üzenetére
A fejlesztők nem így gondolják. Ők nem szeretnek azért fizetni, hogy sztereó 3D-t építenek egy játékba. Ezért támogatják az új játékok inkább a HD3D-t, mert az natívan kezelhető és ingyenes. A Win 8 mellett a natív 3D lesz az irány.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Tirexi #15534 üzenetére
Ettől még lesz 3D GeForce-on, csak a 3D Vision sarca, ami nagyon böki mindenkinek a csőrét. A natív 3D-vel a 3D működik mindenen, csak venni kell hozzá szabványos sztereó 3D-t is kezelő monitort és szemüveget.
A natív 3D a fejlesztőknek sokkal célszerűbb, mert nem kell fizetni licencet, hiszen a Microsoft SDK-ja ingyenes.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A BF4-ben a motor nem előnyösebb csak a DX11.1 miatt egy DX11.1-es kártyán. Amiért előnyös Radeonon az egy gyártóspecifikus DX11.1-es kiterjesztés, mely csak Radeon HD 7700 fölött működik. Viszont ez úgy van megírva, hogy belátható időn belül ne tudják támogatni a konkurensek, még DX11.1-es hardverrel sem. Nyilván nem mindegy, hogy a nem látható dolgokat számolja-e a hardver, vagy sem, de ez a funkció konkrétan nem része a DX11.1 követelményeinek. Persze az összes Frostbite 3-as játék támogatni fogja, így később mindenképp meg kell tervezi a konkurenseknek a hardvereket, hogy egy későbbi API-ban ezt szabványosítani lehessen. Az OpenGL-ben egyébként ez a kiterjesztés már szabványos, csak kevesebbet tud, mint a DX11.1-es verzió. Viszont cserébe az elmúlt 5-6 évben meglenet hardverek játszva támogatják. Reálisnak tartanék egy OpenGL-ről másolt DBT "lite" kiterjesztést a DX11.1-be, hogy ne csak a GCN architektúra legyen jó a funkcióhoz. Ezt a DBT-t akár szabványos formában is el tudom képzelni, hiszen hardveres akadálya normálisan megírva elvben nincs.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Taposo #15753 üzenetére
A DBT az tulajdonképpen egy optimalizáció, hogy a culling után megmaradt nem látható eredményt adó számítások egy részét el lehessen dobni. Ez tipikusan kedvező a deferred render motoroknál. A shading fázisnál a renderelt fragmenteket limitálja a DBT. Amelyik fragment kívül esik a fény mélységtartományán azt a hardver el sem kezdi kiszámolni, mert nem számít majd az eredménye. Ennyi az előnye, gyakorlatilag erőforrást takarít meg. Minél több fényforrás van a jelenetben annál többet érhet a rendszer.
Ez alapvetően nem újdonság. 2003 óta támogatják a hardverek, csak az AMD a DX11.1-es kiterjesztést a GCN egy specifikus funkciójához szabta. Az új generációs Radeonok a 24 bites mélységformátumokat belsőleg 32 bitesként tárolják, ezt semelyik más hardver nem tudja, így a DX11.1-es DBT-t nem tudják támogatni.
Nem tudom, hogy az AMD mennyire használja majd ki azt, hogy az NV a Tegrára csoportosította az erőforrásait. A DICE nyilván az AMD-t választja partnernek, mert az NV-től már nem várhatnak támogatást, de ettől a kiterjesztéstől csak a GCN-es Radeonok gyorsulnak, viszont maga a funkció nem hat negatívan a többi kártyára. Szimplán nem fut le és kész. Ettől a képminőség nem változik, csak többet számolnak a régi hardverek.
Az NV egyébként aktívan részt vesz a mobil játékokhoz szánt Frostbite Go fejlesztésében. Ezt nem tudom, hogy bejelentették-e már, de ez az Androidhoz írt motorja lesz a Frostbite 3-nak. Ha nem is jelentették be, akkor most már tudjátok.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Egy csomó OpenGL-es játék használja. Tulajdonképpen ezt az NV találta ki még a GeForce FX idején. Az ATI ezt követte, hiszen keresztlicencszel megosztják a technológiákat. Ezzel lett egy szabványos OpenGL kiterjesztés rá, és mindenki boldog volt. A DX9-re szinten van egy hack, de a Microsoft a DX10-től kezdve szigorúbb rendszert állított fel a kiterjesztésekre, így a DBT gyakorlatilag a DX11.1-gyel vált elérhetővé. Itt sem lenne baj a régi hardverek támogatásával, ha az AMD nem úgy építette volna fel a kiterjesztést, hogy a GCN speciális mélységformátum kezelését használja. Semelyik régi tervezésű hardver sem képes 24 bites mélységformátumot belsőleg 32 bitesként reprezentálni, így bukják a DBT kiterjesztés támogatását. Azt a kiterjesztést, amit az OpenGL-ben majdnem minden termék támogat nyugodtan be lehetne vezetni DX11.1-be, és akkor nem csak GCN only lenne ez a fícsőr.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Krakesz27 #15785 üzenetére
A gyári OC-t vedd vissza. Annyira maxra van járatva az optimalizálás a játékokban, hogy a gyári OC több helyen is instabil lehet, ilyenkor ajánlott az adott kártyákhoz tartozó referencia-órajel visszaállítása. A Tomb Raiderben ezt az NV hivatalosan is ajánlja, illetve akár még a refórajel alá is érdemes menni, ha továbbra is fagy. Vagy esetleg a régi driver. Az nincs annyira maxra járatva.
Esetleg alternatív megoldást, hogy emeld meg a GPU feszültségét. Ez is működik, csak nyilván ilyet az NV hivatalosan nem ajánlhat.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz tikshow #15876 üzenetére
Konkrétan a GeForce elé kerültek a Radeonok. Épp most nézegetem. Nem tudom, hogy melyik patch okozta, de nagyjából olyan a sorrend, mint a Metro 2033-ban. Lehet, hogy az új CAP is közrejátszik. Az tartalmaz rá profilt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #15882 üzenetére
Belerakjuk majd a tesztekbe a Metro 2033 helyére a következő frissítésnél. Azért nézegettem, hogy működik-e a cucc, és a többi. Jelentem működik és nincs akadálya annak, hogy teszteljük.
Fontos, hogy a patch-eket telepítsétek fel. Az úgy jó 50-70% pluszt ad a Radeonokra. De mondom, hogy talán a CAP is belejátszik, mivel amiket eddig mértek eredmények, azokhoz még nem volt profil a Catalystben. Most már van egy előzetes profil a játékhoz.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #15889 üzenetére
Az, hogy egy játék úgy van megírva, hogy nem fut maxon semmin az konkrétan a játék hibája és nem a miénk. De a Metro 2033-nál sem tettünk mindent maxra, mert az MSAA-t kihagytuk, és csak AAA-val ment. A HD 7970 GHz-en elég jó volt a sebesség. És mivel a cél, hogy az egyik 450 dollár körüli hardveren legyen meg a tempó Full HD-ben, így a beállítás megfelelt.
Te otthon bármikor visszaveheted a részletességet.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
- Xbox Series X|S
- Itt az új LOGOUT!
- Nem teljesít túl jól a kasszáknál az aktuális Xbox generáció
- Milyen légkondit a lakásba?
- Rövid teaser trailert kapott a Splinter Cell animációs sorozat
- iGPSport iGS800 kerékpáros óra: egyből a csúcsra tör
- Full-size AT form factor gépház restaurálása.
- Futás, futópályák
- Eredeti játékok OFF topik
- VoLTE/VoWiFi
- További aktív témák...
- Zotac RTX 3050 8GB Twin Edge OC
- NVIDIA 40xx VIDEOKÁRTYA FELVÁSÁRLÁS AKÁR AZONNAL KÉSZPÉNZBEN VAGY UTALÁSSAL - WWW.PCFELVASARLAS.HU
- Gigabyte RTX 2070 Super 8GB GDDR6 256bit!!! Beszámítok, Posta az árban!!!
- ASRock RX 6900 XT 16GB GDDR6 Phantom Gaming OC Eladó! 175.000.-
- Eladó hibátlan EVGA FTW 3 ULTRA 3070TI
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: Ozeki Kft
Város: Debrecen