Új hozzászólás Aktív témák

  • bartucc

    addikt

    válasz janos666 #144 üzenetére

    Na igen, de akkor a többi játékkal meg mi legyen? Egy Crysis alatt egy 2,4-en "szaladó", E2160 is elég hogy kihajtson egy 9600GT-t, 1024-ben, High-on, 4Gb rammal.

    "Azért jó tengerparton lakni, mert akkor csak három oldalról van hülyékkel körülvéve az ember." //Galla Miklós//

  • BalaNce87

    addikt

    válasz janos666 #149 üzenetére

    "tökéletesen megfelelne nekik a játék 640x480-as felbontásban, mert a játék a lényeg, nem a grafika"

    Hát igen akkor menne ám a sírás hogy juj de szar, alíg fejlődött valamit a grafika, amúgy az első videókhoz képest, amik kb 2 és fél évesek azóta tényleg nem lett szebb a játék. Tényleg nem a grafika számít egy stratégia játékba, de azért ne úgy nézzen ki mint egy 5 éves játék pl, ha ezzel ez történt volna, akkor csak felszólalnak az emberek hogy gagyin néz ki. Ahogy telnek az évek és fejlődik a grafika azért az elvárások is nőnek. Egy régi játék grafikája nem lesz már jobb, ettől még jó játék marad, csak a kinézete már nem lesz valami jó és ezért lehet valakinek már nem jön át annyira a játék.

  • janos666

    nagyúr

    LOGOUT blog

    válasz Viktor77 #150 üzenetére

    Felőlem játszhat bárki egy 14"-os analóg CRT-n 640x480-ban, ha neki úgy jó.
    Ha már itt járunk, én most inkább azt érzem, hogy a Blizz fanok akarják megmagyarázni a többieknek, hogy nekünk sincs szükségünk az AA-re. :DDD

    Lehet, hogy az áhítat erős kötelék, de az tény, hogy az alising egy létező jelenség, és szintén tény az is, hogy van rá megoldás, és látható, hogy valamilyen mértékű igény is lenne rá.

    Az már persze szubjektív, hogy milyen játékban mennyire zavaró az alising, és az is, hogy ugyan az a mértékű alising kit mennyire zavar, vagy akár észreveszi-e.

    Én látom, sőt, játék közben is észreveszem, és mivel tudom, hogy van megoldás, így hiányolom a megvalósítását. Ebből hogy magyarázzák meg nekem azt, hogy "De nem! Nincs rá szükség!"
    Mert ha az ellenkezőjét akarom bizonyíani, akkor hozok egy rakás screenshotot, a gyengénlátók kedvéért belenagyítgatok, vagy valami posteffekttel felnagyítom a jelenséget, hogy lássák mit kell kisebb mértékben észrevenni az eredeti képen, stb.

    Azt azért mégsem mondhatnák nekemi, hogy "Ne akard látni, és akkor eltűnik a szemed elől." :C
    Pedig más érv nem igen van.

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • Viktor77

    titán

    válasz janos666 #153 üzenetére

    Az aliasingot direkt írod következetesen alising-nak? :) Írj AA-t, az könnyebb.

    Olvasd végig a topicot, és nézd meg, ki akar bizonyítani mit.

    MOD: Amúgy parttalan vita. Akinek tetszik a játék, az nem érzi igazán az AA hiányát. Ahogy erre több példa hsz is van a topicban. Akinek amúgy sem tetszene, annak hiányzik az AA, és hiányolja. Pedig ha lenne benne, akkor se játszana vele 10 percnél többet.
    És van egy nagyon-nagyon kis réteg, akinek tetszik a játék, használna is AA-t, de nincs (azokat most nem számolom, akinek a gépe amúgy sem bírna el AA-t, ahogy az enyém sem).

    [ Szerkesztve ]

    Csinálni kell. Kész. Pont.

  • janos666

    nagyúr

    LOGOUT blog

    válasz Viktor77 #154 üzenetére

    Kipróbáltam az új drivert: briliáns. Max 2x adaptive AA-t bír el, 4x-nél már érezhető a lassulás.
    Amúgy az én gépemen is van kemény 30-40 fps így 2x AA-val. Nem értem honnan fúj az a szél, hogy "minél gynegébb gépeken is elfusson", bár lehet hogy butított grafikával hatékonyabb a kisebb gépeken, és csak az Ultra az, ami alá erőmű kell, miközben még mindig nem egy Crysis...

    Na mindegy, most elkezdek akkor játszani...

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • Abu85

    HÁZIGAZDA

    válasz janos666 #155 üzenetére

    Pontosan ez a baj. A driverből kényszerített megvalósítás nagyon sok erőforrást vesz el, mert egy csomót kell trükközni.

    Nem kötelező a DX10.1-et használni a normális AA-hoz, az csak egy reális megoldás arra, hogy a 8xAA is csak 10%-os teljesítményt zabáljon le. Az AMD ezért van e megoldás mellett, mert olcsó, de nem kényszeríti a fejlesztőket erre. A DX9 alá is van értékelhető algoritmusa az AMD-nek és az NV-nek, és mivel a motorba beépítve sokkal könnyebb trükközni, a játékon belüli AA kétszer is gyorsabban futna.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz 9950es #108 üzenetére

    Köfi. :R

    Az MLAA alapvetően nem gépigényes. Gyakorlatilag egy shader, ami egy pixel helyére négyet számol, majd átlagolja az eredményt. A gond az, hogy sokat kell vele vesződni, mert az eredmény nem lesz tökéletes. A Metro 2033-ban egy hasonló megvalósítás van. Látszik, hogy az alpha csatornát jól kezeli, de az éleknél nem ritka a hiba. Pont ezért érdemes mellé alkalmazni egy olyan AA algoritmust, ami az élekre is hatékony.

    Tekintve az MLAA erőforrásigényét, nagyon a határon kell lenni, hogy a platformlimit megszűnjön.
    A Borderlands az ilyen játék. Erős CPU kell neki, de alig használ programszálat is. A gondokat főleg az jelenti, hogy GPU Physx-esnek készült, de akkoriban volt a Batmangate botrány, és a fejlesztők nem akarták kivívni ők is a felhasználók haragját, mert az Eidosnak sem tett jót, hogy folyamatosan linkelték a hivatalos fórumra a játék torrentjeit. Ellenben a GPU Physx mellett szokott programszál korlátozás lenni, hogy a CPU-s megoldás ne gyorsulja le a GPU-t. Ezért limitált a fizika számítása, ami kapásból CPU-limitet eredményez.

    Ha jót akar a Crytek, akkor valami Compute Shaderes AA-val rukkolnak elő.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • janos666

    nagyúr

    LOGOUT blog

    Na tessék, megvan az új SC2 mizériám: Kilövi a VGA LUT-ot! :W
    Nem tudom, hogy ez most itt konkrétan a VGA driver vagy a játékmotor hibája, és tudom, hogy nem egyedi eset, de mostanság az újabb játékok nem csináltak már ilyet. :U

    Hogy megbizonyosodjam róla, csináltam kézzel egy LUT-ot, ami 140 alatt minden árnyalatot leküld a feketébe (a szürkeskála fele egyformán fekete lett), és végignéztem a kéznél lévő programokat:
    D3D Fullscreen exclusive mode--ba rakott video rederer: fekete pacák, kivehetetlen kép
    Assassin's Crred 2 és Mass Effect 2: dettó (marad a kalibrációs LUT)
    StarCraft 2: a LUT-nak lőttek, semmi sem változik, még a szándékosan egyértelműre gyártott teszt LUT-al sem.

    De jó, hogy ezt a monitort pont úgy éri meg kalibrálni, hogy az RGB Gain-ek 255-ön maradnak, és a LUT teszi a dolgát, mert össze-vissza keresztezik egymást az RGB Level görbék, így hiába állítom be az OSD-ben a fehéregyensúlyt. A gammát pedig nem is lehet onnan OSD-ből babrálni.

    De még jó hogy előbb tűnt ez fel, mint hogy arról fecsegtem volna, hogy szerintem kicsit lágyak a sötét árnyalatok a játékban (mert ez a monitorom hibája, amit orvosolna a LUT...).

    Arról sem kérek 20 hsz-t, hogy "Mi az a VGA LUT?" (ott a google), de a "Minek az neked egy játékhoz?" típusú kérdésekkel végképp kíméljetek. Kell és kész. Miért ne kéne? Szerintem mindenkinek kéne, csak nem tud róla...

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • Wolverine

    félisten

    válasz janos666 #158 üzenetére

    A játékot nyilván nem színhelyesre kalibrált profi monitorokra találták ki, hanem a kocagamer otthoni masinájára és filléres kijelzőire :U

    "I'm the best there is at what I do, but what I do best isn't very nice." (Wolverine) / "Hello, I'm the Doctor. Basically... run." (a 11. Doktor)

  • janos666

    nagyúr

    LOGOUT blog

    válasz Wolverine #159 üzenetére

    Olvasd el a szürke betűt is légyszíves. Köpi. :B :P ;]

    Itt nem arról van szó, hogy nem támogat teljesértékű color managementet: nem olvas be tetszőleges, külső software-el monitorra szabott 3DLUT-ot -> mert igazából egy profi játékmotor nyugodtan megtehetné! Lazán elférne a VGA memóriában egy 16 bites 3DLUT a maga 96Mb-jával, és azzal már tökéletes color managementet lehet tolni, gamma, white balance, gamut, minden, amit akarsz, és fizikailag elbít a kijelző! Nagyon eszgyszerű lenne beépíteni is. Egy kis mappa a játék könyvátárában, ahol elhelyezheted a LUT filet, induláskor beolvassa a VRAM-ba, aztán menet közben a kiszámított RGB értékeket átküldi a 3DLUT tábláján. Minimális erőforrásigény és fáradtság, de egyesknek hatalmas profit... Sőt, ha igazán profik akarnak lenni, a végén még egy ditherelést is ráküldenek a 16->8 bit kerekítés helyett, és akkor olyan pöpec lehetne a kép még az olcsó TN paneleken is, hogy "ahajj a maihoz képest".

    Mondjuk ezért lehetne nyaggatni a VGA gyártókat is, hogy nem sima, hanem 3DLUT-ot kéne már tenni a mai VGA-kba. Vagy inkább lehetővé tenni a VGA driverben, hogy egy shaderrel alkalmazzunk egy ilyet (ami 24/7 futhat a windows asztaltól kezdve a D3D és OpenGL rendererek felett is). De mennyivel egyszerűbb, hogy "vegyé' fél-egy milkás EIZO monitort, az tud ilyet. :DD

    Itt most az a zavaró, hogy szándékosan (vagy gondatlanságból, de nem teljesen véletlenszerűen, hanem biztosan) kitörli a LUT-ot! Csak tudnám minek...
    Talán ezzel akarja előidézni a változásokat, amit a menüben lévő brightness és/vagy gamma csúszkától vár az ember. De én nem emlékszem, hogy lenne ilyen a menüben, de egyébként is, ez nem arra való, és amíg nem nyúlok a csúszkához, addig végképp nem kéne belebarmolni a LUT-ba! Igazából semmi keresnivalója nincs ott a játékmotornak! És mint írtam példának, más DX9-es játékok is képesek békénhagyni! Inkább tudatosnak tűnik ez a döntés (és akkor biztos is, hogy ezen keresztül akarják megoldani a menüből lőhető képmanipulálást, esetreg kifelejtettk a menüből a csúszkát. :DDD).

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • Wolverine

    félisten

    válasz janos666 #160 üzenetére

    Speciel a Blizzard játékai mindenféle RAM-ot hajlamosak megenni, szinte minden mennyiségben - legyen az VGA RAM vagy sima. Az a 96 MB érezhető egész addig, amíg nem 1 GB-os kártyával villogsz... :U
    Nem mellesleg ha ez annyira hiányzik, dobd be a hivatalos fórumba javaslatként, egy alaposan alátámasztott és megindokolt fejlesztési ötletet a Blizz fejlesztői rendszerint kajálni szoktak.

    "I'm the best there is at what I do, but what I do best isn't very nice." (Wolverine) / "Hello, I'm the Doctor. Basically... run." (a 11. Doktor)

  • janos666

    nagyúr

    LOGOUT blog

    válasz Wolverine #161 üzenetére

    Ez itt már hatalmas offtipoc, de úgy is halott már (megjött az AA hotfix...):

    Szerintem egy sokkal hatalmasabb és összetettebb "összeesküvés" áll a háttérben, hogy az átlag ember miért csak szóbeszéd útján szerez tudomást a monitorkalibrálásról, és tekint rá néha még az után is úgy, mint valamiféle feketemágjára. :DDD
    ***Sokan, akik pénzért házhozjárnak sem tudják igazából mit csinálnak, és az mire jó valójában. ;]

    Látod, te is rögtön bedobtad, a "játékhoz felesleges" hozzáállást, pedig még tudtad is miről van szó, és szerintem még a ph-n sem sokan tudták, akik ezt a topicot böngészik.

    Egyrészt, ha egy gyártó meglebegtetné a "hardware-kalibrálható monitort mindenkinek" reklámszlogent, és az otthoni felhasználó által megfizethető modellekben alkalmanák a VESA standard-et, amit arra találtak ki, hogy minden monitorban szabványosan lehessen írni/olvasni a belső LUT-okat (amit egyébként senki sem használ, nehogy kitrükközzék a software-es tiltásokat, és elkezdjék kalibrálni az olcsóbb modelleket, amiket nem szabadna), akkor visszaeshetne a kereslet a méregdrága profi monitorok körében. A "kisebb cégek" nem görcsölnék ki a csillagászati árat az extra feature-ért...

    Másrészről pedig, ha beépülne a vásárlók tudatába, hogy igazából mit vesznek, az erős fejfájásokat okozhatna az olcsóbb, vagy silány, de nem is olyan olcsó monitorok gyártóinak és forgalmazóinak. A nem hardware-kalibrálható, olcsó monitoroknál is jobban oda kéne figyelni a gyári beállításokra. (Mert ma ugye rendszerint a drágább modelleken is előszeretettel megspórolják a gyári állapot finomhangolását. Tisztelet a kivételnek...)

    Szóval két bűzös lukba dugnák egyszerre a...

    Pedig, ha a másik oldaláról nézzük a dolgot, ennek már rég meg kellett volna történnie! Már a középkategóriás otthoni felhasználásra szánt monitorokat is felülírható belső LUT-al kéne árulni, és tetszés szerint bundle-két mellédobni egy colorimétert. Ezek a kis műszerek sem drágák ám, sőt! Itt is csak a software license teszi ki az ár ~90%-át, ha még nagyobb mennyiségben gyártanák őket, akkor tényleg bagóért lehetne osztogatni őket a monitorok mellé csomagolva, esetleg kisebb felárért lehetne választani ezt a "csomagot", vagy kicsit drágábban (de még mindig nem túlárazva) utólag is meg lehetne venni hozzá. A drágább (100K+) otthoni monitorokba pedig már írható 3DLUT dukálna, és "fapados spektométer".
    Persze áttól és kategóriától függően nem feltétlen rögtön sokbites 3DLUT, és precíz elektronika, de a maihoz képest nagyságrendileg jobb lehetőséget kéne nyújtani a felhasználók számára kalibrálás terén.

    Miért?

    Ha én egy játékfejlesztő, weblap-designer, fényképész, filmes, vagy hasonló lennék, kiváltképp idegesítene, hogy:
    A.) Én kiperkálom a csillagászati összeget a rendes monitorért (persze sok más, ettől független előnyös tulajdonságaik is vannak, de ez sem utolsó dolog)
    B.) Itt görizek és pepecselek előtte egész nap
    hogy "tökéleteset alkossak", és utána odakerül a felhasználók elé, és lehet, hogy még egy viszonylag drága, otthoni célra szánt monitoron is totál mást fog látni, miközben még az olcsóbbacska, de jól beállított monitoron is jobb lenne a helyzet.

    Akkor minek fizetek és pepecselek? Csapjuk össze. Már itt is szar lesz, ott még szarabb, de mindegy, mert úgy is veszik észre, ha itt felakadunk az apróságokon, vagy elnagyoljuk.

    Most is piszkálja a csőröm, hogy itt ülök egy monitor előtt, 12 bites belső LUT-al, csak épp nem engedik meg, hogy felülírjam. Pedig "szerintem" szándékosan nem tökéletes a gyári állapot, "mert akkor túl drágán kellett volna adni a népnek".

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • 9950es

    aktív tag

    válasz Abu85 #157 üzenetére

    Nemsoká jön a crytek interjú ;) Itt lesz .Mindenesetre jónagy szemétség hogy nincs választható MLAA , amikor majd minden játék deferred shaderes...

    120 fps or GTFO :D

  • Wolverine

    félisten

    válasz janos666 #162 üzenetére

    A probléma az, hogy sokat feltételezel az átlagjúzerről. A legtöbben tényleg nem tudják, mi a LUT, miért is jelenthet zavart, hogy általában a VGA a szűk keresztmetszet a színmegjelenítésben a maga 8 bites RGB-felbontásával, és hidd el, nagyon sokan megelégszenek a gyári beállításokkal is. Épp ezért azokon kéne faragni, hogy emberibb kinézetet adjanak, és nem Pista bácsi kezébe adni egy kolorimétert, hogy kalibrálja a monitort.
    Főleg, mert ilyen esetekben azonnal felmerülhet annak az esélye, hogy sikerül úgy elbarmolni a beállításokat, amiből nehéz kikeveredni; addig viszont a piros lila lesz vagy rosszabb esetben szürkésbarna, a fehér tojáshéjszínű, a zöld meg olyan, amit egy művész se látott még soha... :)

    Azt fenntartom, hogy a színhelyesre kalibrált monitor a profiknak szükséges, legyen az designer vagy grafikus; de nekik sem árt, ha a digitális felhasználásra szánt munkáikat ellenőrzik egy átlagos, kalibrálatlan kijelzőn is, hogy legyen arról fogalmuk, mit fog látni a fent említett Pista bácsi.

    "I'm the best there is at what I do, but what I do best isn't very nice." (Wolverine) / "Hello, I'm the Doctor. Basically... run." (a 11. Doktor)

  • #85552128

    törölt tag

    Tények:
    Technológiailag egy elavult játék és itt nem csak a grafikára célzok, ezen kár vitázni, mindenki tudja.
    Azt pedig, hogy "sírnak" az élsimításon nem kell lenézni, mert 3 éves fejlesztés alatt folyamatos csúsztatásokkal volt idő az ilyenek kiküszöbölésére.
    A 3D dx10 és dx11 korában vagyunk, ha adott a technológia miért ne kellene kihasználni?
    Főleg egy olyan játéknál aminek minden "porcikája" PC-re lett írva itt még a konzolt sem lehet kifogásként felhozni.

  • janos666

    nagyúr

    LOGOUT blog

    válasz Wolverine #164 üzenetére

    Ha van egy software, ami végigvezet a dolgon, és minden más automatikus, akkor nehéz elrontani. Főleg, hogy mikor belső LUT-od van, még RGB Gain-ekkel sem kell szórakozni. Sőt, a fényerő vezérlés ma is működik a legtöbb DDC/CI monitoron (ez némelyiken még szabványos is :DDD).
    Tehát Pista bá' leül, odatapassza az egeret a monitorra, nyom egy továbbot, és mire elszürcsöl egy forró teát vagy kávét, már kész is. Nem tökéletes, de nagyságrendileg jobb eredményt kap, mint amit most tapasztal, mikor kijött "valahogy" a gyárból, és azóta "történt vele valami" ahogy öregedett.
    Egyedül a fényerő érték az, amit fontos lehet személyreszabni, mikor nem tetszik a default 120, de erre is lehet okosan "darker, default, brighter" csúszka pár fokozattal, amit mindenki megért. A gammát már nem olyan fontos személyre és környezeti fényviszonyokra szabni.

    Illetve jó, az lehet, hogy tényleg túlzás, hogy "kalibrátort mindenkinek".
    Na de mikor itt egy monitor, 12 bites belső 3DLUT-al, és nem engedik meg, hogy hozzányúljak és finomhangoljam...? Pedig a Dell nem árul drágábban sem hardware-kalibrálható monitort, nem okozna házon belüli konkurenciát.

    Mert az egy dolog, hogy a gyárban profi cuccal kalibrálták, de már attól eltolódik kicsit a fehér, ha megváltoztatod a fényerőt, és azt is sokkal korrektebb lenne a belső LUT-al kompenzálni, mint a VGA LUT-al. (Még ha 10 bites is a DisplayPort és 12 bites a HDMI)
    Sőt, most csak VGA LUT-al, vagy a szervízmenüs RGB pöcögtetéssel teheted meg, az OSD-ben erre sincs csúszka a gyárilag kalibrált módokban.
    A másik, hogy szándékosan redukálták a kontrasztot is a gyárilag kalibrált sRGB módban. Letolták az RGB Gain-eket 210 köré ahelyett, hogy a legmagasabb 255-ön maradna. Lövésem nincs miért, de azt szerencsére orvosolni tudtam a szervízmenüből, csak így a gyári LUT már nem simítja ki az extraként visszanyert árnyalatokat, és többet kell dolgoznia a VGA LUT-nak (összességében jobb, de mégsem az igazi). Minden más mód pedig használhatatlanul el van kórva, wide-gamut módot nem is találtam, ami ne lenne tele összemosott szürkeárnyalatokkal, és furcsa gamma görbével.
    Csak az sRGB és AdobeRGB módok használhatóak, és azokon is sokat lehetne csiszolni, ha valami módon elérném a belső LUT-ot.

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • Meridian

    senior tag

    Szvsz igenis számít az élsimítás... én 32"-os "HD Ready" TV-n játszom, az hab a tortán hogy nem ismeri fel a natív felbontását (ez mondjuk lehet win7 betegség, mert a wow sem akarja), de ezt meg lehet oldani a window mód és fullscreen opcióval.

    Semmi élsimításnál az én tűéles képemen minden szörnyen fűrészfogasnak látszik (nagy a képernyő, és csak 1360x768-as a felbontás), amin egy AA mégha csak 4x-es vagy 8x-os is gyönyörű simává tenné.
    ÉG és FÖLD a kettő közt a különbség, mert a WoW-ot sem bírom AA nélkül elviselni, ezt se fogom. Még szerencse, hogy nem vettem meg, mert most sajnálnám a 14K Huf-ot amit kidobtam volna így. Áldom az eszemet hogy előbb lewarezoltam (beta kulcsot nem kaptam) és úgy néztem megelőbb milyen. Egyenlőre egy fos így. Sőt a renderelt videóktól sem ájultam be az asztal alá, nem éri el a 720p minőséget, elégé mosott az agyontömörítés miatt... úgy tudom egy x264-es codec és lejátszó nem annyira drága, főleg egy ekkora játéknál, ezerszer jobb minőséget is ki lehetett volna hozni ebből így (nem kell full HD videó, bár aki 1920x1080-ban tolja az lehet hogy más véleménye van - de egy jó minőségű 720p minőség elvárható lett volna a Blizztől)

    megjegyzés: aki keveslené a 1360x768-as felbontás, az nézzen utána, a 15" és 17"-os átlag de már játékra is jó laptopok felbontása is pont ilyen manapság. És biztos hogy sokan tolják laptopon is - a játéknak jónak kell lennie ezen is, amúgy szvsz jó is lenne, de az élsímitás nélkül fos, főleg az átvezető videók amik élvezhetetlenek emiatt - de maga a játék is nagyon szőrös..

  • Viktor77

    titán

    válasz Meridian #167 üzenetére

    Persze, hogy szőrös. A laptopok 1360-as felbontása illik a kijelző méretéhez. Ezért ott nem zavaró. Neked bőven 1920-ban kéne játszanod, akkora tv-n, és akkor nálad is oké lenne.

    Csinálni kell. Kész. Pont.

  • Meridian

    senior tag

    válasz Viktor77 #168 üzenetére

    Az tudom, hogy jobb lenne full HD-n de nekem anno erre tellett, és amúgy minden más játékban van/volt AA, még a WoW-ban is. És AAmellett mozgás közben nem is vezsem észre a képpontokat, de AA nélkül olyan mintha külön kinagyítanák - egyszóval nagyon szembeötlő.

    Amúgy megkérdeztem haveromat ő még 19"-es CRT-n tolja, ő is panaszolta, hogy szőrös a játék - pedig a CRT képe kicsit más jellegű mint egy LCD-é.

  • cszn

    őstag

    Rendben van, tényleg elvárható lett volna tőlük így 2010 közepén, hogy belepakolják az AA-t a motorba, de hogy ez ekkora probléma lenne? Végigolvastam a hozzászólásokat és csak arra jutottam, hogy aki ezen ennyit képes agyalni, szitkozódni az nem érdemli meg, hogy egy ilyen részletesen kidolgozott játékot kapjon. Jó lesz annak pl. a Metro 2033 (egy példa a sok közül) amibe sok mindent belepakoltak, csak a játékélményt felejtették ki belőle. Én inkább kanyarodok vissza a régebbi játékokhoz amelyeknél még nem néztek teljesen hülyének a készítők, mintsem hogy ilyen tucattörténeteket nyomjanak le a torkomon, 1000X végigjátszott játékmenettel, de a legújabb AA eljárással megspékelve. Engem is érdekel a technikai háttere a dolognak, ki mit miért csinál, ma éppen melyik cég szúr ki jobban a felhasználókkal, de csak bizonyos kereteken belül... Távolságtartással, ha úgy tetszik éppen annyira, hogy ne legyen egészségkárosodás a vége. :DDD
    A SC2 előtt épp az X-COM Apocalypse-szel kezdtem el ismét játszani. 1997 régen volt, kicsit zavar is a 640*480 meg, hogy még mindig ugyanazok a grafikai hibák benne vannak, de mocsok jó játék. Ha végigtoltam a SC2-t folytatom is. :P

    [ Szerkesztve ]

  • #85552128

    törölt tag

    válasz cszn #170 üzenetére

    Nos ez önmagában nem lenne akkora nagy baj, ha nem lenne ott a másik probléma, vagyis, hogy laptopoknál nem képes beállítani az 1366x768-as felbontást.
    És ne jöjjön senki se azzal, hogy a laptop nem játékra való, mert igenis való.
    Már a bétakor legalább 4-5 topicot hoztak létre a userek, de **** javítani még a véglegesben is.
    Egyetlen olyan játékkal nem találkoztam, aminél legalább ini átírással nem lehetett volna beállítani (mert itt még azzal sem engedi).
    Nem a grafikával van baj értsétek meg, legalábbis nem úgy, ahogy azt ti gondoljátok.
    Egyszerűen a szintje egy 2007-es játékén van, ennek ellenére zabálja az erőforrásokat.
    Csak összehasonlításképp C&C3 ultrán megy és szerintem szebb mint ez, talán itt az egységek animáció részletesebbek, de ennyi.
    Nem hiszem el, hogy x évnyi fejlesztés és annyi csúsztatás után nem lehetett volna legalább egy kicsit optimalizálni.

    A Just Cause fejlesztőjének pedig igaza van: Ha adott a technológia igenis ki kell használni, főleg ha máshogy nem megy.
    Az AA hiánya itt sem olyan nagy gond, vagy mégis? Miért most akarják bepakolni nem volt idő rá?

    [ Szerkesztve ]

  • cszn

    őstag

    válasz #85552128 #171 üzenetére

    Na akkor ez a felbontás mizéria ez tényleg elég nagy szívás, ezért megértelek. De a játék optimalizáltságával amúgy nem hiszem hogy gond lenne... cpu kell neki, de a grafikát be lehet állítani hogy jól menjen. AA hiányán kívül én nem látok semmi kivetni valót benne, sőt! A fények, napszakváltások iszonyú jól meg vannak csinálva, a kis izgő-mozgó egységek animációja zseniális és az összkép is remek.
    A C&C3 véleményem szerint sokkkkkal rosszabbul néz ki, de ez nagyon off. A játkélményről ne is beszéljünk.

    #173 Nem ott a gond, hogy 1360*768 és nem 1366*768? :U

    [ Szerkesztve ]

  • Karma

    félisten

    válasz #85552128 #171 üzenetére

    Ami azért fura, mert én 1360x768-ban játszottam vele tegnapelőtt, és simán ment, semmi szívás nem volt. Mondjuk nem laptop, hanem TV-re kötött asztali gép.

    [ Szerkesztve ]

    “All nothings are not equal.”

  • #85552128

    törölt tag

    válasz Karma #173 üzenetére

    Mint mondtam laptopnál képtelen azonosítani a kijelzőt, vagy én nem tudom még ki is írja az üzenetet, ez még nem lenne baj, csak egy fél éves és nem egyéni problémáról van szó, amit illett volna a véglegesben javítani.
    1360 nem 1366 azért 2010-ben ez már szégyen, hogy ilyenekkel kell macerálni.
    Az optimalizáltság pedig igenis gyatra, 2 magot kihasznál, ettől többet viszont képtelen pedig proci tényleg kell neki és mi az, hogy az árnyékokat medium-tól lejebb nem lehet venni, ha a többi beállítás high-on van?
    Én pl. inkább azokat kapcsolom ki, mert feleannyira sem látványos, mint ahogy fogja a gépet.

    "A játkélményről ne is beszéljünk."

    Azért a játékélmény és a "gyönyörű" SC2-es átvezetők nem nagyon illenek össze...

    [ Szerkesztve ]

  • janos666

    nagyúr

    LOGOUT blog

    válasz janos666 #158 üzenetére

    Na, erre nem magamtól jöttem rá, de talán hasznos infó másoknak is:

    Windowed Fullscreen módban megmarad a LUT. Ezzel hozzájárult a játék, hogy kicsit szebb legyen. :)
    (Bár kicsit fura, hogy tudok ablakokat pakolászni a játék felett, de ha rákattintok, akkor nincs oldalt keret, vagy ilyesmi, és ahogy elnézem, még az AA is működik így windowed módban is. :P

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • Dyingsoul

    veterán

    Bizony mondom néktek, full hd felbontásban érezni az AA hiányát! nem csunya a játék, de elbírná az tuti...

    - Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul

  • cszn

    őstag

    válasz Dyingsoul #176 üzenetére

    Én is letesztelgettem. 1280-ban játszok, AA nélkül és 4xAA között keresni kell a különbséget. A teljesítményt meg azért igencsak visszafogja a kényszerített élsimítás.

    [ Szerkesztve ]

  • M3Ny3'T

    senior tag

    válasz #08052480 #2 üzenetére

    Én csak azután nem értem, hogy így is süti ki a játék a VGA-kat állítások szerint (korábbi cikk), hátmég némi AA-val... :W

    Skype-on lány az informatikusnak: Milyen színű a szemed? Informatikus: #0034ff

  • Wolverine

    félisten

    válasz M3Ny3'T #178 üzenetére

    A VGA esetleges halála annak köszönhető, hogy a videók és a menü esetében nincs fps-korlát, és a játék fullra terheli a kártyát.

    "I'm the best there is at what I do, but what I do best isn't very nice." (Wolverine) / "Hello, I'm the Doctor. Basically... run." (a 11. Doktor)

  • Csövy

    tag

    Hát ennyi felindult hangvételű hozzászólás után biztos h megnézem valahol a gámét, h hogy is fest. :)
    Ha másnak nem, de reklámnak a számomra elég volt ennyi vélemény. Bár személy szerint annak idején azért nem játszottam a Warcraft 3-mal mert nem tetszett a 3d az SC-vel meg azért mert nem nem tetszett az egész űrös dolog, és fájt h a kedvenc fantasy gámém folytatása helyett csináltak egy űrös "izét.". Azóta persze én is változtam.:)

    De a lényeg: A Blizzard tényleg az egyik- ha nem a legjobb játékfejlesztő stúdió, DE: -
    Mikor kiadnak egy agyon hypolt játékot AA nélkül 2010-ben akor felmerül bennem a kérdés, h mit csinálnak a programozóik egész nap??? Enyi erővel ki lehetne adni egy art-book szerű lapozgatós RPG-könyvet SC2 címmel mert abban is biztos van játékélmény. (és tuti h többet adnának el belőle mint a HP-ból...:) )
    Lehet védeni a Blizzardot meg támadni is bőven, de ez amit ezzel a mulasztással elkövettek, az jelzésértékű a jövőre nézve...
    (elképzelem a beszélgetést a fejesek között: -Te még nincs kész még bele kéne rakni a AA-t csak idő kell hozzá... - Nyugi a sok fan csak erre vár majd csak megveszik így is sok előrendelés van ne aggódj..

    ja, egy számítógépes játéknál azt mondani, h nem a grafika a lényeg, olyan mintha azt mondanám h egy autónál nem az a lényeg h milyen motor van benne. Aki pedig azt mondja, h a régivel még mennyien játszanak és h a "régi" játékok milyen jók azoktól csak annyit kérdeznék h nem véletlenül akkor kezdett el játszani Pl A HeroesIII-al mikor annak volt csúcs a grafikája? (mondjuk azzal tegnap is játszottam :D )

    Ez az én privát meglátásom a dologgal kapcsolatban.
    Jöhetnek a kövek ha vkit megsértettem.

    Privátokra illik válaszolni...

  • brd

    nagyúr

    válasz Wolverine #179 üzenetére

    VSync rule'. Bár ahhoz olyan gép is kell, ami bírja is, különben akadozni fog, ha a monitor frissítésénél alacsonyabb FPS-t bír csak a gép az adott játékkal.

    The only real valuable thing is intuition.

  • Peat;)

    veterán

    Szerintem ez sokakat nem érint, mert a látványhoz képest kifejezetten nagy gépigényű a játék, így a legtöbb felhasználó alapból sem tudná bekapcsolni. Inkább az a szomorú, hogy ha ennyire kedvezni akartak a kis gépűeknek akkor az miért nem jött össze tökéletesen. De a modernebb gépekkel rendelkezőktől is láttam panaszokat, szerintem ez sokkal inkább nagyobb probléma, mint az élsimítás.

    Azt viszont nem értem, hogy 3d-t akarnak a játékba rakni. Na ha most ennyire elmozdulnak a mai trendek irányába (ha maga a 3d nem is modern dolog), akkor a mai trendek között egyértelműen ott van már az élsimítás is. A hasznosság bizonyára mindenkinél változó, de nem hinném hogy többen akarnak 3d-t mint élsimítást.

  • .Zoli.

    csendes tag

    Érdekes ez az elsimítás téma... Soha életemben nem vettem észre, hogy recések a szélek, semmilyen játékban, pedig nyilván azok voltak. :D Aztán ahogy megjelentek, a csúcs szuper grafikájú játékok, és az ember próbálta elérni a lehető legjobb kinézetet, elkezdtem észrevenni. És a probléma ezzel mindössze annyi, hogy az AA teljesen nem szüntet meg semmilyen recésséget, mivel (ha jól tudom, de javítsatok ki ha tévedek) egy pixelnek ugyanúgy egy féle színe lehet ma is, mint 20 éve. Akármennyire be van kapcsolva az AA, ha azt figyeled, hogy milyenek a szélek, látni fogod azt a rohadt recésséget. :D

  • brd

    nagyúr

    válasz .Zoli. #183 üzenetére

    Rossz a szemed? ;) A számítógépen nézett HD (vagy legalább a monitor felbontását alul erősen közelítő, és megfelelő átméretező technikát használva a lejátszás közben) filmekben látsz recéket?
    Nem mindegy, hogy az az egyszínű pixel képez-e átmenetet a környező pixelek színe között, vagy nem, lásd az alábbi képen:

    Teljesen valóban nem szünteti meg, de az alkalmazásával jelentősen javul a helyzet.

    The only real valuable thing is intuition.

  • totyax

    aktív tag

    válasz brd #184 üzenetére

    Irigylem azokat akiknek "rossz a szeme" :) Nem minden játéknál zavaró egyébként.

  • .Zoli.

    csendes tag

    válasz brd #184 üzenetére

    Nem, filmekben nem látok recéket, HD monitorom van amúgy, és EN9800 GT 1 megás kártyám. Nem akartam igazából elvitatni azt a tényt, hogy az elsimítás fontos lenne egy 2010-es játéknál, csak azt akartam mondani, hogy azért van szerepe annak, hogy mire figyelünk, mennyire köt le a játékélmény, stb. stb. Az, hogy látszik valami, még nem feltétlenül kéne, hogy zavaró legyen. Azért zavaró, mert megszoktuk az elsimítást, és azért vesszük észre, hogy nincs, mert megszoktuk, hogy van. :)

  • brd

    nagyúr

    válasz .Zoli. #186 üzenetére

    No', a filmekben azért nincsen rece, mert ott a képek egy másik (nagyobb) felbontásról vannak konvertálva, és olyan minőségi eljárással, amely figyelembe veszi a környező pixelek színét is. Persze, hogy van szerepe a játékélménynek/játékmenetnek is, pl. egy FPS-nél valószínűleg kevesebb embert zavar(na) az AA hiánya, mint egy stratégiai játékban (ugyanazon emberek közül is). Egyébként a felbontás növelésével (nyilván) egyre kisebb a szerepe.

    The only real valuable thing is intuition.

Új hozzászólás Aktív témák