Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #8588 üzenetére

    Nem az. Ez egy ismert hibája az 1.00-s verziónak. Pont az ilyen grafikai hibákra jött a day0 patch (Fixed issues with flickering on specific water textures.). Lehet, hogy a feltöltő a virágboltból szerezte a játékot. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #8596 üzenetére

    Akkor VGA-hiba a pöttyözés. Bár ráillik az Ubi javításlistáján a water fix, nem-e elképzelhető, hogy esetleg volt 1.00-s is a virágárusoknál? :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    (#8601) Pubszon és (#8602) FLATRONW: Erre is van egyszerű megoldás. Egy parancsikont kell létrehozni, amiben ez a parancs van például:
    C:\Windows\System32\cmd.exe /C start /affinity AA D:\games\bf3\bf3.exe
    Persze a bf3-at cseréljétek, amire akarjátok, de mindig teljes elérési utat adjatok meg.
    Itt az AA jelenti azt, hogy a nyolcszálas cpu-n a 0, 2, 4, 6 szál lesz használatban. Gyakorlatilag a 10101010 bináris hexadecimális formája.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FLATRONW #8605 üzenetére

    Gyakorlatilag igen.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #8611 üzenetére

    Mivel mi is látjuk a program futását, így nem szükséges a tapasztalat megosztása. :) De köszönjük.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #8614 üzenetére

    Nem a teszt elismerésével van baj, hanem azzal, hogy nekünk ezek nem jönnek ki. Így nehéz ezekről írni. Természetesen a CF-nek és az SLI-nek vannak problémái, de egyik sem jobb a másiknál, mert a technológiai alapok dettó megegyeznek.
    Se nem mérhető, se nem látható, hogy az egyik rosszabb a másiknál. Legalábbis nekünk erre még nem sikerült rátalálnunk.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #8616 üzenetére

    Biztosan állítod, hogy minden egyes vásárlónál kijön amiről beszélsz? Ezen nevetnem kell.
    Az meg, hogy becsapjuk az olvasókat? Mégis mivel? Hogyan számolhatnánk be valamiről, amit nem látunk a tesztekben?
    Ha te úgy alszol nyugodtan, hogy a tesztoldal nem minden, akkor egészségedre. Köszönjük, hogy ezt a fontos információt megosztottad velünk. Ebben az esetben a teszteket téged leszámítva a maradék pár százezer olvasónak készítjük.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #8618 üzenetére

    Értelmeztem, olvastam. De mit tudunk csinálni, amikor ez nem jön ki a tesztjeinkben? Írjuk meg, hogy te, meg még ketten panaszkodnak egy dologra, amit nem tudunk kimutatni, vagy nem látunk?
    A HardOCP sem mutatta ki azt, hogy az SLI jobb, mint a CF. Egy teljesen szubjektív véleménnyel álltak elő. Mi nem szoktunk ilyenre hagyatkozni, mert nem tényszerű információ. Mérésben pedig a frame time ezekről nem árulkodik, vagyis megalapozni nem tudunk semmivel egy ilyen kijelentést. Persze leírhatnánk ilyen dolgokat mi is, csak, ha jönne egy kérdés, hogy ennek mégis mi az alapja, akkor azt mondhatnánk, hogy semmi. Teljesen szubjektív benyomás, amit semmilyen méréssel nem tudunk alátámasztani.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #8620 üzenetére

    De mégis mit kellene keresnünk? Szerinted ezeket nem nézzük meg? Napokig tököljünk azon, hogy keresünk valamit?
    Más azt mondja, hogy neki tökéletes a BF3 Radeonnal is. Ezekkel a dolgokkal nem tudunk mit kezdeni. Nincs lehetőségünk hetekig elemezni minden játékot egy VGA-val. Sosem lenne kész a teszt.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #8849 üzenetére

    Amit mondtam, hogy nálunk ilyen nem fordul elő. Ezt meg kell érteni, hogy ha nem látjuk, akkor nem tudunk beszámolni róla.

    Egyébként már felkerestem más tesztelőket is, ők sem látják, és nem is mérték. Nem tudják, hogy a TechRerportnak, hogy jött ki ez. Scott Wassonnak is írtam már. Ő mondta, hogy az AMD már felvette vele a kapcsolatot, hogy elkérjék a teszthez használt hardverét. Ebből arra következtetek, hogy az AMD a saját hardverein nem látja a jelenséget, ezért specifikus hibára gyanakodnak. Ez azt is alátámasztaná, hogy más miért nem látja, vagy számol be ilyenről.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #8852 üzenetére

    Mi nézzük a frame time-ot. Csak nem jegyezzük fel, mert nincsenek tüskék benne.

    A BF3 már tisztázva lett, hogy TTomax ábrája alapján a processzor okozta az akadást. A GPU grafikonjában nem volt tüske.

    Ugyanilyen tesztje egyébként korábban is volt a TechReportnak, de akkor nem jöttek ki ezek: [link] - benne van ugyanaz a két VGA, ami az új tesztben.
    Ezért nem érti senki, hogy most akkor mi történt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #8854 üzenetére

    Nem érted. Ha nem látjuk, akkor nem tudunk róla beszámolni. Ha megpusztulunk sem tudjuk kimutatni. Az AMD sem véletlen szeretné elkérni a TechRerport konfigját. Ők sem látják a hardvereiken.

    Ha megnézed a TechReport korábbi tesztjét, akkor ott ezek a különbségek nem jöttek ki. Pedig ugyanazok a VGA-k voltak benne. Ez azért minimum elgondolkodtató.

    Ezernyi dolog beleszólhat. Akár egy BIOS frissítés is kiválthat ilyet. A CPU nem biztos, hogy beleszól. Erre csak TTomax képe volt bizonyíték, de az is csak egy kép volt, és sokkal komolyabban meg kellett volna vizsgálni, amit már nem lehet.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8857 üzenetére

    A Boost miatt biztos nincs. A tesztelt Radeon nem támogatja. A PowerTune az nagyon stabilan tartja az órajelet 0%-on, ami a default. Gyakorlatilag a Furmarokon kívül nincs semmi, ami miatt csökkent. A GeForce turbója sokkal agresszívebben dolgozik, mint amit valaha láttunk a Radeon HD 7970 Boostjától. De ez nagyon játékfüggő.

    A másik rész a korábbi fentebb linkelt teszt, amiben volt Boostos Radeon, és ott sem volt lényegi eltérés, viszont semmi különbség nem volt a tüskékben a Radeon és a GeForce között.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #8860 üzenetére

    Ez nem rossz meglátás, mert a korábbi teszt, ahol nem volt semmi eltérés a GeForce és a Radeon folyamatossága között még a 12.7-es driverrel ment, míg az új a 12.11 beta8 driverrel. Ráadásul az új 12.11-es driverekkel még senki sem mért teljes tesztet, mert nem volt rá idő.
    Az NV közel sem fejlesztett annyit a Keplerhez. A 12.11-es egy nagyon alapokról írt driver az új architektúrához. Nem véletlen, hogy béta még, és a tervek szerint februárig nem is lesz belőle végleges, amit WHQL-re küldenek, szóval jönnek továbbra is a béták.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #8866 üzenetére

    Meg kellene nézni a béta11-gyel is, mert az a driver, amit hivatalosan ajánlanak már tesztre. A béta8-at megnézésre kínálták.
    Szerintem még lesz pár béta. Valszeg eredetileg terveztek WHQL-t decemberre, de úgy gondolhatták, hogy inkább nem vesztenek vele időt, és februárig bepakolnak minden hátralévő fejlesztést. Az eddigi infók szerint még nem kevés újítást szeretnének bedobni, szóval ebből a batch-ből csak akkor lesz WHQL, ha minden tervezett dolgot beledobtak. Január vége, vagy február szvsz, ha nagyon időt kellene erre mondani.
    Egyszer ezen túl kell esni, mert nagyon sokat tud a GCN és ezeket elérhetővé kell tenni a szabványos API-kon keresztül. A HD 8000 startjáig ezzel végezni kell, mert azt a rendszert már teljes funkcionalitással kell várni. A HD 7000 júzerek meg visszamenőleg megkapják a funkciókat.

    (#8867) gbors: Valóban Boostos a hardver. Mondjuk érdekes, hogy a Sapphire nem írja annak.
    De akkor is itt van ebben a tesztben a Boostos Radeon a többivel, és semmi különbség. [link]
    A HD 7970 GHz is nagyon kellemesen kezeli a Boostot. Stabilan sokáig marad a magasabb órajelen. Ez nem okozhat gondot, főleg úgy, hogy a GeForce Boostja másodpercenként 100 MHz-eket ugrál oda vissza. Ebből sem látszik egyébként semmi, pedig ez monitorozva nagyságrendekkel agresszívebb órajelugrásokat mutat.

    ---

    Marcsel: Ne gyűjtsd feleslegesen a hsz-t és ne szítsd a hangulatot, mert pihenőre raknak a modik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FLATRONW #8876 üzenetére

    A Catalyst, vagy más grafikus driver biztos nem felel a processzorért. Az a GPU-t vezérli.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8878 üzenetére

    A Boost csak az NV-nél függ példánytól, mert ők binnelik, és ebből 4 bin a garantált, míg a többi 5-12 ráadás lehet. Az AMD-nél nincs bin. Mindegyik termék ugyanúgy van leválogatva, így minden szituációban ugyanúgy működik. Ezt az garantálja, hogy a Boost egy PowerTune fícsőr, és a PowerTune az integrált szolgáltatás, vagyis kategóriákba leválogatott lapkák Powertune beállítását megegyezőre specifikálják, amit a driver tölt be az indításkor. Ettől persze egy-egy lapka tudhat többet, de ez már a tuning része. Viszont ugyanarra a termékre ugyanaz a beállítás lesz betöltve. Ez a beállítás egyébként driverrel érkezik, vagyis egy-egy driver között megváltozhat, de nem jellemző. Ami jellemző, hogy ha van egy 3rd party tuningprogramod, az lelövi az Overdrive működését, és betölt egy másik Powertune beállítást. Ez okozhat galibákat.
    Az NV-nél azért működik ez másképp, mert a Boost az félig szoftveres fícsőr, egy külső vezérlőáramkör felel érte, és nincs konkrétan integrálva a DVFS a lapkába, ahogy a Powertune. Minden egyes órajelállítás a driveren megy keresztül, vagyis visszaigazolással zajlik. A Powertune az az indítás elején kéri a specifikációt, hogy hogyan működjön és onnantól kezdve sosem szól a driverhez. Mindig maga dönti el, hogy mihez kezdjen az adott szituációval. Ez olyasmi DVFS, mint ami a modern processzorokban van.

    Az ugrálás kártyától és játéktól függ. Az NV-nél technikailag nincs két egyforma termék, még ha elméletileg annak is adják el. Nagyon érdekes ez, mert két elvileg tökugyanolyan GeForce között 4-6% sebességkülönbség is lehet, és ez abból ered, hogy másképp van az egyik binnelve. A max. Boost ~50 MHz-től akár ~200 MHz-ig is terjedhet. Ha neked beragad 980-re és nem megy feljebb, akkor neked a lehetőségekhez mérten a legrosszabb binnelésű GPU-d van, ami négy bint használ. Nekünk azért más ez, mert mi a gyártóktól jellemzően válogatott termékeket kapunk a tesztre, főleg 8+ bineseket. De halottam olyanról, hogy volt olyan tesztelő, aki olyan 660 Ti-t kapott, ami 1110 MHz-re Boostolt, közben a specifikáció 980 MHz. A binelést sajnos a dobozról nem lehet kideríteni, de jellemző, hogy a legjobb lapkákat a PoW, az EVGA, a Zotac, az MSI és az ASUS kapja. A többiek az alacsony bines GPU-kat kapják.

    Az egy dolog, hogy a program a CPU-n fut, de a jelenetszámításhoz semmi köze nincs a GPU driverének. Az pure CPU jelenleg. Onnan lesz a drivernek hatásköre, amikor a GPU kapja a rajzolási parancsokat. De ilyenkor a jelenet már kész.

    (#8879) FLATRONW: A CCC az egy szimpla vezérlőpult. Abban beállítasz dolgokat és elmenti egy fájlba, amit a driver kiolvas. Maximum a memóriát foglalja, amíg be nem zárod.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #8881 üzenetére

    Nem teljesen. A PowerTune a VRM terhelését figyeli. Ez alapján értékelje ki, hogy mihez kezdjen. Ez persze a fogyasztáshoz kapcsolható, de nagy szórás a termékek között nincsen, sőt, alig van eltérés. Az NV-nél sincs alapvetően különbség a megegyező binnelésű chipeket használó azonos kártyák között.

    Az OC növeli egy bin órajelhatárát. Az teljesen normális, hogy ha alapra leveszed, akkor egy négy bines GPU 980 MHz-re áll be. Ennek így kell működnie. A GTX 660 Ti-hez használt chipeken egy bin referenciabeállításon 16,25 MHz. Ha tuningolsz, akkor ez a 16,25 MHz is nagyobb lesz. Ez teljesen normális, az lenne baj, ha nem így működne.

    Igen, viszont, ha beakad ezért, akkor azt a GPU is meg fogja érezni, vagyis a CPU mellett a GPU frame számítás is késik, mert késik a szükséges adat. Ha viszont a tüskés, vagyis sokáig számolt jelenethez tartozó frame normális értéket képvisel, akkor a tüske a jelenetszámítás szintjén történt, valszeg egy swap miatt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz altoalto #8892 üzenetére

    Amelyik játék normálisan kezeli le a 4:3->16:9 képarányváltást, az lekezeli az egzotikusabb képarányokat is. Amelyik pedig nem jó a képarányváltással az gyakorlatilag csak azzal a képaránnyal lesz jó, amire kalibrálták. Mivel manapság erre figyelnek a fejlesztők (főleg amióta elérhető az Eyefinity SDK, amivel ez a dolog leegyszerűsíthető), így az új játékoknál bármilyen képarány jól lesz skálázva. A régi játékoknál sajnos marad a 4:3.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz altoalto #8897 üzenetére

    Inkább régebbi. 2000-es évek eleje kb... De ezt nehéz általánosítani.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #9053 üzenetére

    Azt a funkciót az NVIDIA a 310-es driver sorozattól komolyabban korlátozza, mint a 300-astól. Mostantól alapértelmezett az auto beállítás, de a konfigurációtól függően nem mehet egy bizonyos szám alá. Például a 0 teljesen eltűnt (ennek már annyi volt a 300-as driverekben is). Az NV átállt arra, amit az AMD használ, hogy az egyes játékokhoz a profilban állítják be az ideális értéket, ezt jelképezi az auto beállítás (valszeg azért csinálják ezt, mert túl sokan hiszik azt, hogy mindenhol a 0-1 a legjobb). Ilyenkor a driver mindig a profilból szerzi az adatot, vagy ha erre nincs adat a profilban, akkor az érték 3 lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #9092 üzenetére

    Mi ez a szar? :Y ;]

    Egyébként nem hiszem, hogy komoly előnyben lenne a GCN-es Radeon, mert a programról most küldték a bejelentést, és írják, hogy nem használ compute shadert. Valszeg a számítások miatt a Raymarch és a Fluid tesztben annyira nem lesz rossz, de a Furben szerintem számottevően jobb lehet a Kepler. A technikai oldalt vizsgálva olyasmi terhelése lehet a programnak, mint a Unigine Heavennek. Aztán majd rám cáfol. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz viktor82 #9094 üzenetére

    Ne trollkodjál. Ha nem vetted volna észre ott vannak mögötte a smájlik. A képeket megnézve nekem ez jutott rögtön az eszembe. Azért egy bazi nagy macska, aki lézereket lő a szemével nem átlagos dolog. Ami utána jön az sem.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #9098 üzenetére

    Valóban ... nem is rossz technikailag. Bár a koncepció valahogy nagyon idegen. Olyan érzésem van, mintha valami gagyi japán animációs film lenne. :D

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz viktor82 #9104 üzenetére

    Nem, de mi baj van a compute shaderrel? Szinten minden új játékban előnyt kovácsol neked és mindenkinek, hogy az adott effekt compute shadert használva gyorsabban kiszámítható. A compute shader létezése nélkül rengeteg effekt nem is létezne. Az Unreal Engine 4 sem ilyen lenne, mert annak a motornak a futószalagját zömében compute shaderben írták.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Landon #9307 üzenetére

    Az NFS-sel nem lehet mit kezdeni. Az a motor elvi működési szintjén van elrontva, illetve így tervezték. Ezen max egy patch segíthet, de kétlem, hogy lesz hozzá. Koncepcióból van benne a 30 jelenet/másodperc limit, szóval ez szerintem így is marad.

    A Hitman az relatíve sok compute shadert használ. Bizonyos területeken ez rengeteg context switchet eredményez. A compute tempó szempontból limitált architektúrák, mint a Fermi, a Kepler és a TeraScale 2 nem működnek elég gyorsan ahhoz, hogy sokszor megoldják a kontextusváltást, így egy képkockán belül történű sok váltással relatíve nagyot esik a sebesség. Ilyen körülmények között az Intel Gen7 és az AMD GCN, vagyis a compute irányba fejlesztett architektúrák hatványozottan gyorsabban működnek. A Nixxes belső mérése szerint a GCN-en egy kontextusváltás 22x gyorsabb, mint a Kepleren, szóval tudnak erről, de a játékot bevallottan GCN-re dizájnolták. Ha ezeket az fps eséseket el akarod kerülni, akkor az MSAA-t és az SSAO-t kell visszább venni, illetve a Global Illuminationt kikapcsolni. Azt, hogy ezek közül mit mennyire kell visszavenni már konfigtól függ.

    Az NFS-nél az SLI teljesen mindegy. Hiába megy, akkor sem lesz nagyobb a sebességed a motor működése miatt. A Hitman sajnos sok interframe kommunikációt használ, így bizonyos szituációkban az AFR-re eléggé érzékeny. Ettől függetlenül mennek benne a több GPU-s technikák csak ne várj minden esetben közel lineáris skálázást, ez is okozhat frame dropot, mert az előző képkocka adataira szükség van a következőnek, de az a másik GPU memóriájában van, amit át kell másolni. Ez valamikor annyira megterhelő, hogy AFR nélkül nagyobb lesz a sebesség. Az FC3 az kedvezőbb, ott szépen skálázódik a rendszer a legújabb driverekkel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #9251 üzenetére

    Egészen pontosan azt mondták, hogy a Radeont a BF3 alatt jobbnak érezték. De ez látszik a grafikonból is. Ami gond, hogy nagyon kevés a játék, persze ez a módszer nagyon időigényes, így sokkal kevesebb mérés is fér bele.

    (#9247) SzlobiG: Itt vagyok. Ha elolvasod a tesztet, akkor három játék van benne. Az egyik a Borderlands 2. Gondolom nem rakták a PhysX-et a driverben CPU-ra, így eleve két eltérő működést mértek. A Skyrim Radeonon mindig aktív vertikális szinkronnal fut, míg GeForce mellett nem mindig. Ez így megint nem közös helyzet, mert a szinkron miatt másképp működik a két rendszer. Ezért hanyagoljuk a Skyrimet, mert nem lehet a játék kódjából eltávolítani a vertikális szinkron korlátozását, ergo sosem lesz egységes a mérés. A BF3 alatt pedig a Radeont hozták ki az írás alapján jobbnak, bár sok különbséget nem mértek. Amit természetesen ismét sikerült kihagyni a tesztből azok az új DX11-es játékok.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz WaterWawe #9350 üzenetére

    A százalékos terhelés nem biztos, hogy azt jelenti, hogy a hardver nincs a véglegekig kihasználva. Ez függ a program terhelésétől, és nyilván SLI-nél a program AFR kompatibilitása is beleszól. Attól, hogy a 2. GPU 30-40%-on van még simán lehet, hogy a skálázás a program működési szintjén maximális. Ugyanígy egy GPU-val is lehet jó a 30-40%. Mind nagyon programfüggő.

    (#9339) siriq: Az Eyefinity modul tartalmaz egyéni felbontásbeállítást. Ugyanakkor a Catalystben van beépített SSAA. A szupermintavétel praktikusabb megoldás a downsamplingnál, mivel nincs torzítása és rendelkezik automatikus negatív LOD eltolással is. A downsampling csak akkor ad torzításmentes képet, ha a megjelenített felbontás fele, vagy negyede a logikai felbontásnak, negatív LOD eltolás pedig sosincs.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Tirexi #9444 üzenetére

    Biztonsági rés a driverben. Semmi több. Ha kihasználják, akkor átvehetik az irányítást a géped felett. Ehhez viszont mindenképpen szükséges egy rosszindulatú kódot futtatni a gépen. A leírás szerint ez az első lépés, és a legnehezebb is, mert neked kell a programot elindítani, hogy a rés kihasználható legyen. Utána a többi lépcső pofon egyszerű.
    Igazából, ha megbízható forrásból szerzed be a programokat, akkor kicsi az esélye, hogy beleütközzél ebbe a gondba. Jórészt torrenten keresztül beszerzett anyagokban lehetnek ilyen rosszindulatú kódok, amit speciálisan ennek a biztonsági résnek a kihasználására írtak (vagy más ehhez hasonló rések). Gyakorlatilag itt az első lépcső a nehéz, mert kell a felhasználó figyelmetlensége, naivitása. Főleg egy munkacsoporton belül lehet ennek nagy jelentősége. Oda csak egy rosszindulatú vagy elégedetlen dolgozó kell, és rögtön kész a baj. Valszeg ennek résnek a cégek nagyon nem örülnek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz srmark #9472 üzenetére

    Ez azért van, mert nem 4 bines a GPU, hanem valamivel több. Az NVIDIA a boostot úgy értelmezi, hogy garantál egy 4 bines paramétert, amit a specifikációkban megadnak. Ha több, akkor az azt jelenti, hogy magasabb a GPU binelése, de ez normális. Ez a GK104-nél úgy tudom, hogy 8 is lehet. Ebből a szempontból dettó ugyanolyan termékek között is lehet 2-6%-nyi sebességkülönbség, ami a binelés eltérésből ered. Ez a tesztek szempontjából fontos. A médiának mindig maximális binelésű terméket küldenek, aminél a kereskedelmi verziók esetleg 5%-kal is rosszabbul teljesíthetnek, még ha a specifikáció papíron megegyezik is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ricshard444 #9541 üzenetére

    Képes lehet a motor arra, amit mutattak az E3-on, de túl sok munka lenne ezt a teljes játéktérre megcsinálni. Ilyet már sokszor láttunk, elég csak a Crysis első bemutatójára emlékezni. [link] - a dzsungel sokkal szebb volt, mint a végleges játékban. A motor tudja, de egy teljes játéktérre dizájnolni egy ilyet olyan pokoli munka, hogy azt nem lehet bevállalni. Az FC3 az E3-on a játéktér egy apró részletét mutatta, ahogy a Crysis a GDC06-on. Egy ilyen kis területre jóval gyorsabban kivitelezhető egy komplex játéktér megalkotása.
    Természetesen oda kell figyelni pistike gyenge VGA-jára, de itt nem csak erről van szó. Minden játékot PC-n kezdenek el fejleszteni, még akkor is, ha csak konzolokra jelenik meg. Ennek megfelelően a dizájnnál is csak később kerül elő a különböző konfigurációk és konzolok teljesítménye. Még a végleges kód előtt ki kell alakítani egy olyan dizájnt, ami megfelel minden megcélzott hardver képességének. A játék megjelenése előtt egy évvel olyan dizájn is létezhet, ami sokkal szebb, de csak a csúcshardverek képesek elviselni, a bemutatókra viszont muszáj ezeket vinni, mert ezek vannak készen.
    A motort és a játékot nem írták specifikusan AMD-re. Az Ubisoft a kezdetek óta együtt dolgozott az NV-vel és az AMD-vel is. Maga a program TWIMTBP cím volt, de az Ubi kéréssel fordult az AMD-hez, hogy optimalizálják nekik a compute shader kódokat. Az AMD megtette, viszont gondolom ezért kérték, hogy a játék a Gaming Evolved partnerprogram része legyen. Ezért is lett egy gyors patch a kiadás napján, mert szeptemberben dőlt el, hogy egy csomó minden meg fog változni, viszont az AMD nem tudta elvégezni az optimalizálást a gold kód lezárásáig, így egy patchbe tették bele. Persze még a patch-csel sincs kész, mert az MSAA bugos még ma is, ugyanakkor két hónap alatt nem lehet csodát tenni. Itt hamarabb kellett volna döntenie az Ubinak. Kicsit szürreális, hogy szeptemberben jöttek rá arra, hogy nem sikerül a kódokat jól optimalizálni, illetve esetleg az NV a compute shaderben nem segít nekik.
    A mai gyártói partnerprogramok a dizájnért nem felelnek. Ezek lényegében csak programkódot adnak a fejlesztőknek. Akár kész implementációt is, attól függ, hogy mit ír elő a szerződés. A környezet kialakítása az művészi munka, a programozóknak ebbe nincs beleszólásuk, nem is értenek hozzá annyira, mint egy dizájn szakember, aki viszont programozni nem tud.

    (#9539) viktor82: A compute shader nem rak a játékba több objektumot (bokrot, fűt, fát, egyéb növényt). Az FC3-ban a compute shader a HDAO effektért és az élsimításért (FXAA/MSAA) felel. Semmi más nincs compute shaderben írva.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz viktor82 #9558 üzenetére

    Miért pont a hatékonyabban dolgozó architektúra miatt butítanák a grafikát? :F

    (#9559) Keldor papa: Elképzelhető, hogy kevés a memória a mostani konzolokban. Ez valóban limitáló lehet.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #9581 üzenetére

    Az túlzás, hogy normális jelenség, de valóban nem komoly probléma. Valamelyik tekerccsel van gond, repedés, vagy törés. Amíg a helyén marad, addig ez így is jó.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #9590 üzenetére

    Előfordulhat. Az ilyen nagy teljesítményű kártyákon elég nagy terhelést kapnak a tekercsek. Nem kizárt, hogy repedés keletkezik rajtuk. Amíg viszont a helyükön maradnak, addig működni fognak. A kisebb teljesítményű kártyákon kisebb a terhelés, így ott kicsi a valószínűsége, hogy ciceregni fog.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #9596 üzenetére

    Pedig sajnos ez egy fizikai probléma. Igazából itt a funkcionális működésen van a kulcs. Amíg a tekercs a helyén van, addig a feladatát ellátja. Ha cicereg, akkor is ugyanúgy működik, csak kellemetlen hangot ad ki komoly terhelés mellett.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Rexcor #9600 üzenetére

    Miért nem kerülhetnének rá olyan tekercsek, amelyek a gyártás során mondjuk gyantahiányosak lettek? Ekkor a tekercs megmozdulhat, aztán ezzel repedhet is, már az első használatnál.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #9615 üzenetére

    Senki sem mondta, hogy baromságokat beszéltetek, csak nem értitek meg, hogy ezek a hibák specifikusak és nem általánosak, vagyis bizonyos szoftvereken előjöhetnek, míg másokon nem. Lásd a nemrégiben linkelt a Nordic teszt. Ott a Battlefield 3 a Radeont simábbnak mondták és mérték, míg a Border 2 és a Skyrim nem. Ezért specifikus dolgok, eközben mindenki általánosan beszél erről.
    Egyébként épp azon vagyok, hogy tesztelem ezt a fajta mérési metódust, hogy mennyi időbe kerül, és hogy így mennyi játék fér bele így. Négy játékkal néztem már meg, és erről írtam is egy rövid hsz-t. [link]

    (#9614) TTomax: A specifikus hibák javításáról mindig az adott driver hírében számolunk be. Ez alól a biztonsági hibák a kivételek, mint a Catalyst update és a GeForce driver biztonsági rés. Mindkettőről írtunk. A specifikus hibákból napi szinten lehetne mindkét oldalról 5-6 hírt írni. Egyszerűbb a driver kiadásánál beszámolni, hogy mi lett javítva.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #9618 üzenetére

    A biztonsági rések jóval komolyabb hírek, mert meg kell védened magad. Ezért írtunk a Catalyst update és a GeForce réséről, mert, ha tudsz róla, akkor mindkettő jó eséllyel kivédhető.
    Ellátja, számtalan teszt bizonyítja, viszont egy-egy játékban mindig vannak gondok, és ez mindkét oldalra igaz.
    Természetes, hogy a driverek gyorsulnak. Most, hogy az AMD mondta, hogy nem optimális a memóriamenedzsment azt is világossá tették, hogy még mindig van benne tartalék. Nyilván a változás abból ered, hogy a GCN cache-szervezése olyan, mint egy processzoré. A hardver a ROP-ok, az L2 cache és a memóriacsatornák szempontjából szét van választva, míg a többi architektúra, még a hagyományosabb elrendezést követi, így össze vannak fűzve a memóriaalrendszer elemei. Ez kevésbé hatékony a komplex feladatokban, viszont egyszerűen menedzselhető. Az új dizájn sokkal hatékonyabb, de nehezebb olyan menedzselést írni rá, ami tökéletesen ellátja a feladatát, és közben elrejti az OS elől a VRAM-ot. Ahogy közeledünk az integrációhoz úgy fog ezen mindenki átesni. Attól függően, hogy a hardver mennyire gyorsan fejlődik. A GCN az első új elvek szerint épített hardver, de nem az utolsó.

    Sütim van. A GeForce sajnos túl drága, és nagyon gyenge az OpenCL támogatása, manapság sok ilyen progit használok. Én már annyit nem játszok (bár ez relatív), ha igen, akkor is inkább a PS3-on. Persze nem hagytam el a PC-t teljesen, így kipróbálom az új címeket, némelyiket gyorsan át is tolom, de már jóval kevesebb időt töltök ezzel, mint régen. Ott a munka, a család, a haverok és aludni is kell, így el is ment az időm zöme. :(

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #9620 üzenetére

    A részletekkel lehet megérteni az egészet. Érdemes ezekre figyelni. Nálam van egy GTX 670. A Far Cry 3 HDAO-val tüskézik, míg a HD 7850 nem. A DiRT Showdown alatt a GeForce borzalmasan tüskézik, amíg be vak kapcsolva az advanced lighting. A HD 7850-nel nem. A Borderlands 2 a Radeonnal tüskézik, míg a GeForce-szal nem. Azok a részletek, hogy a probléma specifikus, és nem csak általánosan a Radeonokra jellemző. Persze az említett játékokban más-más okozza, de kijelenteni azt, hogy csak a Radeon csinálja, amikor két tesztelt játékban pont a GeForce-on mértem egyszerűen durva általánosítás.

    Az is túlzás, hogy a GCN-nel folyamatosan gond van. Nekem lassan háromnegyed éve van HD 7850-em. Nem volt olyan problémám, amit egy azonnali driverfrissítés ne oldott volna meg. Ennél kiforrottabb nem lesz.
    A programspecifikus hibák mindig ott lesznek a driverekben. Nyilván az AMD azért mondja, hogy nem optimális még a memóriamenedzsmentjük, mert nekik vannak olyan eszközeik, hogy ezeket tökéletesen lássák, így folyamatosan fejlesztik a drivert. Gyorsítani akarják még a drivert a 12.11 után is. A HD 8000 rajtjára mindent be akarnak építeni. Ezért nem volt decemberi WHQL Catalyst, mert ha nekikezdtek, akkor most bedobnak mindent és utána csak optimalizálni kell. Sajnos ezen egyszer túl kell esni, mert a hardver képességeinek a driver csak egy részét használja még ki. Számos DirectX kiterjesztés vár hitelesítésre és beépítésre. Ezeket az MS már elfogadta, de a játékokba még nem tudják beépíteni, mert nincs tesztelési lehetőség. Persze annyi játékban úgy sem lesz benne, mert ezek GCN only kiterjesztések, de egyértelmű cél, hogy a GCN képességeit kihasználják a Gaming Evolved játékok és minél hamarabb implementálják a driverbe, annál hamarabb lehet dobálni a nokiás dobozokat a fejlesztőknek.

    (#9622) TTomax: A PS3 csak másfél hónapja van meg. Azelőtt PC volt csak. :) De most tényleg PS3-on tolom. Az exkluzívok nagyon jók. Tényleg ajánlom mindenkinek, még ős-PC-s lélekkel is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Tirexi #9623 üzenetére

    HBAO mellett sokkal több a fake árnyék, mint HDAO-val. Itt nem az a lényeg, hogy több dolog legyen fekete, hanem az, hogy olyan helyre kerüljenek árnyékok, ahova a valóságban is kerülnének. A HBAO nagyon kevés mintával dolgozik, így képtelen ezt annyira jól meghatározni, mint a HDAO. Ugyanakkor nyilván a teljesítményigény szempontjából is van különbség, ami a HBAO mellett szól. Persze vannak tipikusan úgy dizájnolt játékok, ahol a HBAO hamis megoldása jobb eredményt ad, ilyen például a cel shadingot alkalmazó Borderlands. Annak a grafikája amúgy sem a valóságot próbálja meglovagolni. Az FC3-ban a HDAO a valósághoz közelebbi eredményt ad. Eleve a mai AO-k a screen space megoldás miatt fake megoldások. Valamennyire szimulálják a valóságot, de mivel nézőponttól függnek, így tökéletes eredmény nem lesz. Ehhez el kell vetni a screen space metódust, ami viszont sokkal több számolást von maga után. Úgy gondolom, hogy az SSAO megoldások relatíva jó eredményt produkálnak olcsón, így következő nagy dobás inkább az SSDO-ra való átállás lesz, a valós AO helyett.

    Azt nem írtam, hogy játékok. Programok használják. Manapság sokat szerkesztek videókat, kovertálok, képet szerkesztek, ésatöbbi. Ezekre OpenCL-es programokat szerzek be, mert sokkal gyorsabban megvan az eredmény.
    Játékra szerintem az OpenCL ma annyira nem alternatíva, esetleg a jövőben lehet értékelhető. Amire jó lenne oda jobb a DirectX compute shaderje.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Tirexi #9625 üzenetére

    Programfüggő. Nekem az OpenCL a Handbrake szempontjából lényeges. Az OpenCL-es verzió olyan minőséget csinál, mint a CPU-s, de sokkal gyorsabban. Ezenkívül a vReveal 3-at is használom. Az eredetileg CUDA-s volt, de áttértek OpenCL-re, és ma már sokkal jobb az OpenCL támogatása. A CUDA-s az nem fejlődik. Megmaradt a korábbi szinten. Ez sajnos jellemző a programokra, amelyek átállnak OpenCL-re a CUDA-ról. Mindkét API-ra nem fejlesztenek, mert az NV valamennyire azért még támogatja az OpenCL-t, így az OpenCL-t választják. Egyedül a profi alkalmazásokra jellemző, hogy párhuzamosan fejlesztik az OpenCL és a CUDA implementációt. Ott van akkora bevétel, hogy ezt megtegyék. Sajnos a kicsik erőforrása korlátozott, így választaniuk kell.

    (#9626) SzlobiG: Szerintem max. annyiban jobb, hogy open, amúgy nincs komoly különbség. Ami az OpenCL-nek ma előnyös, hogy a CUDA implementáció fejlesztésével jellemzően leállnak az OpenCL-t bevezető programok.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Rexcor #9628 üzenetére

    Igazából ez ízlés kérdése is. Én nem tartom rossz ötletnek, hogy raktak a játékba háromféle SSAO algoritmust. Gyakorlatilag megvan a választás lehetősége. De az való igaz, hogy a HDAO eredménye van a legközelebb a valósághoz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz krx21 #9630 üzenetére

    Lehet, hogy az 1.04-es patch-től van, mert abban a HDAO-t babrálták, hogy gyorsabb legyen. Majd jön rá egy javítás, vagy esetleg egy új driver.
    Sajnos még mindig dolgoznak a játékon, mert sebességet akarnak nyerni. Ez egyrészt jó, mert gyorsulni fog, másrészt rossz, mert folyamatosan frissíteni kell a drivereket a változásokhoz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ricshard444 #9641 üzenetére

    Szerintem maradj egy GPU mellett. Annyira komplex renderelési folyamatok kerülhetnek bevezetésre a jövőben, hogy azok nem fognak jól működni AFR-rel, vagyis CF és SLI mellett. Skálázódni fog, mert megpróbálják megoldani, de az a skálázás nem lesz 80-90% közeli. Inkább 30-50%-os várható. Persze ez az egész függ a programkódtól, de maga a DirectX 11.1 is tartalmaz olyan újításokat, mellyel a fejlesztők az előző képkocka számításából több információt átemelhetnek az újhoz. Ezek azért nem AFR barát megoldások. Az kedvezőtlen lesz, hogy két GPU mellett folyamatosan másolni kell az adatokat az egyik VRAM-ból a másikba.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ricshard444 #9648 üzenetére

    Persze ez benne van. Nem is azt mondtam, hogy mindenhol gatya lesz, hanem lehetnek olyan szituációk, ahol a program működése ellehetetleníti az AFR jó hatékonyságát.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz H.Ezredes #9661 üzenetére

    Ha a GK110-re épül, akkor annak komoly probléma lehet az oka. Kisebb méretben is lehet jóval gyorsabb GPU-t csinálni a Teslába szánt megoldásnál, szóval ezek a pletykák alaptalanok. Eleve a GK110 nem támogatja a DX11.1-et, szóval már itt elbukott a speckó.
    Nagyjából egy 300 wattos fogyasztási szintre belőtt GK110-es GeForce 20-25%-kal lehetne gyorsabb a GTX 680-nál. Értelmetlen ezt a lapkát GeForce kártyán árulni. Ha +20-25% a cél, akkor az jóval kisebb lapkamérettel megoldható egy új fejlesztéssel, amire az elmúlt év márciusa óta bőven volt idő. A GK104 384 bitre bővíthető, kiegészíthető +16 ROP-pal, és 50%-kal megnövelhető a core elemek száma. Ezzel a teljesítménynövelés máris több, mint amire valaha is képes lehetne a GK110, és a fogyasztás sem lenne 250 watt felett. Ilyenekben érdemes gondolkodni, nem +20-25%-os boostos termékekben +100 wattos fogyasztás mellett.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Puma K #9664 üzenetére

    Annak valójában nem örülnél. Én kilóra vásárolnám a játékokat. :D

    (#9665) ÁdiBá: Világos. Mi más lehetne a cél. Csak sok pletykagyár nem érti, hogy ezek a cégek profitorientáltak, így arra gondolnak, hogy ha a GF100-at sikerült megcsinálni, akkor egy GK110 is menni fog.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Kecuhun #9765 üzenetére

    Igen. Nem egyedi a gondod. Tud róla az NV és az Ubi is. Ki lesz javítva. Nem hardverhiba. Vagy új driver jön, vagy új patch.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #9778 üzenetére

    Melyik része nem érthető annak, hogy most dolgozok egy olyan módszeren, amivel ezt mérni lehet tesztben?
    Le is írtam, hogy mit mértem eddig, és eléggé játékfüggő volt. A legnagyobb gond ezzel a megoldással, hogy időigényes, de nagyon. Az eddigi kilenc játék helyett 3-4, ha belefér.
    A másik dologra. Komolyan azt várod el, hogy minden egyes hibáról beszámoljunk? Nincs nekem időm ezt követni. A biztonsági hibákról írunk, mert az a júzer oldalán fontos, de amúgy túl sok lenne erről az anyag, illetve nehéz konkretizálni, hogy mi volt a hiba. De ezt annyiszor kibeszéltük már.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #9781 üzenetére

    A 12.11 béta 11-gyel is jobb frame lagot mérek az általunk használt tesztjátékokban Radeonon. Szóval a javítás ezen nem fog változtatni. Emiatt ezen nem kell aggódnod. Maximum ez azokban a játékokban változtathat, amelyek nincsenek a tesztplatformunkban.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák