Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Fiery #5 üzenetére

    Oké. Mondom Olinak, hogy vegyük fel azt, aminek nem mondjuk ki a nevét. :D

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz kovsol #162 üzenetére

    A tuningnak és egyben a gyári OC-nek is van egy kis problémája úgy általánosan. Egyrészt a return rate jóval magasabb, mint a nem gyári OC-s megoldásoknál, mivel az órajel csak be lesz állítva, de nem lesz tesztelve. Ennek az az oka, hogy jóval olcsóbb gariztatni a termékeket, mint egyenként tesztelni. Otthon kipróbálod, és ha nem megy, akkor visszaküldöd. Ekkor a gyártó dob rá egy alap BIOS-t és megy újra forgalomba.
    Mikor probléma a gyári OC stabilitása? A mai játékokban, amelyek tényleg nem terhelik a hardvert 20-40% fölé? Oké ott stabil. Mi lesz akkor, ha lesz 60-70%-ra terhelő program? Vajon visszacserélik a hibás gyári tuningos kártyád, vagy azt mondják, hogy biztos szoftverhiba? Melyik cég ad arra garanciát, hogy egyetlen program instabilitásáért cserélnek gyári OC-s kártyát?

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz [CS]Blade2 #226 üzenetére

    Ez teljes bullshit. Itt arról van szó, hogy az AMD és az NV hitelesítenek egy órajelet minden VGA-hoz. A termék minden egyéb paraméterét és a DVFS-t ahhoz az órajelhez állítják és ezt specifikációkban rögzítik. Ezt a gyártóknak kötelességük követni. A gond ott kezdődik, hogy a gyártópartnereknek fingjuk sincs arról, hogy miképp működik a Powertune vagy a GPU Boost. Egyszerűen azért, mert az AMD és az NVIDIA nem mondja el nekik. Tehát az órajelet ugyan képesek emelni, de hozzáigazítani a DVFS rendszert képtelenek, mert nincs meg hozzá a leírásuk. Program és program között pedig különbség van, ugyanis egy mai PC-s játék 30% körüli terhelése nem tekinthető mérvadónak. Az a hardver kaphat jóval nagyobb terhelést is, és ott már rezeg a léc, mert nincs órajelhez igazított DVFS.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz kovsol #273 üzenetére

    Itt nem az érték számít, hanem a reakció a problémára, ami lényegében a túlterhelés. Ha nem sikerül időben váltani, akkor lefagy a hardver még azelőtt, mielőtt beállítaná az órajelet. Ezért van ez az egész nagyon pontosan specifikálva. Persze extra 40-50 MHz nem számít, mert annyira azért nem mennek ezek a határon, és a specifikációnak is van valamennyi mozgástere, de 70+ MHz már bizonyítottan problémákat jelent a gyártók speciálisan kialakított tesztjein, amelyeket direkt a lapka gépi kódjára írtak, hogy tökéletes terhelést szimuláljon. Amiről ti azt hiszitek, hogy ráhagyás, az valójában nem stabil órajel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Peat;) #296 üzenetére

    Valójában egyik VGA sem fog még magórajelen sem működni, ha egy játék a belső terhelés szempontjából eléri a 70-80%-os kihasználást. Ma azért működik a GPU-knál ez a boost dolog, amit egyébként az AMD és az NV is alkalmaz, mert az API az egész fotószalag feldolgozást soros munkavégzésre kényszeríti. Nyilvánvaló, hogy nem erre készült egyik architektúra sem, de nem tudnak mit tenni, ha csak sorban, szigorúan egymás után jönnek a feldolgozásra váró futószalagok.
    Az órajelet pedig úgy érdemes értelmezni, hogy az AMD eleve maximumot ad meg, még nem is magórajelet. PowerTune mellett a magórajel nem definiálható, mert a hardver másodpercenként sokszázszor képes órajelet váltani. Még amit a szoftvernek visszaad az is egy átlagolt adat, mert nem fogja az összes órajelállapotot biztosítani.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Joshi #302 üzenetére

    A legújabb játékok a mai VGA-kat 15-25%-on dolgoztatják. A tesztben használt játékok átlépik a 30%-os terhelést, de 60% a plafon, ami a Metro: Last Light.
    A 70-80% jelenleg álom kategória, de DX12 SDK mintáiból látható, hogy elérhető, és az Ashes of the Singularity is ilyesmi terhelést fejt majd ki. Alapvetően ebből az látszik, hogy nem a hardverek a rosszak, hanem a szoftver kényszeríti őket soros feldolgozásra. Még az is hátrányos, hogy DX11 alatt az adatmásolás a munkavégzés teljes leállítását követeli, pedig sok GPU-ban van két DMA. A hardvernek a stoptáblára nincs szüksége mert tudja hogyan kezelje a helyzetet, csak az API túl buta, hogy ezt belássa.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Joshi #306 üzenetére

    Ha arra gondolsz, amit a 3rd party programok kiírnak OSD-ben, akkor az azt jelenti, hogy a vizsgált időszakban a hardver parancsprocesszora százalékosan mennyi parancsot fogadott. Ez azért nem lényeges adat, mert belül a GPU-k valójában heterogén processzorok. Van bennük egy csomó célirányos hardver az általános feldolgozók mellett, és bizonyos futószalagok a célirányos részeket terhelik, míg mások főleg a shadereket. Jelen pillanatban ma sokszor alakul ki az a szituáció, hogy vagy a shader lustul vagy a célirányos részek. Ez a soros feldolgozás alapvető hátránya.

    (#314) Sir Ny: Ne keverjük a felhőt ide. A felhőben a késleltetés azon múlik, hogy a hálózat mennyire jó, és hogy fizikailag mennyire messze van a kiszolgáló. Ennek semmi köze a VR-hez, ami felhővel jelenleg nem is működik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sir Ny #318 üzenetére

    Csak így kidobni pár ms-ot... Ezek akkor érnek valamit, ha tudnánk miben mérték, azt milyen API-n futtattak, az a kód kihasználta-e a platformok előnyeit, illetve ugyanaz volt-e a szinkronablak. Amennyiben ezekre nincs válasz, akkor az egész számháború semmit sem ér.

    Állítani barmit lehet. És teljesen természetes, hogy nem azt mondják, hogy az AMD jobb, bár tényleg nagy kérdés, hogy az a dia miről szól, mert csak számokat látok a levegőben lógni. Addig ezt nehéz értékelni, amig a fentiekre nincs válasz.

    Ha az Occulus értékelési rendszerét nézzük, akkor ma csak a Fiji megy at rajta, mert 5+TFLOPS, stateless compute elvű, és támogatja a finomszemcsés preempciót. Utóbbira az NV már mondta, hogy később bevezetik.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Joshi #322 üzenetére

    Ettől nem lesz előnyösebb egyik gyártó megoldása sem. Bár a DVFS-ük eltérően működik, de akkora különbséget ezek az eltérések nem fognak adni. Persze +/- 1-2% lehetséges, de ez nem jelentős.
    Az órajelnek semmi köze a kihasználtsághoz, de a kihasználtság meghatározhatja az órajelet. Ezért van bevezetve a DVFS, hogy ha magas a terhelés, akkor menjen akár az alapórajel alá a rendszer. Viszont a DVFS működése órajelre szabott, méghozzá a referenciára.

    A szintetikus benchmarkok előnye a specifikusság és az egyszerűsített feladatok miatt a GPU-k belső kihasználása nagy lesz. Jó példa a Furmark. Ilyet viszont játékban az aktuális API-kkal nem lehet elérni. A DX12-ben már igen.

    A low-level API csak lehetőségeket ad, azokat a fejlesztőknek kell megfogni és használni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz jacint78 #330 üzenetére

    Attól függ, hogy hogyan használják. Mindenképpen gyorsabbak lesznek, mert az API többletterhelése a töredéke a korábbiaknak. Illetve a szebb már használattól függ. Például a Civilization: Beyond Earth tartalmaz olyat, ami DX11 alatt nem érhető el. Ez ugye az EQAA.

    Az egyik legfőbb célja a változásnak pont a gyenge processzorok melletti gyorsítás. A GDC-n volt róla szó, hogy a Steam rendelkezik felhasználókra lebontott statisztikákkal, amelyeket publikusan nem közölnek, de a fejlesztők számára odaadják. Ebből kiderül, hogy a 300-400 dolláros VGA-k mellé a felhasználók többsége 150-200 dolláros processzort rak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #384 üzenetére

    Mert 400000 forintos ráadásul tuningolt processzorral tesztelünk. Viszont az én otthoni gépemen nagyon jellemző a két-háromszoros gyorsulás csupán az API átváltásától.
    A PH közössége nem reprezentálja a magyar átlagot, mert itt mindenki rajongó. A magyar valóság az, hogy nemrég raktam össze gépet az egyik cimbimnek, és amikor mutatom, hogy mi lenne jó neki, akkor azt mondja, hogy 30k procira sok. Max. 15k-ja van rá. Bezzeg a Radeon R9 270-re volt 50k. (az orra alá pörköltem neki :) ) Ekkor még ügyködök valamit, hogy minél jobb legyen, de látszik a magyar valóság, és a GDC alapján a Steam szerint az is jellemző, hogy kétszer annyiért vesznek VGA-t az emberek, mint procit.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #394 üzenetére

    A PC-nek az előnye az átka is egyben. Annyiféle konfigurációt lehet összerakni, amennyit képtelenség lekezelni egy teszt szintjén. Mivel semmi esély rá, hogy ugyanannyi idő alatt 8x annyi mérést végezzünk, így az elsődleges szempont ezeknél a teszteknél, hogy minél inkább a VGA-k limitje határozza meg az eredményt.

    (#388) Petykemano: Amiről te beszélsz az azt határozza meg, hogy egy hardver többletterhelése mekkora lesz. Sok eltérő hardverhez kell egy közös alap és ez az oka annak, amiért a Microsoft a DX12-ben három bekötési szintet is megkülönböztet. A fejlesztőnek a TIER_3-ra kell dolgozni, és onnan az a kód tökéletesen működni fog TIER_2-n nagyobb többletterheléssel, és TIER_1-en még nagyobb többletterheléssel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #415 üzenetére

    Mindkettő fontos, csak így a trollok, izé akarom mondani fórumozók nem fognak azzal jönni, hogy gyenge a proci.

    (#370) Petykemano: Az Oculusnak a Fiji nagyon fontos, mert a VR-t el kell adni. Ez most az E3-on sikerült.
    Az AMD mindig így adta ki a hardvereit. A HD 7970 kikapott pár százalékkal az első tesztekben a GTX 680-tól, de ma már 10-20%-kal gyorsabb nála. A 290X az első tesztekben kb. olyan gyors volt (+/-2%) mint a Titan, és most már 10-20%-ot ver rá. Mindig ezt csinálják, mert hosszabb távon kifizetődőbb az elején elfogadni 2%-os vereséget, hogy aztán később 10-20%-kal gyorsabbak legyenek. Ennek egyébként köze lehet ahhoz, hogy az AMD minden Radeont leginkább 2-3 éves ciklusra szán, míg az NV inkább 1-2 évesre. Gondolom ehhez a tervezés szintjén is így állnak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #419 üzenetére

    Természetesen a CPU-t fogja terhelni, mert ha a GPU-ban nincs egy skalár processzor, amivel a CPU segítsége nélkül beköthető a szükséges adat, akkor szükség van a CPU segítségére a bekötésnél. A segítség mértéke többletterhelésben nyilvánul meg aszerint, hogy mennyi processzoridőt vesz el a bekötés megvalósulása, ami a bekötési szinttől függ.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #427 üzenetére

    Ez mindig egy kényes kérdés, mert egyrészt üzletileg az lenne a jó, ha két éven belül váltana a juzer, de a piackutatások azt mutatják, hogy egy VGA-t egy vásárló jellemzően három évre vesz. A Kepler esetében az NV most pont azzal küzd, hogy zaklatja őket egy csoport dühös Kepler tulaj, akik összeálltak és hetente szétspammelik a fórumot. Volt egy topik, ahol nagy volt a rage. [link] - ez lassan lefut, beletörődtek, hogy itt nem lesz Kepler fix. [link] - van petíció is, ami nem hiteles, de baj, hogy így gondolják.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz schwartz #434 üzenetére

    Abban igaza van TTomaxnak, hogy a VR-nél a gondok nagy része arra vezethető vissza, hogy nem létezik olyan szabványos grafikus API, amit VR-hez terveztek. Az AMD-nek van rá egy működő csomagja, ami tényleg jó eredményt ad, és amit ki lehetett rakni az idei E3-on, míg a többiek igazából próbálnak ötletelni, és osztják az észt az ARB-ben és a GAB-ban, hogy pörgessék fel ezt a dolgot, mert hiába hoznak később hardvert, ha fölé nem tudnak húzni egy olyan API-t, amivel használhatják is.
    Hosszabb távon nagy esély van rá, hogy mindenki csinál magának egy saját API-t. Eddig azért nem volt értelme, mert a szabványos funkciók hiánya egységesen sújtott mindenkit. Most már az AMD-t ez nem sújtja, de a szabványalkotás még mindig lassú. Erre előbb-utóbb reagálni kell a gyártói API-kkal.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FollowTheORI #437 üzenetére

    Az Anand azt táblázatot elrontotta. Valójában 1+64 lesz az az 1+8, és 1+16 lesz a GCN1.1 1+2-je. Ugyanígy compute módban a 8 az 64, míg a GCN1.1-nél a 2 az 16. Többen megírták az Anandnak ezt, de nem veszik figyelembe. A fórumban is felhívták rá a figyelmet.

    (#438) lenox: Ezt nagyon jól látod. Nem véletlenül van napirenden a VR tanács megalakulása. Ugyanakkor ha jönnek a többiek, ha nem, az AMD biztos bevezeti a matricás rendszert, és ezt az Oculus is támogatja. Ergo lesz definiált és kontrollált platform. Az a többieken múlik, hogy ebben részt akarnak-e venni, vagy inkább sem. Meghívót kaptak, de nyilván az NV-re és az Intelre nem fogják rákényszeríteni a VR-t, ha nem akarják. Persze ezt jó lenne majd őszig eldönteniük, hogy ne csak AMD-s gépek legyenek matricázva.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #441 üzenetére

    A bekötési modell alapján igazán nagy többletterhelése a TIER_1 szintnek van. Azon érződni fog a hátrány. A TIER_2 szint többletterhelése alacsony, így ritkan lesz hatása a teljesítményre, és akkor is kicsi. Különbség a bekapcsolgató effektek számában lehet.

    (#459) Ren Hoek: Attól, hogy egynél több compute parancslistából érkeznek a parancsok, meg nem feltétlenül lesznek teljesen átlapolva a feladatok. LordX nagyon jól leírta ezt, még annyival egészítenem ki, hogy a DirectCompute maximum 1024 szálas és 32 kB-os munkacsoportokat futtathat. Ebből egy GCN CU kettőt tud futtatni egyszerre, de csak akkor, ha van elég regiszter.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Joshi #471 üzenetére

    Én ilyet nem írtam. A tuningot általánosan jellemeztem. Stabil az, amit a chip fejlesztője referenciában hitelesít, innen minden tuning lehet instabil, mert sem a gyártóknak, sem a felhasználóknak nincsenek a birtokában azok az eszközök és gépi kódban írt programok, amelyekkel ellenőrizni lehet a stabilitást. Az semmit nem jelent, hogy megnézed xy programban, hogy stabil-e a tuning. Ilyenkor azt lehet kijelenteni, hogy stabilnak tűnik xy alkalmazásban, de lövésem sincs, higy stabil lesz-e z programban.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rumkola #465 üzenetére

    Aha. Thief kétszeresére, míg a Dragon Age Inquisition háromszorosára. A Civ BE esetében, az AI lépései gyorsultak fel látványosan, de kizoomolt térképpel, azért ott is van egy jó kétszeres tempóelőny.

    (#481) Joshi: Mindig nézünk tuningot, de az igazat megvallva nem erőltetjük meg magunkat. Egyszerűen nem éri meg, mert nem szolgáltat az olvasóknak hasznos információt. Úgysem a mi kártyáinkat veszitek meg.
    Amiről beszéltem az nem gyártófüggő. Az AMD-re is ugyanúgy vonatkozik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz GodGamer5 #460 üzenetére

    Mivel a Square Enix volt olyan béna, hogy beleírták a pozíciónális audiót a GDC Europe anyagba, így a Hitmant leírhatom, hogy támogatja a TrueAudiót. A többi NDA-s, de a Square Enix van oda érte és a VR projekteknél lesz még használva.

    A TrueAudio támogatása független a low-level API-któl. A hangkártyák piaca nem éled újra, viszont több integrált hangprocesszor lesz. Ott lesz az Intel, de azt nem tervezik játékba használni, illetve csak a mobil lapkakban lesz aktív, lesz viszont a Realteknek egy DSP-s lapkája, az feltűnhet az alaplapokon.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz regener #484 üzenetére

    Állandó promóciós célt látnak el a gyártóknál. De olyan is van, hogy rajtunk maradnak. A kifejezetten gyártók által küldött termékek forgalomba nem kerülnek.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz jacint78 #490 üzenetére

    Mert valójában ezek a VGA-k nagyon gyorsak és elég sokat tudnak csak az API nem engedi, hogy a programozók hozzájuk nyúljanak. És ez nemcsak a grafikát hátráltatja, hanem más tényezőket is. Azért manapság gáz, hogy a PS3 exkluzív játékok AI-ja ripityára ver mindent, amit a PC-ben tapasztalsz. És nem az az oka, hogy aki PC-s multiplatform címet programoz az szükségszerűen hülye.

    Mindenki megkapja az általános előnyöket. Az AMD-nek még az is jó, hogy ők dolgozták ki ezeknek az új API-knak az alapjait úgy, hogy nekik a működéhez ne kelljen emulálni semmit. Ezt persze megvétózhatta volna a többi gyártó, de nem tették, mert a problémát meg kell oldani, és a megoldáshoz úgyis tudnak majd megfelelő hardvert tervezni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz balint107 #494 üzenetére

    Ha van ilyen gond, akkor írd be nyugodtan még egyszer, és szólj egy moderátornak vagy házigazdának, hogy törölje az eredeti hozzászólást. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #00137984 #507 üzenetére

    Nem mindegy melyik GCN verzióval rendelkezel, mert a 2-es és a 3-as verzió kapott olyan tweakeket, amelyekkel hatékonyabb, mint az első. Jobbak a parancsprocesszorok például. Ez a teljesítményt befolyásolja, ha nagyon a határra gyúr az alkalmazás. A bekapcsolható effektek szempontjából a GCN-ek ugyanazt tudják, szóval, ami az egyiken bekapcsolható az a másikon is.
    Nem kell új 300-as számozásút venni. A 200-as sorozattal ugyanúgy megkapod a funkciókat, akár 10k-val olcsóbban. Például az R9 285-tel.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #90933760 #567 üzenetére

    Mi más lenne az irány, ha nem az ALU power növelése? Komolyan kérdezem, hogy van-e olyan alternatív kutatás, amely szerint a jövőben fontos eljárásokat például Ray Traced Distance Field vagy voxel GI meg lehet-e oldani másképp.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák