Keresés

Új hozzászólás Aktív témák

  • janos666

    nagyúr

    LOGOUT blog

    "Utóbbi azért fájó pont, mert számos sztereó 3D-t támogató tévé"
    -> Ez azért sem fájó pont, mivel alig van már 3D-s TV, vagy BD lemez. ;]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz fanti #450 üzenetére

    Mondjuk nem volt korrekt teszt, de nekem úgy tűnt, hogy a Pascal már kezdte megérezni a PCI-E 2.0 slotban, hogy 8x vagy 16, de persze a PCI-E 3.0 esetén ez 4x vs 8x lenne.

    Jött ki új firmware a Prime-A laphoz. Nem került bele a legújabb microcode (még mindig 6E, én szoftverrel töltöm be boot után a 70-est, mióta kidobta az Intel), és azt írták (a firmware-re) hogy javítja a stabilitást, de nagyon nehezen (több reset és kézi újraindítás után) boot-olt csak a régi beállításokkal (amiket minden frissítés után kézzel kell újrapötyögnöm, mert sohasem kompatibilis a .COM file, amit ki tudok menteni), amik végül is most is stabilak, miután végre eljutott a Windows-ig. Megjelent a SpeedShift is a Setup-ban, de még nem próbáltam ki (most a komplett energiagazdálkodás nullás).

    Van új HWInfo is, de a szenzorok részben még mindig hülyeséget ír a fogyasztásra.

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Frawly #458 üzenetére

    Picit hadd kötekedjek:
    SATA <> PCI-E ,
    AHCI <> NVMe ,
    nem SATA vs NVMe :N ,
    létezik olyan is, hogy PCI-E AHCI, az is PCI-E sávszélen üzemel, de az AHCI korlátaival (queue, interrupt, stb specifikációk tekintetében is nagyon más az NVMe, utóbbit SSD-kre is bőkezűen, míg az AHCI-t alapvetően HDD-khez készítették).
    Nem is tudom, hogy Win10-en van-e már olyasmi, mint a Linux-on a blk-mq, ami hasznos az NVMe mellé (több CPU mag is dolgozhat egyszerre egy NVMe tárolóeszköz több hardware-es queue-jába, így nem a CPU limitál IOPS-ben).

    Én legutóbb 18k-ért adtam el egy 256Gb-os SATA3 AHCI-s SSD-t és 45-ért vettem egy 512Gb-os PCI-E 4x NVE-t, ami 4-5x sebességű szekvenciálisan és 2-3x random műveletekben, de ha spórolni szerettem volna, már 35k-ért (tehát teljesen árarányosan, ha a kapacitást is nézzük) kaphattam volna előző generációs NVMe SSD-t, ami "csak" 2-3x szekvenciálisan és ~2x random. Mindkettő Samsung kliens SSD (a 2.5 SATA AHCI és az M2 PCI-E NVMe is).

    (#461) AusWolf

    Erre van még egy vicces story-m: Én saját magamnak kezdtem nézegetni a frametime grafikonokat mielőtt elhatároztam magam a csere mellett, és örültem is, hogy javult a helyzet a cserével, de még mindig kicsit elégedetlen voltam, furdalt picit, hogy vagy "muszáj lesz" feltornászni 5+GHz-re a 6/6-os Coffee-t, vagy ki kéne majd próbálni a Zen(-refresh)-t 8/16-on 4+GHz-n, esetleg a 6/12-es Coffee-t.

    Aztán később rájöttem, hogy ha visszateszek egy régebbi nvidia driver-t (388.xx helyett 378.92, amire alapvetően a HDR NVAPI-s támogatása miatt volt szükségem, mert új driver-el átveszi a Win10, ami nem visszafelé kompatibilis a régi játékok HDR módjával, amiket NVAPI-hoz írtak), akkor relatíve "vaj sima" lesz a frametime grafikon és csökken a CPU használat is.

    Ráadásképp pedig közben váltottam FHD-ról UHD-ra, amin összességében jobban tetszik a 2160p60, mint az 1080p120, szóval megint erősen egyértelműen a VGA a gyengébb keresztmetszet (GTX1070).

    De azért nem bántam meg a szó szoros értelmében, csak rájöttem hogy még csalókább ez az egész, mint gondoltam. De nyilván így legalább már a CPU ~2x gyorsabb, mint volt, így legközelebb elég lesz csak VGA-t cserélni (ha jön az új generáció), amit már talán tényleg nem tudott volna kiszolgálni a 2500K.

    Ma pedig megjött végre az elveszett EK monoblokk, úgyhogy jöhet az az 5GHz. ;]

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    Normális vízhűtéssel (EK Mono) azért picikét hűvösebb a cucc. :B
    Ha lesz időm majd nekiszaladok az 5+GHz tuningnak is. ;]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz schawo #475 üzenetére

    De, 0. perctől. Viszont dísz-plecsnis rekordhőfok nálam sohasem lesz, mert passzív víz, 8 liter kering egy IFA radiban, a D5 is is csak csurgatgatja (főleg hogy későn cseréltem vizet, már elkezdett kicsapódni a fagyállóból a cucc, és most sem szedtem szét a VGA blokkot, hogy kipucoljam, félig el van tömődve, de míg tuning mellett is vastagon gyári hőfok alatt megy, én nem tekerek tíz csavart és kockáztatom, hogy nem megy vissza a helyére a tömítőgyűrű...).

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Maelephant #488 üzenetére

    Elkezdtem piszkálgatni, és az új BIOS-al kicsit más az LLC, így ugyan ezen az ~1.17-es feszen elfut 4600MHz-et is. 5GHz-ig viszont nem jutottam szimpla Vcore emeléssel, majd valami mást is piszkálnom kell (vagy nem is tudja a CPU-m). Ugyan így a cache sem akar 4300 fölé menni pusztán Vcore emeléstől.

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz janos666 #495 üzenetére

    A 4700MHz sem nagy falat, ~1.2V kell hozzá: [kép]

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz t72killer #499 üzenetére

    Igen, ez a sarkított kijelentés legfeljebb SkyLake-ig visszamenően igaz, mert az volt eddig az utolsó "magváltás", ami óta csak az elérhető órajel nőtt picit.

    Az én 8600K-m is éhes 5000MHz-en, ~1.38V kell neki: [kép]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz janos666 #501 üzenetére

    Linpack (LinX) alatt már alig bír el vele a lomha víz: kép (bár ez úgyis csak addig érdekes, míg stabilnak nyilvánítom a freki/feszültség párt...).

    Nem tudja valaki, hogy hol van értelmes leírás, hogy mi a különbség az ASUS-nál a 0-ával kezdődő "stable" és 5-el kezdődő beta firmware-ek közt? Már hónapok óta több verzión át mindig párban jönnek ki, és semmi különbséget nem látok, a leírás pedig mindig ugyan a bétánál ("sync all cores", de a nem-béta verzióban is működik ez a funkció...). :U

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz schawo #505 üzenetére

    A HWInfo kezdettől fogva egyértelműen hibás értéket ír ki.
    Az ASUS progijában (sötétszürke ablak) bal alsó sarokban van egy sokkal hihetőbb szám (A CPU és RAM frekik közt apró betűkkel).

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz NandorHUN #531 üzenetére

    Ez a 99% nem azt jelenti, hanem hogy a játékidő 1%-a. Ez jelenetheti azt is, hogy átlag 100fps mellett minden egyes másodpercben van egy apró kis "tüskéd", amitől "reccen" picit a kép. (Ami gyak. már "folyamatos" recegés.)
    Egyéni érzékenységtől, "igényszinttől", stb függően akár észre is veszed az ilyesmit néha. Ezzel szerintem inkább az a gond, hogy ha egyszer elkezdtél rá figyelni, akkor utána nehezebb újra elfelejteni és nem venni tudomásul. Illetve ugyan így könnyebb megszokni a jobbat, mint visszamenni a rosszabbra (ha már volt egyszer jobb is adott körülmények közt).

    Viszont megannyi más faktor van még a "simasághoz", nem csak ez.
    A hagyományos Vsync megnyújtja a bufferelést, ami segít kisimítani időben a pontokat, viszont növeli a lagot, ami rontja a "közvetlen valós idejű vezérlés" érzését, amitől hirtelen mozgásoknál ugyan úgy azt érezheted, hogy "akad" (mert rántottál az egéren, de nem mozdult azonnal arra a kép).
    A FastSync és EnhancedSync, de akár még GSnyc/Freesync is valamennyire "zajos" ilyen értelemeben, mert rövidebb a buffer. Így alacsonyabb a lag és VRR esetén még "jobban a helyükre esnek a pontok", de még mindig nem lesz "tökéletes", mert erősen véges, és viszonylag alacsony (a "tökéleteshez" képest) az fps (főleg a tartomány alja, még ha az átlag és max viszonylag magas is) és nincs túl-bufferelve, ami segítene simítani a mintavételezést.
    Igazán jó csak akkor lesz, ha tartósan magas tartományban mozog az fps alacsony laggal. Ideális esetben ugye a leggyorsabb egérrántáskor is csak 1 pixelt mozdulna a képen bármi, de az sok-száz, vagy ezer fps/Hz lenne. Akkor már VRR sem kell, sőt még képtörés ellen sem kell sync (mert legfeljebb 1 pixelnyit törik a kép, de az kb. a mindenkori aliasing szintje és olyan finom a frissítés, hogy nem zavaró a random képkocka duplázgatás).

    Amúgy érdekes kérdés a Windows CPU ütemezés is. Én azt hittem sokkal ügyesebb, de most mikor próbáltam egymás mellett futtatni gépigényes dolgokat, elég fura dolgokat látok, mint ha csak dísznek lenne a prioritás paraméter és/vagy teljesen légből kapott lenne a kijelzett CPU terhelés százalékos érték.

    1: elindítok egy programot, ami 17-25% CPU terhelés körül mozog (néha kicsit több, néha kevesebb) Alacsony prioritással, majd mellé egy játékot, és "tüskés" lesz a frametime grafikon, illetve néhány másodpercenként érezhetően akadozik is.
    2: elindítom egyszerre a LinX-et és Prime95-ot is Alacsony prioritással, majd mellé egy játékot, és felváltva vagy egész simán fut a játék, vagy több másodpercre kimerevedik a kép (sőt, ezt ilyenkor néha a komplett Windows asztal is csinálja, mint ha lefagyott volna a komplett rendszer)
    3: A LinX és Prime95 akkor kap kb. 50-50% CPU időt, ha előbbi Alacsony, utóbbi Normál Felett (ehh... most szabadfordítom az angol windows-t)

    ^^ Úgy vettem észre, hogy jóval hamarabb dobnak hibát, ha egymás mellett fut a Prime95 és a Linpack (a fenti prioritásokkal), emelnem is kellett most feszültséget a korábbi 2+2 órás külön-külön futáshoz képest, hogy menjenek így együtt 5GHz-n.

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz Maelephant #557 üzenetére

    Az baj, hogy nekem igazából mindkettő látványos és kívánatos lenne, de egyszerre több okból sem kaphatom meg mindkettőt, főleg nem lemondások nélkül:

    1.) Az ~50" méretről, ~0 feketéről és jó homogenitásról nem mondok le, így minden "gamer" LCD monitor kiesik (nincs ekkora méretben és szutyok mindenféle LCD képminősége PDP és OLED mellett is), marad a jó öreg 1080p60 PDP (de már "viszkettem", hogy ki kéne próbálni mást is), vagy 1080p120 és 2160p60 közt kapcsolgatható OLED (ezen belül elvileg lehetne olyan OLED-em, ami 60Hz bemenethez 60/60 arányban villog feketébe, így a PDP-hez hasonlóan élesebb a mozgókép, de mikor az LG-től vettem a BFI nélküli kivitelt, a BFI-s Panasonic felára még nem csak 20-25% volt, hanem 40-50%, annyit pedig mégsem ért, és várni mindig lehet örökké az áresésre, csak akkor sohasem veszünk semmit, mindig lesz következő, amire várni lehet...).

    2.) A viszonylag modern és látványos játékok alatt (és a beállítások látványos túlbutítása nélkül) úgysem köhögne ki 4k-ba 100+ fps-t a GTX1070 (de még a GTX1080Ti se nagyon hozná a kvázi-stabil 120-at). Az még a következő generációs VGA-knak is túl nagy falat lesz szerintem, azoktól is annyit lehet várni, hogy a 2160p60-at már maradéktalanul ki tudják majd szolgálni (kvázi-stabil 60fps 4k-ban).

    Ugyanakkor már 5+ éve folyton zavart az, hogy abszolút ellehetetlenült az MSAA, és máig nincs helyette semmi épkézláb, viszonylag kompromisszummentes megoldás, pedig eléggé hiányzik a nagy képernyős FullHD-hoz (gyakran látni, sokszor zavaróak a recék). A natív 4k pedig még egy fokkal jobb, mint a 4x SSAA (mikor 4k-ban renderel a játék, de 2k kijelzőn nézed, más neveken SuperResolution, stb). Sőt, pár játéknál azt vélem látni, hogy a háttérben állítgat még pár minőségparamétert a felbontás függvényében, amit nem lehet külön kézileg piszkálni, tehát szimplán csak átváltani 2k-ból 4k-ba egyben olyan is, mint mondjuk felváltani Medium-ról High-ra valami beállítást (csak ez nincs így kint a menüben), gondolom az alapján, hogy a fejlesztők mit véltek ideálisnak (pl. úgy ítélték meg, hogy felesleges X felbontásútól nagyobb textúra vagy Y-tól több poligon a képere aa kisebb felbontáshoz). Ez látszik akkor is, ha 2k kijelzővel tolod fel 4k-ra a render felbontást: nem csak az aliasing szűnik meg elég hatékonyan, más értelemben is kicsit részletesebb lesz a kép (legalább is pár játékban, én a Frostbite-osokban figyeltem meg).

    (A legtöbb post-porocess AA egyszerűen csak kamu képminőség rombolás, elmaszatolja az egész képet, de még az okosabb/jobb verziók is olyan 50/50 eséllyel vagy "sikeresek", vagy összezörrennek valami komplexebb látványelemmel, pl. lekövetik a szolíd teestek körvonalát, de a komplexebb geometriájú, főleg áttetsző és/vagy dinamikus effekteket azok is sokszor elkenik egy fura masszává [pl. sok kis táncoló fényes pontból egy zselé szerű akármi lesz, vagy folyton eltűnik és újra felbukkan a pontok egy része, így hiányos a kompozíció, pl. olyan, mint ha a csillagok fele hiányzik az égről...]).

    Ezek miatt viszonylag hamar "4k függő" lettem. Az olyasmiket, mint a The Witcher 3 inkább játszom 2160p60-ban 40-70 közt mászkáló, 50 köré tartó fps-el és FastSync-el, mintsem 1080p120-ban. Viszont az tény, hogy ha hetente egyszer kedvem van lövöldözni egy fél órát, akkor a CS:GO-t nyilván "kötelezően" 1080p120-ban indítom (szintén FastSync) és tudom, hogy oda még a ~21ms lag is sok, és a 120Hz-tól is elférne még több, eredendő hátrányban vagyok a >=144 Gsync monitorral szaladgáló gyerekkel szemben.

    Mindezt úgy, hogy mikor 1080p60-ban játszottam, sohasem mondtam le a stabil 60 fps-ről. De a hatékony aliasing-mentesítés mégis csak nyomós érv a natív 4k mellett.

    Az 1440p60 is opció, de az mindig kicsit homályosabb/életlenebb hatású a 4k kijelzőn és abban a felbontásban sem tudok sajnos 60Hz fölé menni, pedig pl. egy 1440p100 is érdekes kompromisszum lehetne (de azt hiszem 120Hz-el is beférne a HDMI-be, legalább is 8 bittel, azaz HDR nélkül, ami úgyis ritka még).

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    Végül feladtam a kerek 5GHz-et a 8600K-val. :(((

    1-2 óra után végül csak hibázik a linpack, és mikor elkezdtem még pakolgatni neki felfelé a feszt, egy-két kis lépcsővel ugyan az maradt a helyzet, míg egy pont felett csak rosszabb lett (nem segített rajta a feszültség, de gondolom rontotta a dolgokat az emelkedő hőmérséklet), míg végül a lomha vízzel ki is futottam a keretből (kezdődött a throttling-ba nyaldosni).

    Próbáltam emelni az összes konfigurálható feszültségen, de semmi sem érdekli, csak a Vcore. Ott is talán a nem tökéletes LLC lehet a ludas, hogy pár óránként van egy kis hiba a kompenzálásban és olyankor száll el, de ez csak tippelgetés, lehet hogy egyszerűen nem tud 5GHz-n futni a CPU-m semmilyen lapban/beállítással.

    Úgyhogy most inkább a 49x-es core szorzó mellé próbálom megkeresni a max uncore szorzót, amit a hozzá tartozó Vcore-al el bírok hűteni kényelmesen, ami egyelőre 47x-nek néz ki (ehhez most az összes állítható fesz mind névleges referencia értéken van kézzel, csak a Vcore-t emeltem, és a RAM-ét az XMP profil).

    Majd ha ez megvan, piszkálom kicsit a RAM-ot, de nem hiszem, hogy túl tudja teljesíteni az XMP profil értékeit.

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz snecy20 #560 üzenetére

    Ez nyilván csak lélektani határ féleség, valójában nem ezen fog múlni semmi.
    Úgy nézem kb. ez a 4900+4600 @ ~1.3V lesz majd a vége.

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz schawo #562 üzenetére

    Mert kicsit javíthatja a teljesítményt. Ahogy nézem durván harmad annyival, mint amit százalékos arányban rántunk rajta: https://www.reddit.com/r/intel/comments/76burk/the_impact_of_ringlcc_overclocking_on_coffee_lake/?st=jbf44h5z&sh=40f354a4

    Azon szoktam néha töprengeni, vajon miért van szinte minden alaplapgyártónál tiltva alapértéken a hardware-es hípervizor gyorsítás (VT-x) és az IOMMU (VT-d)? Ronthatnak ezek bármit a teljesítményen, mikor nincsenek használatban? Az előbbi szerintem nem, de utóbbiban nem vagyok biztos, mert az lényegében mindig aktív, ha engedélyezzük, de az már kicsit magas nekem, hogy pontosan miképp dolgozik a háttérben (még akár olyan is lehet, hogy bizonyos OS gyorsul tőle, mert egyéb esetben szoftveresen emulál hasonlót a kernel).

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • janos666

    nagyúr

    LOGOUT blog

    válasz snecy20 #560 üzenetére

    Úgy nézem, hogy az enyém még VRM limitált is. Miután elég körültekintően tettem fel az EK monoblock-ot (pengével vágtam pontosra a gappadot, nyomatékkulccsal húztam meg a csavarokat két körben, stb) és nem forró a NYÁK körülötte (ahol tudom tapogatni a blokk peremétől kifelé), így szerintem nem hőfok, hanem teljesítmény limit lehet, gondolom az amit 140%-ig tudok állítani, de fogalmam sincs mennyi Watt-ban a 100%, így nehéz nyomozgatni. Ami biztos, hogy ha a max 500 kHz-t állítom be a VRM frekinek, akkor hamarabb száll el, mint Auto-n vagy kézi 250 kHz-en a problémás szorzó/fesz pont peremén táncoláskor.

    4900/4600/3200 (core/cache/ram) menne 1.34V beállítással, ami ~1.32V drop után, de így véletlenszerűen lekapcsolgat (VRM beállításoktól függően előbb vagy később) LinX 9.1 alatt (ha nem fut mellett más, még webböngésző se, hanem max fogyasztásra/hőre tudja járatni, lazább teszteket elbírna).

    Valamiért ha 1.34 helyett 1.33V-ot állítok be, még a 4800/4500/3200 sem stabil, viszont érdekes, hogy 1.34V-al nem kapcsol le már akkor sem, ha csak a core szorzó veszem le, tehát bírja a 4800/4600/3200-at (bár még várat magára egy hosszasabb teszt, hogy ez "már tényleg tényleg" :DDD).

    Eltartott egy darabig, mire rájöttem erre, mert csak akkor kezdett lekapcsolgatni ahelyett, hogy dob egy kis kerekítési hibát a linpack, mikor próbaképp a CPU Standby feszt is a normál Vcore-al azonosra állítottam be. Szóval előtte szerintem mikor megütötte a limitet, előbb csak ledobta a feszt az alacsonyabb Standby-ba, és akkor "szemetelt" (aprókat hibázott pár rész-számításon, de nem sokat és ritkán), így viszont nem tud mit tenni, hanem lekapcsol (de ez csak hipotézis a részemről a látottak alapján).

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

Új hozzászólás Aktív témák