Új hozzászólás Aktív témák
-
sb
veterán
válasz #16939776 #23 üzenetére
Pontosítok.
Átlaguserek belátható időn belül nem fognak, nemhogy hanyatt esni, de még kb. érezni sem semmit ettől. Egyszerűen nem lesz érdemi, mérhető eredménye.@berVi: Ezt nem értik meg itt sokan. Attól, hogy elvben kihasználod, a gyakorlatban még nem biztos. A 3.0 egy elvi bottleneck jelenleg, gyakorlatilag meg átlaguser kb semmit nem érez még a SATA-NVMe átállásból sem, nemhogy a 3-4GB/s sebességekből vagy efölött a 4.0-val. Egyszerűen mert ehhez mérhető felhasználás nincs.
Ha 2-3GB lesz egy darab (számológép) app és hasonló méretekben küldözgetik az emojikat egymásnak akkor talán lesz vmi hatása.Szóval lehet erősködni, hogy a 3.0 limitálja az SSD-ket... de a usereket meg nem limitálja a (lassabb) SSD sem. Kör bezárva.
(És ugyanez a 10-100Gb LAN, 2-4db NVMe SSD, stb...)
-
sb
veterán
Ez egy másik, nagyrészt független tényező.
Azért nagyrészt, mert ha 5Ft-ért adnák akkor sem érezne belőle a kedves user semmit.
Nézz meg bármilyen SSD tesztet egy win, game load time-ban mi az eltérés a QLC legszarabb meg a legjobb NVMe SSD között...
Ezen az ár nem változtat.Avagy hiába vehetnél Ferrarit holnap 1M-ért. Ettől még ugyanúgy nem tudnád kihasználni mit tud igazán, pálya nélkül.
A kis függőségi rész meg az az apróság, hogy a csúcs soha nem olcsó. Ezért nincs soha olcsó Ferrari és olcsó csúcs hw.
De ez már más kérdés. Én tényleg inkább a fentit akartam kihangsúlyozni. Hogy ha lenne akkor se nagyon lenne észrevehető haszna egy átlagusernek és ezt baromi sokan észre sem veszik. Elég a marketing: nagyobb szám, több kraft. De az elsődleges kérdés mindig az kéne legyen, hogy kell-e, lesz-e mérhető előnye a gyakorlatban.
-
sb
veterán
Én ennél továbbmennék.
Átlaguser szerintem létezik. Miért ne létezne. nagyon könnyen átlagolható mire használják a legtöbben a gépet.
Amit te írtál, arra egészen biztosan nem. Kérdezz körbe az ismerősök között, még a fogalmakkal is bajban lesznek. Talán videót "vágnak"... telefonon. Render, raw feldolgozás, több 100gb-os file-ok.
Én informatikus mérnök vagyok, programoztam gl-ben, oo "nyelveken", asm-ben optimalizáltam órajel ciklusonként, értek az adatbázisokhoz, elméleti szinten is, hálózatokhoz úgy-ahogy, tudok rendszert tervezni, némi hw mod is belefért, stb... rendereltem is már, videót is vágtam... egészen az mp3 tag szerkesztésig és paintig bezárólag. De pl. több 100gb-os file-okkal esküszöm, hogy életemben nem találkoztam még így sem. Raw-ot sem dolgoztam még fel.Ez az egyik oldal.
A másik meg - és szerintem erről is sokan megfeledkeznek - hogy nem csak a hw-n múlik a sebesség.
Raw nélkül is találkoztam már PS-sel pl és tudom, hogy az sem hajlandó sem indulni, sem menteni sokkal gyorsabban attól, hogy 1 nagyságrenddel gyorsabb tárolót teszel mögé. Ahogy az össze CAD is jellemzően nem hw limitált, tároló részről is ugyanúgy viselkedik, meg mondjuk cpu oldalról is azzal a pár (1-2) megmozgatott szállal. Ha kicsit tudományosabban nézzük akkor a pár 10-100MB-os file-okkal is ugyanúgy eltökölnek ezek a programok (is) ami egy HDD-nek sem okozna gondot szekvenciális feldolgozással. És miért nem úgy ment/tölt? Mercsak.
Szóval ezeknek a végén is ugyanott tartunk szvsz, nem kell a passzinánszig lemenni. Aláteszed a 5-10x gyorsabb tárolót és nyersz 10-20%-ot. Ugyanúgy nem jön ki - sajnos - a különbség. Ezek nagy része ugyanúgy inkább sw és optimalizálási kérdés. De ez nem hiszem, hogy újdonság lenne kicsit is hozzáértőknek. Cpu, memóriamenedzsment, gpu... bármelyiket nézzük, mindig ez az elsődleges. Szerintem.