Keresés

Új hozzászólás Aktív témák

  • Apollyon

    Korrektor

    válasz ivana #20829 üzenetére

    Aztán nincs vsync, meg normális HW gyorsítás.

    Vsync hiánya nem tűnt fel, de hardveres gyorsítás van, és "normális", tekintve, hogy működik.

    #1) Respect the privacy of others. #2) Think before you type. #3) With great power comes great responsibility.

  • Frawly

    veterán

    válasz ivana #20829 üzenetére

    De, van vsync, meg hardveres OpenGL gyorsítás. Te, amire gondolsz, az a hardveres videódekódolás, az időről időre valóban problémás, de csak linuxos böngészőkön, natív lejátszókon (mpv, VLC, stb.) az is működik (Linuxon általában, itt most nem a Tinycore-ról beszélek majd végig). Ami a böngészőket illeti, egy ideig X.org + Chrome-ban ment, de megszüntették a támogatását, aztán egy ideig Wayland + Firefoxszal ment, most az is megint bugzik, de most meg X.org-alapra akarják megint visszahozni. Szóval ja, ha böngészőben videózás a fő tétel, és ehhez kell hosszú akkuidőt társítani, akkor az csakis Windows lesz rövid távon. Minden másra Linux.

    Igazból még a böngészőben videózás is megoldható, ha pl. a netes videókat mpv pluginnel nyitja meg, így átadja az URL-t az mpv lejátszónak, ami meg youtube-dl-lel lehúzza. A youtube-dl nem csak YouTube-ról tud letölteni, hanem másik 100+ videómegosztós site-ról.

    A kevés RAM használat meg ott jön a képbe, hogy a szóban forgó gép ultralow voltage (U-s jelölésű) Celeron, Pentium, 3. gen. i3 procikkal szerelt (i5-i7-es nincs is), az ilyen gyenge, energiatakarékos felhozatalban, a RAM sem szokott 2-4 gigánál több lenni, jellemzően ebben a genben még 2-höz állt közel. Meg amelyik programnak sok memó kell, az általában bloatabb, és többet is töltöget, ergo az aksit is jobban meríti, így csak közvetett az összefüggés a RAM használatával. Igen, olcsó a RAM, asztali gépbe, meg könnyen bővíthető üzleti/workstation laptopba. Konzumer szegmensben egyre gyakrabban oda van forrasztva. Ilyen RAM mennyiségeknél nem mindegy, hogy a Win10 induláskor bekajál 1,1 GB memóriát. Soványabb, de még viszonylag felhasználóbarátabb linuxos DE-k néha már 300 MB Környékén megállnak, meg pl. a linuxos Firefoxnak sokkal kevesebb memória kell, mint a windowsos változatának.

    A Tinycore szerintem is használhatatlan modern gépre, és bár használhatóvá hekkelhető biztosan, de annyira nagy munka, hogy inkább akkor az ember feltesz egy Archot, Arco-t, és bekonfigurálja azt.

    Wifi-hez csatlakozásnak az a trükkje (nem feltétlen Tinycore alatt, hanem bármelyik disztró alatt), hogy fent kell lennie a kártyához való firmware csomagnak (meg néha még a megfelelő kernel modulnak), amit a legtöbb disztró alapból nem szállít, és nem a felhasználót akarják ezzel szopatni, de ezek a firmware-ek zárt szoftverek, és már a licencünk nem szokta engedni a szabad terjesztést, ezért vannak problémák. Azért van, hogy a felhasználónak kell ezeket beszerezni, mert akkor nem a disztró terjesztette a felhasználó felé, hanem a felhasználó járt utána, oldotta meg magának, és ő magánemberként ezzel nem sért licencet. Ez inkább csak ilyen jogi huzavona miatt van. Igen, elmebaj, de ezt nem a Linuxnak kell köszönni, hanem a jogvédős jogászoknak, meg kapzsi multiknak.

    Persze, biztosan mondod, hogy ez bezzeg Windowsnál miért nem probléma. Ott azért nem, mert a MS vagy fizet a gyártóknak (vagyis te fizetsz, azzal, hogy pénzt adsz a Windowsért), vagy a gyártók maguk kezdeményezik, hogy a driverük bekerüljön a Windows-ba, hogy egy 90+%-os részesedésű platformon ne kerüljenek hátrányba. Bár pont ez a Wi-Fi téma az, ami sokszor Windowson is hibádzik, és ilyen-olyan verziós wi-fi driverek szeretnek kékhalált dobogatni, főleg, mikor egy nagy évszakos update összeakad egy régi driverrel. Valahogy az egész Wi-Fi-s ipar nem szokott valami komoly lenni sajnos.

  • ubyegon2

    nagyúr

    válasz ivana #20833 üzenetére

    Az XFCE tudtommal az ahol már van compositor, vagyis normális opengl-es HW gyorsítás és vsync.

    Azért az igen sanyarú lenne, ha a nagyobb DE-kben nem lenne kompozitor, XFCE és Mate felületnél változtatható, melyiket használod, a többinél szerintem fixen tartalmazza a DE. Firefoxnál is van már HW gyorsítás is a 81-es verziótól.

    Firefox 80 To Support VA-API Acceleration On X11

    Több helyen ugyan már a 80-as verzióra írják, de 81-es az valójában.

    (#20829) ivana

    Nekem határozottan az volt az érzésem, hogy a kolléga az SSD-re már nem akar Wint telepíteni! ;)

    [ Szerkesztve ]

  • ubyegon2

    nagyúr

    válasz ivana #20836 üzenetére

    Ja OK, a thread-ből kiragadva értelmeztem, amit írtál, holott kifejezetten lightos megoldásokról volt szó, így fullos DE-kről szó sem esik most. Jogos, Sorry! :R Sejtettem én, hogy valami nem stimmel. :N

  • Apollyon

    Korrektor

    válasz ivana #20836 üzenetére

    Nem kell ehhez desktop environment. Intelnél és nv-nél driverből megy simán a compositing, és sehol nincs tearing meg egyéb probléma, legrosszabb esetben is csak egy xorg confba kell beírni par sort. Már rég volt AMD kártyám, de ott is biztos ma is működik.

    #1) Respect the privacy of others. #2) Think before you type. #3) With great power comes great responsibility.

  • ubyegon2

    nagyúr

    válasz ivana #20854 üzenetére

    Szvsz a ZRAM és a swap is felesleges.

    Nyilván felesleges vagy akár hardver-decetc alapján mondjuk 4GB-hoz felrakná, de 8GB felett már tuti nem. Ubuntu alapok is raknak swap file-t 16 gigához is, nem mintha az az 1GB zavarna, de minek? Ha valaki hiberkedik, úgyis növelnie kéne a swap-ot. Viszont kevés RAM esetén jobb a zram, mint a swap, ha igaz....eleve e célra csinálta az orosz koma anno.

    Kéklufi tudná megmondani, neki a kínai csodalaptopon zram galádkodik.

    A synology NAS-ok is btrfs-t használnak

    Ezt jó, hogy említed, akkor nem vágom ki az ablakon a NAS-t, ugyanis már kétszer nem értem el távolból, itthon kellett fizikailag rebootolni. :W Majd 70 rugóért ezt tudja?

    [ Szerkesztve ]

  • Apollyon

    Korrektor

    válasz ivana #21164 üzenetére

    Egyáltalán nem rétegtermék. Csillió gamer laptop közül választhatsz, giga pénz van a bizniszben.

    Valóban nem laptopon kell 8K-ban játszani próbálni 240 FPS-sel, de vannak olyan kategóriájúak amiket meg lehetne csinálni rendes fémházzal és igen jó rézhűtéssel RGB nélkül. Ha lenne kínálat, vásárolnák is, csak az árrés lenne kisebb a gyártó számára, akinek így kevésbé éri meg. Aki meg játszik az biztos hülye (gyártó szerint), és jó lesz neki a joghurtosdoboz műanyag is, és ugyanúgy lehet drágán árulni az elégséges/elégtelen borítású laptopokat, több haszonnal.

    [ Szerkesztve ]

    #1) Respect the privacy of others. #2) Think before you type. #3) With great power comes great responsibility.

  • ubyegon2

    nagyúr

    válasz ivana #21174 üzenetére

    Nyilván, mivel a különbség épp a HDD SSD access time-ban van. Nekem első SSD-m ugyan Sata3-as volt, alaplap Sata2-es, de valami nforce akármi miatt csak Sata1-ként kezelte az Intel 520-at, de még így is érezhető volt a váltás HDD-ről.

    (#21175) Aweriot

    Tényleg nem is érdemes vele foglalkozni, vannak elvetemültek, akiket ez érdekel. No ők aztán már azt is tudják, mit jelent a megbízhatóság meg a DRAM cache az eszközben. :K Sokat átlag felhasználó utóbbiból se érez. Azért a 860 EVO mégiscsak 860 EVO!

    sudo smartctl -x /dev/sda
    sudo smartctl -a /dev/sda

    Ezekkel nézted már az SSD-t? Ja persze, most már nem is tudnád.....

    [ Szerkesztve ]

  • Frawly

    veterán

    válasz ivana #21270 üzenetére

    Azért a bitrate és a bandwith elég közel van egymáshoz. Valóban nem tökéletesen egyeznek, mert bandwith = bitrate + overhead. De elég közel van a kettő a legtöbb csatolónál.

    Azt meg senki nem írta, hogy a DP rossz lenne, vagy annyira ne tudna valamit, hanem inkább létjogosultságát nem értem, mert nem is nyújt többet, mint a HDMI. Azt értem, hogy licencdíj, de azt meg felesleges megspórolni. Vagy nekem az is jó lenne, ha csak a DP lenne, a lényeg, hogy felesleges két olyan szabvány, ami ugyanazt tudja lényegében, kisebb eltérésekkel.

    Továbbá verziókat is figyelembe kell venni, HDMI-ből és DP-ből is van mindenféle verzió. Még DVI-ból is van single és dual linkes változat.

  • Frawly

    veterán

    válasz ivana #21273 üzenetére

    A sávszélességet nem csak Hz-ben lehet mérni, hanem bit/sec-ban is. A sávszél viszont magában foglalja azt is, hogy metaadatokat is át kell vinni a hasznos adatokon túl, az adatcsomagok fejlécei, CRC, egyéb hibajavító mechanizmus, kézfogás két eszköz között, szinkronizálási adatok, stb.. De ha a sávszél kellően nagy, akkor az overhead el szokott enyészni ehhez képest. Persze, meg lehet az egészet adni szimbólumsebességben is, vagy Hz-ben, de akkor is ugyanarról beszélünk, csak más mértékegységre átváltva.

    USB-C-n tudtommal HDMI is át tud menni. De mint mondtam, semmi bajom a DP-vel, én tőlem lehetne az is fő szabvány. Csak ez így felesleges, hogy van n szabvány vagy megoldás, és akkor jön valaki, hogy ő tud jobbat, amiről kiderül, hogy nem jobb, csak más, más egyéni szájíznek felel meg, marginálisan vannak ugyan előnyei, de más szempontból meg hátrányai, és csak annyit értek el vele, hogy aztán lett n+1 szabvány vagy megoldás, közkézen kering erről egy xkcd meme is. Na, ez az, aminek nincs sok értelme, ezért van a sok prognyelv is, aminek a 90%-a hulla felesleges, meg fele divatmajomkodás. Elég lenne minden programozási paradigmához egy nyelv és annyi. Illetve médiaformátumoknál is ez van, ugyanabból a kódekből kettő, az egyik proprietary/fizetős, a másik free, pl. aac vs. vorbis, x265 vs. VP9 vs. AV1, stb..

  • Frawly

    veterán

    válasz ivana #21276 üzenetére

    Nem. Az analóg a fizikai közegre vonatkozik. Ez a csatoló, amiről itt beszélünk, viszont digitális. Nem csak a magyar Wikipedián, de netszerte írnak USB, SATA, NVMe, PCIe, Ethernet, stb. bandwidth-ről, amikor taglalják, hogy hány Gbps a bandwidth. Megnézhetsz akármilyen oldalt, nem csak Wikipedia, hanem szakmai oldalak is.

    Egyébként meg nem eltérő definíció, hanem ugyanaz. A te Hz × szimbólum/sec az ugyanaz, mint a Gbps, vedd úgy, hogy Gbps = GHz × 1 bitnyi szimbólum / sec. És általában nem is fizikai közeg van korlátozva, mert az átvinne többet is, hanem a vezérlés, jelfeldolgozás oldaláról szokott inkább a korlát jönni. Egy HDMI és DP kábelen, ha jó minőségűek, elmegy nagyobb sávszélességű jel is, mint amit a HDMI különböző verziói megengednek. Maga a vastag fémvezeték meg körülötte az árnyékolás elbírna szerintem jóval többet.

    Valamint ebből a nyers digitális sávszélességből lejön még az overhead, ami sallang, csak az átvitel szervezése, ellenőrzése miatt kell, de nem hasznos adat.

  • Frawly

    veterán

    válasz ivana #21317 üzenetére

    Hát, sok sikert 4 gigával bármire használni a Win10-et. Önmagában valóban elmegy ennyin (akár még marha szűkösen, elfut 2 GB-tal is, 1-et a Windows eszik meg, 1-et meg a háttérfolyamatai, amit pörget, vírusirtó, mindenféle frissítő meg telemetriamodul), csak nagyon mást ne akarj alatta csinálni. XP óta én Vistát és Win8.x-t nem használtam, a többit igen, de XP előtt is használtam 2k-t, NT4-et, Win95-98-at, Windows 3.1(1)-et. De más gépén van Vistával és Win8, Win8.1-gyel is némi tapasztalatom.

    Ha a kernel zabálja attól még Linuxon látszik a különböző top-okban, csak be kell kapcsolni, hogy a kernel threadeket is mutassa. Esetleg max. akkor nem látszik a top-ok process listájában (bár top-okban felül az összegzésnél mutatkozik), ha cache-nek használja, de kiderül a free parancsból, vagy a /proc/meminfo fájlból kiderül. Pont ez az egyik lényeges működési különbség, hogy a Linux kernel engedi, hogy a működésébe beleláss, beleavakozz, míg Windowsnál ez rejtve van, egyrészt, mert a felhasználót hülyének nézik, másrészt félnek, ha engedik a rendszer széthekkelését, akkor azzal a warezolók meg crackerek dolgát könnyítik.

  • ubyegon2

    nagyúr

    válasz ivana #21337 üzenetére

    20 eves autok is torxal vannak tele

    Ne is mondd, 8 éve vettem első üléseket a Renault Clióba, majd 20 éves volt és torx csavarfejek voltak ott is, kétségtelen, hogy stabilabb a kapcsolat. Ott érthető, de ilyen miniatűr méretben annyira nem szokott gond lenni a csavarokkal, 8570p-ben is olyan kemény a csavar, hogy azt nem koptatja el a tekergetés. Titkosítás csak poen lett volna. :D

  • ubyegon2

    nagyúr

    válasz ivana #21344 üzenetére

    Köszi a linket, tényleg jónak tűnik, még HDD-nél nézegettem ilyen témában anno, de aztán maradt, ahogy van. A swappines nullázása az OK, meglátom, mit tudok a leírásból megérteni. Egyébként a WD Blue 3D cache is elég jó, ha be van kapcsolva, FF cache alapból memóriába van irányítva, de 16GB-nál már érdemes lesz kipróbálni ezt a win-szerű cache-t is.

    Belepillantva a linkbe még egyszer, valóban óvatosan kell ezt laikusnak birizgálni, de sok kockázata nincs, van tartalék rendszer.

    Use a RAM Disk to Improve Disk Access Times

    Ez is érdekes, bár az SSD access time-on nem tudom mennyit tudna dobni.

    [ Szerkesztve ]

  • ubyegon2

    nagyúr

    válasz ivana #21346 üzenetére

    Igaz lehet, a /tmp az alapból is teszi a dolgát, bár régen állítgattam még SSD-n valami, de már sok értelmét nem látom.

    Tönkre tenni nem fogod vele a rendszert, max. ha táp kiesés van nem íródik ki időben az adat.

    Ez elég deja vu-s most, pont egy órája írtam HDD write-cache-sel kapcsolatban ugyanezt, ill valami hasonlót inkább. :) Ott adatvesztés esélyesebb.

    [ Szerkesztve ]

  • Frawly

    veterán

    válasz ivana #21342 üzenetére

    Ha 5 ezer a 32 GB és a gép fogadja, akkor oké. Általában a DDR3 ECC is olcsó, mert leselejtezett szerverekből kukázzák, igaz ehhez kell olyan platform is, ami lekezeli, átlag asztali gép nem fogja. Meg ha laptopról beszélünk, abba meg alapból drágább a RAM. De a 32 GB DDR2-re hatványozottan igaz, hogy a DDR2 miatt feltehetőleg egy elavult, koros rendszer, még alacsonyabb buszsebességgel, kisebb sávszéllel, kisebb IPC-je a prociban a magoknak, és ezek hamarabb lesznek 32 GB-ot igénylő komolyabb munkáknál szűk keresztmetszet, mint maga a RAM mennyisége.

    Azt nem tudom mit értesz azon, hogy gyorsabb lesz. Nálam pont, hogy a Win10 lassabb, nem cache-el hatékonyon, míg a Linux azokkal a cikkben kritizált alapbeállításokkal, amiket linkeltél, hogy túl konzervatívak, azzal teljesen jól cache-el, egész addig, míg van memória.

    Persze, még agresszívebbre lehet venni a kernel vm cache-beállításait, de 1) annak mint te is írod, lehet adatveszéti kockázata, 2) átlagosabb felhasználásnál szerintem nem lesz érezhető a hatása. Hangsúlyozom érezhető, szintetikus benchmarkon lehetséges, hogy pár % erejéig tetten éred, de mindennapos felhasználásnál érzetre nem fog mutatkozni javulás.

    A swappiness kinullázásával is vigyázni kell, mert öngólt lehet rúgni, hirtelen telik be a memória, utolsó pillanatban próbál a swap-hoz nyúlni, és iszonyatosan válaszképtelenre be fog lassulni a rendszer. Így a kinullázás nem ajánlott, hanem inkább csak a default érték óvatos csökkentgetése, rendszeresen itt-ott egy kicsit, míg a használati átlagstabilitást nem érinti.

    Írom ezt úgy, hogy nálam 16 gigával swap sincs. Egyáltalán. Ha annyira megszorulok, lehet ideiglenesen csinálok egy swapfájlt mkswap paranccsal, amit swaponnal ad hoc felcsatolok, de eddig nem volt ilyenre szükségem. 8 GB már felhasználásfüggő. 4 gigánál meg kell a swap mindenképp, vagy csak placebóhatás szintjén.

    [ Szerkesztve ]

  • F34R

    nagyúr

    válasz ivana #21362 üzenetére

    Nem azt mondtam hogy nem megy. Azt hogy nem 100%-ban kompatibilis. 3.12 ota hasznalom ezen a hardveren a kerneleket, es 4.9 igy volt minden hibamentes. Ezt ugy ertem, hogy az ujban pl fixaltak valamit, ami a regi architekturara ertendo, de meg rosszabb lett mint regen.

  • Rimuru

    veterán

    válasz ivana #21364 üzenetére

    Szvsz alapból nem kéne használni nem LTS kernelt - Amig nem vagy erdekelt az ujdonsagokban addig igaz. Aki erdekelt az pedig ugyis tudja mit csinal. :))

    Vigyázat, csalok!

  • Frawly

    veterán

    válasz ivana #21362 üzenetére

    Azért volt ilyen, i965 (muzeális) GPU driverrel voltak regressziók egy ideig, nem szedték ki, de bugos volt, pár kernelkiadást meg kellett várni, míg javították. Szóval azért történik-ez az, nem feltétlen csak régi hardverhez való driver kiszedése okozza. De elég ritkán fordul elő.

    ivana #21364: nem értek egyet. LTS kernelt csak vész esetben szabad használni, mikor egy adott hardverösszeállításból valamit csak az visz. Egyébként a legfrissebb stabilt éri meg használni. Oka: sokszor az új kernelekbe optimalizációkat is betesznek.

  • F34R

    nagyúr

    válasz ivana #21379 üzenetére

    Hirtelen azt olvastam hogy workstation laptop 20kg. ;] Majdnem levert a viz :D

    [ Szerkesztve ]

  • Apollyon

    Korrektor

    válasz ivana #21374 üzenetére

    A T500-T520 duál GPU-sok voltak és nem voltak rosszak, nem volt semmi bajuk, pedig nem workstation, az a W500-520 volt.

    Szerelhetőségről meg de, azok voltak, mert könnyedén tudtad cserélni a RAM-okat, a diszket, anélkül, hogy szét kellett volna bontani az egész gépet, mert külön ajtó volt hozzá. De a billentyűzetet és a touchpadot (vagyis palmrestet) is könnyedén le lehetett venni, csak a belső panel legtetejét kellett hozzá pár csavar eltávolítása után lepattintani.

    Az apple majmolás meg azért is érthetetlen, mert az X1 Carbon sorozatot Lenovo kimondva, dedikáltan, a Macbook ellen szánták, így az kinézetre, dizájnra, ugyanaz a kinézetű billentyűzet, hátulról előrefelé (kijelzőtől touchpadig) vékonyodó gépház.

    Azzal nincs bajom, csak ennek ellenére is a többi géppel is ezt művelték. Mivel genről genre szegényesebb lett a gépek háza, béna, jobban kopó és törő anyagok, az olcsóbb gyártás prioritásba vétele a használhatóság kárára.

    Plusz még az intel rossz CPU dizájnjai sem segítettek ezen a történeten, szóval úgy 2014-től kezdve egyre jobban kuka a legtöbb Thinkpad. Mondjuk az 5-ös sorozatok (T550 stb) már jobbak voltak a 4-eseknél, illetve a linkelt évfordulós T470 is nagyon jó, de utóbbi extra nem megérősen feláras. Utána meg már tudjuk mi történt...

    #1) Respect the privacy of others. #2) Think before you type. #3) With great power comes great responsibility.

  • Frawly

    veterán

    válasz ivana #21377 üzenetére

    Alapvetően a legtöbb könnyen szerelhető TP-kből. Nem az összes, a régebbiek, azokból is a 14-15,6 colos. A 12-esek tényleg nem azok, pl. X220-X230-at horror szétszedni, egy egyszerű CPU hűtő kipucolásához is teljesen ripityára kell kapni.

    Továbbá de, a T14-T15-nél vannak már modellek, amelyeknél az egyik RAM forrasztott, review-ban láttam, aksi sem csatlakoztatható le-fel menet közben, stb., stb..

    A Dell-eket én is jobban preferálom, nekem jobban bejönnek a Latik, az XPS-ek is jó gépek, csak utóbb már azok is áldozatul estek a vékonyításnak. A Dell-ek nagy átlagban még jobban szerelhetők.

    A klasszik (nem mostani) HP Elitebook széria is könnyen szerelhető, a HP-t csak azért nem szeretem, mert a BIOS-uk, meg a drivereik elég szutykok szoktak lenni. Dokkolásukról nem tudok semmit, nem volt még dokkolt laptopom. Akkuidejük valóban nekem sem tűntek hű de jónak, igaz amik Elitebookok nálam jártak, azok korosak voltak, és betudtam annak, új példány még nem volt a kezem között.

    Laptopok meg a mai hardvererő mellett már igenis alkalmasak a forráskódból pörgetésre, a workstatin notik régen is azok voltak. Nyilván nem az összes csomagot fordítom le a tárolóból, hanem csak amit használok. Meg annyira nem vészes, mert a csomagok nagyja általában nem olyan nagy, főleg azok a minimalisták, amiket én használok javarészt. Van 1-2 húzós, glibc, llvm, mesa, böngészők, stb., de azt a párat ki lehet bírni.

  • Apollyon

    Korrektor

    válasz ivana #21385 üzenetére

    Már a 2000-res évek elején mondták, hogy a PDA-k fel fogják váltani a pc-ket. Hát nem sikerült.

    Sajnos de, csak okostelefonnak hívják. Most már több ember netezik telefonról mint számítógépről.

    #1) Respect the privacy of others. #2) Think before you type. #3) With great power comes great responsibility.

  • Apollyon

    Korrektor

    válasz ivana #21387 üzenetére

    Arra valóban, de szerintem netezésre is, meg úgy a legtöbb dologra, ahol gépelni kell, vagy egyéb értelmes dolgot csinálni. :D

    Btw arra céloztam, hogy a PDA platform meghalt az okostelefonok miatt.

    [ Szerkesztve ]

    #1) Respect the privacy of others. #2) Think before you type. #3) With great power comes great responsibility.

  • válasz ivana #21387 üzenetére

    Definiáljuk a "munkát". PC alkalmatlan a szántásra, amúgy. Nem visz elég mélyre.

    Tegnap még működött...

  • válasz ivana #21392 üzenetére

    Arra akartam utalni, hogy nem mindenkinek munkaeszköz a telefon, vagy ha igen, akkor a következőkben: telefon, email, chat.

    És ezzel együtt, nem minden PC munkaeszköz, mert bár alkalmas rá, nem arra használják.

    Be kell látni, hogy van közös szeletje a PC és a smartphone piacnak, feleslegesen nem érdemes szűkíteni, hogy de "dógozni nem lehet vele".

    [ Szerkesztve ]

    Tegnap még működött...

  • Frawly

    veterán

    válasz ivana #21385 üzenetére

    Ebben is igazad van, a desktop még előrébb jár, de mára elértek oda a hardverek, hogy ha átlagosabb igényeid vannak, és nem kell FullHD 60 Hz-nél több (játékokban high / very high settings, ilyen felbontáson sokszor már az ultra is belefér), és nincs speciális felhasználás (fejlesztő, 3D renderelő, stb.), akkor simán elég lehet egy normálisabb noti is, vagy egy pár éves asztali gép, annyi, hogy dedikált kártya lehetőleg legyen benne, a proci meg ne 2 magos legyen, meg 8-10 éves.

    A PDA-kkal nem sokat tévedtek, mert tényleg kiszorították a legtöbb embernél, csak egyesültek a telefonnal, és ma már nem PDA-knak, hanem okostelefonnak hívják, de továbbra is PDA funkcióban vannak használva, max. annyi, hogy telefonálni is tudsz velük. Már pedig az okostelók, meg a laptopok nagyon levékonyították az asztali gépek piacát. Amivel nem értek egyet, mert egy normális asztali gépet soha semmi más megoldás nem fog kiváltani, nem csak CPU és GPU erőben, de bővíthetőségben, energiakeretben, normális bill, normális egér (nem tapipad, meg érintőképernyőn tapicskolás), normális monitor (nagy képátló, jó színhűség).

  • Frawly

    veterán

    válasz ivana #21396 üzenetére

    Én smartphone-nál nem is a teljesítményt kifogásálom, hanem a kényelmetlen kezelői felületet. Érintőképernyőn tapicskolni, meg zsebkendőnyi képernyőt bambulni nagyon limitáló. Emiatt még fő desktop felhasználásra sem alkalmas, nem hogy komoly munkára. És igen, lehet rájuk BT billentyűzetet és képernyőt ködni, de nem lesz akkor se olyan, mint egy rendes PC, mivel csomó lag meg korlátozás lesz.

    Abban igazad van, hogy az x86-nak nagy előnye, hogy szabványosítva van rajta a bootlader/firmware. Az ARM platform is mai napig küzd, hogy ahány implementáció és gyártó, annyiféle bootloader/firmware, általában a legtöbb le is van zárva, és ugyan lehet hekkelni, de gyártóspecifikus, így meg nem annyira terjed, és emiatt minden ARM platform annyira különbözik, hogy a fejlesztők nem tudják egységesen kezelni, egységesen fejleszteni rá.

    Azzal tisztában vagyok, hogy a Linux kernel sokféle architektúrát támogat, és hogy kell lefordítani rájuk. Nem is ez volt a lényeg. Az természetes, hogy OS-ekben mindig vannak ASM kódok, mert low level funkciók csak így valósíthatók meg, ez elkerülhetetlen.

    A lényeg inkább az, hogy egy csomó olyan szoftver van, firmware, Netflix és egyéb streamszolgáltatás DRM modulja, Steam, játékok, windowsos megoldások, Adobe szoftverek, és lehetne még hosszan sorolni, amik zárt forráskódúak, csak x86 only-k, és egész iparágak alapulnak rajtuk, és ezeket max. emulálni lehet más platformokon, a DRM védelmek miatt még azt se 100%-osan. Így meg az x86 mindig is tisztességtelen előnyben lesz.

    [ Szerkesztve ]

  • cigam

    félisten

    válasz ivana #21396 üzenetére

    - A riporter okostelefonnal lefényképezi az eseményt, és már tolja is a tartalmat az internetre.
    - A pilóták is tabletet visznek magukkal a sok papír alapú térkép, dokumentáció helyett.

    Ők nem végeznek "norális" munkát?

    Freeware, és akciós programok egy helyen https://www.facebook.com/freewarenews

  • válasz ivana #21396 üzenetére

    Nehéz úgy érvelni, amikor azzal nem értesz egyet, amit nem állítottam.

    Tegnap még működött...

  • Frawly

    veterán

    válasz ivana #21385 üzenetére

    PDA-król egy gondolat. Ma már röhögünk rajta, de anno nagy hájp vette körül. Mai napig játszok korabeli játékokkal, és egy csomóba beletették. Pl. Deus Ex, Far Cry, Doom3, Stalker. Mindenhol high tech - high end cuccnak van feltüntetve. Különösen a Doom 3 esetében vicces, mert az a jövőben játszódik, 2145-ben (Deus Ex „csak” 2050-ben), és úgy ábrázolja a jövőt, hogy még akkor is PDA-kat használunk, meg videólemezt (DVD ihlette), de legalább LCD monitorokat tettek bele CRT-k helyett. De ugyanezt figyeltem meg régi sci-fi-kben, ahol az űrhajók irányítópultja az akkori számítógépes, alacsony felbontású és kicsi színmélységű vektorgrafikát használta, meg a háttérben néha még ilyen nagy mainframe szalagegységek pörgették a spulnikat, a gép pedig ócska, prüntyögő, ciripelő hangot adott, meg ilyen gépi lowres robotbeszédhangot. Közben meg kb. 20-30 év alatt ezen mind túllépett a technológia a filmek készítése után.

    [ Szerkesztve ]

  • Frawly

    veterán

    válasz ivana #21443 üzenetére

    Igen, azt elfelejtettem írni, hogy WSL is közrejátszott, de ugyanez az eset áll fenn a natív NTFS-sel is. Ha nem hiszitek, próbáljátok ki valamivel, ami sok apró fájllal dolgozik. Akármi lehet, telepítő, játék, kitömörítés, akármi. A fazon a videón nagyon illedelmes volt, és szíveskedett a telepítőt átfaragni úgy, hogy Windowson se legyen katasztrófa. De ez nem azt jelenti, hogy a Win, NTFS, WSL mégis jó, hanem azt, hogy igenis ótvar, csak ha köréhekkeled a dolgokat úgy, hogy testhez álljon neki, meg rá legyen optimalizálva, akkor ki lehet hozni belőle tűrhető sebességet, de még akkor is 7-10× lesz lassabb, mint egy optimalizálatlan linuxos megoldás.

    De most hogy feszegetjük, a WSL-ről is megvolt mindig nagyon negatív véleményem. Helyette még az is jobb, ha valaki nem akar dualbootolni Linuxra, hogy hardveres virtualizációt kezelő virtuális gépben futtatja inkább, sokkal közelebb lesz a natív linuxos teljesítményhez az egész.

  • Frawly

    veterán

    válasz ivana #21457 üzenetére

    Igen, igazad van, az Apple mindig is erről volt híres, hogy nyitogatott forráskódot, és kifjezetten arra törekedett, hogy nyílt ökoszisztéma legyenek, Average Joe-nak is bármikor ingyen elérhető formában, és ne egy prémium zárt platform, ami saját hardveren, saját okosziszémába elérhető. Ezért kell szenvedni a Hackintosh-sal is mai napig, mert annyira szépen kinyitotta az Apple. Tudtommal lófaszt sem nyitott meg, a MacOS-ben néhány API-t maximum, a többit meg lelkes amatőrök hekkelték meg, pl. bootloader meg Hackintosh, hogy lehesen rajta Linuxot használni, vagy a MacOS-t lehessen inteles PC-n.

  • Frawly

    veterán

    válasz ivana #21485 üzenetére

    A Windowst illetően igazad van, de ez akkor is fejlesztői lustaság. Igen, dobtak ki legacy dolgokat, változott az API is, de ez a fejlesztőnek a dolga, hogy lekövesse. Azért nem minden 100%-ban újdonság.

    Azzal is egyetértek, hogy Linux toolokban is van elég szarul karbantartott, ezért is lett deprecated nem csak a netcat, de pl. az egész nettools csomag is. Ennek ellenére a legtöbb alap linuxos tool, főleg nem grafikus alkalmazások, elég eyszerűek, így nem annyira spagettikódok, de ilyen is előfordul.

    A szoftvervilág legalja egyébként a böngészők. Mára már mindegyiknek olyan hatalmas kódbázisa van, hogy nagyobb, mint akármelyik OS-é, és hatalmas, bloat spagettikódok vannak benne, annyi millió kódsor, hogy már ember át se tudja tekinteni, esélye nincs debugolni.

  • Frawly

    veterán

    válasz ivana #21494 üzenetére

    Céges gépeken nem Fedora megy előtelepítve, hanem a cég által telepített RHEL vagy hasonló disztró, amihez szakemberük is van, meg szerződésük supportra. A Fedora az pont nem hivatalos, otthoni linuxereknek van. Bár egy-két cég fedorázik is, mert majdnem ugyanazt nyújtja, amit az RHEL, csak tök ingyen.

    Egyébként meg szerintem az a legjobb a Linuxban, hogy saját magának tudja az ember a rendszerét összeválogatni, támogatni, és nem kell nagy cég patcheire, meg supportjára várni. Időrabló, utána kell nézni, meg kell tanulni, de kifizetődik. Szemben a Windowszal, ami sztenderd, mindenki ismeri, és addig nagyon faxa is, amíg nincs vele valami rohadt nagy gond, akkor meg aztán lehet a MS-ra várni, aki meg nyomja a hülye dumát, hogy a várjatok türelmesen következő patch keddig gyerekek, meg telepítsétek újra félnaponta, meg vágjátok el az UTP kábelt. Ezt is valami indiai telefonos-távsegítős supporton keresztül, ami nem jó semmire. Ráadásul mióta a Windows 10 is félrolling lett, és minden félévben eltörik valami rajta nagy évszakos frissítésekkor, meg feature-öket vesznek ki (SMBv1 és társai), azóta meg aztán még ez se szól mellette, hogy évekig nem kell hozzányúlni. Csak szakembert könnyebb hozzá találni, meg belekerül egy nagy rakat pénzbe.

  • ubyegon2

    nagyúr

    válasz ivana #21525 üzenetére

    Attól, hogy leforgatsz mindent -march=native-el marginálisan leszel gyorsabb, viszont egy csomó energiát felhasználsz feleslegese

    Kb évek óta ezt mondom Frawly komámnak is, de hajthatatlan, szerintem még sokáig fogjuk itt olvasni a kalandjait a témában.

    Gyakorlatilag kijelenthetjük, hogy sem a profik, sem a kezdők nem akarják igazán, akkor az önszopató haladóknak készült a Gentoo. ;]

  • Rimuru

    veterán

    válasz ivana #21525 üzenetére

    Szerintem kb mindenki tudja hogy csak ezert nincs ertelme.

    (#21529) Amugy embededre fejlesztesz?

    [ Szerkesztve ]

    Vigyázat, csalok!

  • ubyegon2

    nagyúr

    válasz ivana #21529 üzenetére

    én meg aki egész nap linuxot forgatok nem akarom

    Pedig akkor neked igazán mindegy lenne! :DD Frawlynyek komámnak is valami ilyesmi meló kéne, ahol forgathatna egész nap. ;]

    (#21530) Aweriot

    Az biztos, hogy nagyon sokáig ülnék rajta ha nekiállnék. Szerintem ez nekem még wikivel is órákig tartana

    Ez tart vissza engem is, anno nagyon kezdő koromban egy Evo/lution install helperrel álltam neki január 01-én hajnalban Arch-ot telepíteni, ez így 2,5 órába tellett! Mire kész lett, totál tiszta lett az agyam. :D

  • F34R

    nagyúr

    válasz ivana #21525 üzenetére

    Marginalisan semmi nem lesz gyorsabb... aminel kijon a processzorido az esetleg ilyen Davinci Resolve szintu remek, de annal meg nincs nativ forraskod hogy eszrevedd a kulonbseget. A kernel az mas dolog, azt en is jobbnak szeretem forditani meg binaris disztron is.

  • Frawly

    veterán

    válasz ivana #21537 üzenetére

    A saját forgatott kernel nem az utasításkészletek miatt gyorsabb, hanem ki tudsz belőle hagyni egy csomó sallangot. Csomó régi hangkártya, hálókártya drivere (meg minden egyéb, amelyik hardver nem található meg a gépedben), ki tudsz belőle vágni egy csomó legacy támogatást, amit a nagy disztrók biztos, ami biztos alapon beletesznek. Így maga a kernel image megy össze, felére, negyedére, nyolcadára egy defconfigos forgatáshoz képest, na, ezzel lehet időt nyerni. Maga a kernel ilyenkor sem fog sokkal gyorsabban futni, de pl. a rendszer gyorsabban bootol, meg kevesebb memóriát foglal.

    A legtöbb disztró 32 bites kernele ma már PAE-vel, meg i686-ra van fordítva, SSE2-vel. Az i586-ot már vagy 10+ éve dobta minden disztró, legutolsónak a Debian, meg az arra épülő disztrók. Elvileg még kernelkód szintjén támogatott az i486-i586, kérdés ki teszi fel olyan gépre, mert használhatatlanul lassú lesz rajta. Talán az i586 határeset, mert AMD K6, K6-2, K6-3 még ebbe tartozik, nem az i686-ba, de pl. K5-ön meg P1-en tarkónlövés lassúságú egy modern kernel. Az i386-os támogatást már a kernelkódban dobták a 3.8-as kerneltől fogva.

    Az -O2 és -O3 eleve nagyon vitatott, régi gépeken, kisebb cache-es procival az -O2 általában gyorsabb, más esetekben az -O3 lehet a jobb, gyakran forgatott kódja, meg a fordított bináris mérete is válogatja. Ez valahol hittétel, hogy ki miben hisz, mire esküszik. A Gentoo Wiki az -O2-őt ajánlja, én a régi laposon azt használtam, az újon a 8 mag meg a több cache miatt már -O3-at fogok. Természetesen a -march=native mellett, de én néha azt is átírom konkrétra, nehogy hibásan detektálja, pl. régi gépemen -march=sandybridge (i5-2520M), az újabbon -march=znver2 (Ryzen 4700U). Elvileg még lehet azzal szórakozni, hogy gcc helyett llvm/clang-gal fordít az ember, olyat még nem csináltam.

    #21538 zoltanz: ja, rohadt jól néz ki, volt is régen pár háttérképem hasonló, Santorini nevű helyről, igaz az Görögország, de az is hasonlóan néz ki, tengerpart, sziklás dombon tradicionális házak.

  • Frawly

    veterán

    válasz ivana #21569 üzenetére

    Ez nekem akkor is új, mert múltkor nem kellett semmit beleírni se az initbe, se a networking.conf-ba, hanem csak beleforgattam a kernelbe és következő bootkor már töltött is be mindent. De ezek szerint kavartak rajta, mióta utoljára próbáltam, legalább most már ezt is tudom. Kösz mindkettőtöknek a segítséget. Valószínű a többi kernelmodullal is ez lesz, amiket nem tölt be, k10temp, i2c-hid, stb..

    Megpróbálom még ezt az 5.10.3-as Gentoo kernelt, mert amit magától felrak, az csak 5.4.x, ami nekem nagyon régi. Még az 5.11-es RC-től sem riadnék vissza, de korai RC-t kockázatos feltenni, főleg most, hogy tudni, hogy újrabb AMD procikon (pont olyanokon, mint ami a gépben is van), teljesítménycsökkentést okoz, vizsgálják a regresszió okát a kernelfejlesztők, írt róla a Phoronix. Egyébként az Arcnak ez is előnye, nem patchelnek semmit, minden csomag vanilla upstream.

    [ Szerkesztve ]

  • F34R

    nagyúr

    válasz ivana #21592 üzenetére

    Meg persze SSD sem art melle.. mondjuk kinek milyen merteku a netezesi igenye. pl chromium alapu bongeszovel 20-30 tab az mar kifut belole. :D mondjuk ez kozel nem atlagos.

    Stabil-nak lehet stabil egy mainline kernel is, viszont biztos hogy tobbet foglalkoznak egy Long term supportos keroval. Mondjuk hogy a mainlinenak minden heten van legalabb egy alverzioja azt en sem dijazom, annyira mar nem hajtom a mindenbol a legujabb szokasom.

  • zoltanz

    nagyúr

    válasz ivana #21592 üzenetére

    "P4 meg hasonló szemetek múzeumba valók nem használni. "

    Nem arról van szó, hogy használhatatlan. Valamint antik, kukaszökevényeken gépekről, de van olyan fontos szempont pl akkuidő.
    Erőforrásigénye ezt nem magyarázza (annyival több/jobb felhasználói élményt) ha összehasonlítunk egy mostani böngészőt/weblapot egy 10-15 évessel.

    Manapság egy előnye van ha nem vagy szegény, színvonalasabb ellenségeid lehetnek

  • válasz ivana #22008 üzenetére

    Én pl sokáig más DE-t használtam munkában mint otthon... más áll kézre. No meg melós gép LTS volt, míg az otthoni normál. Ettől még a használt szoftvereim naprakészen voltak tartva, többnyire snap vagy más megoldással.

    Neki sajnos verziószámfétise van. Úgy tűnik akármilyen módon próbálom közelíteni vele ezt, lepattanó lesz belőle.

    [ Szerkesztve ]

    Tegnap még működött...

  • Frawly

    veterán

    válasz ivana #22008 üzenetére

    Nem értem, hogy egy htop3 hogy törne el bármilyen mobilhálózatot. A rollingot sem kell hegeszteni többet. Ez már rég mítosz, hogy van stabil meg nem stabil. Ez addig volt mérce, mikor még gyerekcipőben jártak a disztrók, kb. a 2000-es évek közepéig, a legtöbb akkor még instabil volt, és kiemelkedett néhány nagyobb disztró, Debian, Ubuntu, RHEL, stb., de ezek sem azért voltak stabilak, mert régi verziót használtak, hanem mert volt mögöttük elég fejlesztő (és közöttük összehangoltság, elvi szabályozottság), aki karbantartotta, volt a tárolókban elég csomag, rendszeres ütemterv szerint mentek a kiadások (és nem csak kedv szerint fejlesztették, mikor épp volt annak a maréknyi fejlesztőnek ideje rá), míg a kis disztrók instabilak voltak, mert nem volt elég fejlesztő, nem tudtak elég munkát beletenni, csak hobbialapon ment az egész. Na, most ez annyit változott, hogy már sok éve feljött az Arch-vonal, meg egy csomó másik független, és már semmivel nem instabilabbak, mint a korábban stabilnak magasztalt disztrók.

    #22009 lionhearted: a verziószámmal nem szoktam foglalkozni, nekem frissességmániám van, a verziószámot nem is nagyon kell néznem Archon. Inkább csak akkor sokkol, ha valami régi verziószámot látok. Már pedig szükségem van a legújabb verziókra, pl. kernel optimalizációk (proci, ütemező, GPU driver), mesa (főleg 3D-s alkalmazásokhoz, játékokhoz, Steam, Wine, Proton). Meg elég sok progit ki szoktam próbálni git-ről, innen, onnan forgatva, fordítási követelmények között szokott szerepelni nem egyszer, hogy ahhoz hogy leforduljon az adott szoftver, a legfrissebb dev csomagok kellenek. Meg csak úgy általában szeretem a legújabb feature-öket megkapni. Kezdő linuxos koromban én is Minttel és Ubuntuval kezdtem, és már akkor sok borsot tört az orrom alá, hogy nem ment ez-az, nem tudtam felrakni valamit, mert nem volt meg a kellően friss függősége. Persze a fórumjaik is tele vannak ilyen userekkel, hogy nyitják a topikot, hogy xy szoftver nem megy, amit kódból forgattak (vagy le sem fordul), vagy PPA-ból vagy egyébből raktak fel, és kiderül, hogy nincs meg valami friss verzió, vagy valami friss feature, mert túl régiek hozzá a verziók és általában ígérgetve is van, hogy na majd a következő kiadásban lesz támogatva, vagy még abban sem, ha pont a feature freeze hamarabb történik, aztán lehet várni állandóan valamit.

    Ami még az Archban nagyon jó a frissességen és a rolling frissülési rendszeren túlmenően: mindent upstream-vanilla állapotban tartanak, semmibe nem gányolnak bele saját patcheket, mint a Debian, Ubuntu, RHEL. Ahogy a fejlesztők kiadják az adott szoftvert, a tárolókba úgy kerül bele, mindenféle patch és saját mókolás nélkül, nem csak kernelnél, hanem mindennél így van. Így elég sok gányolás elkerülhető, és nagyobb fokú a kompatiblitás mindennel, mindenen azt értem, hogy olyan kódokkal is, amik nincsenek benne a tárolóban és forráskódból kell őket fordítani (azaz disztrón kívülről jön), pont azért, mert nem zavar be semmilyen spéci patch, semmilyen verziólemaradás, semmi.

    Igazából a hosszú támogatási idejű, konzervatív disztrókkal az a baj, hogy pont a Linux fejlődési vonalából marad ki miattuk az ember. Kicsit olyan ezeket használni, mintha nem is Linuxot használna valaki, hanem valami Linuxból forkolt zárt ökoszisztémás rendszert (és ennek a buborékjában lenne bezárva), és a zártat nem úgy értem, ahogy a MS, Apple esetében a zárt rendszert, zárt forráskódot, hanem úgy, hogy a Debian, Ubuntu, RHEL, stb. világában a régi verziók, verziófüggőségek, patch-ek miatt csak a disztró saját ökoszisztémájával vagy igazán kompatibilis, az épp aktuális (aktuális verziós) egész linuxos világgal, külső környezettel nem. Kicsit olyan, mintha nem is Linuxot használnál, hanem a Linuxnak egy régi, saját mintára átköltött árnyvilágában, másolatában lennél leragadva.

    És mielőtt még jönnél, hogy ez csak az én frissességi mániám, csak szólok, hogy vannak nálam hardcore-abb frissességmániások is, akik teljesen csak dev verziókat használnak, kernelből is csak RC-ket, pl. a phoronixos csóka ilyen. Mondjuk az már tényleg veszélyes, meg reszelésigényes napi szinten, mert ami annyira friss, hogy még csak dev kód tesztelése, azaz nem is aktuális legújabb verzió, hanem egy jövőbeli, na ott tényleg törhetnek el dolgok, bár gondolom meg lehet oldani azt is, csak többletreszelést igényel. Én is használok ilyen friss kódokat, de nem mindenből, csak pár alkalmazásból, azok jellemzően AUR-ból vannak telepítve, az AUR-os script, meg git tároló klónozása után pörgeti őket ki forráskódból, de a csomagjaimnak csak egy kicsi része ilyen, talán 3% se.

  • Frawly

    veterán

    válasz ivana #22012 üzenetére

    Ajjaj, a WSL meg az ördög műve szerintem. Annál már akkor is jobban jársz, ha full natív Windowsnál maradsz.

    A rollingot meg igenis nem kell többet hegeszteni. Amiket én írok a topikban, azok minimalista kísérletezések, amik nem a rolling miatt vannak, hanem az én kísérletező, minimalista reszelő mániám miatt. Rollingra is simán elég felpattintani egy nagyobb DE-t, és többet reszelni nem kell.

    RC kernel sem vészes, egyedül a nagyon korai RC-kkel kell vigyázni, adott verzióból RC1-RC2. Az RC3-RC7-RC8 rendben szokott lenni.

    Továbbá igen, és semmit nem fejlesztek, maximum bélgázt. Teljesen átlagos, otthoni felhasználó vagyok, aki csak szereti a rendszerét reszelni, meg szeret informatikailag fejlődni. Semmi extra egyébként.

  • Frawly

    veterán

    válasz ivana #22053 üzenetére

    Tudok róla, hogy a kernel nyújtja kivételesen. De az egész koncepció a mac-es launchd-ből származik, aminek a koppintása a systemd. Ezeknek ugyanis nem az a lényege, hogy initrendszerek akarnak lenni, hanem eseményorientált OS alrendszerek. Megint más, hogy az initet is azért végzik, mert bootkor is eseményekre (event) kell reagálni (betöltődött-e egy bizonyos service, mi a függősége, ha menet közben lehal, újra kell indítani, stb.). Ezért kezelik a hálózatot, meg mindenféle hóbelebancot is.

    Annyiból igazad van, hogy az udevd-t nem lehet elkerülni, akármi az initrendszer, és formálisan nem a systemd része.

    32 bites prociból vannak azért 10 évesek is, atomos netbookok, táblagépek. De nem is a proci szokott számítani, hanem a kevés RAM, sok régi gépre forrasztva van az 1-2 giga RAM, vagy a chipset nem kezel 2 gigánál többet (DDR1-DDR2-es gépeknél). Ezekre meg memóriakímélés miatt 32 bites OS-t szoktak feltenni. Mondom, én se vagyok a 32 bit híve, pont én szoktam szónokolni itt, hogy haladjunk a korral, használjon mindenki SSD-t, 64 bitet, UEFI-t, UEFI bootot, GPT partíciós táblát, zstd tömörítést, új verziókat, stb.. Hiszen úgy sose lesz fejlődés, ha mindenki leragad régi szutykoknál, az átlag pistis windowsos szemlélet. De mint írtam, a Linux lényege az lenne, hogy nem vetet az emberekkel új gépet, hanem viszonylag tűrhetően elfut, régi, szutyok gépeken, olyanokon is, amiken már az XP SP3 se ad jó felhasználói élményt. Na már most a szüntessük meg az XY támogatását, meg mindenki vegyen új gépet filozófia pont ezzel menne szembe.

    Azzal egyetértettem, hogy a 3.8-as kerneltől fogva a 386-os támogatást megszüntették. Itt nem a 32 bitről beszélek, hanem a 3. generációs x86-os, azaz a 80386-os procik támogatását, amik 1985-ben jelentek meg. A 486 támogatva van még, de egy modern Linux még azokon is tűrhetetlenül lassan fut, használhatatlan. A legkorábbi proci, amin azért elfut, ha van benne elég memória, 128-256MB, az az AMD K6-os procik, ezek a 6-os számozás ellenére csak 586-os procik. De ami ajánlott minimum, az a 686-os architektúra, AMD K7, Pentium Pro, Pentium 2-3. Ezeken is csak ultraminimalista formában megy, de azért abszolválható, nem fő le egy kávé, mire bebootolnak. Persze modern systemd-s Linuxot, meg nagy DE-t futattni ezeknek sem nagyon megy már, ahhoz min. normálisabb Core2Duo proci, AMD Phenom szintje kell minimum és 4 GB RAM, az alatt nem érdemes ilyennel próblozni, csak soványított rendszerekkel, pálcika WM, lehetőleg csak Gtk2-es vagy terminálos alkalmazások, lehetőleg systemd-mentes disztró, stb.. Tehát semmi ilyen Ubuntu Gnome, Neon KDE, Mint Cinnamon, Solus, stb., de már a Xubuntu és a Lubuntu se ajánlott régi gépekre, mióta az Xfce átállt Gtk3-ra, a Lubuntu meg LXDE helyett LXQt-re.

Új hozzászólás Aktív témák