Keresés

Új hozzászólás Aktív témák

  • Kansas

    addikt

    válasz proci985 #12 üzenetére

    Nem sok olyan consumer CPU és/vagy alaplap van, amiben x16+x16 konfigba lehetne két VGA-t tenni, esetleg HEDT vonalon

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz PROTRON #18 üzenetére

    Az i7-7800X procid(ha még az van) 28 PCIe sávot támogat maximum, abból nem fog kijönni a x16+x16, de egy több sávot támogató procira cserélve neked legalább esélyed van rá, konzumer procik és lapok csak az x8+x8-at támogatják - bár lehet valami extraspéci überhigh-end lap, amire tettek extra PCIe vezérlőt, hogy a slotok egymás közt is 16 sávon tudjanak kommunikálni, de a proci felé akkor se lesz több sáv.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz DextyPremium #48 üzenetére

    NVlink-et támogatja... kövezzetek meg, de én eddig azt hittem, hogy az NVlink és az SLI nem ugyanaz

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz arabus #64 üzenetére

    Nem hiszem, hogy bármit elérnél az SlI kíd levételével azon túl, hogy elveszted a meglevő SLI-profilok használatának a lehetőségét.
    Mert az újfajta multi gpu működéshez SLI híd ugyan nem kell, viszont a programnak támogatnia kell a technológiát. Magyarul amelyik program nem olyan módon van megírva, hogy támogassa, azon nem fog menni, ha viszont még van SLI profil a játékhoz, azt elvileg továbbra is tudod használni.

    @DonToni: kukába ne vágd ki, esetleg érdemes lesz eladni, és az árából venni egy 3070-et, ha kapható lesz, vagy egy 3080-at, némi ráfizetéssel, és akkor nem kell foglalkoznod ilyen úri huncutságokkal, mint SLI profil s driverben vagy direktz támogatás a programban...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz arabus #66 üzenetére

    Szerinted akik eddig SLI-t használtak, aszerint szedték le/tették fel az SLI hidat, hogy épp olyan játékkal játszanak-e, ami támogatja? Én nem használtam se SLI-t se CF-et(nem láttam értelmét), de kizártnak tartom. Az alighanem driver bug lesz... lehet, drivercsere segít rajta... ja, persze, NV-nél nincs olyan, hogy szar driver, akkor csak rebootolgasson a kedves user és babráljon az SLI híddal(tudtommal nem hot-swap)...

    "sli-hez meg nem lesz profil nem látod?"
    Látom, hogy te nem látod: "a következő év elejétől már a régebbi kártyákhoz sem adnak majd ki új SLI profilt" Érted, új profil nem lesz, a meglevők nem tűnnek el a semmiben azonnal(később nem kizárt, bár legacy driverben akár vissza is térhetnek)

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz DonToni #67 üzenetére

    Azzal jobban jönnél ki, egy 3080 erősebb a 1080Ti SLI-nél, és nem igényel extra támogatást(meg van RTX :) )

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz DonToni #70 üzenetére

    Igen, minden attól függ, te mire és hogyan használod a géped.
    Én pl nem játszok egyik RTX-et támogató játékkal sem, tehát jelenleg(!) számomra az RTX-nek az értéke kereken nulla. Azt nem néztem, hogy a kedvenc játékaimi támogatják e az SLI-t, CF-et vagy az új multi-GPU-t, de csak ezért nem fogok drágább alaplapot venni(bár asszem a mostani lapom pont támogatja, de pl egy B550 nem, ahogy a korábbi B350 sem).

    Neked ezek szerint volt értelme az SLI-nek, de ha összeszámolod, mi minden kell hozzá hogy jól működjön:
    - 2 egyforma kártya(+100% ár)
    - megfelelő alaplap
    - profil driverben
    - játék támogatás
    ... sokaknak nem áll össze ez a 4

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz arabus #71 üzenetére

    Szerintem neked valamiért becsípődött a multi gpu mánia
    SLI, CF értelmetlen, már fénykorában is az volt, nem csak szerintem, de tesztelők és mint látszik, a gyártók szerint is.
    A DX12 multi-gpu érdekes lehet még, de nem gondolom, hogy sok játék vagy alkalmazás fogja támogatni, azon egyszerű okból, hogy két kártya árából kapsz olyat, ami többet tud, mint az a kettő összeadva - kivéve az abszolút csúcsot, de annak az ára meg durván elszállt anélkül is... és akkor még extra programozói erőfeszítést is ighényel.
    Ne keverd a vásárlóközönséget az értelemmel... csak attól nem lesz valaminek értelme, hogy van olyan akit rá lehet venni, hogy megvegye...

    Annak látom értelmét, hogy a második kártyát(pl. IGP-t) más(pl. compute: AI, fizika, stb) feladatokra fogják be...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz arty #83 üzenetére

    Nem fordított logika, egyenes, csak tán nem emlékszel rá, hogy volt idő, mikor még az volt a mondás, hogy ha van egy közepes videokártyád(pl Geforce 7600GS), mikor kezd nem elég lenni a teljesítménye, vehetsz belőle még egyet olcsóbban/használtan, és akkor még egy jó ideig el lehet vele lenni, és anyagilag is jobban jöttél ki, mintha negyobbra/újabbra váltottál volna. Ugyanez volt érvényben pl a játékok egy részében a GF6600GT(akkoriban népkártya) és GF6800GT esetében, a két kicsi együtt pár játékban(pl Halo) eléggé elpáholta a 6800GT-t
    Akkoriban egy 6800GT árából(90e Ft) két 6600GT-t lehetett kapni...

    Ma már ez nem igaz, pl. két 3070 jóval többe kerül egy 3080-nál, és még a teljesítménykülönbség is nagyobbnak tűnik köztük, mint amit SLI-vel be lehetne hozni...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz arty #85 üzenetére

    Nézd, az a helyzet, hogy SLI/CF témakörben 100%-ban egyetértek veled, ezért sem volt nekem soha egyik sem :)

    Amit nem bánnék az az, ha desktopon is össze lehetne hozni a laptopokhoz hasonló hibrid módot, ha van IGP-d(esetleg valami olcsó második VGA-d, mint pl. GT710 :D ), akkor alapból netezés, filmezés, stb közben a kevesebbet fogyasztó gyengébb kártyát lehetne használni, játékban, 3D grafikában és egyéb komoly terhelés alatt meg működésbe lehetne hozni a "nagyfiút/nagylányt"(ízlés szerint).
    Tehát afféle VGA big.LITTLE setupot... :)
    Erre a DX12 multi-gpu alkalmas lehetne, némi kernel-szintű támogatás(VGA kártya áramtalanításhoz) mellett...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz ricsi99 #88 üzenetére

    Én nem feltétlenül akarom, hogy együtt menjenek, inkább afféle "Switchable graphics"-szerű setup érdekelne, amilyet a két GPU-s laptopok többsége tud(Intel+NV, Intel+AMD, AMD+NV).
    Mert az nonszensz, hogy egy valamire való játékos gép simán bekajál 100W körül kis terhelés mellett is(a PH! 3080-as teszt gépe üresjáratban is!), mégha ennyit lead néma csöndben(bár félpasszív CPU-hűtőről nem igazán hallottam), akkor is.
    Csak a könnyű terhelésekre nem akarok külön gépet fenntartani - most véletlenül épp van egy elfekvő mITX Athlon 5350(AM1) konfigom, azt lehet hogy befogom ilyenre, de még ha túlélne is egy pár napos próbaidőt, túl macerás, sokkal jobb lenne, ha a fő gépem tudna spórolósan menni - a tavalyi rendszer 60W-ja már jobb(üresjárat az is, terhelés alatt gyanítom megy feljebb jócskán), de nem hiszem, hogy ne lehetne azt még megfelezni...

    De befejezem már a nyavalygást, itt hardcore gamerek vannak akik ballisztikus ívben tojnak a fogyasztásra... legalább is mióta kijött a 3080 :P

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz #16939776 #93 üzenetére

    "Egy "rendes" játékos gép fix órajelekkel megy"
    Akkor nekem azóta nincs rendes játékgépem, mióta bevezették az energiatakarékos állapotokat a procikban... eszem ágában nincs lemondani róluk.

    "Ha élesben eltávolítod a rendszerből, majd lekapcsolod a VGA-t" nem feltétlenül szükséges, elég, ha azt csinálja, mint a notik.

    Desktop gépet soha nem altatok, mindig lekapcsolom, ha már nem használom, ki lehet bírni, míg bebootol(UEFI fast boottal nincs fél perc sem). Konzolt például igen, mert a PS4 a PC-mhez képest tetves lassan bootol még SSHD-ről is. Laptopot meg hibernálok, mióta egy kollégám altatott laptopja a hátizsákban feléledt és forráspontig fűtötte a vastagon kibélelt rekeszét, miközben nullára szívta az akkut.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz #16939776 #96 üzenetére

    "fix" órajelet BIOS/UEFI-ben lehet beállítani, attól hogy Windows-ban nem használod az energiagazdálkodást, az órajelet még nem fixáltad... a feladatütemezőhöz pedig nem tudsz nyúlni, az kernel-szintű, és még mindig több köze van az optimális működéshez, mint neked vagy nekem. Ez a "lila gőze sincs" nagyon szar duma.
    Én legalább annyi időt töltök YouTube-on, Netflixen vagy síma szöveges cikkeket olvasva neten, mint játékkal, te ezek szerint célhardverként használod... váljon egészségedre!

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

Új hozzászólás Aktív témák