Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz TTomax #88598 üzenetére

    Azzal a feszültség- és órajelgörbével, amivel működik, azzal ez a maximum ezen a hűtőn. De ha módosítod a feszültség- és órajelgörbét, akkor lehet benne több. A gond az, hogy nem nagyon tudni, hogy mi az optimális a hardvernek, az AMD sem nagyon hagyott időt ennek elemzésére, mert tegnap este tízkor kidobtak egy meghajtót, ami végre támogatta ezt. Tehát a tuningtapasztalat a Navi esetében alig egy napos. És az AMD által kiadott javaslatok is több kérdést vetnek fel, mint amennyit megválaszolnak.

    Annyit tudni, hogy ez a rendszer a maximumra van kigyúrva. Azért fejlesztették ki, mert régebben szinte minden hardverben hagytak legalább 100-200 MHz-et. Ha hazavitted, akkor azt ki tudtad belőle szedni valahogy. De ezt a gyártók nagyon szerették volna maguk kiszedni, csak nem olyan egyszerű ez, mert garantálni kell ám a stabilitást a felhasználók felé, és muszáj egy olyan órajelet beállítani végeredményben, amit aztán tuti elvisel a hardver tömeggyártás tekintetében (leszámítva pár kivételt, ami ugye százalékosan nem nagy, és gariban elintézhető). A Navihoz kialakítottak egy olyan órajelvezérlést, ami automatikusan kiszedi ezeket a tartalékokat az összes legyártott lapkából, miközben biztosítja azt, hogy az eladott hardverek stabilak legyenek. Emiatt nem lehet hagyományos módon OC-zni, mert gyárilag úgy van beállítva vezérlés, hogy a hardver automatikusan tuningolja magát, ahogy a 3000-es Ryzen is teszi. Azt se nagyon lehet OC-zni. Jó ha találsz benne pár százalékot. Ezzel a rendszerrel az AMD a legyártott lapkákból mindent ki tud sajtolni már gyárilag, tehát a tuningot végre pénzzé tudják váltani, ami egy nagyon régóta kergetett cél volt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #88603 üzenetére

    Vízzel jobban fog menni, mert a TDP-keret emelésének akkor lesz értelme. Ennek ma azért nincs túl nagy jelentősége, mert a Navi órajelvezérlés csak a hőtérképtől függ. Tehát ha a hőtérkép nem jó, akkor aztán mindegy, hogy van többlet keret az energia szempontjából. Régen ez nem így volt, ott még a TDP is számított, de a Navi esetében már nem. Csak a környezeti hőmérséklet és a hűtés számít.

    2070 volt az ASUS-nál. Ezért az került bele.

    A Radeon VII nem csak szimpla gaming hardver, ott azért számít, hogy van egy rakás memóriája, és számos professzionális feladatra nem dob "out of memory" hibaüzenetet, mint sok más VGA. Nem csak játék létezik. De maga a Vega 20 is értékes, mert a Google ezeket veszi a Stadiához. A Navi 10 nem elég jó, mert kevesebb konkurens usert tud hatékonyan kiszolgálni. A kevesebb user pedig azt jelenti, hogy egy központ fenntartása kevesebb felhasználó anyagi hozzájárulásából történik, ami a Google-nek nem túl jó.
    Otthonra és játékra, nyilván a Navi 10 éri meg.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Nagyon ritkán fogja elérni a max boostot a 3000-es Ryzen. Ez így van tervezve. Ezt az AMD annyira magasra vette, hogy gyakorlatilag a régi XFR2 órajelnek felel meg. Ezzel maga az XFR képesség is megszűnt, pusztán a PBO tud magas órajelet állítani. Ez azért van így tervezve, hogy minden MHz-et, ami a hardverben van pénzzé tudjanak tenni.
    Régen azért érték el a max boostot a hardverek, mert nem volt meg a technológiai alap ahhoz, hogy a legyártott lapkákat tényleg a határon tudják működtetni. Innen jött a tuning, hiszen otthon a maradékot manuálisan ki tudtad nyerni, bevállalva azt, hogy szökő évente egyszer nem lesz stabil. De ugye a gyártó nem tudta eladni, mert nekik atom stabil cuccot kell a dobozba csomagolni.. A Zen 2-vel megvan a technológia alap, hogy ezeket a korábban nem eladható órajeleket is el tudják adni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Devid_81 #88629 üzenetére

    De képesek, csak annyira magasra állították ezt, hogy ez ritkán valósul meg. Úgy képzeld el ezt, hogy mondjuk van az R9 3900X. Csak példaképpen, hogy szemléletes legyen az új vezérlés. Ha mondjuk maradt volna a régi verzió, akkor ez a termék tudna 3,8 GHz-et alapon és olyan 4,2 GHz-et booston, amihez tartozna 4,4 GHz-ig XFR. Tehát a hardver maximuma megállt volna 4,4 GHz-nél, és a boost is leginkább tetőzött volna 4,1-4,2 GHz-en. A maradékot úgy lehetett volna kinyerni, hogy manuálisan tuningolod 4,6 GHz-re a max órajelet, és akkor abban a ritka esetekben, amikor ez lehetséges (környezet/hűtés), meg is van. Na most az AMD úgy döntött, hogy ezt átalakítja, és mostantól azt csinálják, hogy beállítanak egy irgalmatlanul magas órajelet, amit az esetek 99,9%-ában el sem ér majd a hardver, de azon a szinten is stabil marad, ha sikerül abban a 0,1%-ban beállítani. Az előnye ennek az AMD felé az, hogy a tuningot pénzzé tudják tenni, tehát, amit te régebben manuálisan raktál rá a procira, azt mostantól gyárilag tudja, neked csak erősebb hűtőről kell gondoskodni, és a proci magától megoldja a tuningot.
    Szóval alapvetően ez így működik. Most nyilván picit lehet ezen módosítgatni, de alig lesz látható eredménye, mert egyáltalán nem az volt a rendszer kitalálásakor a cél, hogy sokszor elérhető legyen a maximális órajel. Pont ellenkezőleg, a teljesítményt akarták maximalizálni, amit egyébként a boost órajel maximuma nagyon sokszor lefog, és ezt a felhasználónak tuninggal kell kiszednie a prociból. A 3000-es Ryzenből már nem kell, megcsinálja magától a hardver, ha megfelel a környezet hozzá.

    (#88632) proci985: Nagyon sokan használják az explicit multiadapter módokat. A legújabb DX12 játékok szinte kivétel nélkül, némelyik Vulkan is, de itt ugye ez a képesség később érkezett. Tehát ez a megoldás működik. A régi nem nagyon, mert nem szabványos, és az API is limitál.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #88637 üzenetére

    Frostbite, Foundation, Glacier, Asura, Nitrous, LORE, Dawn, stb. Ezeknek a motoroknak az új verzióiban ott a DX12/Vulkan multi GPU. Amelyik játék ezt a verziót használja, egyszerűen működik. A legtöbb motor egyébként a WDDM 2 AFR-jét hívja meg, még Vulkan API alatt is, ennek az előnye, hogy nagyjából 100 sor beépíteni, és szabványos. Persze ehhez hozzá kell igazítani az effekteket, mert klasszikus AFR-ről van szó, bár bizonyos fejlesztők egyszerűen csak odaírják az egyes effektekhez, hogy nem igazán működik több GPU-val, lásd a SotTR TAA-ja. Bekapcsolható, csak messze nem skálázódik majd olyan jól, mint egy másik AA-val, működni persze működik.

    A WDDM-es linkelt módnak az az előnye, hogy támogatja azt, hogy a motor egy ID3D12Device-t hozzon létre. Lényegében az affinitási maszkokkal kell küzdeni, de ha a motor struktúrája ennek megfelelő, ekkor sokszor könnyebb ezt beépíteni, mint az SLI/CF megoldásokat. Ezért kezdik újra elővenni a fejlesztők a több GPU-t. A DX11-ben ennek nem az vetett véget, hogy szimplán lehetetlen megcsinálni, hanem az aránytalanul magas költsége, amit bele kell fektetni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #88640 üzenetére

    Star Wars Battlefront II, Battlefield 1, Battlefield 5, Halo Wars 2, Civilization VI, Sniper Elite 4, Deus Ex: Mankind Divided, Rise of the Tomb Raider, Shadow of the Tomb Raider, Hitman, Ashes of the Singularity, Strange Brigade ... hirtelen ennyi jutott eszembe, már túl sok van, hogy ezt fejbe lehessen tartani.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #88644 üzenetére

    Amire válaszoltál ott a lista. Ezek támogatják az explicit multiadaptert. Némelyik linkelt, némelyik pedig heterogén módban.

    A linkelt mód az ugyanaz, mint a CrossFire és az SLI, csak annyi a különbség, hogy a Microsoft írta meg a WDDM-be az AFR rutint. Ezt a fejlesztőknek meg kell hívni, és done. Az OS intéz mindent a háttérben. Ennek az előnyei is ugyanazok, mert ugyanúgy működik. Persze a skálázódás jóval nagyobb lesz, hiszen nem limitálja az API skálázódása, ami a DX11-nél már nagyon gyenge volt.

    A Crossfire-t és az SLI-t ezek sosem fogják leváltani. Az explicit multiadaptert módtól függetlenül nem működik DirectX 11 és OpenGL API alatt. Ahogy például a Crossfire és az SLI sem működik DX12 és Vulkan alatt.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #88647 üzenetére

    Leginkább az NVIDIA és az AMD közöl skálázódási teszteket a DX12/Vulkan mGPU-ra. Ott tipikusan 90-95%-os skálázódás szokott lenni. Mi általában az első fecskére megírjuk ezeket, de a többire nem. Lásd több GPU-s Vulkan: [link]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #88649 üzenetére

    Egyikre sincs értelme venni, mert egy GPU-val is elég nagy a teljesítmény. De ez nem azt jelenti, hogy nem működnek.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz akoska07 #88763 üzenetére

    Nem. Azt írja az AMD, hogy ez a maximum órajel, amit gyári konfigurálás mellett elérhet a processzor, és ezt nagyon könnyen tudják bizonyítani egy erre szabott workloaddal, ami egyébként arra van, hogy ezt az órajelet meghatározzák.

    A turbó viszont nehezen meghatározható érték már az AMD rendszerében, mert ha gyári hűtőt használsz, akkor a tipikus órajel 4,1 GHz, míg vízzel 4,3 GHz. Túl nagy a különbség, hogy erre bármit is tudjanak írni. Az is számít, hogy használsz-e PBO-t, amit az AMD nem tekint tuningnak, PB2-e az algoritmus az alaplapban, stb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz akoska07 #88785 üzenetére

    Az AMD hivatalosan az X570-re száműzte a PCI Express 4.0-t, de a gyártóknak nem tiltotta meg, hogy kiadjanak (béta) BIOS-okat. Viszont, ha valahol nem fog működni, akkor mossák kezeiket, ezekért 100%-ban az alaplapgyártó fog felelni.
    Ugye az AMD-nek az a problémája, hogy ezek az alaplapok nem mennek át az összes PCI-SIG teszten, tehát rendben van, hogy a Radeon RX 5700 sorozat megy bennük, de semmi sem garantálja azt, hogy egy későbbi VGA, mondjuk az NVIDIA-é működni fog. Az X570 esetében viszont ez garantált, azokra van teljes PCI-SIG hitelesítés. A probléma a vezetékezéssel van, a PCI Express 4.0 más fizikai implementációt igényel, aminek a PCI Express 3.0-hoz tervezett alaplapok egy része részlegesen vagy teljesen nem felel meg.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #88980 üzenetére

    Még jön a Rocket Lake. Az lesz elvileg az utolsó tock.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz DeckardCain #88985 üzenetére

    Elvileg igen.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #88991 üzenetére

    Fogalmam sincs. Ez van az útitervekben. Az meg a Comet Lake-nél is kérdés, hogy mivel adják el. Most az a +2 mag nem fog annyit segíteni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Devid_81 #89071 üzenetére

    De ez egy Vulkan API-ra írt játék, és ott nem használható a Microsoft DXR-re. Ide külön kiterjesztés kell, de ennek eléggé sok nyűgje van amiatt, hogy a Khronos nem különösebben törődik a sugárkövetéssel a shader nyelv és az IR szintjén. Tehát a meglévő SPIR-V-t és GLSL-t az NV-nek kell kiegészítenie, hogy ezt a lehetőséget lehessen támogatni, de nem tudnak olyan dolgokat tenni, amit például a Microsoft, hogy erre szépen felhúznak egy újabb shader modell verziót, egy nagyon jól működő fordítóval, stb. Ide bisze-baszom megoldások szükségesek, amik hátránya mindig az volt, hogy babusgatni kell, hogy egyáltalán működjön.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #89100 üzenetére

    Nem ez a lényeg, hanem az, hogy a Ryzenekben nincs olyan hődióda, amiből tudná olvasni a szoftver a hőmérsékletet. Az AMD a Bristol Ridge óta hőtérképet csinál, csak amíg a Bristol Ridge-be még a kompatibilitás miatt raktak szoftverbúél elérhető diódát is, addig a Ryzenből ezt már teljesen kihagyják. A hőtérképet pedig egyetlen programnak sem engedik kiolvasni. A hőmérséklet amit a Ryzen visszajelez a szoftvernek az egy burkolati hőmérséklet, amire van egy specifikáció az OEM-eknek, de mivel itt összerakott gépekről van szó, így a egész adatot a BIOS szimulálja. Mivel az egész részben egy számításból adódik, viszonylag nagy lehet az eltérés a valóságtól.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #89124 üzenetére

    Hát a CU már nem olyan értelemben CU, ahogy eddig. Tudom az AMD PR külön számolja a fél multiprocesszort, de valójában a Navi 10-ben 20 multiprocesszor van. A Navi 14-ben 12 lesz.
    Na most a 64 multiprocesszor az csúnyán nagy lapka lenne, inkább 40-44, ami úgy belefér, de az se egészséges ám.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #89311 üzenetére

    A konzolok teljesen másképp oldják meg ezt a problémát, mint a PC. A Microsoft és a Sony is olyan hardvert kért, ami nem csak háromszögeken tud sugárkövetést. Ez elég nagy előnyt a mai rendszerhez viszonyítva. Emellett azokban lesz koherencia szerinti csoportosítás a memóriaelérés szempontjából, hogy ne szemetelje össze a hardver a cache-t. Ez a hardver és a szoftver szintjén is teljesen más dimenzió a PC-s megoldáshoz képest.

    A szemetelés problémája egyébként megoldható hardverrel, tehát azt be tudja hozni a PC, de a háromszögeken nehezebb túllépni, mert egy bonyolultabb szoftveres probléma. Konzolon csak azért egyszerű, mert egy a hardver, de PC-n azért nehéz úgy írni a programokat, hogy a régebbi hardverekre is gondolni kell. A háromszögek voxelizációja, amit el lehet itt képzelni.

    (#89307) keldorpapa88: Egyszerűen drágább a 7 nm-es waferek. Olyan szinten vannak, amelyek nagyon kevés cégnek érik meg. Az AMD-nek megéri, mert a Zen 2-vel kitermelik a GPU-kat is, így azokat a lapkákat adhatják előállítási költségen is. Az NV nem tudja ezeket mivel kitermeltetni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz snecy20 #89313 üzenetére

    Ráadásul a BF5-ben még csúnyán szopat is az effekt. [link] - hogy ez miért kellett bele... :(

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #89334 üzenetére

    Ezeknek a monitoroknak csak akkor van értelme, ha meg tudod kerülni a kijelzőoldali tone mappingot. Másképp igazából nem hasznosak.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #89347 üzenetére

    Az a profit. Nem a két szép szemünkért csinálja egyik cég sem. Meg van határozva, hogy mennyitől éri ez meg. Amíg ezt hozni tudják, addig jó.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz snecy20 #89351 üzenetére

    A konzolokat azért tudod olyan olcsón megvenni, mert ott a Sony és a Microsoft, de még a Nintendo is a szoftverből és szolgáltatásból szerzi az üzletág nyereségét. Tehát még az is megéri, ha a gépeket áron alul adják el, mert több user vesz majd szoftvert, és így az ebből származó nyereség a hardveren való veszteséget kompenzálja, majd meghaladja. Tehát igazából nem a 2080 Ti ára az, ami irreálisan magas, hanem a konzolok ára irreálisan alacsony, ahhoz a hardverhez képest, ami bennük van.

    Azt is figyelembe kell venni, hogy mekkora piacról van szó. Azért a VGA-piac megfeleződött az elmúlt tíz évben. Tehát amíg a GPU-kat egyre drágább fejleszteni, egyre drágább gyártani, illetve egyre drágábbak hozzá a komponensek, addig a potenciális vásárlóbázis is megfeleződött. Ez azért nem mindegy. Ha annyi ember venne ma VGA-t, mint tíz éve, akkor talán nem lennének ilyenek az árak, de sajnos messze nem akkora már ez a piac.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #89356 üzenetére

    A szervert már leválasztották a GPU tekintetében. Az NV-nek ott a GV100 oda, míg az AMD is hoz egy speciális GPU-t, ami inkább igazodik a szerverpiaci igényekhez. Tehát az már nem igazán igaz, hogy a GPU-knál a szerverpiaci igények játszanak. A mobil és az asztali pedig igazából nem nagyon különbözik. Az egyik helyre kisebb fogyasztás kell, de dizájnban kb. ugyanaz az igény.
    A prociknál kicsit speciális a helyzet. Az AMD csak azért csinálja ezt a Threadripper vonalat, mert könnyű fejlesztési lépcsőt jelent. Eredetileg ez nem is létezett a tervekben, aztán egyszer csak felmerült, hogy ott az Epyc, és abból tényleg fillérekért lehetne fejleszteni HEDT platformot. A projektre áment mondtak, és azóta viszik. De ha valóban komoly fejlesztési költsége lenne ennek, akkor nem csinálnák. Kb. ugyanez van az Intelnél is.

    A professzionális grafika és a gaming valóban nem különbözik jelentősen, tehát ugyanazok a hardverek megfelelők mindkét területre. Ez valószínűleg így is marad egy ideig. Na persze a szoftveres háttérért kérik a zsetont. Alapvetően még ha a gaming nem is érdekes a fejlesztésnél, valójában nem különbözik annyira a programok által támasztott igény, hogy ez számítson.

    (#89357) keldorpapa88: Meg fogsz lepődni, de sokszor nem a CPU a limit a konzolokon. Az Ubisoftnak volt egy előadása még a kezdetekben, ami pont erre volt kihegyezve, és azt mutatta be, hogy folyamatosan CPU-limitjük volt, és azt hogyan oldották meg úgy, hogy a GPU legyen a limit végül. Gyakrolatilag azt csinálták, hogy ami a CPU-n futott és jól párhuzamosítható eljárás volt, azt átrakták GPU-ra. Ezzel tehermentesítették a CPU-t. Viszont generáltak egy másik problémát, a GPU lett túlterhelve. Emiatt van az, hogy a köztes generációknál a Sony és a Microsoft nem több CPU-magot kért (tudott volna az AMD csinálni nekik 16-magost), hanem erősebb GPU-t. A több CPU-maggal nem mentek volna semmire, mert a legtöbb játéknál nem az a limit, és a fejlesztési modell úgy állt be, hogy a CPU-t kíméljék.

    Valószínűleg akörül lesz a next gen, de ez most vállalható, mert van visszafelé kompatibilitás. A konzoloknál az kezdeti alacsony ár igazából azért is fontos, mert pár játékért veszed meg a gépet, bízva abban, hogy sokkal több lesz, amire igazából semmi garancia. Tehát muszáj valami brutálisan jó ajánlatot eléd raknia a Sony-nak és a Microsoftnak, mert leginkább a bizalmad akarják elnyerni, a platform a kezdetekben messze nem ér annyit azzal a pár játékkal. A teljes korábbi generációs felhozatallal viszont mondhatják azt, hogy van tartalom bőven, így fizethetsz egy picit többet.

    A bányaláznál leginkább a bányászok vették meg ennyiért, ebből azért egyik cég sem tud kiindulni. Viszont ők is tudnak számolni, hogy a modern gyártástechnológiák drágábbak, tehát ha vissza akarják termelni a pénzt, természetesen a nyereséggel, amiért csinálják ezt az egészet, akkor nyilván nem fogják tartani a korábbi árakat.

    (#89364) TTomax: Éppenséggel a legelején mindkét gép veszteséggel ment, csak gyorsan nyereségesek lettek. Viszont a nyereség ma is szűk rajtuk, a szoftverből származik a pénz jó része.
    Lehet, hogy furcsa lesz, de ezek profitorientált cégek, csak abból értenek, ha nem veszitek meg a hardvert. Alternatíva is van bőven. Lehet venni konzolt, lehet menni a Stadiára, stb.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Devid_81 #89413 üzenetére

    Nincs értelme összehasonlítani, mert nem ugyanazt a grafikai futószalagot használja a PS5, mint amit a PC-k, vagy a régi PS4. Van egy libGNM kompatibilitási mód, de az AAA játékokat nem erre fogják írni. A Sony egyfajta módosított GRAMPS-ot rak a PS5 API-jába. Ez a korábbi évekhez képest annyiban változás, hogy a PS5-től kezdve nincs igazából fix grafikus futószalag. Az alkalmazás határozza ezt meg, és nem csak úgy, hogy bizonyos lépcsőkből compute shaderhez nyúl, hanem konkrétan a feldolgozás lépcsőit az alkalmazás állítja össze. Ha egy program mondjuk nem dolgozik vertex adatokkal, akkor egyszerűen ki lehet dobni a vertex shadert a futószalagból, és ezzel meg lehet szabadulni annak a lépcsőnek az összes hátrányától.

    Azt nehéz megmondani, hogy a PC-n hasonló mikorra jön. A Microsoft már nagyon régóta dolgozik a GRAMPS-on, illetve az AMD és az NVIDIA is dolgozik azon, hogy a vertex és geometry shader menjen a fenébe, mert rohadtul nem működnek már, de PC-n, ahol kompatibilisnek kell lenni 5 évre visszamenőleg a hardverekkel, ezt nagyon nem egyszerű ám megoldani. Az AMD és az NV is kétféleképpen oldotta meg. Az AMD úgy, hogy az új futószalag képes legyen megenni a vertex-geometry shadereket, míg az NV úgy, hogy az új futószalag tényleg új, arra bizony speckó support kell, az API oldaláról is, nem működik csak úgy automatikusan, mint az AMD-é. Ők már szembesültek ezzel a problémával, ami a Sony-nak nem probléma, mert az összes PS5 tudni fogja az új rendszert, és azt így tudják használni a fejlesztők. PC-n valószínűleg 5-6 évig megy majd valami hibrid-szerű cucc, ami új is, de meg is eszi a régi shadereket, aztán jöhet egy nagyobb váltás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Puma K #89443 üzenetére

    Nem mindegy, hogy miképp terheled. Maga a vezérlőnek a maximális fogyasztása 12 watt. De ez csak arra az esetre vonatkozik, ha sok komponens csatlakozik rá, esetleg egy vagy több PCI Express 4.0-s SSD, stb. Ezért ilyen esetben a hőmérséklete is magas lesz, mert a légkavaró alacsony zajszintre van állítva. Ha nem kötsz rá sok komponenst, például nem PCI Express 4.0-s SSD-ket használsz, akkor a fogyasztása jóval kisebb lesz, 3-4 watt körüli, tehát nem is fog annyira melegedni, esetleg a venti bekapcsolása nélkül is elmegy. Emiatt van az, hogy valakinek alacsony hőmérsékletű, valakinek pedig magas.

    A mi tesztcuccunkban sem volt terhelésnek kitéve, bár a venti néha bekapcsolt, de hűvös volt. Ellenben tényleg, ha raksz rá pár PCI Express 4.0-s SSD-t, akkor bizony két és félszer többet is fog fogyasztani, mint amennyivel normál esetben elmegy.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #89491 üzenetére

    Nem lesz jövőre DDR5 még. Asztali szinten 2021-re jelzi az AMD, de HEDT-ben. Az Intel 2023-ra.

    LPDDR5 lesz amúgy hamarabb, de az nem ugyanaz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Puma K #89546 üzenetére

    A Navi esetében a CU eleve nem igazán értelmezhető, de még ha az is lenne, akkor is 4 SFU van egy SIMD mellett nem pedig 1. De igazából tényleg nem értelmezhető így. Hiányos a leírásuk is, mert nem jelölték a load / store-t az AMD-nél.

    A Turing SM pedig nem felel meg egy RDNA CU-nak, inkább egy WGP-nek.

    Hát jól kevernek dolgokat. Mi köze például az ACE-nek a háromszögek feldolgozásához? Nem igazán látszik, hogy felfogják mi egyáltalán az ACE.
    A primitive és a mesh shader csak az elvben hasonlít. Az azért nagy különbség, hogy a primitive shader automatikusan működik, míg a mesh shader nem tud működni vertex és geometry pipeline-okkal. Tovább nem bírtam.

    Szerk.: Ja látom, félreértették a diát, és azt hiszik, hogy az ACE, a CGP és a PU összefügg. Valójában nem, azok csak azért vannak egy dián, mert mindegyik grafikai előrelépéseket kapott, és erről így számolt be az AMD. Valójában nincs közük egymáshoz, de ezt elmondták amúgy a briefingen is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Puma K #89634 üzenetére

    Renoir biztos. Abból már vannak olyan BIOS-ok, amik mennek. A Vermeernél a legnagyobb probléma a BIOS ROM mérete.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Puma K #89636 üzenetére

    Menni, nem a támogatás a probléma, hanem az, hogy ha limitált a ROM mérete, akkor fokozatosan bukod a régebbi procik támogatását, illetve bizonyos kényelmi, vagy egyébb szolgáltatásokat. Az X570-nél ugye eleve azért húztak egy vonalat a 2nd gen Ryzennél, mert így van elég hely a 4th gen Ryzeneknek is, anélkül, hogy a lap tudását kellene csökkenteni. Tehát végeredményben nem az a gond, hogy nem tudnak támogatást írni akár a 300-as sorozatra a Renoirra és talán a Vermeerre, hanem az, hogy milyen procik támogatása és funkcionalitás mellett fér be a ROM-okba.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Devid_81 #89700 üzenetére

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #89722 üzenetére

    Senkinek sincs a fiók mélyén semmi. Ez egy legenda, hogy bárki gyorsan elő tud húzni bármit, aztán mindig kiderül, hogy amikor kellene, akkor nincs ott. :)

    (#89719) keldorpapa88: A 7 nm-re kapacitást is kell vásárolni. Az nem elég, hogy a TSMC tud gyártani ilyen lapkákat, mert az Apple, az AMD, HiSilicon, a Qualcomm, stb. föléjük tud ígérni, amikor a waferre tesznek ajánlatokat. A Samsung is opció már, de nem véletlen választják a jóval drágább TSMC-t a cégek, már amelyik ugye meg tudja engedni magának, ugyanis a Samsungnál sokkal kevesebb a tapasztalat. De persze ez nem gond, lesznek olyan cégek, amelyeknek a TSMC-nél lévő verseny túl nagy lesz, és azokat a waferárakat már nem tudják megfizetni, mert nem céloznak a fejlesztéseikkel nagy volumenű piacot (okostelefon), vagy olyan szegmenst, ahol extrém nagy lehet a nyereség (szerverprocesszorok).

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz akoska07 #89724 üzenetére

    Soha egy cég sem húzott elő a semmiből hardvert. Ezek mindig előjönnek, hogy majd mindjárt reagálnak rá, mert a fiók mélyén ott a cucc, de aztán sose lesz belőle semmi.

    (#89726) keldorpapa88: Létezik ipari kémkedés, csak a chipfejlesztés tekintetében ez azért haszontalan, mert 4 év lemásolni valamit, tehát lekémkedheted, de jobban jársz, ha saját implementációt fejlesztesz, mert az nem 4 év múlva jöhet.
    Kartelezés sincs. Tök egyszerű a helyzet. Az évtized elejéhez képest a wafer, drágább a fejlesztés, és feleakkora a piac. Az egyik gyártó lép a magasabb árakkal, a másik meg leköveti. Maga a VGA-piac nem kritikus fontosságú, mert folyamatosan szűkül, és a teljes GPU-piacnak csak a 30%-át teszi ki. Ha kritikus fontosságú szegmens lenne, akkor lenne erősebb verseny, mert számítanak a részesedés.

    Nem a csóróságon múlik ez, hanem azon, hogy a gyártandó 7 nm-es lapkák egy része képes-e vagy nagy volumenű, vagy nagy nyereségű piacot célozni. Az AMD számára ez azért nem akkora baj, mert a Zen 2 chiplet megy a PC-kbe, illetve a szerverekben. A PC volumenben, míg a szerver nyereségben erős. És még a realizálható volumen sem rossz. Az NV nem gyárt processzort, így nekik csak a GPU-piac lehet realitás, de az volumenben nagyon elmarad a CPU-któl, tehát csak úgy tudnak a első körösen a TSMC-nél gyártatni, ha lemondanak a nyereségük jó részéről. Mivel ez nem cél, így marad a várakozás, amikor már nem olyan drága a wafer, vagy mennek a Samsunghoz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FLATRONW #89731 üzenetére

    Volt persze, csak teljesen másképp működik a Zen, mint az Intelé, ezért immunis egy rakás olyan sebezhetőségre, amire az Intelé nem. Nem éri meg másolgatni, mert ha csinálsz egy copy-t, akkor ott leszel, ahol a konkurensed volt négy éve. Az meg ezen a piacon nem jó. Egy szimpla másolással nem tudott volna az AMD a legfontosabb szerverpiacon 80-90%-ot ráverni az Intelre.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FLATRONW #89734 üzenetére

    Akkor elég kevés dolgot gondolhattak jónak. :)

    (#89735) ScomComputer: Ez törvény. Ha webáruházban rendelted meg a terméket, akkor 14 napig jogod van elállni a vásárlástól. Ilyenkor a webáruháznak kötelessége visszafizetni a vételárat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FLATRONW #89738 üzenetére

    Azért lett ekkora a különbség, mert az AMD már igen erősen ráment a chipletre és két node előnyben vannak. Ezzel az AMD tud csinálni egy 33,3 milliárd tranzisztoros szerverprocesszort. Az Intel a saját chipjeire már nem árulja el ezt az adatot, de a 14 nm-es node utolsó ismert adatai alapján a gyárthatósági limiten belül maximum 11 milliárd tranzisztorral tudnak gazdálkodni. 7 nm-en majd lesz esélyük, azzal meg tudják közelíteni a 30 milliárd beépíthető tranzisztort, vagy rámennek egy nagyobb tokozásra, és akkor 14 nm kb. lesz 22 milliárd tranzisztorra büdzsé.

    (#89739) Puma K: Erre találták ki ezt a szabályt. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ÁdiBá #89835 üzenetére

    A szilícium legforróbb pontja.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #89837 üzenetére

    Nem azok közül, hanem a legforróbb pontján. Hőtérkép van, konkrétan meg tudják határozni a legforróbb részt.

    (#89835) ÁdiBá: A Navi 10 csak a legforróbb ponton lévő hőmérsékletet adja vissza a szoftvernek. Átlagot nem mér, nyilván az valamivel alacsonyabb. A rendszer hőtérképet csinál. A régi hardverek a legforróbb pontot nem tudták kimérni, és egy mért értéket adtak vissza, aminél nyilván a legforróbb pont lehetett nagyobb hőmérsékletű.
    Átlagolni nem szokás. A gyártók nézőpontjából a hőmérséklet visszajelzése nem valami fontos, mert a szoftveres mérés eleve pontatlan lehet. Tehát ezzel kapcsolatban olyan túl sok dolgot nem vetnek be. Kijeleznek valamit és kész.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #89839 üzenetére

    Ilyet csinálnak egy ideje az AMD lapkák. Ezeket persze számokban tárolják, de az AMD csinált az adatokról grafikont, hogy látható legyen. Az is látható, hogy a lapka két pontja között mekkora eltérés lehet.
    Szóval a hőtérkép nem újdonság, csak annak a felbontása az. Nyilván az első Ryzen óta hatékonyabban működik ez is, abban kapott először szerepet az a rendszer, amely 20 hődiódával, 48 tápmonitorral, illetve 1300+ path monitorral dolgozott. Ezt kapta meg a Vega 20 és a Navi 10. Tehát eléggé pontos hőtérképet csinálnak magukról, konkrétan meg tudják határozni a legforróbb pontot.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Speed® #89841 üzenetére

    Mi értelme lenne? Eddig pont az volt a baj, hogy egy GPU sem volt képes kimérni a legforróbb pontját, tehát jó eséllyel volt annál nagyobb hőmérséklet is a lapkán, mint amit közöltek a szoftverrel. Most, hogy lett egy olyan GPU, ami ezt meg tudja tenni, miért is kellene ezt a képességet visszafogni? Mint felhasználó neked pont az lenne a lényeg, hogy a valósághoz legközelebb eső adatot lásd, mert attól, hogy egy alacsonyabb hőmérsékletet láttál régen a szoftverből, még működött forróbban is a GPU egy másik ponton, csak nem volt, ami kimérje neked.

    Nagyon jó, hogy ezekben a döntésekbe a marketingesek nem szólnak. Nincs értelme a jobb technológiák alkalmazásának, ha a valóság helyett marketingszámokat kapsz vissza. Akkor már jobb az, ami a régi hardvereknél van, hogy nincs meg a tudás ahhoz, hogy kimérje a valóságot.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Speed® #89844 üzenetére

    Nem volt jobb. Értem, amit mondasz, hogy rengeteg korlátolt képességű ember van a világon, akik szentül hiszik, hogy ha a szoftveres mérőprogram teszem azt 90°C-ot ír ki, akkor az annyi is, de ettől még nem kell a sok hülye miatt elvenni a lehetőséget egy olyan lehetőség elől, hogy a hardver valóban kijelezze a legforróbb pont hőmérsékletét. Ezzel csak nyerünk. Már csak azért is, mert a sok hülye agyáig is eljuthat az, hogy a korábbi hardverük nem tudta kimérni a legforróbb pontot, tehát bőven működött az magasabb hőmérsékleten is a kiírthoz képest. Hátha az a 1 IQ pont hiányzik a szintlépésükhöz. ;)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Speed® #89846 üzenetére

    Nem is a laikusoknak vannak ezek a funkciók. Nekik az a szintjük, hogy berakják a kártyát és használják.

    (#89848) proci985: A vezérlőpult UI-ja arra van szabva, hogy egérrel és érintőkijelzővel is kényelmes legyen a kezelhetőség. Ha kicsik lennének a gombok, akkor folyamatosan félrenyomnál az érintéssel.

    A Ryzen csak hőtérképet csinál, nem számolja ki a legforróbb pontot. Így nincs is meg neki ez az adat. Magukból a szenzorokból persze lehet olvasni, de 20 van belőlük, a legújabban pedig 70. Szóval a Ryzen visszajelzett hőmérsékletének sokszor köze sincs a valósághoz. A legtöbb asztali alaplap szimulálja a hőmérsékleti értékeket, ez az alaplapgyártók döntése, hogy mit tartanak jónak. A GPU-k esetében az AMD konkrétan lekérdezi a legforróbb pontot.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz akoska07 #89884 üzenetére

    Röhögni kell a poénon. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz snecy20 #89886 üzenetére

    Az angol poreszparás. Tessék: [link] :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz bombibmw #89892 üzenetére

    Análvadász 9. Rendy Marsnak megvan. :D

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Neoteric #89896 üzenetére

    Látjátok. Nem minden hős visel köpenyt. :DDD

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Devid_81 #89908 üzenetére

    Nincs 10 nm az asztali útitervben. 7 nm van 2022-re. Addig 14 nm. Ez úgy néz ki, hogy jövőre Comet lake-S, aztán Rocket Lake-S, és utána a 7 nm-es, de egyébként a 7 nm mellett lesz Rocket Lake-S Refresh.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ÁdiBá #89923 üzenetére

    Az aktuális DXR verzióval nem látja az AMD az értelmét, mert csak háromszögeket kezel, ezt az Intel is kihagyja. Amit a konzolba fejlesztettek hardver már nem ilyen korlátozott. A PC-ben nem tudom, hogy mi lesz. Két lehetőség van: vagy elkezdenek a gyártók 2-3 TB/s-os hardvereket hozni, vagy valahogy megoldják a voxelekben tárolt geometriai információk hardveres gyorsítását. Utóbbi amúgy is hasznos lenne, mert ezzel igazodnának a konzolokhoz, csak egy ilyen váltással minden eddigi raytracinges hardver kuka.

    (#89919) ÁdiBá: De izgató. Az AMD a chiplet és a 7 nm miatt veri most szanaszét az Intelt a legfontosabb piacon. [link]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ÁdiBá #89931 üzenetére

    Már nem igazán van olyan, hogy CrossFire és SLI. Az új generációs API-k ezeket a lehetőségeket nem támogatják. Van pár általános több GPU-s lehetőség, így a fejlesztők dönthetik el, hogy működik-e a több GPU a rendszerben. A meghajtó oldaláról nem lehet tenni semmit, mert nincs kernel driver.

    (#89932) VTom: Az a baj, hogy nem is lehet tenni semmit. Annyira sok az interframe kommunikáció a különböző temporális technikák miatt a mai címekben, hogy a CrossFire/SLI-féle kényszerített megoldással tehetetlenek az érintettek. Ez a buli megdöglött. Ellenben a DirectX 12 és a Vulkan is tartalmaz olyan lehetőségeket, amelyekre a fejlesztők tudnak írni egy saját megoldást, vagyis maga a több GPU létezik, csak nem a meghajtó oldaláról.

    Azt is figyelembe kell venni, hogy az egyetlen API, ahova az kellene az a DirectX 11. Az OpenGL-t ugye már nem támogatják a játékok, de a Microsoft pár napja adta ki a DirectX 12 futtatási környezetet Windows 7-re, és sokkal olcsóbb egy DX12-es játékot arra visszaportolni, mint DX11 módot írni hozzá. Tehát innentől kezdve jobban megéri a fejlesztőknek a DX11 támogatását teljesen megszüntetni, mert már van mód a megírt DX12-es kódokat futtatni Windows 7 operációs rendszeren. Végeredményben jobb teljesítményt kapnak, és olcsóbb a PC-s port.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Devid_81 #89948 üzenetére

    A Comet Lake lényegében az. A Rocket Lake abból a szempontból más, hogy ott fura az útiterv. Abból az jön le, hogy az már chiplet, vagyis van egy 14 nm-es CPU, és mellé raknak másik lapkát, ami GPU.

    A 7 nm esetében az a helyzet, hogy mindent a szervernek rendelnek alá, emiatt szerepel egy Rocket Lake Refresh opció még. A 7 nm-es átállás egyébként szerver, majd gyorsító, majd mobil, majd asztali vonalat követ. Tehát a legújabb gyártástechnológiát legutoljára az asztali CPU-k kapják meg.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #89975 üzenetére

    Nincs az aktuális asztali útitervben Tiger Lake, az biztos. Mobilban ott van.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák