Hirdetés

Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz t72killer #35597 üzenetére

    Meg az sem segít, hogy képhibák vannak Turingon.

    (#35598) Keldor papa: A legtöbbet az segít, hogy réjtrészinggel low quality geometriában számolsz, ahogy a Battlefield V teszi. Ilyenkor az eredmény ugyan torzul, de annyit nyersz vele, hogy még így is megéri.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz t72killer #35602 üzenetére

    Nem biztos, hogy a driver az oka. De egyébként az sem viselkedik néhol túl jól, szóval ja, még van mit csiszolni. :D De hát második release, még nem várunk csodát. :DDD

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #35604 üzenetére

    Ez ilyen. Hiába "turn up the light and just works" jellegű a dolog, azért a tartalom szempontjából igazodni kell hozzá, és a nem igazodsz, akkor néhol túlságosan fura jellege lesz az egésznek. Márpedig egy játék kiadás előtt pár hónappal nem fogják a újrakreálni a tartalmat, hogy egy effekthez jobb legyen. Örülnek, ha befejezik a fejlesztést időre.

    (#35606) t72killer: Amiatt hibázna máshol is, de csak a Wolfi 2-re jellemző, ott is ritkán. Szerintem valami apró szoftveres gebasz lesz, csak nem tudni, hogy a driver vagy a játék.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #35635 üzenetére

    Vagy csak az a problémája, ami nekünk a 415-ös driversorozattól. Bizonyos játékokban, bizonyos beállításokkal az aktív Hyper-Threading 6 maggal vagy alatta, normál órajelen lassít. Full HD alatt látványosan megmutatkozik a probléma, Hyper-Threading off és rögtön jön a tempó a 2080 Ti-nek. A VGA tesztgépnél húztunk is Ryzenre, hogy alapvetően ne legyen gond, mert furcsa mód az AMD SMT-jével semmi baj nincs.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz NewHope88 #35637 üzenetére

    Persze, itt vannak a cuccok. Csak küzdünk a driverrel. :U

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #35639 üzenetére

    Alapvetően nincs baj vele, csak vannak olyan fura szituációk, amikor egyszerűen lassít a Hyper-Threading. Nem minden játékban, nem minden beállításon, de valami gondja van. És ez látványosan kiütközik, ha a procinak nincs legalább nyolc magja, aktív a Hyper-Threading, nincs nagyon meghúzva, illetve Full HD vagy ez alatti a felbontás, de sajnos a gond WQHD-ben is mérhető. Fingunk nincs mi okozza, de a lassulás a Hyper-Threading kikapcsolásával megszűnik, vagy akkor, ha nyolcmagos az Intel proci, illetve hat maggal legalább 4 GHz fölé van húzva alapból. Biztos valami szoftveres probléma, mert túl specifikusan lép fel ahhoz, hogy a hardver okozza.

    Azt se tudjuk, hogy szimplán az Intel proci mennyit árt. Az biztos, hogy Ryzennel mérhetően jobban érzi magát a 416.33. Lehet, hogy csak picit, de a 2080 Ti VGA-val a Ryzen egyeduralkodó lett a CPU-s game tesztekben, holott nem ez volt korábban a kialakult kép. Valami nem tiszta még a 2000-es GeForce-ok és a 415-ös driversorozatnál. Mondjuk mindegy, most ebből kell élni, de azért a VGA-tesztet átraktuk Ryzenre, hogy ott menjenek az új GeForce-ok, ahol jobban érzik magukat.

    Ilyen szempontból viszont aki mondjuk nem tudja a 7700K-t lecserélni a teszthez, talán a Joker Production, akkor sajnos beleütközhet a problémába. Tehát nem 100%-ban az ő hibája ez. Sajnos új a hardver, új a meghajtó, lehetnek benne fura bugok. Egy-két hónap múlva jó lesz. Szóval nem tegyünk úgy, hogy először látunk helyenként nehezen értelmezhető teljesítményt az új VGA-któl. Az a ritka, ha minden rögtön flottul megy.

    Az sem feltétlenül lehet vétetlen, hogy a Youtube-on megjelentek a videók, amelyek a 415-ös driversorozat lassulását mutatják. Például ez: [link] - hatalmas meglepetésre Hyper-Threadinges a procija.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz NewHope88 #35642 üzenetére

    Úgy egyszerű, hogy kapnak is hardvert, nem kell utánarohanni. Az a régió, ahova Magyarország tartozik nem célpiac. Ezt korábban kifejtettem már. Ilyenkor meg kell várni, hogy az NVIDIA partnerei hozzanak motyót.

    (#35643) Raymond: Ja, csak éppen gyenge 4,7 GHz-re tuningolva, amire írtam, hogy nem mindegy a probléma szempontjából.

    A helyzet az, hogy senki sem lóg ki a sorból. Másokkal is beszéltem erről, és hasonló furcsaságokról számoltak be. A különbség az, hogy a komolyabb médiáknak van lehetősége 5 GHz közelébe lőni a hatmagos prociját, vagy berakni egy nyolcmagos Intelt, esetleg váltani Ryzenre, míg valakinek van egy szem i7-7700K-ja, és abból él. Mit csináljon? Akassza fel magát? A bizniszt attól még pörgetnie kell, hogy a driver furán viselkedik.

    Nem is tudom mi köze van hozzá... A 415-os sorozat tempóvisszaesését mutatja a videó egy Hyper-Threadinges procival egy 399-es driverhez képest. Nálunk furán viselkedik Hyper-Threadinggel a 416.33. Fura eredmények jönnek ki a Joker Productionnak egy Hyper-Threadinges procival. A saját eredményeinket látva, más médiát felkeresve hasonlók adatokat kaptunk. Áhhh... biztos csak véletlen, illetve "közismert trollok". :))

    Amúgy félreértés ne essék valóban nem azt hozza Jokernek a 2070, amit kellene, de abban kételkednék, hogy ez 100%-ban az ő hibája. Ha nálunk nem lennének fura jelenségek a 416.33-mal, akkor elhinném, hogy troll, de most inkább azt hiszem, hogy van egy picike bugocska a driverben.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #35645 üzenetére

    Pont a bla-bla-bla a lényeg.

    Akivel kapcsolatban vagyok és kapott RTX 20-at. Egyszerűen nem tartottuk túl normálisnak, hogy a Hyper-Threading bizonyos játékokban, bizonyos beállításokkal, bizonyos magszám mellett és bizony órajelszinten csökkenti a teljesítményt. Emiatt ahol tudtam utánakérdeztem, hogy találkoztak-e ilyen furcsasággal. Minő véletlen találkoztak, de nem tudták hova rakni. Mi se, de legalább nem vagyunk egyedül. Arra próbálok rávilágítani, hogy a Joker Production is ebbe eshetett bele. Emiatt nem feltétlenül kell rögtön letrollozni egy embert, aki amúgy valószínűleg sokat tesz abba, hogy YouTube videókat készítsen a hardverek teljesítményéről, ugyanis lehet, hogy nem az ő hibája az, hogy az RTX 2070 nála nem teljesített. Vagy egy másikat, mert teljesítménycsökkenésről számol be a 399-ről 415-os driversorozatra váltva.

    Mint írtam, ha nálunk problémamentes lenne a 416.33, vagy nem kaptam volna visszajelzéseket furcsaságokról, akkor azt mondanám, hogy az ő hibájuk, de így azért sanszos, hogy a driverrel nem stimmel valami. Hogy mi azt nem tudom, de van pár konfiguráció és szituáció, ahol nem azt hozza, amit kellene. Ezek a legrosszabb bugok, mert túl specifikusak ahhoz, hogy a kiadást megelőző teszten elkaphatók legyenek. Idővel persze úgyis kiszűrik, aztán lehet újratesztelni mindent. :DDD

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #35647 üzenetére

    A világ nem fekete-fehér, még akkor sem, ha ezt egyeseknek nehéz elképzelni. Attól, hogy valaki nem felkészült, még nem szükségszerűen hülye. Joker csak azt publikálta, amit mért. Az, hogy nem gyanakodott valami gondra a háttérben, és nem ellenőrizte az eredményeit, maximum jóhiszeműségre, illetve általános tapasztalatlanságra vall, de ettől nem lesz kötelezően hülye vagy troll. Szerintem eleve betegesen szélsőséges világlátás kell ahhoz, hogy ezt mondjuk valakire, aki csak videókat tölt fel a Youtube csatornájára.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz s.bala31 #35652 üzenetére

    Ők sem trollok. Amit csinálnak azt lényegében propagandának hívják. Ne tegyünk úgy, hogy az AMD nem csinálja, csak más formát választanak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz VTom #35656 üzenetére

    Sőt, mindenkinek. :P Úgy hívják, hogy press release. :))

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #35659 üzenetére

    A játékosok közül nem sok embert érint. Ahogy mész a GPU-limites beállítás felé megszűnik a gond. Nekünk ez a CPU-tesztnél ütött nagyon szemet, mert ott HD-hez közeli volt a felbontás, és az CPU-limites beállítás több játékban is. Azt sem tartjuk alapvetően kizártnak, hogy az egészhez köze van az októberi Windows 10 frissítésnek.

    Várd meg a CPU-tesztünket, ott ki lesz elemezve. A VGA-tesztet a biztonság kedvéért átraktuk Ryzenre, nem akarjuk, hogy emiatt az esetleges hátrány halvány esélye is felmerüljön a GeForce-okon. Lövésünk sincs, hogy miért viselkedik néha furán Intel procin a driver, így inkább nem kockáztatunk.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #35662 üzenetére

    Magánlevelezésekre vagy kíváncsi. Kérdezzél rá egyenként a tesztelőknél. Olvasod a tesztjeiket. Ha ők elárulják neked, akkor nekem oké.

    Egyrészt mi 1366x768-ban teszteltünk és 2080 Ti-vel. És még a Ryzen 5 2600 is nagy falat volt az i7-8700K-nak. Persze addig, amíg le nem tiltottuk a HTT-t. Utána rendbe is jött. De majd elolvasod a tesztben.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz NewHope88 #35665 üzenetére

    Az a baj, hogy sehol sem tesztelnek Full HD alatt. Ahogy mész a GPU-limites beállítás felé, annál kisebb a probléma hatása. Emellett nagyon fura, hogy nem minden játékban jelentkezik. Ahogy eddig kivettük leginkább azok a motorok érzékenyek rá, amelyek az explicit API-nál nem építenek a root/layout leírókra. Az is tök fura, hogy DX11-ben semmi jele a problémának. A RotTR pedig egy elszigetelt eset, ez a játék ugye kapott egy Ryzen patch-et, és az abba épített optimalizálásokat nem portolták vissza Intelre. Nyilván gyorsabb kódból gyorsabb egy proci, tiszta sor.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #35673 üzenetére

    De azt azért tudod, hogy alig tesztelünk DX11-es játékkal? Ez a múlt, mi pedig sosem kergettük a múltat. Írtam, hogy DX11-ben ez a probléma nem létezik, csak DX12 és Vulkan API-val jön elő. Itt is úgy néz ki, hogy azokban a motorokban, ahol nem épít a program root/layout leírókra. Legalábbis ezeket szűrjük le abból, amilyen eredményeket mi mértünk, illetve kaptunk ellenőrzésképpen.

    Eleve nem tudjuk, hogy mi a probléma. Elképzelhető, hogy függ a Windows 10 októberi frissítéstől, vagy a 2080 Ti hozza elő, mert Pascallal nem tudta még megnézni senki. Mi sem. Csak annyit látunk, hogy az Intel processzorok 2080 Ti-vel, HD felbontásban, főleg Hyper-Threadinggel nem működnek jól. Ellenben a Ryzen kifogástalan. Nem tudjuk miért, de a Hyper-Threadinges dolgot RTX 20-ra más is jelezte. Persze talán nem volt szerencsés alig működő driverrel rendelkező GPU-val mérni, de a mérések előtt honnan tudhattuk volna, hogy valami gubanc lesz?

    (#35674) huskydog17: Írsz nekik és kész. Mondtam. Nem zavar, ha válaszolnak, de én nem rakom ki a magánlevelezéseket. Nem érdekel, hogy nem tetszik, én sem örülnék, ha egy másik média munkatársa kiadná, hogy írt xy ügyben nekem, és beszélgettünk. Ez ránk tartozik, de ha mással beszél az ügyben, az szabad.

    Senki sem mondta, hogy Full HD alá fog menni a játékos, de múltkor arra panaszkodtak az olvasók, hogy miért tesztelünk magas felbontáson procitesztet, ugyanis itt nincs köztük különbség. Most visszatértünk a régi modellhez, hogy akkor hozzuk ki a különbséget. De ha ez sem jó, akkor most már döntsétek el, hogy mi legyen. ;]

    Kérdés mit értesz engine limit alatt. Pár százalékot arra fognék, de nem 40%-ot. Vagy az Intelre külön be van írva, hogy alacsonyabban legyen az engine limit?

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #35679 üzenetére

    CPU. A VGA-teszt párhuzamosan ment. Ott 1080p, 1440p és 4K lesz. Viszont a CPU-tesztben látottak miatt átváltottunk Ryzen 7 2700X-re. Meg eleve gyorsabb a nyolcmagos Haswellünkhöz képest, és jövőre csak procicserével megoldható a 16 mag, tehát sok szólt a váltás mellett.

    Úgy jön ide, hogy nem csak az RTX 20 jelent meg, hanem ugye jöttek CPU-k is. Az most más kérdés, hogy szívás, hogy mindet ideöntötték a gyártók gyakorlatilag ugyanakkor, de ez van.

    Az a baj, hogy a mi játékainkkal abszolút nem látszik Full HD-ben a CPU-limit. Egyszerűen annyira máshogy skálázódnak a játékaink motorjai, hogy az lenne, ami a korábbi tesztekben, felsorakoznak a procik egymás alá. Persze választhatnánk nem túl jól skálázódó játékokat, ahogy a CB, de most 6-8 magos procikról van szó, pont a skálázódás a lényeg.

    Ha kiadom a sajtótermék nevét, akkor tudod a személyt. De amúgy ezek közül egyik sem.

    Voltak nagyobb különbségek is. Nem szimpla felsorakozás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #35960 üzenetére

    Rajanak ehhez semmi köze, ő nem igazán a grafikai divíziót vezeti az Intelnél, hanem a peremhálózati rendszerek menedzsere, amellett persze, hogy az alelnöke a "Core and Visual Computing" csoportnak, illetve a vezető mérnök.
    Akik mennek (Darren McPhee, Tungler Antal, stb.), Chris Hook után mennek. Gondolom az AMD sem nagyon akarta marasztalni a "Mr. Poor Volta" teamet.

    Raja Gregory Stonert vitte magával, ő felelt az AMD-nél a ROCm-ért. Eközben viszont probléma volt, hogy le se szarta a SYCL-t, és emiatt az AMD több embere elment más céghez, hogy foglalkozhasson a SYCL-lel. Valószínűleg emiatt őt se nagyon marasztalta a cég, hiszen nem túl célravezető stratégia csak csőlátásban a ROCm-öt tolni.

    Hardveres és driveres arcok maradtak az AMD-nél, őket nehéz robbantani onnan.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz hokuszpk #35964 üzenetére

    Nem hiszem, hogy nagyban meghatároznák a jövőjüket. De amúgy Tungler Antallal szerintem jól jártak. Gregory Stonerrel is.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lezso6 #35970 üzenetére

    Ez azért nem olyan pontos. Az ütemezés valójában egyik architektúrában sem 100%-ban hardveres, valamekkora mértékben van befolyása a drivernek is rá. A különbség annyi, hogy az NV a Keplerben sok dolgot átrakott szoftverbe, amit lassan visszaépítenek hardverbe. De ettől nem lesz teljesen hardveres.

    Az LDS/L1 esetében is vannak elég nagy különbségek. A nyers számok önmagukban nem jelentenek sokat, mert a gyorsítótár elérése lehet lassú vagy gyors is. Emellett azért a Turing és a GCN manuális interpolációt használ, ami szintén az LDS-be lesz mentve, illetve a GCN-nél is csak a Vega, ami képes is használni a 64 kB-ot, míg a többinél ez 32 kB-ra volt statikusan korlátozva. Emellett itt még bejön a prefetch, mert az sem mindegy, hogy van-e előbetöltés, vagy nincs.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz t72killer #35997 üzenetére

    Ez azért van, mert az egyik legrégebbi UE4 verzió volt az alap, tehát alapvetően a technika alatta majdnem fél évtizedes. Ha mondjuk frissítenének 4.20-as verzióra, akkor sokkal jobban nézhetne ki, de nem tudom, hogy mennyi minden nem kompatibilis a játékukban az új UE4-gyel.
    Ezeket érdemes figyelembe venni, mert az UE4 jelenthet igen régi kódbázist, vagy nagyon modernt is, utóbbi sokkal gyorsabb és sokkal jobban is néz ki.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lezso6 #36004 üzenetére

    Ha az ütemezést leszámítjuk, akkor kb. igen.

    A skalárfeldolgozó igazából implementációs szabadságot biztosít leginkább. A jelenlegi API-kban az AMD azért érzi jól magát, mert benne van ez az egység a hardverbe, így nem kényszerülnek arra, hogy állandóan módosítsanak az implementációkon. Egyszerűen minden programozási eljárás alatt működik a hardver.

    Hát, az igazából nem nagy különbség, hogy most vektormotort használ a hardver, vagy különálló streaming ALU-kat. A működési elv így is lényegében ugyanúgy SIMT.

    (#36013) t72killer: Nagyon pici az az esély. Ha kiadás előtt nem léptek 4.20-as verzióra, akkor annak valami olyan akadálya van, ami túl drágává teszi a motor frissítését. Sok függ attól, hogy mennyire nyúltak bele.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #36072 üzenetére

    Ők a driverben és az eszközökben látták lemaradást. Ezért kezdtek bele a Radeon Software-be és a GPUOpen kezdeményezésbe.
    Egészen egyszerű dolgok történtek anno pár éve. A Catalyst vonalból kivették a pénzt. Teljesen átcsoportosították a rendszert, mert maga a Catalyst egy dinoszaurusz volt, és önmagában a legacy kódok fenntartása rengeteg pénzt elvitt. Ezt konkrétan elmondták nekem régebben. Figyelembe kell venni, hogy bár a kódbázis megtartása logikus döntés lehet, de bizonyos esetekben nagyon drága is. Emiatt úgy döntöttek, hogy dobják a Catalystet. Helyére jött egy jóval alacsonyabb költségből fejleszthető szoftver, aminek a karbantartására már nem kell annyi ember. A másik tényező pár éve az volt, hogy amikor az explicit API-t behozták, akkor úgy építették fel a drivert már a Mantle-re is, hogy két részre vágták. Lett egy hardverhez közeli, illetve API-hoz közeli része, és az előbbi implementáció megmaradt a DX12/Vulkan API-ra is, míg a kliensoldali kódot gyorsan át lehet írni. Ezen is rengeteg pénzt spórolnak, miközben nagyon gyors az összes explicit API-hoz az implementáció. És ezek nagyon kritikus döntések voltak, mert be is lehetett volna vele fürödni, viszont azzal, hogy a költségeket és az erőforrásigényt ezeknél a részeknél levágták, felszabadult egy rakás humán- és anyagi erőforrás extrákat csinálni, plusz még megvették a HiAlgót. Tehát effektíve az történt, hogy a Catalyst érához képest nem költenek igazán többen a driverre, mégis fejlesztettek pár olyan, általánosan működő szolgáltatást, amelyhez hasonlót más nem kínál, pl.: Radeon Chill, Radeon Overlay vagy AMD Link. Hasonlót egyébként pusztán elviekben tudna más is, de ez nem egy eldöntendő kérdés, mert ehhez elő kell teremteni a szükséges erőforrást, mind humán, mind anyagi szinten. Ha még ma is dinoszaurusz lenne a driver, akkor egyszerűen ezek a szolgáltatások csak elégetnék a pénzt. Olyan szinten megbonyolítanák a fejlesztést, hogy anyagilag nem éri meg beleinvesztálni az erőforrást. Amíg az Intel és az NV nem nyom egy resetet, addig például egy Chillhez, illetve egy bonyolult Overlayhez hasonló megoldás kigazdálkodhatatlan. És ez volt a legfőbb tényező, amiért az AMD megvált a Catalyst nevű dinoszaurusztól, ami nagy, agyontuningolt, éppen működő kódbázissá vált az évek során, ami lehet, hogy tette a dolgát, de ehhez olyan mennyiségű pénzt kellett elégetni, hogy az egész kontraproduktívvá vált. Az Intel és az NV még ragaszkodik a saját megoldásához, bár az NV ugye bevezetett egy külön programot a GeForce Exprience-szel, hogy nem az elavult kódbázisba építsék be az újdonságokat. Ez amolyan "nem is harapok a saját kezembe, de nem is nyalogatom meg" elvű döntés. Ugyanakkor a jövőben az Intel és az NV is váltásra lesz kényszerítve, mert egyre nagyobb gond nekik, hogy az AMD hozza be a faszántos funkciókat (nyilván tudják, hogy idén is lesz frissítés, ami megint hoz valami nagy újítást), amelyek nem is jelentenek nekik jelentős nagy terhet, viszont ezt nem tudják követni az elavult kódokra épülő csomagjaikkal. Ez volt az egyik tényező, amiben az AMD a gondot látta, és mára teljesen újjáépítették a meghajtót.
    A másik tényező az volt, hogy hogyan kerüljenek be a fejlesztők gépeibe. Na ez egy nehezebb ügy volt, de itt alapvetően kihasználták azt, hogy az általánosan licencelhető motorok Vulkan API-ra váltanak. Ez egyrészt jó, de vannak olyan tényezők, amelyek nehézséget jelentenek. Például az, hogy a Vulkan API-hoz nem igazán van jól működő általános profilozó. Olyan semmiképpen, amely meg is mutatja a wave-ekre vonatkozó kihasználtságlimiteket. Ez baj, mert enélkül nem lehet a mai SIMT architektúrákra optimalizálni. És persze a konzolról át tudod valamennyire emelni a kódokat, de egyrészt mi van akkor, ha egy játéknak nincs konzolportja, másrészt azért nem egy ideális workflow egy PC-s játékot a konzolra lefordítani, az alapján optimalizálni, majd visszaportolni PC-re. Itt történt a másik váltás az elmúlt években, hogy a profilozók helyzete nagyon ramaty PC-n. Az AMD azt csinálta, hogy beleintegrált egy explicit API-hoz való profilozót a driverbe. Ilyet korábban senki sem csinált, viszont így egy külön csapat csak azon dolgozik, hogy amit az adott driver tud, ahhoz már legyen egy működő profilozó is azonnal. Egyszerűen csak aktiválni kell a devmódot, és ennyi. Ez az a pont, amiért a Unity és az UE4 fejlesztését átvitték Radeonra, mert így gyakorlatilag nincs szükséged a konzolokra ahhoz, hogy PC-re optimalizálj. És ez azért nagyon fontos, mert a Vulkan már elérhető egy jó ideje, de még ma is kizárólag az AMD kínál olyan profilozót, amivel tudsz kihasználtságlimitet elemezni. Ha GeForce vagy Intel GPU-t használsz, akkor ehhez a munkához szükség van egy X1-re vagy egy PS4-re.
    Szóval alapvetően az AMD ebben a két dologban látta a problémát. A driver természetesen a saját portájuk volt, nyilván nem egy iparági gondról beszélünk, de persze számít, hogy a legacy kódok miatt mennyi pénzt égetsz el, amit el lehetne költeni hasznosan is. Viszont a profilozók helyzete egészen elhanyagolt, és ez már iparági léptékű jelenség.

    Volt egy harmadik tényező is, ami a kínai piac, kifejezetten az internetkávézók nézőpontjából, mert ott aztán van kereslet. Talán kevesen tudják, de a HiAlgót csak emiatt vették meg. A Chill kellett hozzá, hogy levigyék a fogyasztást igen alacsony szintre, miközben még javítják is a input lagot, illetve a látott élményen nem rontanak észrevehetően, ami a kínai internetkávézók kritikus szempont. Az persze más kérdés, hogy ha már kész volt a rendszer, akkor belerakták a normál driverbe is, de az üzleti döntés nem ez volt mögötte. Csak a végfelhasználói piacnak nem érte volna meg lefejleszteni. Nemrég ugye direkt erre jött hardver, csak az internetkávézóknak, és elég nagy az érdeklődés is, mert 100 gépnél már jócskán le tud faragni a villanyszámlából ez a funkció.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #36090 üzenetére

    Nem mellékesek. Minél kevesebb pénzből biztosítja a meghajtó alapfunkcióit egy gyártó, annál több pénzt tud elkölteni ilyen-olyan fejlesztésekre.

    Vulkan API-ra nincs RGP-hez hasonló, kihasználtságlimitet is mutató profilozója az NV-nek. Ha lenne, akkor nem váltották volna le a Unity és az UE4 fejlesztésének gépparkját Radeonra. Viszont mivel az NV egy hasonlót még be sem jelentett, máig sem, így nem volt sok választásuk. Az API-ra fejleszteni kell, tehát szerezni kellett olyan hardvereket, amin ezt meg lehet tenni. Nyilván a konzolos workflow eléggé időgyilkos, még ha ideig-óráig meg is éri. Egyébként az NSightba bele lehetne rakni, mert DX12-re például van, de Vulkan API-ra nincs. Valószínűleg nincs elég erőforrás erre, mert a hasznosságát nem lehet vitatni.

    A Chill bármin segíteni tud. Az internetkávézók legnagyobb problémája az, hogy a gépeket működés közben hagyják ott az emberek. Ha fél óra múlva állították le, akkor addig csak úgy működött a rendszer és ugyanazt a képet kiszámolta mindig másodpercenként akár 140-150-szer. Emiatt van a Chillben input szerinti számítás. Vagyis, ha nincs input, akkor másodpercenként csak 30-szor is elég ha számol, hiszen ugyanaz lesz a kép mindig. Ezzel az átlagos fogyasztást igen durván csökkenti, szimplán hardver erre nem képest. Itt láthatod, hogy mekkora különbség van aközött, hogy ha áll a gép és úgy számol, illetve ha áll és aktív a Chill. [link] - ez az internetkávézóknak spórolást jelent.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #00137984 #36092 üzenetére

    Szerintem az Omega az egy mélypont volt. Ott dönthették el, hogy ez nem mehet tovább, mert rengeteg volt a panasz, és nagy volt az elégedetlenség. Amióta Radeon Software-re váltottak azóta ugrott meg az elégedettség, ami mára stabilat 4,5/5 fölött van. Ez különösen igaz szerintem az Adrenalin sorozatra. Az egy egészen más szint.

    Minden beállítást átmentettek a Settings vezérlőpultba, ami ott volt a Catalystben.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #36094 üzenetére

    A fejlesztési költséget nem igazán szorította le egyik cég sem. A változás ahhoz kell, hogy a pénzt hasznosan költsd el. Nem mindegy, hogy funkciókba rakod, vagy az évek óta felpumpált kód megfelelő fejlesztésébe és tesztelésébe.

    Kb. én is így voltam a driverekkel régen. Viszont a Chill annyira bejön, hogy már nem tudok nélküle élni. Nagyon sokat javít a késleltetésen, a fogyasztás csökkenése pedig csak extra. Én amúgy bízom abban, hogy a Microsoft ezt szabványosítja. Meg lehetne oldani. De valószínű, hogy egy nagyobb váltásnál az NV és az Intel is lemásolja, mert túl komoly előnyt jelent a fogyasztásra nézve.

    (#36095) Zsébernardo: Szerintem messze az volt a legrosszabb. Ezt a vonalat nem véletlenül hagyták. A Radeon Software végre egy értékes fejlesztési irány, ami az Adrenalin verzióban eléggé odarakta. Az Omegához képest ez ég és föld.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #36098 üzenetére

    [link] - érdemes elolvasni, hogy pontosan mit csinál. Nem csak a fogyasztásról szól ez, hanem egy teljesen más feldolgozási modellről.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz syberia #36159 üzenetére

    Nem. Alig kimutatható eladásért felel az RTX sorozat. A teljes termékskála 1%-át sem éri el. Ilyen kis volumenű termékek nem befolyásolják ennyire a tőzsdét. Sokkal inkább a bányászláz vége az, amiért megy lefele a részvényár. De ez nem valószínű, hogy tartós tényező lesz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz syberia #36162 üzenetére

    Az AMD és az NV sosem mondta, hogy hisz a bányászatban. Az más kérdés, hogy a tőzsde ettől még árazta ezt az irányt.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Csupingo #36265 üzenetére

    Nem, mert a probléma a komplexitás. Mindegyik RTX modellből egy bizonyos mennyiséget tudnak gyártani, és például még a 2070-ből is kevesebb készülhet egy nap, mint mondjuk az 1080 Ti-ből. A 2080 Ti-ből pedig sokkal kevesebb. Ez határozza meg az árat, mert hiába viszik le azt, akkor sem tudnak belőle többet gyártani.

    (#36257) Keldor papa: Nem feltétlenül az ígéreteket kell nézni, de azért a Turing az NVIDIA első architektúrája, amely pure bindless, illetve még az erőforráshalmaz szempontjából is többféle különböző erőforrástípus lehet ugyanazon a halmazon belül. Ennek azért van haszna, hiszen így nem a processzormagokat zabálja le a bekötés, hanem a hardver gyakorlatilag el tudja végezni kvázi a processzor segítsége nélkül. Jó nem 100%-ban, mert a Turing még nem memóriaalapú, de nagyon nem mindegy, hogy a bekötést egy CPU-n futó binding modul csinálja, vagy pusztán a hardver a mintavételezőben, és onnan már csak egy másolás kell a multiprocesszorig. Erre azért már ma is találni programot, például a Forza Horizon 4-et.
    Azt mindenki érti, hogy ezeken a VGA-kon nincs TB/s feletti sávszél, tehát RT-re azért nem sok babér terem, figyelembe véve, hogy ~140 bájt/háromszög körüli a terhelés. Tehát kellene hozzá úgy 2 TB/s kezdésnek, de azért a pure bindless és a memóriahalmaz optimális kezelése sokat jelent ám, még akkor is, ha még mindig slotalapú a dizájn. Azt is értem, hogy ezt korábban is meg lehetett volna tenni, hiszen az Intel és az AMD is évek óta hasonló dizájnokat kínál, de ezen kár vitázni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36271 üzenetére

    Valósnak valós, csak nem reprezentatív. Kb. olyasmi, mint a Steam. A teljes piachoz képest egy eléggé szűk minta, ami nincs is korrigálva.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ÁdiBá #36283 üzenetére

    Részben azért, mert a DXR aktuális verziójában az egyedüli, minőséget is adó vertex formátum 32 bites lebegőpontos, ami egy háromszögre 48 bájtos terhelés. Ennél sokkal jobb 32 bites snorm, mert kapásból kevesebb memóriaigénnyel tárolsz majd egy háromszöget, miközben alig rontottál a képminőségen. Ez amúgy tervben van egy későbbi DXR frissítésre, tehát nyilván meg lesz oldva a probléma, de legalább fél, vagy inkább egy év kell hozzá.
    A másik gond a BVH. Ebből az NV-nek az egyik megoldása van használva, ami egyrészt jól skálázódó, másrészt borzasztóan sászélpazarló, így egy hét szintű mély BVH struktúra simán megvan ~80 bájt/blokk. Ez egyszerűen nagyon sok komplex geometria mellett, márpedig a mai játékok nem kevés háromszögszámból állnak. Ezért van megcélozva a programoknál az 1080p/60 fps a 2080 Ti-vel. Egyszerűen nincs meg a sávszél, hogy ebből több legyen. Persze egy-két generáció múlva, 1-2 TB/s-os sávszéllel már egészen más a történet, és addigra maga a DXR is fejlődni fog. Emellett ugye a Microsoft dolgozik a WinML-en, és valójában ezt a DXR mellé tervezték. Ezzel a környezettel nem kell 4K-s felbontást számolni, egyszerűen elég a Full HD is, és onnan mehet az AI felskálázás 4K-ba, illetve fölé. Tehát a helyzet csak most tűnik reménytelennek, de mondjuk két év múlva már igen reális lehetőség lesz ez az irány.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ÁdiBá #36315 üzenetére

    Sok függ attól ahogy tervezik a drivert. Nagyon fura az a tényező, hogy régen az AMD több csapattal csinálta a havi Catalysteket, majd leálltak vele, mert látták, hogy az NV-nek jobban működik az egycsapatos fejlesztés, na meg ugye hotfixelés volt végig. Erre mit ad isten az NV fogta magát és ráment a Game Ready marketingre, amivel beleálltak a több csapatos tervezésbe, ahogy az AMD csinálta a Catalyst érában, hozta is magával a hotfixelést. :DDD
    Az egész nagyrészt egy menedzsment szintjén behatárolható kérdés. És úgy néz ki, hogy több csapat párhuzamos fejlesztését, gyártótól függetlenül nehéz optimálisan "összeolvasztani". A marketing más kérdés. Ott ugye régen az AMD verte a mellét a sok WHQL-re, most pedig az NV teszi. Csak hát ugye mennyi minőségvesztést ér meg az évi sok WHQL, na ez az ultimate kérdés. Ha a marketingest kérdezed, akkor valószínűleg azt mondja, hogy sokat, mert ez egy újabb dia, amit el lehet adni. Ha egy rendszerprogramozó véleménye számít, akkor ő azt fogja mondani, hogy nem éri meg a sok WHQL, inkább legyen jól menedzselhető a szoftver tervezése. És kb. ez a két álláspont ütközik a cégeken belül. A teljesítménykényszer miatt pedig előbb-utóbb előnybe kerül az egyik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36327 üzenetére

    A GPU-architektúrák ott pukkadnak ki, ha a hardveres szálkezelés már nem tudja etetni a multiprocesszorokat. Az NV és az AMD is ennek a határán van az aktuális dizájnnal, de még van benne egy-két generáció. Főleg úgy, hogy a WinML eléggé megváltoztatja az igényeket. Nem igazán az lesz a lényeg, hogy több teljesítményt építs be a hardverbe, hanem az, hogy az AI-ra tervezett részhardver gyors legyen, illetve a DXR-nek gyakorlatilag a sávszélhiánytól szenved. Ergo mindegy, hogy a mostani AMD és NV dizájnoknak közel a határa, a következő API-k igazából nem az ALU-kra hajtanak, hanem a sávszélre, illetve specializált AI hardverre.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz NewHope88 #36343 üzenetére

    Fake news! A PC Partner még gyártja. Azért ment fel az ára, mert az RTX sorozat megjelenésével megnőtt rá az igény, miközben az NVIDIA azzal számolt, hogy a piac az RTX-et fogja vinni nem a GTX 1080 Ti-t. De ettől a gyártása még nem állt le. Nagyon nehéz úgy lelőni ezeket a termékeket, hogy az OEM/ODM-ek még most is rengeteg ilyen gépet szerelnek össze. Előbb itt szokott megszűnni a rendelés, és utána kap az adott széria EOL-t. Az is nagyon fontos, hogy a GTX 1080 Ti-ből 50%-kal is többet tudnak naponta gyártani, mint az RTX 2070/2080-ból. Tehát már csak a mennyiségi tényező miatt sem lehet teljesen kivezetni. Ha mondjuk teszem azt lelövik, akkor sem tudnak több RTX-et gyártani, viszont amelyik OEM/ODM még rendelne GTX 1080 Ti-t már nem tudja megtenni, így a helyére Vega 64-et fog kérni, ergo az NV saját magát lőné vele lábon.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz NewHope88 #36358 üzenetére

    Az egész abból indult ki, hogy felment az 1080 Ti ára, de ez ezernyi októl lehet még. Az valóban egy létező probléma, hogy az NV nem azzal az arányokkal számolt, amit most tapasztal a piacon. RTX-ekből nagyobb keresletet várt, míg a régi szériából kevesebbet. Erre is készültek, de az embereknek még tetszik az 1080 Ti. Na most erre hirtelen nem lehet reagálni, ez nem úgy megy, hogy akkor holnaptól kétszer több 1080 Ti készül. Majd ki kell számolni újra a tavaszi igényeket, mert akkorra lehet több 1080 Ti-t készíteni, de ugye azok az igények megint változhatnak. Ami most van azok leginkább nyáron számolt tényezők, és persze valószínűleg senki sem tagadja, hogy nyáron még nem azt várták, hogy az RTX-ek helyett inkább a GTX-eket rendelik a játékosok.

    Talán furcsának tűnhet, de például az NVIDIA még gyárt Keplert, az AMD is gyárt még Terascale 2 GPU-t. Tehát ez a kivezetés nem olyan, hogy itt az új sorozat, és akkor VISZLÁT ;] vagy abrakadabra ;] van a réginek. Ezek nagyon sokáig megmaradnak még, főleg az elején mert az is egy nagyon fontos tényező, hogy egy adott VGA-ból mennyit lehet naponta gyártani. Amíg az új széria nem tudja megközelíteni az elődöt, addig hasztalan azt kivezetni, mert csak az árak mennének fel, illetve alapvetően nem lenne elég eladható termék.

    Majd valamikor jövő nyáron frissülnek az OEM/ODM gépparkok, amikor már úgy alakítják ki a partnerek a termékeiket, hogy a GTX 1080 Ti-t bele se rakják a rendelhető komponensek közé. Na ott lesz vége a dolognak, de amíg egy OEM/ODM-en keresztül tudsz ilyen VGA-t választani, addig ez marad.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #36360 üzenetére

    Mert mit tudnak még rendelni a csúcskategóriában? Ha leállítják az 1080 Ti-t, akkor lesz kb. feleannyi RTX, és a rendelések másik felével mit csinálsz? Lemondod? Nyilván nem, rendelsz bele hardvert a konkurenciától. Ezért nem úgy működik a VGA-k gyártásának leállítása, ahogy azt itt sokan gondolják. Ha nincs 1080 Ti, akkor az még nem jelenti azt, hogy több lesz az RTX-ek eladása, mert túl sok komponensből épülnek fel ahhoz, hogy olyan mennyiségben lehessen őket gyártani, mint mondjuk az 1080 Ti-t vagy a Vega 64-et.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz NewHope88 #36362 üzenetére

    Az csak premium, de nem csúcskategóriás. Leginkább a memória mennyisége a probléma. Amikor választanak az OEM/ODM-ek egy gépet, akkor azért érdemes észben tartaniuk, hogy vannak olyan címek, amelyekben a 8 GB memória elfogy. Például a Middle-earth: Shadow of War. Ott a GTX 1080 Ti-nek ebből nincs gondja a 11 GB VRAM-jával, míg a Vega esetében ez az egész csak egy csúszka, ha akarsz és van kellő RAM-od, akkor 64 GB-ot is beállíthatsz neki, és akkor a játék 64 GB-osnak detektálja.

    (#36363) b. : Az RTX-nél nem a kihozatal a probléma, hanem a komponensek száma. Még a 2070 is bonyolultabb, mint az 1080 Ti. A Vega 56/64 pedig kb. egy GTX 1070/1080 bonyolultságú hardver a felhasznált komponenseket tekintve. Na most minél több komponensed van, annál tovább tart a gyártási folyamat. Ergo egy napon belül kevesebb hardvert tudsz gyártani. Emiatt az 1080 Ti-t nem igazán éri meg eldobni, mert az a saját kategóriájában relatíva nagy napi mennyiségben gyártható a partnerek számára. Az meg, hogy eltűnik a polcokról... Persze, amikor a nyáron leadták a rendeléseket, akkor azért bőven arra számítottak az érintettek, hogy a vásárlók az RTX-ekre fognak bökni a vásárláskor és nem a GTX 1080 Ti-re. Az, hogy inkább az utóbbit választják azt jelenti, hogy az eredetileg tervezett mennyiség nem elég. Ilyenkor pedig jön az OEM/ODM first, vagyis először a hiány kiskereskedelemben csapódik le, nem azokon a csatornákon, ahol tízezres nagyságrendű rendelésekkel kalkulál az adott partner. És persze lehet ütni a fejed a falba, hogy gondolni kellett volna arra, hogy a vásárlóbázis mégsem eszi majd meg az RTX-et, de ilyenkor már hiába. Mire ezen változtatni tudnak jövő tavasz lesz.

    (#36364) Petykemano: Van egy számtekboltod. Száz PC-t építesz karácsonyra a jellemző megrendelésekhez. Ebből teszem azt 50-be rendelsz RTX-et, mert az előző év azt mutatja, hogy nagyjából ilyen arányban érdeklődnek a potenciális vásárlók az újdonság iránt. 50-be pedig 1080 Ti-t, mert lesz olyan, akinek nem fog kelleni az új. De 1080 Ti teszem azt nincs, vagy legyen mondjuk csak 20 gépbe. Mit csinálsz? Inkább lemondod a többi komponenst, és beletörődsz, hogy idén karácsonykor csak a korábbi évek bevételének a 70%-a jön be, vagy inkább rendelsz 30 Vega 64-et, hogy hozd a korábbi évek pénzmennyiségét? Ez így működik alapvetően. Az OEM/ODM-ek fix gépszámra mennek, ha az NV nem tudná kiszolgálni ezt, akkor elmennek az AMD-hez, mert nem realitás a jelenlegi világban, hogy lemondj a saját bevételedről.

    (#36367) TTomax: Mindenki látja. Egy nyári hibás döntés eredménye. De ettől még nem állt le a gyártásuk. Bizonyos Intel processzorok is alig kaphatók, mégis gyártják őket gőzerővel. Beszopták ennyi, ahogy tudják próbálják korrigálni, csak ez nem megy egyik napról a másikra. Egy ilyen VGA nagyon sok hétig készül, vagyis még ha el is tudják intézni, hogy egy hiánycikk szériára több alkatrészt szerezzenek be, akkor is legalább 3-4 hónap, mire változik a helyzet. Ha ez nem így lenne, akkor az Intel már teleöntötte volna procival a boltok polcait.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #36370 üzenetére

    Rendszermemória kell, de anélkül eleve nem működik a gép. A HBCC kijelöli a RAM-ban a CPU és a GPU által elérhető részt, amit a GPU-hoz illeszt, így annak menedzsmentjéről hardveresen gondoskodik a normál szoftveres forma helyett.

    (#36371) NewHope88: A Middle-earth: Shadow of War többet kér bizonyos beállításokkal 8 GB-nál. Durván kimaxolva 18 GB-ot, de ott már a felbontás miatt az erővel is gond lenne.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #36373 üzenetére

    "GamersNexus has heard through multiple industry sources that US-based supply of GTX 1080 Tis is dwindling, with manufacturers running low on inventory of the previous flagship."

    Tehát a multiple industry sources az NV új neve? :)
    Felőlem egyébként hihetitek azt, hogy nem gyártják, de szerintem sértő az NV számára, hogy ennyire hülyének nézitek őket. :)) Érdekes egyébként, hogy rengeteg Intel CPU-t sem lehet elérni. Azokat sem gyártja az Intel? ;]

    Ő kérdezte. Ha zavar, akkor ne olvasd el.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #36375 üzenetére

    Most már az OEM/ODM is hétköznapi gamer lett?

    Ne azt nézd, hogy ki mit akar venni, hanem, hogy mi van a karácsonyi gépekbe. Tudod mennyi OEM/ODM venne Core i9-9900K-t? Most szúrják magukat tökön, mert nincs elég?

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #36377 üzenetére

    Ez a baj, mert ez a lényeg. A piacnak nem a kiskereskedelmi réteg az első. Ha itt nincs holmi, akkor az OEM/ODM igény nagy. Márpedig a gyártópartner nem a HP-nek mondja majd, hogy nem tud tízezer VGA-t vagy CPU-t szállítani ebből, mert kell Pistinek a tanyára, hanem a nagykereskedőknek, ami miatt a kiskereskedők is szopcsiznak. Nem beszélve szegény Pistiről.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #36379 üzenetére

    Pontosan. Tehát az OEM/ODM first modell pont karácsony előtt okoz gondot a kiskereskedelmi piacon, amikorra minő véletlen az OEM/ODM-ek feltöltik a készleteiket. Lehet erre azt mondani, na most akkor tuti nem gyártják (mínusz a PC Partner ugye :DDD ), meg lehet azt is, hogy a nyáron rosszul mérték fel az 1080 Ti-re az ünnepi igényeket. Sajnos van ilyen. Nem is kell messzire tekinteni: khm...Intel...khm

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #45997568 #36381 üzenetére

    Vega volt, nem Vega NDA, driver december (nem mellesleg szintén NDA). Kérem kapcsójaki. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36388 üzenetére

    Elviszik az OEM/ODM-ek. Ugyanaz van vele, mint az 1080 Ti-vel. Nem lehet mit csinálni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Crytek #36391 üzenetére

    "You may run the game in either DirectX 11 or DirectX 12, with DX12 showing a little bit more stuttering in general—Battlefield 1 was and still is the same, looks like EA is having difficulties getting this fixed."

    Szóval még mindig dadog a DX12 mód. :C Itt buktuk az réjtrészinget.
    Komolyan mondom a Halcyonnak része az új memóriamenedzsment. Szépen át lett portolva a VMA-ról. Annyira adná magát, hogy erre térjenek át a Frostbite esetében. Lehet, hogy buknának pár fps-t, de legalább nem dadogna, és nem kellene HBCC ennek a kiütésére.
    Az egésznek így semmi értelme, mert az új funkciók csak a dadogós módban érhetők el. :(

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #59036672 #36393 üzenetére

    És mit kezdünk vele olyan DX12 módban, ami dadog? Ez nem működik DX11 alatt, ami a folyamatos élményt adja.

    (#36396) Erdei88: Mindegy. A DICE nem javította a Frostbite 3 memóriamenedzsmentjét. [link]
    Jó mondjuk nem tettem volna kis tétet sem arra, hogy javítani fogják. ;]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36411 üzenetére

    Eleve nem ugyanazt a kódot futtatják. Az AMD-hez mér az SW: BF óta a direkten PS4 PSSL kódokból fordít bizonyos shadereket a DICE. NVIDIA-hoz és Intelhez nyilván ezt nem teszik meg, hiszen ezek ezzel a módszerrel nem is kompatibilisek, szóval itt szimplán az Xbox One HLSL kódjait portolják a shader modell 5.0-hoz. A BF5 annyiban változott, hogy már shader modell 6.0-hoz is portolnak. Utóbbi szükségtelenné tenné a PS4-es shadereket is, hiszen megvannak benne ugyanazok a függvények, csak ugye a DX11 miatt nem szerencsés túlságosan építeni ezekre, mert akkor sok shader nagyon eltérne az 5.0-s és a 6.0-s változat tekintetében. Viszont a PS4 PSSL-re már megvan több címben is jól kitesztelt program, amivel egyszerűen konvertálható AGS-re specifikus shader, ergo ezt megéri alkalmazni.

    (#36421) PuMbA: Annak a beállításnak nem csak előnye, hanem hátránya is van. Ha bekapcsolod, akkor nő a késleltetés. Nem mellesleg azért van ez alapértelmezetten kikapcsolva, mert a gyártók szeretik ezt maguk szabályozni a driverek, adott játékhoz tartozó profiljában. Szóval ez valami egyezmény lehet, aztán ott az opció bekapcsolni.

    (#36412) b. : Ennek nem sok köze van magához a DX11-hez. Tényleg csak annyi történik, hogy más shadereket futtatnak. Az AMD nagyon sokáig a DICE legfőbb technológiai partnere volt, kidolgoztak az elmúlt években több olyan eszközt is, amivel egyszerűen gyorsabb kódokat lehet írni a Radeonokra. Az NVIDIA ezzel nem törődött, mert jött a shader modell 6, ami úgyis szabvány, csak itt is számolni kell azzal, hogy még ha a BF5 már megy is ebbe az irányba, akkor sem fog azonnal mindent kihasználni a shader modell 6-ból, mert még kompatibilisnek kell lenni a DX11-es shader modell 5-tel is. És azért ennyiféle kódot karbantartani tényleg nem szerencsés ám.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #36434 üzenetére

    Ez nem keverendő a szinkronizálással. Leginkább azt határozza meg, hogy a GPU egyszerre hány képkockát számolhat előre az aktuálison túl. Persze ez leginkább egy elvi adat, de amúgy lehetséges, hogy a driverek BF5-re beállított default egy extra képkockájához képest, ha mondjuk három van megadva, akkor a jobb sebességet eredményez. Főleg, ha ez a szoftverben direkten van szabályozva.

    A szinkronizáció emellett még kell, ha nem akarsz képtörést. Az Enhanced adja a legkisebb késleltetést.
    Az FRTC nagyrészt hasztalan a Chill óta, mert utóbbi is képes a sebességet korlátozni. A Chill egyébként sose számol az aktuálison túl extra képkockát, de azt nem tudom, hogy miképpen reagál erre a beállításra a BF5-ben, mert ez elméletben nem kompatibilis a Chill lényegében.

    (#36435) Raymond: Én úgy néztem, hogy ki van. Kajak az a default. Vagy ez most megváltozott?

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #36438 üzenetére

    Furi, hogy nekem ezt Off-on jelzi. Lehet, hogy az új frissítéssel már On.

    Alapvetően ugyanarról van szó. Elvégre, ha nem készít elő több jelenetet a CPU, akkor a GPU nem tudja megkezdeni az extra képkockák számítását.

    A profilokban régóta módosítják ezeket a beállításokat a gyártók. Az, hogy a driver alapértelmezett beállítása az NV-nél 3, míg az AMD-nél 1, nem jelenti azt, hogy minden egyes játékra igaz. A BF5-nél a profilban megadott default mindkét gyártónál 1 volt a korábbi meghajtókban. Ez az AMD-nél nyilván nem jelent változást az általános defaulthoz képest, de az NV-nél igen. Az, hogy ez változott-e a legújabb GeForce driverrel? ...kötve hiszem, de persze lehetséges.

    Ha a profilban ezt konfigurálja az adott gyártó egy játékra, akkor nem sokat számít, hogy a driver ténylegesen alapértelmezett beállítása mi.

    (#36440) b. : A DX12-höz is ugyanúgy más kódot kap az AMD. Az a baj a shader modell 6-ös kóddal, hogy csak egy shader modell 5-ból konvertált alap, amiben egy csomó új függvény nincs is használva. Egyszerűen még nem volt rá idő, de a DXR miatt ugye muszáj az új shader modellt is használni. Az AMD csak azért kap más kódot, mert arra a production pipeline máshogy van kialakítva. Régóta van már egy jól működő eszköz, amivel a PS4-hez megírt kódokat be lehet nyomni a PC-be, és az futhat a Radeonokon. Ez API-tól független. Ezt majd idővel ejtik, mert nyilván az lenne itt mindenkinek az érdeke, hogy ezeket a kódokat egy szabványos felületen biztosítsák, ami a shader modell 6, csak a portoláshoz idő kell. Meg ugye itt a shader modell 6 az direkten a DICE munkája, az AMD arra nem ad nekik embereket, hogy ezt megcsinálják, mert nekik, a saját specifikus kódjaik birtokában nincs szükségük a shader modell 6-ra.
    Szóval az, hogy a DX11-ben fura az eredmény, meg furán gyorsa a Radeon, annak köszönhető, hogy van egy rakás olyan kód, amelyek gyorsabban a szabványosnál, és azt csak egy Radeon tudja futtatni. Semmiféle drivertrükk, mágia, vagy csoda nincs mögötte, egyszerűen évekig ezen dolgoztak a DICE-szal, és ennek ez az eredménye.

    A DX12-es lassulásnak és dadogásnak pedig ez az oka: [link] - vagy kiütöd a problémát blokkalapú vezérléssel, vagy marad a DX11. Persze a megoldás az lenne, ha újraterveznék, de szerintem az EA-nek nem ér meg annyit, hogy ezzel törődjenek az új generációs konzolok előtt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #36452 üzenetére

    Ha nincs FreeSync, akkor igen, az a kombináció adja a legkisebb késleltetést a zavaró hatások nélkül.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák