Hirdetés

Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Ribi #63814 üzenetére

    Nem minden gond függ a motortól, de az UE5 esetében ez már a harmadik játék, ahol gond van valamelyik felskálázóval. Két korábbinál a DLSS3-mal, míg most az FSR3-mal. Ez már trend. És fura, hogy más motornál nincs ilyen gond egyikkel sem.

    #63815 Albus_D : Mert az Immortals of Aveum esetében annyi történt, hogy próbálták a javításokat sokáig, majd inkább implementálták az FSR3-at. De ettől még ez csak az egyik UE5 játék, ahol voltak gondok.

    #63818 b. : Kétlem, hogy az eljárásokkal lenne probléma. Írtam, hogy már a harmadik UE5 játék jön, ahol valami gond van vagy a DLSS3-mal vagy az FSR3-mal. Ez trend. Itt valami a motornál nem stimmel. Más motorral nincsenek gondok.

    #63822 b. : Ha az NVIDIA hibája lenne a DLSS3-mal kapcsolatos hiba, akkor ki tudták volna javítani, és nem kellett volna az FSR3-hoz hozzányúlni. Valószínűbb, hogy itt az UE5-tel van valami, amire még nem derült fény.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Ribi #63832 üzenetére

    A DLSS-t nem tudod a motorhoz igazítani, mert nem nyílt forráskódú. De alapvetően maga az eljárás a jellege miatt csak ritkán okozhat gondot.

    #63833 Albus_D : A DLSS-nek is lehetnek hibái, de ezeket az NV javítani szokta. Itt viszont nehezebb az ügy, mert az UE5-nél van egy olyan tényező, ami miatt gondokba futnak ezek az eljárások. Most ez már a harmadik játék, aminél előjön valami. Más motorral nem. Szóval itt van valami probléma a motornál is. Azt mondom, hogy egyszer jön valami baj, akkor oké, kétszer még lehet véletlen, de háromszor...

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Ribi #63835 üzenetére

    Ez mindig így volt. Nem fogják a specifikus gondjaidat egy csomó pénzből megoldani. Igazodj hozzájuk. Vagy ha nem, akkor használj nyílt forráskódú alternatívát, és azt igazíthatod, ahogy akarod. De mondjuk az efféle felskálázók és generálók nem annyira kényesek. Bár persze lehetnek olyan esetek, ahol valami nem stimmel velük egy adott motorban.

    Az NV egyáltalán nem tesztel játékokat a dll-hez, nincs szükség erre.

    Le van írva, hogy miképpen működik az eljárás, és arra kell szabni a motort. Az NV és az AMD sem fogja átszabni, ha az nem jó.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Ribi #63837 üzenetére

    Ez egy kód. Ezt nem kell játékkal tesztelni. Majd megnézi a fejlesztő, hogy működik-e.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #63921 üzenetére

    Annyira azért ne örüljetek neki. Az AMD megoldása nem ott nyúl a neuronhálóhoz, amikor eldönti a rendszer, hogy miképp kombinálja a korábbi képkockáról származó előzménymintákat az új képkocka felskálázásához. Ez csak egy nagyon egyszerű módja a problémának, ahogy a DLSS és az XeSS működik. Valós tartalomgenerálás viszont nem történik AI-val.

    A probléma az, hogy az AI tartalomgenerálás nem olyan analitikai megoldást igényel, mint amilyen a DLSS, XeSS, FSR, mert azok egységesen tök analitikaiak, sehol sem használnak AI-t a generáláshoz. Az AMD megoldása a Ryzen AI-t fogja ehhez használni, tehát az analitikai pipeline-t felváltja egy valós AI pipeline, de csak akkor, ha van a processzorodban Ryzen AI és mellette Radeon dolgozik.

    Ryzen AI nélkül az FSR is csak annyi lesz, mint a DLSS és az XeSS, marad analitikai, plusz az előzménymintákat kezelik, de ugyanúgy nem fog generálni semmit sem AI-val, mint a DLSS és az XeSS sem.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #63923 üzenetére

    Nem. Itt két külön problémakör van. Az előzményminták kezelése és a valós tartalomgenerálás. Mindkettőt lehet AI-val csinálni, de utóbbi annyira elrugaszkodott ötlet, hogy sok memóriát igényel. Ezért nem generál semmilyen AI tartalmat a DLSS, XeSS, FSR. Inkább egy analitikai algoritmust használ mindegyik. Az FSR tudja azt csinálni, hogy az előzménymintákat átrakják AI-ra, de csak odáig jutnak vele, mint a többi rendszer, és annak túl nagy haszna nincs. Ráadásul ennek specifikus hardver sem kell. A valós gond a tartalomgenerálás AI-val, és azt egyik felskálázó sem csinálja. A Ryzen AI, ami ennek megnyitja a kaput, mert az egy különálló hardver, ami nem terheli a GPU-t, nem eszi annak regisztereit, és van saját, bő 8-10 GB-nyi memóriája erre a célfeladatra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz paprobert #63925 üzenetére

    Másképp nem tud működni ez. Többször volt már szó róla, hogy a mostani hardverekkel az a gond, hogy hiába van bennük külön ALU kvázi AI-ra, ha ugyanazokból a regiszterekből esznek, amiket a fő ALU-k. Tehát ha elkezded ezeket a kisebb ALU-kat használni, akkor romlik a GPU occupancy, amivel romlik az elérési idő átlapolása. Emiatt van az, hogy nem generálnak tartalmat a mostani felskálázók, mint a DLSS, XeSS, FSR. Pusztán analitikai megoldások. Egyedül az előzményminták felhasználásában alkalmaznak AI-t, de az meg a teljes procedúra kb. 5%-a, tehát igencsak kevés számítás, ráadásul nem generált tartalom.

    Amiért a valós AI tartalomgeneráláshoz másik AI hardver kell, hogy ne csökkenjen ettől a feladattól a GPU occupancy, és emiatt kell ezt kivinni egy dedikált részegységre, ami nem ugyanazokat a regisztereket terheli le, amikbe a shadereket tölti be a GPU.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz paprobert #63928 üzenetére

    Minden megvan a teljesen generatív felskálázáshoz, egyedül az a gond, hogy a GPU-kon egy ilyen pipeline nem jó, mert eszi a VRAM-ot és a regisztert. Tehát szükség lenne arra, hogy a GPU-kon legalább kétszer több regiszterfájl lenne, illetve +10 GB VRAM. Amúgy hardverileg jó volna akármelyik mai GPU.

    Viszont +10 GB VRAM és kétszeres regiszterterület annyira sok extra, hogy az vállalhatatlan, és emiatt a generatív megoldások inkább a DSP-szerű hardvereken fognak először megjelenni, amelyek ugyan erőben nem GPU-k, de kellően sok számítási kapacitás van bennük, hogy megoldják a problémát, és még nem is lassítják le a picsába a képkockaszámítást.

    Ez az összes AI feladatra vonatkozik. A GPU-kon ezek azért nem terjedtek el, mert irtó memória intenzívek. Egy életképesebb AI feladat 10 GB terhelésnél kezdődik, aztán sok szerencsét lefuttatni a 8 GB-os VGA-kon. Igazából semmi extra nem kell az AI-nak, leszámítva a memóriát, azt eszi két pofára.

    #63927 smc : Az FSR, a DLSS és az XeSS ugyanolyan analitikai megoldás. Konkrétan ugyanúgy állítják elő a valós képi tartalmat. Csak akkor ugorja át az egyik a másikat, ha megváltoztatja a tartalomgenerálás analitikai jellegét.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Yutani #63930 üzenetére

    Kétlem, hogy ez valaha ott lesz a GPU-kban. Ott a VRAM mindig hátrányos lesz. Egyszerűen túl sok memória kell ezeknek a feladatoknak. Inkább az IO Hubba kerül majd be a CPU chipletek mellé, vagy inkább 3D-ben az IO Hubra. Az APU-kban meg eleve ott van már.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #36531588 #63952 üzenetére

    Ott azért nagyon sokáig ment az AMD és az NV között az adok-kapok. Amit az NV bemutatott az nem alma-alma összehasonlítás, hanem alma-körte. Az NVIDIA a saját hardverét nem ugyanazokkal az adattípusokkal etette, amivel az AMD hardverét. Ezért tudnak gyorsabbak lenni, de azt az adattípust az MI300X is támogatja, amire az AMD úgy reagált, hogy ha azzal etetné az NV a tesztjén, akkor hasonló eredményt érne el az Instinct MI300X is.

    Utána a médiának még flancolt a két cég, majd ott szűnt meg a sajtó felé is faszméregetés, amikor az AMD megírta, hogy megkérték az NV-t, hogy küldjék a hardvereket független tesztlaborba. Az NV ezután nem reagált többet.

    Tanulság...ne higgy a gyártók tesztjeinek.

    Egyébként itt az alapvető probléma az NV részéről az volt, hogy az AMD kihasználta, hogy a H100-on csak 80 GB memória van, és abba befér egy Llama 2 70B, de csak akkor, ha az adattípus FP8. Ez paraméterenként ugye 8 bit, azaz 1 bájt. De ezért erőltette az AMD a tesztjében az FP16-os adattípust, mert nincs elég memóriája hozzá a H100-nak. Az MI300X-en viszont 192 GB van, ott még paraméterenként 2 bájttal is bőségesen elfér a Llama 2 70B.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #36531588 #63956 üzenetére

    Persze, mert a H100 érhető el minden megrendelőnek. A H200 majd valamikor az év közepétől lesz általánosan elérhető. Csak olyan hardverrel lehet tesztelni, ami beszerezhető. Ezzel egyébként az NV-nek nem is volt gondja.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #64267 üzenetére

    AMD-nek már be van építve a driverbe a Broadcast alternatívája. Már egy éve ott van.

    #64256 hahakocka : Mert a teljes VGA üzletáguk veszteséges, és muszáj csökkenteni a mínuszt. NV-ből még van némi eladásuk, de AMD-ből már alig. A piacnak nagyjából a 0,8%-át célozzák csak összesen. Egyszerűen a többi cég sokkal jobban dolgozik. Az AMD-nél a Sapphire és a PowerColor, míg az NV-nél az ASUS, illetve a Palit csoport. Hiába tetszik az MSI valakinek, akkor sem veszi a piac az MSI VGA-kat.

    #64276 PuMbA : Régen más volt, mert a Gaming X tudott innoválni. Ma már nem tud vele az MSI mit kezdeni, mert sok dologról dönt a lapka fejlesztője. Ha nincs ez a megkülönböztetés, akkor nem éri meg sokadik futóként maradni. Ezért lépett az EVGA is. Felesleges veszteséget termelni, ha nincs meg a kitörési lehetőség. Hosszabb távon nem egy cég be fogja szántani a saját VGA-bizniszét, mert a piac 1%-áért nem éri meg fejleszteni sem.

    #64274 Albus_D : Sajnos az MSI nagyon pici a piaci részesedést tekintve. A top 30-ban nincsenek benne globálisan. Ez is a gondjuk, hiszen így nincs elég nagy eladásuk.
    A piac jelenleg globálisan olyan, hogy a nagy részét az ASUS, Gigabyte, Palit csoport vállalati (van vagy 10 leányvállalatuk), PC Partner vállalati, PowerColor vállalati, XFX uralja. És ez konkrétan bő 80%, hiszen ezek a cégek nagyjából lefednek 80%-ot. Az MSI hiába volt név, ha a többiek legyűrték őket, mert jobban kötötték meg az üzleteket. Az alaplapgyártás az jobb fókusz nekik, mert ott legalább 10% körül vannak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Yutani #64316 üzenetére

    Az MSI sajna nagyon gyenge a globális VGA-piacon. Pár piacon mennek, de globálisan kevesek. Az a legfőbb gondjuk, hogy a nagyok, mint a PC Partner, TUL, Palit csoport, stb. 5-10 márkával nyomják piacra összpontosítva. Ezzel nagyon nehéz versenyezni, mert sokkal nagyobb a nagy gyártók mozgástere.

    #64317 Albus_D : Az MSI, mint gyártó nem nagy. A VGA-piac leginkább azoknak a gyártóknak megy, amelyek 5-10 leányvállalatot tartanak fent, hogy per piac külön márkával támadjanak. És ez a stratégia beválik. Ugyanez volt az EVGA-nak is a gondja. Egy piacra összpontosítottak, és hiába kevésbé ismertek mondjuk a Palit csoport vállalatai, összesen 8 cégről van szó, amelyek egyenként nem túl nagyok, de együtt nagyon is azok, és célzottan támadják a piacokat. Ezzel nincs mit tenni. Az ASUS neve akkora, hogy valamit kompenzáljon, de összességében még őket is megverik a több márkával dolgozó cégek.

    Az MSI-nek az alaplappiacon van esélye, mert ott 10% körül vannak, az még egy tűrhető részesedés. A VGA-piacon nagyon futottak még csak, mert globálisan csak nyugatabbra vannak jelen.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #64311 üzenetére

    Vannak webkamera eszközök benne, de ha ez nem lenne elég, akkor az AMD kiegészítette a ReLive funkciókkal az OBS-t, tehát azt is lehet használni, ugyanúgy megtalálhatók benne a ReLive szolgáltatásai, de persze Radeon kell, hogy aktiválja az AMD Advanced Media Framework funkcióit a program.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #36531588 #64321 üzenetére

    Mivel az MSI nem tud minden piacot célozni, így nyilván nem tudnak globálisan erősek lenni. Az a baj, hogy vannak cégek, amelyek 5-10 márkával dolgoznak, az MSI, csak egy márka, és így nem tudnak célirányosan piacra szabott ajánlatokkal versenyezni. Ugyanez volt a baja az EVGA-nak is.

    #64324 huskydog17 : Benne van a driverben egy leírás, betöltöd a vezérlőpultot, és meg tudod nézni. Konkrétan leírja a meghajtóban az AMD, hogy mi mire jó.

    Az OBS azért lényeges, mert az AMD saját program helyett az OBS-nek fizet, hogy Radeon exkluzív funkciókat kapjanak az Advanced Media Framework SDK-n keresztül. Ezért adja az OBS ugyanazt, mint a ReLive, mivel ugyanaz a funkcionalitás van benne implementálva Radeonra, csak még eléred az OBS extráit is.

    #64346 PuMbA : Persze, hogy más, hiszen az már az új RT API-ra van szabva, ami nem kompatibilis a mostani API-kkal. Mindenkinek teljesen más lesz az új RT hardvere, mert alapjaiban újra lett gondolva az API, amihez alapjaiban új hardver kell. A mostani API zsákutca. Kb. a T&L-hez hasonlítható a helyzet, ami szintén zsákutca volt, majd jött a programozhatóság.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #64360 üzenetére

    Ez valamiféle kényszeres tünet nálad, hogy kiforgasd a leírtakat? Mert ha igen, akkor én ezen nem tudok segíteni, de számos, szakmailag kompetens intézet van az országban, amely erre szakosodott. Majdnem mindegyik szolgáltatása igénybe vehető államilag biztosított TB-vel.

    #64368 PuMbA : A programozhatóság a shaderekből jön. Az AMD RDNA 3-ja csak annyiban más, hogy ott dual-issue az SIMD motor, tehát az RT programozhatósága kvázi ingyenes, míg az NV-nél nem az, mert nem dual-issue az ALU tömb. De az NV is programozható, csak sebességcsökkenést von maga után, mivel olyan ALU-kon fut, amit lehetne másra is használni. Az RDNA 3 dual-issue módja kifejezetten RT-re szabott.

    Viszont az új RT API többet is igényel, mint a programozhatóság. Egyébként ez a része is emulálható lesz shaderekkel, csak az új hardverek jobbak lesznek benne.
    Egyébként hosszabb távon valószínű, hogy a hardverek olyan dual-issue ALU dizájnokat fognak bevetni, mint az RDNA 3, mert azzal gyorsabb a programozható bejárás. Ez pusztán egy logikus evolúciós lépcső, ha van egy dual-issue módra rádobható folyamat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #64378 üzenetére

    Én tök egyszerűen válaszoltam, tényleg mindent leírtam neked. És nem személyeskedni akartam, hanem jóindulatból jegyeztem meg. Ezt azért jegyzem meg újból, mert a mostani hsz-ed csak erősíti azt, amit gondoltam. Van a kényszeres-kompulzív zavarnak egy kényszeres meggyőződésnek nevezett patológiai ága, amikor egy személy kényszeríti magát arra, hogy ismételten meggyőzze magát vagy meggyőzzön másokat bizonyos dolgokról. Tényleg nem rossz szándékból írom, alacsony dózisú SSRI-jal jól kezelhető.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #36531588 #64381 üzenetére

    Nem mindenkinek szükséges. Alapvetően minden embernek van valamilyen mértékű spektrumzavara, de az enyhék nem feltétlenül igényelnek farmakoterápiát. Nem általános érvényű tehát az SSRI szükségessége. Akár az ideiglenes farmakoterápia is megoldás, mert az SSRI két hónapos távon némileg korrigálja az agyat, és a hatása valamilyen mértékben maradandó. Ez nagyon egyénfüggő tehát, a szakemberek meg tudják állapítani, hogy mi az optimális megoldás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Lacccca87 #64383 üzenetére

    Először is az NV drivere a vezérlőpult. Abban még Relive funkcionalitás sincs. Mindent egy külön szoftverrel kell elérni.

    Az NV csak az év későbbi részében építi egy vezérlőpultba a dolgokat, amikor megszűnik az eredeti vezérlőpult és csak a GFE reskin marad meg.

    Tehát már ott félrecsúszik az egész, hogy almát hasonlít a körtéhez.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #64386 üzenetére

    Ez a level xy az ImgTec saját kreálmánya, de nem szabványos megközelítés. Sőt, az új szabvány nagyon messze lesz attól, amit a Level3-4-5 képvisel, mert pont azok a korlátok ölik meg a skálázhatóságot, amiket az ImgTec ezekben reklámoz.

    Ha ezeket a szinteket vesszük számításba, akkor az új RT szabvány inkább Level 1.5, és ez pont jelzi, hogy mennyire el van torzítva az Imagination koncepciója.

    #64389 PuMbA : A Brixelizer az alapvetően arra való, hogy biztosítsa azt a szintű programozhatóságot, amit az új RT szabvány biztosít, vagyis ugyanúgy skálázható legyen, csak az aktuális hardvereken is fusson. Ez abból a szempontból fontos, hogy ha valamit megírnak az új RT szabvány szerint, az ne csak például az RDNA 4-en menjen, hanem visszaportolható legyen a Brixelizerre, és onnan elérhető minden olyan hardver, ami támogat compute shadert. Nyilván nem lesz annyira gyors, mint az érkező hardvereken, de futni fog.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz paprobert #64393 üzenetére

    A programozhatóság a LOD-hoz kell, hogy ne kelljen betölteni az összes jelenetben szereplő modellt, max részletességen. Eléggé kívánatos, hiszen pont ezért zabálja a memóriát az RT, és pont ezért nem igazán látod az UE5-ben reklámozva ezt, mert annyira nagy a részletesség, hogy egyszerűen nincs a VGA-kon elég memória hozzá.

    Például az Avatar pont azért választott szándékosan programozható RT-t, mert ők is beleütköztek volna ebbe a problémába. Az Ubisoft nem is alkalmaz a saját pipeline-ján klasszikus brute force megvalósítást. Hiába vannak ott a hardverben az bejárás gyorsítására való részegységek, hozzá sem nyúlnak. Tehát jelen pillanatban a programozhatóság hiánya már most is limitál, annyira, hogy már compute shaderben kell írni alternatívákat hozzá.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #64395 üzenetére

    Az Avatar bőven nem 2002-es minőség. A geometriai részletesség amúgy a probléma ennél a játéknál. Túlságosan masszív a növényzet ilyen szempontból, és túlságosan nagy az a távolság, amíg az RT benne működik.

    A Cyberpunk 2077 és az Alan Wake 2 is sokkal könnyebb ilyen szempontból, mert a játékok dizájnja olyan, hogy nincs bennük hatalmas és bonyolult környezet nappali fényviszonyokkal. Tehát az RT-t simán le tudják csökkenteni pár virtuális méterre. 3-4 méter szokott ez lenni. És a kamera pozíciójától számítva nem lövi tovább a sugarakat. Az Avatar gondja, hogy oda ez nem jó. Túl nagy, túl részletes, és túl világos terek vannak ahhoz, hogy ez működjön, így az Avatar komolyabb RT részletességgel 40-50 méterig is dolgozik. És itt már probléma lesz a LOD. Ugyanez a gondja az UE5-nek is, amiért nem nagyon erőlteti az Epic az RT-t. Egyszerűen a Lumen jól kezeli a nagy távolságú sugárkövetést, míg a hardveres megvalósítások nem. Tök jó, hogy az alternatívák egy 9 négyzetméteres szobában működnek, de amint kilépsz a nagy térre, rögtön a Lumen fog jobban működni. Ezért szállítják alapvetően azt default. Az aktuális RT API-kkal ezzel még nem tudnak mit kezdeni. Olyan kerülőutak kellenek rá, mint az Avatar-féle RT.

    Az Ubisoftnak is egyszerűbb lett volna, ha csak a DXR-t használja, de az Avatar nem csőjáték, nem tudnak mit kezdeni vele.

    #64396 paprobert : Az Ubisoft ezzel csak egy problémára reflektál. Amikor olyan dizájnú játékot tervezel, mint az Avatar, akkor két választásod van. Vagy korlátozod az RT-t kb. 3-4 méterre, vagy írsz egy olyan kerülőutat, ami 30-40-50 méterig is tudja működtetni. Nincs jelenleg köztes út. A mostani RT API-k túl korlátozottak ehhez. Valószínűleg nem csak az Avatar miatt döntött a saját alternatíva mellett az Ubisoft, hiszen tudják, hogy még milyen játékokat hoznak Snowdrop 2-re, és valószínűleg egy részük hasonló dizájnú, nagy nyílt világ, nappal. Egyszerűen erre a klasszikus megvalósítás nem jó. Nyilván nyílt világban is lekorlátozhatod a távot 4 méterre, és ennyi, amit a legtöbb stúdió megtesz, de ez félmegoldás. Kiszámolod, hogy hol van az a távolság, ami még nem zabálja fel a VRAM-ot, és nem engeded tovább lőni a sugarakat, hogy ne kelljen 30-40 GB-os VGA-kat venni hozzá.

    #64398 T.Peter : A Fortnite egy rendkívül geometriaszegény cím. Ott persze, hogy nem lesz ebből gond, mert még ha betöltöd a teljes részletességű modelleket is, akkor sem fog túl sok memóriát igényelni. De az Avatarban egyetlen egy modell áll annyi háromszögből, amennyiből a Fortnite 50 modellt épít fel. Teljesen mások a problémái annak a részletességnek, amit az Avatar szállít. Nem véletlenül ölt egy rakás pénzt abba az Ubisoft, hogy mentesüljön a hardverek bejárást számoló részegységeinek korlátjaitól. Az Epicnek ez nem kritikus, ha baltával faragják a modelleket.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #64401 üzenetére

    És láthatod a videóban, hogy dizájnból mennyire játszanak a sötéttel. Pont azért, hogy a saját eljárásuk masszív hiányosságai ne legyenek feltűnők. Ez mind dizájndöntés, és nem azért ilyen a környezet, mert amúgy a valóságban is ilyen lenne. Nem lenne ilyen, a fény sokkal jobban átszűrődne, csak ha ezt megengednék, akkor rögtön feltűnne, hogy mennyire szar a megvalósítás, ezért a hibákat inkább elrejtik a sötétben.

    A SER-nek igazából akkor van sok értelme, ha másodlagos sugarakat használsz, de mivel a mai RT megvalósítások nagy része csak elsődleges sugarakig jut, így az ilyen hardvernek nagy haszna még nincs. Az Avatar használ nagyon sok másodlagos sugarat, de ugye az pont azért engedheti meg magának ezt, mert nem a DXR fixfunkciós bejárást használja, így mentesíti magát a rendszer a hardveres korlátoktól.
    Ez valahol paradox dolog. Felépíted a hardvert, hogy gyorsabb legyen, de a programozhatóság hiányával a felépített hardvert nem tudod kihasználni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #64403 üzenetére

    Igazából a legnagyobb baj itt nem az alkalmazott implementáció, hanem az, hogy a dizájn raszterizálásra van szabva. Az Ubisoft ötlete pont ott nagyszerű, hogy nincs is klasszikus raszterizálási fallback, hanem minden RT-n fut, még a régi hardverek is, igaz a minősége nem olyan jó. Viszont ha mindenen fut az RT, akkor a dizájnt is RT-re lehet tervezni. Ha ezt nem tudod garantálni, és DXR-rel nem tudod, akkor a dizájnt muszáj raszterizálásra szabni, és ott már az RT nem lesz olyan jó minőségű, mert szenvedni fog a raszterizáláshoz meghozott döntésektől.

    Emiatt az effektszinten aktivált RT mindig kompromisszumos, mert hiába kapcsolod be, az alapdizájnt nem úgy tervezték, hogy RT-vel jól nézzen ki.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz T.Peter #64406 üzenetére

    Az Unreal Engine 5 egy motor. Azzal akármit tehetsz, de nem fognak tenni vele akármit, mert nagyon nagy a geometriai részletessége, ha a Nanite használva van. Még régebben volt egy előadás, hogy miért baj ez, itt le lehet tölteni: [link] - 6:53-nál látszik, hogy a DXR miért működik irtó szarul. Nem is látszik az objektum a kamerában, de mégis ott kell lennie a memóriában. Az Intel compute shaderes megoldásával nem (ez amúgy nagyon hasonló ahhoz, amit az Ubisoft használ, vagy ahogy a Brixelizer működik). Tök jó, hogy a motor lehetőséget ad a DXR-re, csak cseszheted az egészet, ha nincs elég memóriád arra, hogy elviselj az RT miatt 10-15 GB-nyi overheadet. Tényleg nagyon-nagyon tanulságos az az előadás, hogy miért vérzik az egész DXR, és miért nem láttok áttörést a játékokban, annak ellenére, hogy a motorokban, ott van egy rakás funkció, az Unreal Engine 5-ben is. Mi is használja úgy, ahogy a motor lehetőséget ad rá? Ja igen, semmi.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz T.Peter #64408 üzenetére

    Az a videó nagyon releváns, mert ha nem korlátozod nagyon a sugarak pásztázási távolságát, akkor muszáj egy rakás memóriát pazarolni. Az UE5-nél ez úgy megy, hogy lekorlátozod nagyon az RT működési távolságát, és kész. De ez nem megoldás. Ez egy korlátozás. Persze értem, az Epic abból főz, amije van, de jelenleg nem nagyon tudnak mást csinálni.

    Az XSX teljesen más API-t használ. A Microsoft kínál egy mono hozzáférést a konzoljához, így ott van programozható bejárás, és így vannak LOD szintek is. Az Xbox konzoljának API-ja eleve úgy működik, ahogy abban a videóban a megoldásként aposztrofált technika, és azt használják is a motorok. PS5-nél dettó ugyanez. A PC-s DXR viszont sokkal limitáltabb, mint a konzolos alacsony szintű hozzáférések. Tehát az, hogy a konzolon működik valami nem sokat jelent, mert a konzolos RT API-k sokkal jobbak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #64457 üzenetére

    Nem. Az Xboxból megy el kevesebb, de az jobban teljesít, mint a korábbi generáció. Egyébként meg a helyzet tök egyszerű. A konzolos megrendelések zöme az AMD-hez Q2-ben és Q3-ban fut be. A Q1 és Q4 rendelések alacsonyabbak, mert a tavaszi időszakot célozzák az ekkor készülő konzolok. Ezt tizenx éve így rendeli a Sony és a Microsoft.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #64460 üzenetére

    A konzol úgy működik, hogy az AMD Q2-ben és Q3-ban adja el az éves rendelés döntő részét. A Q4 leginkább a raktárak ideális szintre töltését szolgálja, a Q1 pedig az egyensúlyba hozás, ha esetleg a Q4-es rendelések nem voltak elegek.

    #64462 Busterftw : Nem igazán, mert aki nagyobb konzolverziót vesz, az nem vesz mellé kisebbet. Tehát összmennyiségben a végeredmény nem változik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #64466 üzenetére

    Mint írtam a Q1 az a kiegyensúlyozás. A Q4 az, amikor a készleteket feltöltik. A Q2 és Q3 pedig a felhalmozás. Annyi történt, hogy a Q4-ben a készleteket jól töltötték fel, így a Q1-ben nem kellett nagyon kiegyensúlyozni a hiányt. De ez mindig így volt, és mindig így lesz. A Q2 és Q3 a legstabilabb a semi-custom bevétel szempontjából, mert ott nem feltöltés vagy kiegyensúlyozás történik, hanem az ünnepi szezonra való felkészülés. A Q1 mindig a legkevésbé stabil, mert függ attól, hogy a Q4-ben mennyire rendeltek jól a partnerek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #64468 üzenetére

    Mert Q2-ben és Q3-ban túlrendelték magukat. Mint írtam ilyen évek alatt sokszor előfordult. Általában az előző év alapján próbálják belőni az igényeket, és néha megszaladnak a Q2-Q3 rendelések. De erre van a Q4-Q1, amikor ezt korrigálni tudják. És a Q1 azért kiegyensúlyozás, hogy nem a készlet mennyisége számít, hanem a globális eloszlása. Oda terveznek Q1-ben, ahol kevesebb a készlet az optimálisnak tartottnál.

    Jövőre ebből annyit fogsz látni, hogy nőtt a rendelés, de nem azért, mert jobb lett a konzolpiac, hanem azért, mert a 2024-es Q2-Q3 rendelés a 2023-as tapasztalatokon fog alapulni, vagyis alárendelnek a 2023-as évnek, amit majd Q4-Q1 korrigálnak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz PuMbA #64470 üzenetére

    Mivel lassan ~10 éve így történik, így ez tökre bizonyos és varható dolog.

    Az kis különbségeket ne nagyon nézd, mert az AMD szerződése nem fix árazású, vagyis az AMD szabadon meghatározhatja évente az árakat bizonyos körülmények teljesülése esetén. És mivel az utóbbi időben a kapacitás nagy része le volt foglalva a TSMC-nél, így az AMD a konzolchipek árát mindig csak növelte. Ergo a bevétel lehetett több is úgy, hogy közben mennyiségben kevesebb volt a rendelés a Sony és a Microsoft részéről, pusztán azért, mert az előző évben ugyanaz a lapka 15-20%-kal olcsóbban került megvásárlásra.

    Ugyanez egyébként fordítva is igaz. Lehet olyan év, amikor kevesebb a bevétel úgy, hogy közben több a rendelés. A lapka ára ennyit változhat. Elvileg az AMD-nek a szerződésében egy garantált nyereséghatár van meghatározva, tehát az AMD követheti a változó waferárakat, de nem teljesen szabadon, így ha azok nőnek, akkor emelhetik a lapka árát, ha pedig csökken a waferár, akkor kötelezően csökkenteni kell a lapka árát is. Nyilván ez egyfajta biztonsági garancia az üzletfeleknek, hogy mindenkinek legyen nyeresége, és az AMD se használhassa ki a monopóliumát.

    #64472 Lacccca87 : Koduri első saját projektje az RDNA 2 volt. A többit azt örökölte. Az Intelnél is az első saját projektje a Battlemage lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #64484 üzenetére

    Az AMD-nél David Wang van a helyén. Most Wanget nem fogják rá lecserélni, és Koduri is dolgozik máson.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #64490 üzenetére

    Az AI az nagyrészt mátrixszorzás. Az egyes hardverek ezt tudják, és az egyes hardverkategóriák élén külön vezető van lásd Ryzen, Radeon és Xilinx üzletág.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz T.Peter #64803 üzenetére

    Az Epic ugye AMD-n fejleszt, ők az elsődleges hardverpartnerek, és nyilván tele van nyomva az Epic Threadripper+Radeon gépekkel. Tehát az ilyen kvázi fejlesztés alatt álló szabványos funkciók mindig AMD-n vannak prezentálva, ha PC-ről van szó. Szóval ez nem meglepő.

    A Work Graphs egyébként AMD szabadalom. Az NV DGC-t akarta szabványosítani, de se a Khronos, se a Microsoft nem azt választotta, hanem az AMD-féle megoldást. Ennek a fő oka az, hogy a DGC-t nagyon nehéz lenne támogatni az ultramobil hardverekkel, míg az AMD megoldását viszonylag egyszerű. Eközben amire kell azt nagyjából mindkettő biztosítja. Szóval végeredményben ezért van most szabványosítva a Work Graphs. Hardveresen egyébként ezt nem nagy kunszt támogatni, a mai modernebb GPU-k megfelelnek hozzá. Annyi biztos, hogy mindegyik hardveren előnyt jelent, ezt már a Microsoft megerősítette egyszer, de persze az előny mértéke függ a hardver felépítésétől. De támogatni érdemes, mert mindenen pluszt hoz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #64822 üzenetére

    Viszont nem teljesen értitek, hogy ez miről szól. Ez nem valós idejű tömörítés és kikódolás. Itt arról van szó, hogy a fejlesztők lekódolhatják ezzel a technikával a textúrákat, és akkor a játékok mérete sokkal kisebb lesz. Ezáltal kisebb méretű textúrákat kell letölteni. De ez nem futatási időben lesz kikódolva, hanem az első indításnál, és a nagy hátránya ennek a technikának, hogy ezek a megoldások 24-32 GB RAM-mal működnek. Valószínűleg lehozhatók 16 GB-ra, de az sem kevés.

    Készül amúgy a Microsoftnak is egy hasonló technikája, és ott már szó volt róla, hogy Windows 11-gyel, egy NPU-s proci nagyjából 15 perc alatt kikódol egy mai játéknak megfelelő tartalmat. Összességében ez rövidebb idő, mintha a játékot letöltötted volna a normál tömörítéssel mondjuk egy gigabites nettel. A gond ott kezdődik, hogy se a GPU, se a CPU nem optimális erre a feladatra, tehát ezek ugyan meg tudják oldani a kikódolást, de annyival lassabban, hogy az már rosszabb, mint a méretes játéktartalmat tölteni. Egy 16-magos CPU például ugyanezt a munkát már két óra alatt csinálja meg. Egy erősebb GPU pedig 40-50 perc alatt, már ha van elég VRAM-od, mert ha nincs, akkor mehetsz a CPU-ra.

    Ettől egyébként nem lesznek méretesebb textúrák a játékokban, hiszen továbbra is gondot jelent a VRAM kapacitása.

    És összességében van egy sokkal jobb módszer erre. A High-Res Texture pack. Nem egy játéknál láttuk már, hogy alapból csak normál textúrákat töltenek le, ha pedig van elég VRAM-od, mondjuk 16 GB, akkor külön leszedheted a többit. Összességében ez még mindig jobb megoldás, mint szopatni azokat a játékosokat, akik nem vettek NPU-s PC-t.

    Ezeknek amúgy nincsenek nagy követelményei. DirectML-en és/vagy Vulkan API-n keresztül működnek. Az igazán nagy igény a RAM/VRAM terhelése, abból rohadt sok kell, mint minden AI-s cucchoz. De mint írtam, önmagában csak akkor jársz jól vele, ha van sok memóriád, és NPU-s procid. Más esetben jobb megoldás a külön textúrapack.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Hosszabb távon van létjogosultsága, de azért ma még nincsenek felkészülve egy ilyenre a PC-k. Az meg hasztalan, hogy kétféle verziót tároljon egy játékból a Steam. Meg ugye ott a szoftveres háttér is. Ha a kikódolás nem megy, akkor már a játékot sem tudod elindítani, stb.

    Ez akkor lesz hasznos, amikor a virtuális textúrázás nagyon felfut újra. Ott tényleg számítani fog, hogy nem 2-3 TB-ot töltesz le, hanem 100-200 GB-ot, és majd azt kikódolja a rendszer apránként, majd visszakódolja blokkos tömörítésbe. És akkor a végleges méret lesz 700-800 GB.

    Nagyon hosszú távon meg ki tudja, hogy az NPU-k hová jutnak. Azért az mégis egy extra erőforrás lesz, tehát használhatók bármire, nem úgy, mint a GPU-ba épített mátrix/tensor feldolgozók, amelyekkel nagyon nagy baj, hogy ugyanazt a regisztereket zabálják, amiket a fő ALU-k, tehát masszívan csökkentik a teljesítményt, ha működnek. Szóval az NPU-kkal tényleg bármi lehet, mert azok nagyon különálló hardverek. Egyáltalán nem lassítják a GPU-kat, ha aktívak. Ma azért se használ senki sem a minimálisnál több AI-t játékba, mert nem akarja leterhelni a drága regisztereket a GPU-ban. Esetleg erre megoldás lehetne a dinamikus regiszterallokáció, de az meg sok változást igényelne egy GPU-n belül.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #64829 üzenetére

    A mai GPU-kon bármilyen AI nagyon necces. Az a gond, hogy így is úgy optimalizálják a shadereket, hogy a legtöbb GPU-n a regiszternyomás minimum elégséges wave számot adjon. Ha elveszed a regiszterek felét AI-ra, akkor nem lesz átlapolva a memóriaelérés, és onnantól kezdve cseszheted az AI-t, mert minden grafikai számítás sebessége a harmadára-negyedére esik. És ez tök nyolc, hogy külön feldolgozó van AI-ra, ha a regisztereket ugyanonnan veszik, meg konkrétan ugyanazt az adatbuszt terhelik. Ezért áll csak 1-2%-ban AI-ból a DLSS és az XeSS. Ennyi belefér, de bármi több az már óriási sebességvesztés a mai GPU-kon.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #64832 üzenetére

    Mivel még ma is tömeggyártják, ezért nem fogynak el egyhamar. A Navi 23-at és 24-et 2026-ig fogják gyártani. Túl sokat adnak el belőle, hogy leállítsák. Meg ugye miért akarnák kivezetni? Ezek helyére IGP-k jönnek, de aki nem vesz teljes gépet, annak nem lesz más alternatíva, mint a Navi 23 és 24.

    #64831Petykemano: Bármin futhat, ami DirectML-t támogat. A kérdés a sebesség, arra az NPU a legjobb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #64843 üzenetére

    Mert a Navi 33 gyorsabb, és nem adják annyiért, amennyiért a Navi 23-at.

    #64844 huskydog17: De az, hogy jön a next-gen, nem jelenti azt, hogy lesz VGA-ra vonatkozó frissítés a 200 dollár alatti régióban. Márpedig ott az AMD és mindenki más csak az IGP-kkel törődik, vagyis ezeket szánják oda. Erre lesz konkrétan egy nagyméretű APU idén, ami még a Navi 23-nál is gyorsabb IGP-t kínál, sőt, Navi 32-nél is, ha a top konfigot nézzük. Aki pedig nem akar platformot váltani, vehet még egy jó darabig RDNA 2-t, Ampere-t, stb. Ezeket még egy darabig nem vonják ki, mert a next gen az 300 dollár fölé érkezik. Alá nem nagyon hoz senki semmit, mert oda az IGP-k elegek. Akinek nem kell annyira erős grafikus teljesítmény, majd vesz IGP-s gépet. Az a baj, hogy túl kevés a reális eladhatóság az IGP-k erősödésével, így csak azokat a hardvereket kínálják tovább, amelyeket már kifejlesztettek, így alapvető költségbe már nem kerülnek. De új dedikált GPU-kat ide nem hoznak, mert az IGP-k ellen nincs esélyük.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #64849 üzenetére

    Az az APU, amiben az az IGP lesz 16 Zen 5 magot és 40 CU-t tartalmaz, miközben 256 bites memóriabuszt használ. A mostani APU-k töredékét kínálják. Ezt direkt azért rakják így össze, hogy ne is kelljen mobil szintre ezeket a GPU-kat fejleszteni.

    Ez azért is fontos, mert a next-gen mobil processzorokban egyre kevesebb PCIe sáv lesz, tehát igazából a dedikált GPU-knak ez a változás nem kedvez. Ilyen formában az AMD csinál egy sokkal nagyobb APU-t is, amiben sokkal erősebb IGP lesz, mint eddig, sokkal nagyobb memóriabusszal.

    Asztali szinten nem valószínű, hogy lesz klasszikus kiadás, de mini PC-kben biztosan kapható lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #64853 üzenetére

    A Navi 32 RDNA 3, míg az SPH APU RDNA 3.5. Relatíve sok különbség lesz. Persze az SPH az mobil fókuszú projekt, de a mostani minták teljesítménye az RTX 4070 Laptop GPU szintjén van. Tehát eddig fogja szükségtelenné tenni a dedikált GPU-t.

    A sávszél se gond igazából. Egyrészt lesz benne egy nagy cache, másrészt a 128 GB-os 10700 MHz-es LPDDR5X memóriával az elérhető sávszélesség 684 GB/s. Ez van ugye a tesztdizájnon.

    Egyébként ez az SPH egy vezető irányzat lesz. Az Intel is készül egy hasonlóval, bár ők 2026 előtt nem hozzák. Az NVIDIA majd a MediaTekkel csinál ilyet. Tehát lesz rá válasz, és nyilván az érdeklődés is magas, hiszen platformdizájnban nem nagy a rendszer, tehát sokkal nagyobb aksi rakható majd a notikba. Ilyen szempontból a dedikált GPU-k megmaradnak, de nagyon a felsőházban, mert alatta ott lesznek a nagy teljesítményű SoC dizájnok.

    Asztali szinten nehéz látni, hogy mi lesz. Nagyon nagy igény a mobil szinten van arra, hogy növeljék a notik üzemidejét, és nyilván a kézenfekvő opció az integráció, mert kétszer nagyobb aksinak is helyet biztosít. Asztalon nincs szó hordozhatóságról, így ott maximum a sokkal kisebb helyigény lehet előny, de nem biztos, hogy ez annyira kritikus. Egy notinál nyilván az.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #64871 üzenetére

    Ott van a gyártóknál... 256 bites memóriabuszon csüng 10700 MHz-es LPDDR5X. 10,7 x 256 x 2 / 8 = 684,8 GB/s.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Uh tényleg... a kettővel csak valós órajelnél kell szorozni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Pipó #64876 üzenetére

    Nem is lesz külön megvásárolható, hiszen mobilba megy...

    A notebook ára viszont az integráció miatt olcsóbb szokott lenni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #64879 üzenetére

    Bármit lehetséges gyártani. Ugye a SPH csak azért létezik, mert a gyártók azt az igényt adták le, hogy nagyobb aksit akarnak a gyorsabb notikba. Na most ezt dedikált GPU-val nem lehet biztosítani, mert túl sok hely maga a dedikált GPU extra lapkáka, így az AMD csinál egy mostani IGP-knél sokkal gyorsabb IGP-t egy APU-ba. Ha a gyártók még nagyobb aksit akarnak a még gyorsabb notikba, akkor az AMD tud csinálni egy még gyorsabb APU-t is. Ez egy igénnyel kapcsolatos kérdés. De amíg ezt nem kérik a gyártók, addig nem fogják megcsinálni. Viszont a trend látványosan az, hogy nagyobb aksi kell mindenhova, és annak az egyetlen módja az integráció. Másképp nem lehetséges. Az SPH nagyjából 80%-kal nagyobb aksit tesz lehetővé ugyanabban a vázban, miközben a célzott cPU+GPU kombó teljesítményét hozza. Tehát az üzemidő nagyjából megduplázódik, miközben a noti mérete nem nő. Ezért ugrik rá erre az irányra az Intel is, csak ők 2026-ban. Az NVIDIA meg elvileg hoz hasonlót a MediaTekkel közösen még 2025-ben. Ez egyébként egy nagyon fontos partnerség lesz a cégnek, mert a MediaTek SoC platformszinten lesz árulva, tehát az NV ezek mellé szánja majd a dGPU-it is, amik ugye gyorsabban az IGP-nél. Ezzel a csomagajánlatokat fogja ellensúlyozni a cég, mert az Intel már most csomagban adja a CPU+GPU-t. És sok területre nem is lehet kérni csak mobil CPU-t, tehát akkor is kifizetteti a cég a GPU-t, ha nem kerül felhasználásra, ami benne lesz a notebook árában. Az AMD ugyanezt fogja csinálni. Ezt azért teszi a két cég, hogy amelyik gyártó GeForce-ot akar rakni az Intel és az AMD procik mellé, azok csomagban csak drágábban vehessenek CPU-kat. Nyilván nem véletlen, hogy az NV szövetkezik a MediaTekkel, mert számukra masszívan hátrányos, hogy a kasszáknál a AMD és az Intel szopatása miatt jóval drágább lesz a GeForce-os notebook. De a MediaTek+GeForce olcsó lesz, mert nem kell extraként fizetni a gyártónak amúgy fel sem használt komponenseket.

    #64881 huskydog17: Az RDNA jobban skálázható lefelé, mint az NVIDIA dizájnjai. Azért van belőle ultramobil dizájn is a Samsungnak licencre. Az NV-nek nincs is már ultramobil dizájnja, mert nem cél, hogy legyen, elvitték azt a piacot az IGP-k.

    #64883 Petykemano: Az új SPH-s gépekbe szükségtelen a dGPU, de a régi milliárdos nagységrendű gépparkot nem fogják ezért leváltani kompletten. Oda mit adsz el olcsón bővítésre, ha nem gyártod tovább a Navi 23-at?

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Busterftw #64885 üzenetére

    A piacon van a milliárdos nagyságrendő géppark. Azokba veszik a VGA-kat.

    #64886 Chiller: A vékony gaming notik nagyon messze vannak a 99,9 Wh-tól. Még ezekkel a nagyobb rendszerchipekkel sem lesznek annyira közel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #64888 üzenetére

    Otthon, iskolákban, intézményekben, cégeknél, stb. Bárhol ahol van számítógép. Nyilván van egy pont, amikor a klasszikus asztali PC-ket megéri lecserélni, és akkor megfontolandó az erős IGP-s dizájn, de amíg ez a pont nem jön el, addig muszáj valamit kínálni a világnak relatíve olcsón, ha VGA-t akarnának cserélni.

    #64891 huskydog17 : Mivel a mobil szinten egyre több gyártó számára fontos az üzemidő, így alapvetően értelmetlenné akarják tenni ide a dedikált GPU-t. Ez nem csak az AMD ötlete, hanem az Intelé is, és az NVIDIA sem véletlenül szövetkezik a MediaTekkel. Persze a dedikált GPU megmarad a luxusszinten, de ma már nem nagy kunszt összehozni egy olyan rendszerchipet, ami nagy teljesítményű, akár 256, 384, 512 bites busszal sem. Az LPDDR5X is kellően gyors ehhez. És még egyszer hangsúlyozom, ez nem csak egy AMD által követett irány az SPH-val, hanem az NVIDIA is csinál egy ilyet 2025-re a MediaTekkel.

    Mobilon hosszabb távon platfomokat fogsz vásárolni. Vagy AMD-t, vagy Intel, vagy NVIDIA+MediaTek kombót. Megmarad tehát ugyanúgy a választás, csak a gyártói keresztezés lesz masszívan korlátozva.

    #64897 paprobert : A Navi 33 gyorsabb, ezért drágábban adják, emellett másik node gyártókapacitását terheli. És az mindegy, hogy olcsóbban gyártható, mert nem ugyanazt a gyártósort használja.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz paprobert #64900 üzenetére

    Az AMD kapacitást akar, márpedig úgy lesz a legtöbb kapacitásuk, ha 6 és 7 nm-t is használnak. Így tudnak a legtöbbet gyártani.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #64902 üzenetére

    A piac nagy része nem vesz, de a piac elég nagy ahhoz, hogy már az is tényező legyen, ha a kis része vesz.

    #64903 Busterftw : Kevesebb CPU fog készülni ezeken, mert már a Zen 4 is kifutó lesz az év második felében. De a GPU-khoz a megmaradt gyártósorok kellenek, mert a Navi 23 nem kap utódott csak IGP formájában. Azt addig fogják gyártani, amíg van olyan piac, ahova el lehet adni. Kevesen tudják, de még a Polaris 12-t is gyártják, oszt 2017-es. Nem is kevés az eladás belőle. Persze nyilván nem tudják drágán adni, de van rá igény, így gyártják. A legtöbb terméket addig gyártják, amíg el lehet adni. Tök nyolc, hogy 7 éves már. A kifejlesztésében már benne áll a pénz, valós fejlesztési költsége már nincs, csak gyártani kell, és amíg az eladási ár nagyobb, mint az előállítási, addig miért ne? Ne abból induljatok ki, hogy nektek mi kell, az a lényeg, hogy a piacon van-e elég nagy megrendelés, hogy megérje gyártani.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz paprobert #65013 üzenetére

    A DXR a programozhatóság felé halad, ahogy a DirectX 7 után a T&L. A DirectX 8-tól el is tünt a hardveres T&L részegység a hardverekből, mert a programozahatóság a specifikus gyorsító ellen van. Itt pont arra megyünk, hogy egyre kevesebb részfeladat lesz gyorsítva. Ellenben egyre több ALU lesz erre szabva.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák