-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
awexco
őstag
-
félisten
válasz Petykemano #47748 üzenetére
FP32.
szerk vot má.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
válasz Petykemano #47748 üzenetére
Nem. Azért tűnnek furának, mert az utóbbi időben a GPU-kból eltűntek a co-issue és dual-issue feldolgozók, de régen igen sűrűn voltak ilyenek bevetve. Talán emlékszek még az R600-ra, ami szám szerint 320 FP32-t használt, de úgy, hogy 1+1+1+1+1 co-issue módban üzemeltek a multiprocesszorok (és ez igaz volt egészen a GCN-ig, bár az utolsó dizájnok már 1+1+1+1 co-issue módra váltottak vissza). Ezzel szemben ment az NV-nek a G80-ja 128 FP32-vel, de mindenféle co-issue nélkül. De itt az Intel is, ami 4+4 co-issue multiprocesszort használ. Az utóbbi időben ezek a trükkök kikoptak a GPU-kból, mert a komplex kódokban nagyon nehézzé vált a co-issue mód kihasználása, de hardveres szinten ezek azért megfontolandók, mert a tranzisztorköltsége nem nagy a nyers ALU-knak. Ami igazán viszi a tranyót az az ütemezés, az adatbusz, a regiszterek, stb. És pont ezt kerülik meg ezek a co-issue módok, amik valami speckó helyzetet kihasználva hozzácsapnak némi extra kapacitást a rendszerhez. Ezzel kvázi dupla ALU-t kapsz anélkül, hogy jelentős tranzisztorköltsége lenne, cserébe nem olyan a multiprocesszor utilizációja, hogy azt a dupla ALU-t olyan hatékonyan lehessen felhasználni, mintha erre ráterveznéd az ütemezést, a regisztereket, az adatbuszt, stb. Ezért sem tudja az RTX 3080 a nyers paraméterek alapján nagyjából háromszoros előnyét háromszoros fps-re váltani a 2080-hoz képest. Ebből az NV szerint kétszerest abszolvál a gyakorlatban, bár mondjuk nyilván minden szentnem maga felé hajlik a keze, de most tegyük fel, hogy hoz ennyit. Tehát az FP32 utilizáció lényegesen rosszabb lett, de arányaiban azt kell nézni, hogy a befektetett tranzisztorköltséghez képest mit javult.
Az efféle módokról egyébként az teljesítményingadozás miatt álltak le a gyártók, mert az R600-ra például jellemző volt, hogy valahol nagyon alázott, valahol pedig nagyon szar volt, és ez attól függőt, hogy egy adott alkalmazásban mennyire lehetett kihasználni a specifikus működési módokat. Ha például egyáltalán nem lehetett, akkor az R600 320 ALU-jából használható maradt 80 (az NV például külön ezzel szopatta az AMD-t, hogy teleírta a fejlesztőknek leadott kódjait függőséggel). Tehát a teljesítménye jó részét elvesztette. Valószínű, hogy az egész co-issue-féle trükközés a sugárkövetés miatt tért vissza, mert oda eleve kell int32, és azokat az ALU-kan nem volt nagy meló megtoldani FP32-vel, még csak komoly tranzisztorköltség sem.
Manapság egyébként a gyártók pont azért nem tudják jelentősen megszopatni egymást a fejlesztőknél, mert nem alkalmaznak semmilyen co-issue trükközést, de régen keményen szívatták egymást, hogy direkt limitre rakták az adott dizájn működését, és úgy elvették tőle a benne lévő teljesítmény jó részét. De ennek már majd 10-15 éve, azóta szerintem jó útra tértek, és biztos nem fogunk majd ilyen szopatást látni az AMD-től és az Inteltől.
(#47755) b. : Szerintem félreérted, én régen nagy híve voltam ezeknek a megoldásoknak. Az R600-at pont emiatt tetszett nagyon, mert egy rakás ALU kapacitást raktak bele ilyen trükkökkel. Nyilván ezek a megoldások kikoptak, de újszerű GPU-kat kell tervezni az új igényeknek, és ha belegondolok, hogy int32 kell a sugárkövetésnek, akkor nagyon is jó ötlet azt kiegészíteni FP32-re is. Tranzisztorköltségben nagyon kicsi lábnyoma van, és ha a kódok 20%-a képes kihasználni, akkor már megérte. Emiatt írtam, hogy nem azt kell nézni, hogy maga az utilizáció kifejezetten alacsony lesz (ez jellegzetessége a trükkös dizájnoknak), hanem azt, hogy a trükközés nélküli állapothoz képest mennyi tranyót emésztett fel az extra teljesítmény kinyerése. Ilyen szempontból az R600-hoz hasonlóan bizonyosan előnye van az Ampere-nek is. Örülök is neki, hogy az NV ezeket a trükközési formákat hozza vissza.
Az utolsó mondat egy poén, ezért van mögötte fejecske.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
arabus
addikt
Némi optimizmusra ad okot az NV túlontúl konszolidált árazása.
Ez alapján teljesen biztos hogy a nagy navi minimum hasonló
teljesitménnyel fog birni mint a 3080.
Persze a mennyit az NV sem tudja de ez igy nagyon biztonsági bemutató volt.Xeon Platinum 8468,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...
-
paprobert
senior tag
Az AMD az RDNA1-gyel erősített a cache alrendszeren, és éppen most fog erősíteni a globális buszokon is.
Nekem logikusnak tűnik az NV után menve kitömni a feldolgozókat mondjuk az RDNA3-ban, ha elvégre meglesz már az infrastruktúra hozzá náluk is az etetésükhöz.[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
-
Petykemano
veterán
Különös
A GCN-nel pont az volt a "baj", hogy jól bírta a párhuzamosságot, de nehéz volt feltölteni a csöveket. Nem? Azért volt gyenge az fps/tflops.
Aztán mikor az AMD az RDNA1-gyel és az RDNA2-vel a késleltetésre gyúrja ki az architektúrát, akkor az Nvidia húz egy ilyet.El tudod mondani, hogy az nvidia most bevezetett megoldás mennyiben tér el ahhoz képest, amely útról az AMD épp letért a GCN->RDNA váltásokkal?
És mégegy: az FP16-os rapid packed math nem hasonló elven működött volna?
AdoredTV-éknél még van mondás a CDNA-ról, nevezetesen kiemelkedően magas asszem INT32 teljesítményt tud. Lehet, hogy ugyanezt a trükköt vetették be, csak (még) nem jutottak el oda, hogy FP32-t is tudjon?
Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
válasz paprobert #47757 üzenetére
Nem hiszem, hogy így lesz. A dizájnoknál nagyon számít, hogy miképpen tervezed meg a multiprocesszort. Az AMD esetében az RDNA-val a nagyon magas utilizációra ment, tehát mindegy, hogy milyen kódot adsz neki, mindig magas hatékonysággal fog futni a multiprocesszoron. Ezt teljesen értelmetlen lenne trükközésbe elvinni, mert kódfuttatás hatékonysága eleve kiemelkedően magas.
A Turing például eléggé olyan dizájn volt, ahol nem volt mindegy, hogy milyen kódot adsz a multiprocesszornak. Ha csak FP32 operációt tartalmazott, akkor csak a feldolgozók egy kisebb részé működött, csak Int32-vel egy másik kis része, csak Tensorral egy harmadik kis része. Tehát ahhoz, hogy elérj egy nagy hatékonyságot, rendkívül specifikus kódokat kellett neki adni. Arról nem is beszélve, hogy a Turing közel sem kezeli annyira jól a késleltetésre optimalizált kódokat, mint az RDNA.
Az Ampere ezen a dizájnon nem igazán változtat, de hoz be némi trükközést. Az R600 az egyik legjobb példa erre még ma is az 1+1+1+1+1 co-issue móddal. Ezzel öt teljesítményszint volt megkülönböztetve papíron, és a kódok tipikusan 40-80% közötti utilizációval mentek. Tehát bizony volt olyan kód, ami a rendelkezésre álló 320 FP32-ből 80-at használt csak, és volt olyan is, ami mindent bevetett. És a nagy átlagban köptek egy 2/3-os kihasználást, némelyik program ez alattit, némelyik fölöttit. A trükközésnél tehát nem is az a lényeg, hogy jó legyen az utilizáció, mert azt már feladtad magával a dizájnnal. Az a fontos, hogy minél több olyan kódot találj, ahol a dizájn hátrányos részein elvesztett teljesítményt visszahozod.A fentiek miatt az RDNA nem igazán tud elmenni ilyen irányba, mert nincs mit visszahozni. Arra épül fel az egész architektúra, hogy még a számára legrosszabb kódokat is gyorsan feldolgozza.
Ezek akkor eredményeznek egyébként nagy különbségeket, ha csak valami szintetikus mérést nézel, de egy gyakorlati programban azért van nagyon-nagyon sok shader, vagyis a kódok jellege is rendkívül eltérő, tehát a kódok egy része ugyan lassan fog futni az Ampere-en, de egy másik részük meg nagyon gyorsan, és hasonlóan, ahogy az R600 vs. G80 esetében a különbségek kiegyenlítik egymást. Mert ugye a G80 ott volt az R600-on közel harmadannyi feldolgozóval is.(#47758) Petykemano: A GCN-nek nem volt semmi ilyen probléma. Ott a konkurens wavefrontokkal kellett sokat játszani. Az RDNA erre vezetett be kétféle módot.
Hát nagyon sokban, de ezt pont ebben a hsz-ben leírtam. Az RDNA tipikusan egy olyan dizájn, ami arra készült, hogy bármilyen kóddal magas legyen az utilizáció, míg az Ampere pont az ellentétes irányba mozdul, de cserébe sok az ALU, illetve hát ebből következnek az utilizációs limitek is.
Az egy csomagolási technika. Nincs igazán köze az FP32-es trükkökhöz.
A CDNA az compute dizájn.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
paprobert
senior tag
Értem a másfajta megközelítést, de gondoljunk bele. Most beduplázza a méretet az RDNA2, kimaxolja a dizájn határait, a TDP-t, aztán hova tovább? Szerintem igenis lenne értelme feláldozni 10% lapkaterületet az irdatlan elméleti számítási teljesítmény-növekedésért, még ha nem is mindig lenne haszna.
Az én értelmezésemben az RDNA féle letisztultság és a magas utilizáció a gyárthatóságot segíti elő, de amikor az már elment a falig, akkor nincs más lehetőség mint "bemocskolni" az architektúrát a lehetséges extra teljesítményért.
Szerk.: és jobban belegondolva az 500-600 mm2-ről indulva tudnának hova férni a jelenleginél izmosabb feldolgozók, tehát szerintem minden adott.
[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
-
do3om
addikt
válasz paprobert #47760 üzenetére
Már késő variálni amire az általad leírtaknak ha utána mennének az az NV következő karijával kel szembe nézzen, szóval hozna 3090+50%-ot?
Szóval mi adott? Az elmulasztott lehetőség, ennyi az adott volt.
Persze bármi lehet még, van mihez nyúlniuk amihez szoktak ilyenkor feszültség, órajel kimaxolása, vízhűtés, kopra járatni, ami eddig jó azt elbaszni, és majd lehet otthon bűvészkedni hogy az legyen aminek kellet volna.Ha érdekel valami szerelési anyag írj privátot. Eladó Schneider Mágneskapcsoló 18,5kW/38A
-
Malibutomi
nagyúr
Lassuk akkor mi az ami eddig pletyka illetve Abu fele info..
Akkor a Navi elvileg kb 2x 5700Xt + architektura javitas+ 20-25% orajel
Ez alapjan a 3080 teljesitmenyet minimum tudnia kellene normal uzemben...RT alatt viszont fogalmunk sincs.
Igy a 2080Ti+50% kb igaz is lehet sot akar tobb is. -
Petykemano
veterán
válasz TESCO-Zsömle #47761 üzenetére
Szerintem ez attól függ, ki tartja jobban kézben a szoftvereket.
Nvidia topicban abu vigyorgott ezen.Ha eddig a GCN szorult volna rá jobban valamiféle optimalizálásra és kínlódott a magas elméleti számítási kapacitással és az AMD emiatt a kihasználtságra gyúrt rá, cserébe az nvidia meg épp a párhuzamosságra, akkor lehet ennek az az eredménye, hogy most hirtelen nagyon alkalmasak lesznek ilyen kódok futtatására a programok - ha az nvidia eléggé kézben tudja tartani.
Röviden azt fogjuk érezni, hogy hát hiába a játékhoz kell a kraft, a nyers számítási kapacitás.
Ha viszont az AMD és az intel tudja ezt blokkolni, akkor meg azt, mint a vegánál: hiába öntöd be a tetején a tflops-ot, a végén nem jön ki az fps.
Találgatunk, aztán majd úgyis kiderül..
-
paprobert
senior tag
válasz TESCO-Zsömle #47761 üzenetére
Olyan ez, mint a benyúlás az úszásban. Megadja az utolsó kis extrát. Amikor a fasorban se vagy az architektúrával, akkor semmi értelme, csak villogásra jó. Lásd Intel.
Amikor viszont jók az alapok, akkor egy értékelhető boost-ot ad. Márpedig az RDNA erősítette, és úgy néz ki tovább erősíti a feldolgozók kiszolgáló infrastruktúráját, amire támaszkodik ez az egész.
640 KB mindenre elég. - Steve Jobs
-
ati3x
senior tag
válasz arabus #47756 üzenetére
Eddig én is erre gondoltam. De Linus videója rávilágított, hogy az NV nem igazán az új AMD ellen indult csatába, és nem azért lett ilyen az árazas. Hanem az új konzolok a PS5 és az új xbox ellen. Ugye ezek is 500-600 dollár körül indulnak, és a PS5 esetében 2080 körüli garfikát igértek. Az AMD ráadásuk elég kényszer helyzetben van, mert ugye az új konzolok is AMD grafikát használnak. Tehát nagyon nincs érdekükben, hogy valami übergrafikával/sebességgel száljanak ringbe a PC-s vonalon. Tehát kb egy 2080 teljesítmény 2-300 dolláros áron "kicsit" kockázatos lenne a konzol üzletágra. Erre jött az NV, akinek ugye nem nagyon van érdekeltsége a konzolban, sőőőt inkább a PC gaming felfutásában érdekelt. Erre kihoznak konzolárban egy olyan grafikakártyát, ami már most körbrajzolja a meg se jelent konzolok teljesítményét. (játszható sebesség raytracingel 4k-ban, nem csak valami összetoldozott grafika, hogy legyen meg a 30FPS négykában...) Szóval végül is az NV mégiscsak jól "beintett" az AMD-nek.. Szal lehet, hogy NV lesz a kövi karim az RX580 helyett? Pedig már igencsak gondolkodtam egy 5600 esetleg egy 5700XT-n.. De gondoltam megvárom ezt a bejelentést. (igaz megint csak a "szokásos" 20-30% os teljesítmény növekedést vártam, amit a márketingesek elednak valami hiper szuper forradalmi dolognak. Vagy mint a raytracing, a 20-as szériánál. Új ficsőr, csak be ne kapcsold. ) Szóval most hátradől, és pattint egy sört..
-
Yutani
nagyúr
-
Alogonomus
őstag
PC és konzol nagyon eltérő rétegnek szól. Eleve vannak játéktípusok, amik konzolra való, és vannak amik PC-re.
Sokan fogadkoztak itt, hogy majd jól átmennek konzolra, ha drágák lesznek az új kártyák, de ez csak kamu, vagy hirtelen felindulás volt. Aki egy adott játékkal játszik, az nem tud csak úgy a másik platformra átváltani, maximum a játék hátrahagyásával együtt. Persze van pár cross-platform játék, de aki az egyik platformon gyakorolta be az irányítást, az nem tud csak úgy pár hét alatt átszoknia másik platformra.
Konkrét játék miatt sokan átnéznek a másik platformra, de azt az adott játék miatt teszik, nem a platform ára miatt.[ Szerkesztve ]
-
TESCO-Zsömle
félisten
válasz Alogonomus #47768 üzenetére
Ez így ebben a formában erősen fals. Nincs olyan, hogy "konzolra való" játék, csak olyan, hogy "konzol exkluzív". Egyik konzolnak sincs olyan felhasználási módja, amire a PC ne lenne képes. Két dolgon bukik a PC: Az ár és a problémamentesség. Bár utóbbira fejlettebb országokban vannak cégek, akiktől lehet venni komplett, előre összerakott PC-ket 0-24 tech supporttal meg 24/7 futárszolgálattal, ha bármi gondod lenne.
Fordítva is csak azért bajos a konzol, mert egyrészt nincs csak a kontroller, ami kizárja pl a a verseny-szintű, profi kompetitív FPS-eket a körből, illetve szintén az egér+bill hiányában az RTS-ek is kuka. De ha lenne input, akkor ezeket is lehetne tolni.
PC-re meg évtizedek úta lehet TV-t meg kontrollert kötni, úgyhogy 1:1-bel ehet az élményt hozni.
Cross-platform 2 okból nincs:
1 - A Sony-nak és a M$-nak is zárt a hálózata, nem engednek be külsősöket.
2 - Hogy oldod meg az autoaim+kontroller vs. bill+egér kérdést? Vannak címek, ahol már a a kontrollert és a kormányt se ereszik össze, vagy leglábbis opció az ezek alapján történő meccs-szűrés.
Az adott játék is érdekes, a MS gyak -szinte- minden saját címet tol be Windows alá is, nemrég pedig a Sony nyilatkozta, hogy továbbra is tervezik a PS-címek PC-re portolását, nem egyedi eset a Horizon. Igaz, hogy 3,5 évvel később, és olyan állapotban, hogy még fél évig kvázi játszatatlan, de az már nem a Sony sara, hogy a portolást végző csapat nem vitte túlzása a minőséget.Sub-Dungeoneer lvl -57
-
Alogonomus
őstag
válasz TESCO-Zsömle #47769 üzenetére
Nincs olyan, hogy "konzolra való" játék, csak olyan, hogy "konzol exkluzív"
Amelyik játékot egér+billentyűzet előtt ülés helyett állva+mozogva és speciális kiegészítő eszközt használva kell játszani, az például "konzolra való". Ezeken kívül vannak a PC és konzol exkluzív címek, amiket szerződési okból nem lehet a másik platformon elérni.
"Cross-platform 2 okból nincs:" Cross-platform játékok vannak. -
EXA
aktív tag
Esélyes, hogy az AMD megmutat valamit ebben a hónapban?
Már cserélném a 290-et. -
TESCO-Zsömle
félisten
válasz Alogonomus #47770 üzenetére
"Amelyik játékot egér+billentyűzet előtt ülés helyett állva+mozogva és speciális kiegészítő eszközt használva kell játszani, az például "konzolra való"."
Ahham... Jelenleg konzolra egyetlen ilyen (VR) eszköz létezik, míg PC-re, nos... Az összes többi...
Úgyhogy ez is bukta.
morgyi: Ezért is írtam, hogy nincs olyan, hogy "konzolra való" meg "PC-re való". Régen is csak akkor volt, ha szemellenzővel/színezett szemüveggel néztél, mert kompromisszummal még konzolon is lehetett egér+bill, csak kellett hozzá egy adapter (xim).
PC-t meg gyak bármire tudod konfigurálni mind HW, mind perifériák tekintetében. PC-re, szimulátorokhoz már akkor volt head tarcking, mikor a konzolokon még pixelart volt minden game.Sub-Dungeoneer lvl -57
-
Petykemano
veterán
Nekem nincsenek belsős információim, így csak valamiféle belső érzetre hagyatkozva mondom:
Szerintem hivatalosan az AMD nem fog szeptemberben Navi bemutatót vagy tízert tartani. Viszont szerintem meg fognak jelenni "leak" formában olyan információk, amin lehet hümmögni. Ez nyilván nem jelenti azt, hogy az nvidia reveal után másnap. És azt sem jelenti, hogy minden feltétlenül igaz lesz.
Ez nem biztos, hogy szándékos szivárogtatás eredménye. Az nvidiánál is láttuk, hogy az utolsó hetekben nagyobb mértékű volt a pletykálgatás.
Ami valószínűnek látszik az a novemberi rajt. (Amiről mindenki azt gondolja: késő.)
Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
válasz paprobert #47760 üzenetére
Aztán kisebb gyártástechnológia, stb.
Attól az RDNA2 nem lesz jobb, hogy beleraksz minden SIMD mellé egy plusz SIMD-et, ami mondjuk csak FP32-t tud akkor, és befogható ha éppen nincs függőség kódban. Az NV ezt azért csinálta meg, mert eleve volt egy int32 pipeline-juk, és onnan egyszerű volt az FP32-re való kiegészítés. De az AMD teljesen máshogy tervezte az RDNA2-t, minden SIMD-juk ugyanazt tudja, ugyanazokat az erőforrásokat érik el, ugyanúgy dedikált skalár ALU-juk van, stb. Nem nyernének igazán sokat a SIMD-ek puszta megduplázásával, mert ritkán lenne kihasználható.
Arról nem is beszélve, hogy sokkal nehezebb programozni azokat a dizájnokat, amelyeknél az egyes feladatoknak eltérő pipeline-juk van a multiprocesszoron belül. Számításba kell venned, hogy mik az utilizációs limitek már a programkód szintjén. Például a GCN-t csak amiatt nehezebb programozni, hogy egy skalár ALU négy SIMD-et táplál. Nem is nagy különbség ez a hardver szintjén, mégis sokkal tovább tart optimalizálni rá egy shadert. A PS5-nél például arról beszélt Cerny, hogy egy hónapon belüli optimalizálás után lehet közel teljes sebességgel lehet működtetni a gépet. Ez nagyrészt annak köszönhető, hogy az RDNA sokkal könnyebben programozható, mint a GCN, sokkal kevesebb limitje van. A PS4-nél két hónapra is szükség volt a megfelelő sebesség eléréséhez. A PS5-nél eléggé tipikus, hogy elsőre megírsz egy shadert és máris marha jól fut, míg a PS4-nél ez elég ritka volt. Persze más architektúrákon lehet, hogy rossz lenne a teljesítmény, de nem érdekes a fejlesztőknek, mert RDNA van a gépben. Ha most ezt megtöröd mondjuk egy 16+16 co-issue-val, amit mondjuk be lehetne egyszerűen építeni, akkor pusztán a függőség problémájának megjelenése miatt a shaderek többsége 3-4 hónapnyi optimalizálást igényelni. Egyrészt hajlandóság nem lenne rá, már csak a konzolra írt kódok miatt sem, másrészt a feladat bizonyos shaderek esetén még megoldhatatlan is lenne.
És akkor az AMD felteheti még azt a kérdést is, hogy mi van, ha a PC-be áthozzák a konzolos shadereket? Azokat a shadereket, amelyeket az RDNA-ra optimalizáltak, tehát kvázi lehet, hogy marhára szarul vannak megírva egy tipikus GPU-dizájnt tekintve, csak azért futnak jól, mert az RDNA rohadtul toleráns a rossz kódokkal szemben. Mi van akkor, ha a fejlesztők nem lesznek hajlandók 3-4 hónapig shadereket optimalizálni a PC miatt? Akkor egy 16+16 co-issue tök felesleges fícsőr lenne a következő RDNA-ban, mert szökőévente használható csak ki, rosszabb esetben csak akkor, ha a telihold éppen megvilágítja az AMD központjának bejárati ajtajának kulcslyukát.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
arabus
addikt
ha jól gondolom akkor az RDNA2 azért kap egy kis optimalizációt azáltal hogy minden multiprocesszor kap 4 FP32-es SIMD ALU-t plusz ezek még külön is kapnak 1-1 skalár ALU-t.
Xeon Platinum 8468,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...
-
Alogonomus
őstag
válasz TESCO-Zsömle #47773 üzenetére
"Ahham... Jelenleg konzolra egyetlen ilyen (VR) eszköz létezik, míg PC-re, nos... Az összes többi..."
Azért ne híreszteld, hogy egyedül a VR-t ismered, mint konzol kiegészítőt. Egy példa, lőfegyver. -
félisten
válasz Alogonomus #47779 üzenetére
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
TESCO-Zsömle
félisten
válasz Alogonomus #47779 üzenetére
Az egy darab műanyag, amibe két Wii kontroller csúsztatható...
Tessék, ezt itt a HTC Vive kontrollereire lehet csatolni:
Mit tud a Wii, amit a VR nem tud jobban?
[ Szerkesztve ]
Sub-Dungeoneer lvl -57
-
EXA
aktív tag
válasz Petykemano #47774 üzenetére
Értem.
Késő?
Addig sem kell egy talicska pénzt kártyára költenem.Én most már megvárom mit lép az AMD, ha meg nem lesz nagyon semmi, akkor veszek egy nv-t nagyon mellélőni nem tudok szerintem, a 290-nél már minden jobb lenne.
-
Puma K
veterán
-
Carlos Padre
veterán
válasz TESCO-Zsömle #47773 üzenetére
Nem kell ez a felesleges túlkompenzálás, a konzol gaming arról szól, hogy lerogysz a tévé elé, megnyomsz egy gombot és játszol ( legalábbis playstationon). Nem kell azzal foglalkoznod, hogy ménemmegy, méfagy, mészaggat, miendrájvertegyekfel és a többi finomság. Fun fact, hogy az a lesajnált egyetlen konzolos vr sikeresebb és népszerűbb mint az összes pécé-s együtt. Előadhatod, hogy a pécét mennyivel több mindenre lehet(ne) használni, de hidd el, a pécé maszterrészen kívül a kutyát sem érdekli ez a sok bullshit, a konzolosokat a legkevésbé.
Genyó vagyok, ha hülye vagy megmondom.
-
Yutani
nagyúr
válasz #32839680 #47787 üzenetére
Mivel Navi21 árat nem tudunk, az új 3080 várható ára alapján számoltam árakat 2 napja az NV topikban :
Ha az RTX 3080 új ára 300k lesz, akkor az alábbi kártyákat hülye, aki drágábban veszi meg akár újonnan, akár használtan, mint:
RTX 2080 Ti: 190k
RTX 2080 Super: 160k
RTX 2080: 150k
RTX 2070 Super: 140k
GTX 1080 Ti: 135k
RX 5700 XT: 125k
RTX 2070: 120k
RTX 2060 Super: 115k
RX 5700: 110k
RTX 2060: 100k
GTX 1080: 100k
RX 5600 XT: 95kHivatkozási alap: Nvidia közleménye, miszerint a 3080 2x gyorsabb a 2080-nál.
A kártyák egymás közti teljesítményét a TechPowerUp legutóbbi RX 5700XT TUF tesztjének 4k summary-ja alapján állapítottam meg.Szóval miért is kellene elértéktelenednie a Navi10-nek? Az eddig drága NV kártyák, na majd azok fognak szépet inflálódni.
[ Szerkesztve ]
#tarcsad
-
Jack@l
veterán
válasz Yutani #47789 üzenetére
Mert nem lineáris a top és közép kategória közti ár és nincs dxr sem.
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
válasz #32839680 #47787 üzenetére
Minden prev-gen VGA értéktelenedik, az új kártyák ezen nem segítenek.
------------
Megint beszéltem a TUL-os kontakttal, és továbbra is ugyanazt mondja, hogy gyorsabbra várták, amin én most kajak meglepődtem. Az állítása szerint ezek az adatok már egy hónapja megvannak nekik, és pusztán a specifikáció alapján a 3080-at a 3DMark TSE-ben 2,4-szeresen a 2080 fölé kalkulálták. Akkor volt egy kis hűvös hangulat. Mondta, hogy el is kezdődtek a tesztek, hogy tudnak-e annyi órajelet emelni a Navi 21-en, hogy meglegyen a 3080, de amikor kijöttek a TSE tesztszámok a Foxconntól, akkor a kalkulációból lett ~1,7x, és akkor nézett mindenki, hogy WTF. Ezért mondta nekem, hogy nem azt látják a terméktől, amit kiszámoltak. Most már egyébként tudják, hogy hol nézték el, nem gondolták, hogy az Ampere függőséglimites architektúra lett, úgy tekintettek rá, mintha továbbra is kihasználtságlimites lenne, mert az NVIDIA-tól 14 éve ilyenek jönnek. A mostani felépítést belekalkulálva kijön a ~80% TSE-ben papíron is, valószínűleg idővel a gyakorlatban is, csak early driverek, stb.
A fogyasztás az állítása szerint nem az új dizájn miatt van, hanem a Samsung miatt. Az NV jó lapkákért fizet, míg az eladhatatlanokat benyeli a Samsung. Elég bonyolult szerződés van a háttérben, aminek a része, hogy a Samsungnak el kell érnie egy minimum kihozatalt, hogy az NV a waferekért fizessen, és hasonlók. Ha pedig a Samsung teljesít bizonyos feltételeket, akkor az NV-nek automatikusan náluk kell maradnia egy meghatározott wafermennyiségre a következő generációkra, ellenkező esetében kötbér jön.
Egyébként waferkapacitás szintjén az NV nagyon sokat lekötött, tehát nem érti a WCCFtech hírét, hogy idén limitált lesz a mennyiség. Egyedül a Micron okozhat gondot, mert ők nem gyártanak sok GDDR6X-et, ezért sincs hivatalosan 20 GB-os verzió, hogy ne kelljen egy VGA-ra 20 memóriát rakni, így ennyi lapkával két 3080 is kijön.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Yany
addikt
válasz Yutani #47794 üzenetére
Igen, 4 kulcskérdést látok, amit meg kell válaszoljon a közeljövő, hogy kiderüljön, mennyire lesz sikeres az AMD felhozatala:
- Mi lesz a max. teljesítmény, amit be tud mutatni ezzel az architekturával? (NV hozott egy 3090-et)
- Milyen perf/W mutatóval érkezik a különböző szegmensekben?
- Milyen perf/$ mutatóval érkezik a különböző szegmensekben?
- Mikor érkezik?Simán lehet, hogy iszonyat brutál cuccal fog érkezni az AMD, de ha nem hűti le novemberig az emberek vásárlási lázát (bennem is ébredt, holott AMD-re várok eredendően!), akkor a piac jó részét lefölözi az NVIDIA. Nem is azért, mert az AMD akár ne tudná hozni a jó számokat a fenti kérdésekre, de fele áron 2x teljesítményt hozni olyan szintű mézesmadzag, hogy már nem is érdekel, hogy az AMD mit hoz novemberben. (nyilván túlzok a szemléltetés kedvéért, de lényegében erre gondolok)
A másik, ami nem kulcskérdés, de amiben most nagyon odapakolt az NVIDIA, az a körítés a referenciahűtést illetően. Hiába az AIB partnerek, egy szemernyi kételyt sem hagyott afelől, hogy nagyon faszán le lehet hűteni 300+ Wattokat, ami csak tovább növelte bennem a robusztusság-érzetet a 3000-es RTX generáció kapcsán.
Szóval van feladat... és még a novemberi debütöt jóval megelőzve is tennie kell valamit az AMD-nek, nem ülhet a babérjain. De olyan demókkal való kapkodásra sincs szükség, amikkel a termékeinek erejét reklámozza, mert míg a zöldek jellemzően hoznak egy profi és/vagy visszafogottan elegáns megjelenésű demót, addig a pirosak valami giccses gagyiba hajló förmedvénnyel igyekeznek "csábítani". Ezekre nagyon oda kell figyelniük most.
[ Szerkesztve ]
Építs kötélhidat - https://u3d.as/3078
-
TESCO-Zsömle
félisten
Nekem kéne egy 3080-at verő, de legalább 16GB-os kártya. 8GB néha már 1440p-re is kevés és őszintén szeretnék beruházni egy HP Reverb G2-re, aminek a 4320x2160-as natív felbontását legalább +10%-os render-felbontással kell etetni minimum 90 FPS-sel.
Én tényleg nem értem ezen a szinten a 8 meg 10GB-os kártyákat ,mikor az nV már a HBM idején körberöhögte az AMD-t emiatt, de ha igaz, amit Abu ír a Microin-ról, az megmagyarázza, csak épp kiherélik a saját kártyáikat vele, mert hiába a bitang GPU, vagy veheted vissza az effekteket, vagy a renderfelbontást, hogy ne fuss ki a RAM-ba.
Emlékezz, a CoD már 4 évve lezelőtt képes volt megenni annyi VRAM-ot, amennyi csak van... Még csak meg se fekszi a hasát...Sub-Dungeoneer lvl -57
-
zovifapp111
aktív tag
Lehet, hogy nem is a játékos közönségre koncentrál az AMD. Elég nekik amit a Ryzen cpu-k hoznak és bőven elég lehet a felső alsó- felső közép kategória birtoklása gpu téren. A legtöbb pc játékos nem is igazán teheti meg, hogy megvegye a legerősebb gpu-val szerelt karit, és fhd-ra felesleges is. + az új konzolokban is ott lesznek a pirosak..... sok kicsi sokra megy Elég nekik a porhintés és a reklám, megvan nekik a bevételük. Én úgy gondolom, hogy itt nem a trónfosztásra mennek
Alig várom a tavaszi zöldelést!
-
félisten
válasz zovifapp111 #47798 üzenetére
nem szeretném ,meg igazából nekem édesmindegy, de mi van / lenne ha azt mondja a Sony vagy Micro mondjuk 5 év múlva hogy jöjjön inkább egy ARM - Nvidia hardver a konzolokba- esetleg nvidia feltúrbozza az új Swtitchet. Ki tudja, szerintem nem szabad függeniük csak ettől.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Yany
addikt
válasz zovifapp111 #47798 üzenetére
"Elég nekik amit a Ryzen cpu-k hoznak..."
Uhh, a kapitalizmus és az "elég nekik" kifejezések nem kompatibilisek. Nem helyezted valószerű alapokra a mondanivalód. Milliárdos piacról beszélünk, a bagatelizálás sem illeszkedik a témához.
[ Szerkesztve ]
Építs kötélhidat - https://u3d.as/3078
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Motoros topic
- Telekom mobilszolgáltatások
- Exkluzív órák
- Villanyszerelés
- Milyen switch-et vegyek?
- Apple Watch Sport - ez is csak egy okosóra
- Android alkalmazások - szoftver kibeszélő topik
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- GoPro Topic
- Steam Trade (csak csere!)
- További aktív témák...