-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Cathulhu
addikt
Vicc az a post, eleg kb 2-3 valaszt elolvasni es lehet latni, hogy mennyire hiteles az egesz. Szomszed Pistike is irhatta volna, azt is belinkelnenk ide?
Visoznt az S3-s dolgot en mar honapok ota mondom, en ateltem azt is, szoval ala tudom tamasztani, hogy a hasonlosag az nagy, igy majd 20 ev tavlatabol is. Ennek ellenere megvettem a Vegat, mert akkor, annyiert best buy volt, es azert vettem meg amit tud, es nem amit majd tudhat a jovoben, szoval nagyon csalodott nem leszek, ha igy marad vegul. De drivert azt fixalhatnanak, 11.1 folott fagyok teljesen random...
Ashy Slashy, hatchet and saw, Takes your head and skins you raw, Ashy Slashy, heaven and hell, Cuts out your tongue so you can't yell
-
BenceShearer
aktív tag
válasz #45997568 #33849 üzenetére
https://m.logout.hu/cikk/az_s3_graphics_tortenelme_ii/teljes.html
A Savage 2000 alatt írnak a T&L hibáról. Egy hardveres funkció lett volna ami végül a hibás tervezés miatt sose lett aktiválva. Ez közre játszott az S3 vesztében. Itt nyilván csak a sebességben jelent a Vegánál hátrányt...de akkor is hasonló szerintem a szitu.
[ Szerkesztve ]
-
#45997568
törölt tag
válasz BenceShearer #33854 üzenetére
Kiraly, koszi Na meg 1-3 het es kiderul merrol fuj a szel
-
Petykemano
veterán
Sajnos én elképzelhetőnek tartom hogy ez a helyzet hogy átvert nem alkalmas azokra akik képességekre amiket a driver hoznak hiszen raja fókusza egyértelműen profi szegmens volt.
A Vega 20 kapcsán én is reménykedem abban hogy nem lesz köze a gamer piachoz.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Minden amds cím. Ez Mondjuk 10-ből 1, esetleg 2. Értem, hogy ott hasznos lesz, de erre mindenki legyint majd, hogy amds cím, ugye, és az nvidiának nem kell ilyen nitro ehhez a teljesítményhez - más címeknél se.
Ami a memóriákat illeti, ebben lehet, hogy igazad van.
Az nvidiának nincs szüksége olyan nagy sávszélességre, elég a $300-400 dolláros kártyákra gddr6-ot tenni. A kisebb kártyákhoz elég lehet a gddr5 is.
Ah amdnek ugyanakkor a kisebb kártyákon is jól jönne a gddr6. Választhat majd a olcsóbban kapható, de drágábban implementálható gddr5és a drágább, de olcsóbban építhető gddr6 között.
Nos persze a mikor nem mindegy, de ha éves termékckklusban gondolkodnak, akkor talán jobban megéri a eleinte drágább, de olcsóbban implementálható ramot választani bízván abban, hogy a termelés felfutásával a lapkaárak csökkennek. A gddr5 esetében AZ imlelengáció fixen drágább, és a ramok se olcsóbbak lesznek, ahogy leáll a termelés, fogynak a készletek.
Én egyedül azt nem látom ebben, higy a hbm maintreammé váljon. Ehhez az kéne, hogy az intel-AMD megoldás széleskörben terjedjen. Csak az AMD performance és mainstream eladásaitól nem lesz olyan olcsó, hogy a mainstreamben megérje. Ráadásul itt is van egy fix magas implementációs költség
MeglátjukTalálgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
A Vega 10 kódnevű cuccból biztos nem jön más verzió. Ez nem olyan, hogy át tudják tervezni fél év alatt. Maximum respint tudnak csinálni. A mai GPU-kra is jellemző, hogy 100-200 hardveres hiba is van benne, és az oka annak, amiért ezeket nem javítják csupán annyi, hogy másfél évet is igénybe venne, helyette a meghajtó oldalán kezelik a kritikus problémákat is. Kiadott hardverenként 10-20 ilyen simán van. Az ultramobil GPU-k még rosszabbak, azokban 1000 hiba is van, és itt van egy külön csoport, ami még az eszközszint fölé ír egy virtuális réteget, hogy a működésképtelenséget eredményező hibákat ez korrigálja.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Még annyit, hogy a Vega 11 kódnevű GPU annyiban lesz más, hogy igazából nem a Vega 10 leskálázott verziója, hanem a Raven Ridge IGP-jének a felskálázott dizájnja. Ennek a fő oka, hogy a Vega 11 a középkategóriába megy, így nincs szükséges arra az Infinity Fabric interfészre, ami a Vega 10-ben van, elvégre nem igazán fog találkozni szerverszintű feladatokkal. A Vega 20 pedig annyiban más a Vega 10-től, hogy kap natív DP-t, duplázzák a memóriabuszt, illetve kap PCI Express 4.0-s vezérlőt. Nyilván ez át fogja venni a Vega 10 helyét, csak felezett memóriabusszal, mert nincs értelme kétféle, rendkívül hasonló lapkát gyártani.
Emellett a VCN beépítése is logikus elem lenne. Ez a Raven Ridge IGP-jében jelent meg először, de valószínűleg a Vega 11-ben és a Vega 20-ban is ott lesz, mivel képes ugyanarra, mint az UVD és a VCE, miközben jóval kisebb a helyigénye.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Petykemano #33857 üzenetére
Az AMD szempontjából az a lényeg, hogy a saját címeikkel kiszolgálják a játékosokat. Egy hasonlóan konfigurált Polaris jó 20-40%-kal lassabb, mint egy Vega, tehát semmi értelme ezt életben tartani, ha ekkorát bukik az újítások hiányában.
Az AMD-t számos dizájnon már nem érdekli a GDDR5/6. Nekik már nincs szükségük a kapacitásra, mert ezt a problémát a HBCC kezeli. Innentől kezdve a HBM2 előnyei felértékelődnek. Az NVIDIA döntése itt irreleváns. HBCC-hez hasonló rendszer hiányában kénytelenek olyan memóriát választani, amiből sokat lehet a GPU mellé rakni, bármilyen hátrányokkal is jár az, az alapprobléma megoldása értékelődik fel.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
duplázzák a memóriabuszt? mégis hogyan? 4 stack modul lesz, vagy dupla interposer órajel?
vagy 2 gpu lesz, 2-2 stack hbm-mel, közöttük meg pci-e switch, vagy jobb esetben infinity fabric?[ Szerkesztve ]
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
stratova
veterán
Mennyit számít árban, AMD-nek ez az early access hardveres időszak?
Értem ezalatt, hogy kezdetben az Instinct 25 majd az FE és Radeon WX9100 / SSG volt fókuszban 16 GB HMB2-vel 7000-1500$ áron és csak lényegesen később volt kapacitás az olcsóbb gamer kártyákra 8 GB VRAM-mal.
Hogy fogja emellett megérni AMD-nek 4 stack? Az a korábbi szivárgásokból is látszik, hogy profi irányban várható frissítés Vega 20 képében, de már Vega 56-ra is érkezett reakció. Tier 3 szinten pedig szükség lenne egy új jó perf/watt értékű kártya (amt eredetileg Vega 11 kódnéven emlegettek).
Megérheti AMD-nek 1024 bit 4 GB (1 stack) HBM2-es kártyát piacra dobni, a 200-300$ ársávban? -
#85552128
törölt tag
válasz stratova #33868 üzenetére
"Megérheti AMD-nek 1024 bit 4 GB (1 stack) HBM2-es kártyát piacra dobni, a 200-300$ ársávban?"
Ha piacra dobják és lesz belőle választék, készlet (nem úgy mint a mostani vegákból) azon az áron akkor megéri, ha eleve nem is lesz ilyen akkor meg ott a kérdésedre a válasz...
Ha azt vesszük, hogy jövőre a 200-300$ kategória a 1070 és a 1070 Ti szintje között fog beállni, mindenképp érdekes mivel rukkolnak elő, mert ehhez jelenleg 56+ CU és 2 stacknyi sávszél kell...
[ Szerkesztve ]
-
Jack@l
veterán
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Petykemano
veterán
Ez azért kicsit meglepő, vagyis illogikus. Jó, persze tudom, az NGG majd mindent megold, de ha az NGG ilyen mértékben lényegesen tényező, nem lényegtelen az sem, hogy akkor a P10-ben és a Vega10-ben pont ugyannyi geometria-feldolgozó egység van. Compute Engine-enként 1, összesen 4. A skálázódásról eddig mindig azt mondtad, hogy ezt 6-ra felskálázni nehéz lenne, meg több sávszélesség lenne szükséges, stb
Namost ha ez így van, akkor a 12nm adta magasabb elérhető órajelból egyébként ponthogy a nagyobb compute kapacitással rendelkező vega10 profitálhatna, lévén a geometria inkább ebben az esetben limitáló tényező.
Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
válasz Petykemano #33876 üzenetére
Itt nem csak az NGG-ről van szó. Az egész architektúra lényegesen modernebb. Az uncore rész nagyon sokat lépett előre. Az pedig nem sokat számít, hogy mennyi geometriai feldolgozó van a hardverben. Az számít, hogy ezek milyenek. Például a Hawaii is négy geometriai motorral rendelkezik, mint a Vega, mégis képes akár 30x is gyorsabb lenni bizonyos geometriai feladatokban.
Igazából nem nehéz felskálázni ezt 6-ra, vagy 8-ra, vagy 16-ra. A gond az, hogy nem éri meg. Itt leírtam, hogy miért. [link]Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
Eddig azt hittem, a GCN4 volt a legnagyobb előrelépés, amint a GCN születése óta valaha látottNem értem a termékskálát. A Vega 64 implementáció túlfeszelt, de legalábbis jelentős teljesítménybeli előrelépést lehet elérni/tapaztalni alulfeszelés és a power limit kitolása mellett. Magasabb frekvencia mellett jelentősen túlfogyaszt, pont ugyanolyan frequency wall tapasztalható, mint a ryzennél 3.7GHz-nél.
És ez termék nem kap frissítést 12nm-en, amire nem kicsit férne rá, hogy
- az elért frekvencia mellett szolidabb legyen a fogyasztás
- még magasabb frekvenciát érhessen elmindennek az a magyarázata, hogy mert ha majd aktiválódnak azok a részegységek, amelyek ma még titkosak, akkor majd világossá válik minden feszültség-frekvencia beállítás. Közben meg ennek ellenkezőjét is pletykálják: hogy ez a Vega már sose lesz teljesen aktiválva.
Mitől lesz a vegából jó termék?
Találgatunk, aztán majd úgyis kiderül..
-
füles_
őstag
válasz Petykemano #33878 üzenetére
Abu sokszor mondta már, hogy a core részben a Polaris volt az eddigi legnagyobb előrelépés a GCN-ek történelmében, az uncore részben pedig a Vega.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz Petykemano #33878 üzenetére
A Vega elsődleges célja olyan problémákra reagálni, amelyekre előtte senki nem reagált. Az egyik ilyen probléma a memóriamenedzsment rossz hatásfoka, a másik geometriai túlterhelés a pipeline elején, míg a harmadik a többletrajzolás problémája. Ezekre a dedikált GPU-k között a Vega reagált nem csak elsőként, hanem egyedüliként. Persze idővel más is reagálni fog. Emellett persze van még probléma, amelyekre még csak részmegoldások vannak, vagy azok sem. Például: statikus regiszterallokáció, quad raszterizáció, redundáns vertex shader feldolgozás a fals pozitív geometrián, stb. Ezek olyan problémák, ahol már a több feldolgozó nem visz előre. Okosabb feldolgozók kellenek. És akkor ezzel megkaptad a választ arra is, hogy miért nem javul manapság annyira a grafika, mint régebben.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#45185024
törölt tag
Kiszellőztették hogy AMD leáll a referencia kártyák gyártásával !
Majd a felszabadult GPUkat a cutomokba rakja.
Na akkor most az igéretükből 50%-ot teljesítettek.
Ref Vega kártyákat már nem lehet kapni
Custom kártyákat meg még nem lehet kapni.
Lehet már felpakolták AMD-t egy kamionra és mennek valahova ?[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz Yutani #33881 üzenetére
Ott van a Wolf 2-ben. Azt a motort már úgy építették fel, hogy a legacy path ki van vágva belőle, így nem kell limitálni a grafikát, ami kedvez a modernebb hardvereknek. De ezek nem jönnek maguktól, kellenek hozzá az újítások. A Wolf 2 például azért dobta az OGL leképezőt, mert végül az id tech 6.5 képkockánként 30000 rajzolási paranccsal dolgozik, illetve szintén képkockánként akár hatmillió háromszöget is kirajzol (ami nem a legnagyobb szám az iparágon belül, de nem sok játék van előtte). És emellett jegyezzük meg, hogy a Doom az id tech 6-tal képkockánként 1000 rajzolási parancsot adott ki, és nagyjából másfél millió háromszöget rajzolt ki. Ahhoz, hogy ezt a fejlődést át tud vinni a hardverekre úgy, hogy még mindig igen erős 60 fps-ed legyen a megszokott rendszereden nagyon sokat kell modernizálni, mert a terhelés megnőtt a sokszorosára, de a sebesség mégsem omlott össze a Doomhoz képest. Ezek azok a szituációk, amikor a részegységek száma kevésbé fontos, az számít, hogy azok milyen okosak. És ebben az a jó, hogy ilyen formában skálázható tovább a rendszer, míg a korábbi opcióval rengeteg limitbe futottak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
De ez így vagy úgy, de nem igaz. Az, hogy ezekre a problémákra, amiket felsoroltál csak a Vega reagált.
A memóriamenedzsment a maxwellnél látványosan jobb. A geometria, a culling meg ezek a maxwellnél látványosan jobb.
Ezek a kérdések, amikre a Vega Adott választ - egyelőre papíron - csak a gcnt sújtják.
Amire a Vega adott először választ a hbcc-vel az hatalmas datasettel való munka. A hbm alacsonyabb fogyasztását és kisebb helyigényét jóindulattal ide lehet még sorolni, de ez már nem akkora újdonság.
Engedj meg egy provokatív kérdést : az AMD szerinted fog valamilyen architrktúrával a piaci részesedés és bevétel kérdésére reagálni? Erre lehet a válasz az, hogy nem: az AMD tervei között a piaci részesedesért való verseny nem szerepel, elégedettek a számokkal, hozzák a tervezett volumeneket, innoválgatnak a megcélzott piacokon, és a dollármilliárdos gamer piac nem cél.
Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
válasz Petykemano #33885 üzenetére
A Vega VGA-kon kívül egyetlen olyan hardver sincs, ami képes lapszinten menedzselni a memóriát. És a HBCC az nem a hatalmas adathalmazokról szól. Az csak a következménye a lapszintű menedzselésnek. Az igazából csak arról szól, hogy ha a GPU igényel egy adott adatot, akkor csak az a lap legyen betöltve, ami az adatokat tartalmazza. A HBCC igazából csak ez, se több, se kevesebb. Ez reagál arra a problémára, hogy az adatbetöltés nem optimális, mert egy bizonyos adat eléréshez rengeteg teljesen szükségtelen adatot is be kell tölteni.
Az többletrajzolás problémáját a DSBR kezeli. Ehhez hasonló hardverek még a PowerVR IP-k, de semmi más. A többi tiled architektúra a többletrajzolás problémájára nem reagál, mert vannak szoftveres kezelések is rá. Például ezek: [link]
A cullingban a Polarisban volt a legjobb, ha a Vegát nem nézzük. A többi architektúra még a degeneratív háromszögeket sem tudja kivágni. A Vega a Polarist annyiban javítja, hogy még azelőtt el tudja tüntetni a fals pozitív háromszögeket, mielőtt a memóriabuszt terhelné. Lényegében erről szól az NGG path.
Az én véleményem az, hogy az AMD nem igazán fektet az aktuális technológiába pénzt. Ők már rég azon vannak, hogy a GPU-t memóriakoherensen kössék be a CPU mellé. Persze a piac mérete miatt megmarad a PCI Express alternatíva is, de azért a nemrég lezajlott ázsiai SIGGRAPH-on is előkerült a téma, hogy ahogy fedezik fel a fejlesztők az explicit API-kat, ahogy nő a munka, úgy érzik, hogy a VGA-t a PCI Express 3.0 limitálja. De annyira, hogy már most vannak olyan szituációk, ahova a PCI Express 5.0 sávszélje kellene, de hát ez nem áll rendelkezésre, így marad a grafika butítása. Ez az amit célozni kell most mindenkinek, mert erősen úgy néz ki, hogy az új API-knál nem csak kétszer vagy négyszer gyorsabb interfész kell. Inkább 6-8x. Aki erre először tud reagálni, az gyakorlatilag legyak mindenkit a high-endben. A hogyan persze nagy kérdés. Nyilván az AMD a saját GMI-jét akarja majd használni. Az Intel jó lesz egy saját interfésszel, míg az NV-nek meg kell győznie az AMD-t vagy az Intelt, hogy rakjanak NVLinket a procijaikba, vagy durván el kell kezdeni promótálni a CCIX-et. Valószínűleg az Intel is ezt a limitációt célozza a saját dedikált GPU-s irányával, nem akarnak ők PCI Express-t.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
a HBCC, meg a lapszintű memóriamenedzsment, swappelés a VRAM és a RAM között ez egyedi. Bár annyira nem, mert mintha azt mondtad volna, hogy az NV kártyája is tudja, de csak a Power9-cel, mert egy ilyen megoldáshoz szükséges a GPU-ba a processzor memóriamodelljének ismerete, ami az x86-os licenc hiányában intel és AMD cpu mellett nem adatik meg. Igazad van, a nagyon nagy adathalmazokkal való munka nem az elsődleges célja a HBCC-nek, az SSG csak járulékos előny, a HBCC elsősorban a memóriamenedzsmentet oldja meg - a fejlesztő és az api helyett. Ez azt is jelenti, hogy a HBCC igazi előnye az SSG-n, mint felhasználási területen kívül valójában annyi, hogy a GPU-n kevesebb VRAM is elegendő. Ez nem a felhasználónak, hanem a gyártónak jelent előnyt. Kérdés, hogy a HBM-es implementációval ez költségek tekintetében valóban előnyt jelent-e. És hogy ebből a kártyát vásárlónak az AMD juttat-e valamit. Annak a vásárlónak, aki emiatt esetleg több RAM vásárlására kényszerül.
A többletrajzolás problémáját a DSBR kezeli - papíron. Ehhez hasonló hardverek még a Maxwell és a Pascal is. Most persze lehet, hogy a tényleges technikai működésben van eltérés, de a lényeg, hogy az IMR-ből fakadó nehézségeket (nem fér bele az L2-be és ezért memóriasávszéleséget zabál a képrender) kiküszöbölte. Ebben a vonatkozásban az AMD nem innovál (innováció = üzleti sikert hozó újítás), hanem felzárkózik. Nem valamiféle iparágot blokkoló korlátot old fel, hanem csupán a saját GCN architektúrájának korlátait. Egyelőre papíron.
Lehet, hogy Cullingban a Polaris volt a legjobb... mégis a teszteken az látszott, hogy az nvidia architektúráin több geometria megy át (bocs a pőre megfogalmazásért, de most had ne linkeljem újra azokat a teszteket, amiken az látszik, mennyire egy kutya volt a hawaii és a fiji és ehhez képest a polaris mit újított, ami még mindig messze elmaradt a pascal előrelépéséhez képest)
Persze lehet, hogy úgy érted, hogy geometry / clk. De közben a konkurencia 1.5-2x akkora frekvenciával járatta a lapkáit.
Ha most ezen javít az NGG, az nagyon szuper lenne, mert sokan arra spekulálnak, hogy a geometria a korlátozó tényező, aminek ugye van alapja, hiszen néhány éve - amikor a vega már szinte a gyártósoron volt - még arról beszéltél te is, hogy az az irány, hogy minden átmegy compute futószalagra, vagyis fölösleges a fixfunkciós részegységeket fejleszteni. Talán Raja tavasszal a groundwork alatt egy kicsit ezt is értette
Szóval ha az NGG ezen javít, az nagyon szuper, csak itt megint nem úttörő innovációról beszélünk (az a minden számítás compute futószalagra való átterelés lett volna), hanem piackövetésről. Ezért természetesen nem hibáztatom az AMD-t, mert volt egy víziója, amit nem sikerült keresztülvinni."Az AMD nem igazán fektet az aktuális technológiába pénzt" - Na pontosan ez az. miért nem?
És most ezt a CPU mellé való bekötést úgy mondod, mintha ez valami jolly joker lenne. Papíron lehet, hogy az és aki először megcsinálja az elméletben és papíron mindenkit beelőz. De ki fog erre programot írni? Tehát én értem, hogy csodálatos, ha 2018-ban az AMD megcsinálja, hogy veszel egy AMD-s lapot ryzennel és ha belevágod az AlphaCentauridat akkor az tízszer gyorsabb adatkapcsolatot fog jelenteni, mintha hagyományos PCIe 4 esetleg 5-ön keresztül zajlana a kommunikáció. De pont azért van szükség a MÁra is gondolni, hogy legyen aki erre programot ír. Az nem fogja innovációvá (=üzletileg sikeres technológiai fejlesztéssé) tenni ezt, ha 100-ből lesz 2-3 esetleg nagyobb cím, amin ha aktiválsz valamilyen igazából valódi hozzáadott értéket nem adó módot, akkor az majd ki fogja tudni használni ezt a sávszélességet. Addig ez csak egy hamvába holt ötlet. Hanem majd 2 évre rá, amikor összeér a mainstream hardver (=legelterjedtebb, domináns piacvezető) és az általa finanszírozott szoftverfejlesztés, akkor fog majd megszületni az innováció. ÉS akkor majd az AMD két dolgot tehet:
- hápog, hogy dehátdehátdehát mi ezt már két éve kínáljuk, a mi hardvereink már két éve tudják ezt, há'de-há'de ez nem igazság!
- mosolyogva hátradől, mint valami ELon Musk, hogy nahát csak beérett a munkánk gyümölcse, csurrant is cseppent is azért és lehet, hogy övék a dicsőség és a profit, de miénk a tudat, hogy Ezt a technológiát mi hoztuk el a Földre.Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
válasz Petykemano #33888 üzenetére
A HBCC-t korábban átbeszéltük az egyik hír topikjaban, ajánlom, hogy olvasd el, mert olyan téves eltevésekből indulsz ki, hogy több RAM kell neki. És a HBM-nek még mindig semmi köze a HBCC-hez.
Nem papíron kezeli, hanem a gyakorlatban. 30% fölött nyer a Frostbite-ban, ami elég sok.
A Maxwell és a Pascal a többletrajzolás problémáját nem kezeli hardveresen. Ezek draw stream nélküli binning rendszerek. PC-n ma egyedül a Vega támogat draw streamet, ez látszik is rajta az új VRMark tesztben.A culling pont arról szól, hogy lehetőség szerint kevés fals pozitív geometria terhelje a pipeline-t. Ebből a szempontból a Polaris azért volt a legjobb, mert kapott egy speciális egységet, ami felismerte a azokat a háromszögeket, amelyek csúcspontjai egy egyenesre estek. Ezeket kivágta, míg a többi hardver erre nem volt képes. Ezért van nagy különbség a szintetikus tesztekben mért sorrend, és a nagyon geometriadús játékokban(Deus Ex: MD, Wolf 2) mert sorrend között Előbbiekben nincs annyira sok culling terhelés, míg utóbbiakban eléggé erősnek kell lennie a komplex geometria miatt.
Na most a primitive shader eléggé sokat lop a compute shadertől, ezért tud sokkal gyorsabb lenni a vertex/geometry shadernél. Ehhez hasonló gondolattal még más nem állt élő.
Egyébként én az egyedileg definiált shader lépcsők mellett vagyok, ha egyszer dobjuk az aktuális futószalagot.Egy koherens és gyors összeköttetés lényegében egy jolly joker, ha nem lenne az, akkor ma nem létezne az NVLink, a GMI, a CCIX, a CAPI, a QPi...
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#45185024
törölt tag
Ú Petykemanó jó sok nyomta a lelked
Na csak azért írok hogy múlt csütörtökön és ma is volt Custom Vega forgalmazás
tehát már Euróban is vannak nem tesztelő kézben levő Devil példányok. .. -
-
PuMbA
titán
Akkor RX560 szinten még soká lesz Vega architektúra
-
Abu85
HÁZIGAZDA
Nincs szükségszerűen duplikálva, de manapság a meghajtók és a szoftverek is alkalmazzák ezt a trükköt, ugyanis a rendszermemória allokálása nem ingyenes. Ezt az operációs rendszer végzi el, és ahhoz, hogy valamit törölni tudj a VRAM-ból, előbb allokálni kell neki a helyet a rendszermemóriában, hogy oda vissza lehessen másolni a törlés előtt. Ezzel a törlés ellenőrzési idejét hosszabbítod meg, ami már eleve rendkívül hosszadalmas folyamat, és káros, mert a törlés közben semmit sem csinálhat a GPU a manapság kedvelt legacy API-kban. Ezért manapság igen jellemző trükk a duplikálás, elvégre a törlési idő csökkenthető, ami esetenként megment az akadástól. Hogy ideális-e? Nem az. De jelenleg eleve sok memória van a játékosoknak szánt PC-kben, tehát inkább lehet erre építeni, minthogy többször akadjon a program.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
Hagyjuk a HBCC-t, mert nem annak működésének részlefei most a téma. Ez egy jó, és bizonyos nézőpontból egyedülálló újítás, a bigdata, és viseofeldolgozás területén valódi innovációvá válhat.
DSBR. Mondtam, hogy lehet, hogy az amd draw stream technikája valóban egyedülálló, vagy legalább ritka. De a konkurencia is rendelkezik olyan eljárással, tile rendering, ami a memória sávszélesség problémájára megoldást biztosít.
Én értem, hogy 30%, de mi 30%? Ennyivel csökkenti a sávszélesség igényt? Lehet, de a Vega ezzel együtt is pont annyival gyorsabb a fijinél, amennyivel magasabb órajelen üzemel. Tehát szuper, hogy 30%, de ez nem teljesítmémyben realizálódik, maximum könnyebb gyárthatóságban. Szuper, h van előrelépés, és azt ia készséggel elhiszem, hogy ez olyan fejlett űrtechnológia, amelyre a fejlesztők két éve várnak, hogy kutathassák, s ami technológiai kuriózum. De ha ez ma nem ad olyan előnyt, amitől a piros csíkok beelőzik a zöldeket,abból nem lesz eladás. Ha ez a ma egyedolállóan remek technológia iránytűként mutatja csak, hogy mit fog tudni a kért év múlva megjelenő program, a két év múlva megjelenő nvidia videokártyán, akkor az amdnek csak az aprópénz jut.Én tudom, hogy te nem így nézed, nem a csíkokat. De mégis furcsa, hogy látszólag úgy nyűgöződsz le ezektől a nevesített és jól megmarketingelt technógiáktól, hogy közben nem hozzák a csíkokat. Nem értem, hogy tudod valamiről azt állítani, úgy beállítani, hogy a legjobb, hogy közben semmilyen piaci csík nem támasztja alá. Lehetnek persze ilyen tesztprogramok, amik két év múlva bevetett technológiára készülnek, de mire a tesztprogramból program lesz, addigra a konkurens hardver is tudja. (Ez alól a AC volt kivétel, ahol inkább a tesztprogramot igazították a konkurens gyártó képességeihez)
Ahhoz, hogy ezek a technológiák alkalmazva legyenek, előnyt biztosítsanak, ahhoz piaci reszesedés kéne, ami egy-két tőkeerős kutatásban is utazó játékfejlesztő céget rávenne az új technógiák bevetésére. Ahhoz, hogy az új technológia bevetése, alkalmazásba vétele mielőbb megtörténjen, ahhoz a ma technológiájának is előnyt kellene már biztosítania.
Ehhez képest az hardveres új képességek megjelenésétől számított 1 éven belül készül csupán néhány olyan program, ami az új technológiák alkalmahásba vételével az amd kártyáit legfeljebb felhozza arra a szintre (perf /mm2, perf/w), amit a konkurencia a szoftverpiac egészén a megjelenéstől számítva hoz. És erre mondod, hogy nem csak papíron léteznek ezek a legjobb technológiák
Ez AZ amdt nem zavarja? Legalább akkor Mondjuk el, elemzőként, hogy mi miért nem sikerült.
High Bandwidth Coherent Connection
Jolly joker, az, de csak annak, aki ezt üzletileg sikerre is viszi, akinek sikerül elterjesztenie. Az amd évek óta küszködik a hsaval is. Haladni kell, mert persze aki lemarad, biztosan bukik. De hiába van az amdnek már lássan 4 éve memória koherens igpje, mégse terjed az amd apu megoldás. Mégsincs az, hogy olyan előnyre tudna szert tenni ezáltal, hogy mindenki aput akarna venni. És az se igazán látszik, hogy olyan eszméletlenül sokan állnának sorban egy ryzen és egy Vega gmivel összekapcsolt bigapujáért.
Ez nyílván nem független a piaci erőviszonyoktól. Underdogként nehéz. Mégis a Te tolmácsolásodból nem az jön le hogy az amd küszködik küzd de elnyomják lenyomják nem sikerül falakba ütközik hanem az hogy csinálhatja a kis dolgait nyugisan nyomja techno szöveget nyomja hogy fogja majd megváltani a világot aztán a végén nem teszi nem nem így történik Vagy esetleg máshol akinek a hasonló megoldása várja meg a világot lepereg róla nem érdekes.
Olyan mint hogy ha az AMD olyan akarsz e lenni mint az arm hogy csak így IP fejleszt azt nem használja akinek tetszik és nem veszi észre hogy senki nem használja senki nem veszi és azt se veszik amit ő állít elő terméketTalálgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
válasz Petykemano #33894 üzenetére
A draw stream nem ritka. Ilyen a PowerVR rendszere is, illetve újabban az Adreno is, de ezt titkolják.
Minden binning megoldás a sávszéligényt csökkenti, míg a draw stream megoldások a többletrajzolást eliminálják.Az említett technológiák automatikusan vagy driverből működnek, mindenféle fejlesztői beavatkozás nélkül.
A HSA az AMD-nél a ROCm. Ez a HSA implementáció. Letöltheted, működik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
Be vessz El a részletekben.
Azt mondtad, hogy mindezekkel a technológiákkal a Vega olyan kérdésekre reagál egyedülálló módon amelyek más fejében még fel sem vetődtek.
Én meg azt mondtam hogy ezek a technológiák elsősorban nem iparági kérdésekre adtak választ ha nem csak a gcn problémáira, (vagy legalábbis olyan problémákra amelyek a gcnt előbb vagy jobban sújtják ) vagy ha tartalmaznak is korszakalkotó újításokat azok egy két évig csak papíron/demo szinten működnek.Kérdés az volt Szerinted az AMD mikor kíván azért tenni hogy ezek a korszakalkotó újítások ne Több évvel később tudjanak csak érvényesülni hanem ebből üzleti piaci előnyt tudjon kovácsolni?
[ Szerkesztve ]
Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
válasz Petykemano #33896 üzenetére
Ezek igazából létező általános problémákra adtak választ. Az nem a GCN specifikus problémája, hogy a fals pozitív attribútumok kivágása a vertex feldolgozás után történik. Mindegyik hardver így működik, csak a Vega kapott egy másik megoldást, amikor még a vertex feldolgozás előtt ki tudja vágni ezt, még abban a fázisban, amikor se számítási kapacitást, se sávszélességet nem fogyasztott ez a feladat.
Ezek az újítások nem igényelnek fejlesztő oldali beavatkozást. Driveres vagy hardveres megoldások.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Ribi
nagyúr
válasz Petykemano #33896 üzenetére
Ezt már eljátszotta párszor, hogy belepakolt minden új jó szép dolgot, csak épp semmi sem használta. Mire jó jó lett volna addigra már jött az új széria. Nem tanulnak...
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Poco X6 Pro - ötös alá
- Kerékpárosok, bringások ide!
- Szevam: Érzelmi magabiztosság/biztonság - miért megyünk sokan külföldre valójában?
- Alkalmazásbemutató: Keep
- Gaming notebook topik
- Súlyos adatvédelmi botrányba kerülhet a ChatGPT az EU-ban
- Debrecen és környéke adok-veszek-beszélgetek
- Futott egy Geekbench kört egy új HTC készülék
- Apple notebookok
- Anime filmek és sorozatok
- További aktív témák...