-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
veterán
Az NV kb. 10 évvel ezelőtt, amikor az Intel kitúrta őket a chipset bizniszből, letett a x86-os licenceről, azóta semmilyen formában nem kalkulálnak vele, tehát a Volta tervezésénél sem volt szempont.
Volta bármikor lehet remek gamer kártya, ha az NV kicseréli a HBM2 memóriavezérlő GDDR6 -ra, kukázza a fölösleges Tensor és FP64 -es magok nagy részét, vmint az NVLinket, de valszeg sokkal egyszerűbb nem így csinálni, hanem a Pascalt frissíteni a Volta gamereket is érintő fejlesztéseivel, memóriavezérlőt update-elni GDDR5X-ről GDDR6-ra és elnevezni Ampere-nek.
-
korcsi
veterán
Az első linkelt cikkből:
"
Az Intel kiemelte, hogy ugyan elérhetővé tette az Nvidia számára egyes technológiáit, ám az x86-os licenc és néhány egyéb technológia kivételt jelent, vagyis az Nvidia nem fejleszthet saját x86-os processzort. Ez tulajdonképpen nem is akkora baj, hiszen már tudjuk, hogy az Nvidia megtalálta a megoldást a problémára és inkább az ARM felé kezdett el kacsintgatni, és belefogott az ARM architektúráira alapozó processzorok fejlesztésébe.
"[ Szerkesztve ]
referencia 5700(XT) plexi ARGB-s blokk eladó!
-
Drizzt
nagyúr
Inkább azt nézd meg, hogy a Vegánál mennyit számít, ha kikapcsolod/bekapcsolod a HBCC-t. Ez alapján az, hogy ennek megfelelő funkciót PCIe-s Voltán nem lehet bekapcsolni, nem számít szinte semmit. Teszt Vega56-on.
I am having fun staying poor.
-
Ren Hoek
veterán
Itt most a linkben szereplő hagyományos 1080 Ti VGA csati nélkül esetre gondolok.
Természetesen a Samsung általános miner vagy a Turing (ha bányászkártya lesz), és jóval többet hoz, mint egy sima VGA, akkor megérheti...
Az SLI userek elenyésző száma miatt nem hiszem, hogy nagy piaca lenne a kimenet nélküli kártyáknak.
Minden csak a megtérülési görbétől függ. -
veterán
Az általad említett "keresztlicenc-megállapodás", a chipset bizniszből való jogtalan kitúrás lezárása volt, és az Intel valójában bánatpénzt fizetett az NV-nak 5 éven keresztül, és azóta az NV semmilyen formában nem kalkulál az x86-os licenccel.
PC-s grafika szempontjából továbbra is teljesen lényegtelen, hogy a VGA képes-e közvetlenül hozzáférni az x86-os CPU memóriájához...
-
-
Televan74
nagyúr
Ott a pont.Akkor engem megvezettek, azt hittem valami új táblázat.
Éjjel keresgéltem,de csak annyit találtam,hogy az NV lehet hogy csak Q3 -ban jön valamivel, az AMD meg áttolja a Navi -t a következő évre.Sok a bizonytalanság.Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
veterán
-
Abu85
HÁZIGAZDA
A HBCC-nek a játékosok szemszögéből akkora jelentősége nincs. Lazán lehet ellensúlyozni azzal, hogy 8 GB helyett raknak a VGA-ra 24 GB memóriát. A gyártók számára persze ez fáj, főleg a mai memóriaárak mellett, de majd belerakják az ajánlott árba ezt a költséget. A professzionális piacon inkább probléma a HBCC hiánya, hiszen amíg az AMD tud 2 TB-os fizikai kapacitású, összesen 512 TB-nyi tartalmat kezelő VGA-t kínálni a filmgyártóknak, addig más megáll 24-32-48-64 GB-nál, ami azért baj, mert fel kell bontani a tartalmat ilyen apró részletekre, hogy egyenként beférjen a memóriába, és ez eléggé megnöveli a vizualizálásra fordított időt. Az AMD-nél ezt nem kell megcsinálni. Az egész betölthető darabolás nélkül, méghozzá addig, amíg a tartalom mérete nem lépi túl az 512 TB-ot, bár azt tudni kell, hogy az AMD alkalmaz egy szoftveres korlátot, így az egyes Radeon (Pro) VGA-knál 256 TB a maximum. Itt egy kicsit terelik az extrém igényekkel rendelkező vevőket a legdrágább hardver felé.
Az Intelnek nincs nagyobb hatalma a PCI Express szabvány felett, mint bárki másnak. Ugyanolyan jogokkal rendelkező tag, mint az AMD vagy az NV. Persze alapító tag, de ez nem jár kiemelt jogkörrel. A probléma tehát alapvetően azzal van, hogy az FTC határozata túlságosan rövid ideig kötelezte az Intelt arra, hogy a VGA-k felé x16-os PCI Express sávot vezessen ki. Ma már a mobil platformokban csak x8 sáv van, és nyilván, ha ezekre kötik a pGPU-t, akkor még kevesebb lesz kifelé. Ezért lenne jó, ha az FTC beavatkozna újra, mert biztos van valamilyen kompromisszumos megoldás. Akár egy olyan, hogy az NV fizet az Intelnek és az AMD-nek egy FTC által meghatározott összeget lapkánként, hogy az említett két cég kifelé biztosítson x16-os PCI Express interfészt. Az Intelnek és az AMD-nek, így az ezzel járó anyagi teher meg lenne térítve, míg az NV kifizetné a saját piacának fenntartását.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az FTC alapvetően nem szeret beavatkozni a piacba. Nekik alapvetően nem ez az elsődleges céljuk, illetve egyszer már adtak időt az NV-nek, hogy álljanak saját lábra. De ha az NV mondjuk megkeresné őket ezzel a panasszal, és tényleg javasolna egy olyan megoldást, hogy állja az AMD és az Intel felé az összes többletköltséget, ami a piacuk fenntartását célozná, akkor talán lenne miről beszélni. De ez biztos nem egy kötelezés lenne az Intel és az AMD felé, hanem inkább egy egyeztetés, aminek keretében ezek a cégek végre leülnek egy asztalhoz.
Na most végeredményben az Intel és az AMD azzal nem járna anyagilag semmiképp sem rosszabbul, hogy ha az NV átvállalja a költségeket. Egyrészt minden extra munkát kifizetnek külső forrásból, másrészt a tokozáson úgyis eladják a pGPU-t, akár letiltja az OEM, akár bekapcsolja. Tehát pénzben ugyanott lesznek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
2015-ig kényszerítette az Intelt az FTC, hogy legyen a platformjaikban x16 sáv a VGA-k felé kivezetve. Ezt azért tették meg az előző évtized végén, mert úgy ítélték meg, hogy az NV 2015-ig képes lesz kihozni egy saját platformot, ami mellé társíthatják a VGA-ikat, így nem függnek majd az Intel és az AMD platformjaitól. Ez a döntés is igen sok bírálatot kapott, mondván túl erős beavatkozás a piacba, de nagyjából elfogadta mindenki.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Gondolom saját nagy teljesítmény processzorra. Alapvetően az FTC-t nem különösebben érdekli az, hogy az adott kényszerítés kedvezményezettje él-e azzal a lehetőséggel, amit adnak nekik, vagy sem. Ők csak megpróbálják törvényes keretek között szabályozni a piacot. Úgy, hogy egyik fél se szenvedjen a döntésekből jelentős hátrányt.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
Akármit csinálsz, a ~16GB/s a GeForce 6600 GT memória sávszélességével egyezik meg.
Valszeg a HPC szegmensbe szánta az AMD, de nem tiltották le a játékos VGA-kban, hanem kerítettek hozzá egy kis marketinget...Az NV-t csak akkor lenne érdemes ilyen módszerekkel kiszorítania az Intelnek, ha versenyképes alternatívát tudnának nyújtani, de ez még nagyon-nagyon messze van, és persze ezt össze kellene hangolniuk az AMD-vel...
Bennem is felmerült, hogy a Radeon RX Vega M nem más mint egy kis gyorssegély az AMD-nek...
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Nem azért, de az Intel és az AMD útitervében nem csak a GPU CPU-ra helyezése szerepel 3D-s tokozással, hanem ott lesz a CPU-n a felejtő memória és a nem felejtő memória is. Szóval igen, ebből is lesz majd idővel probléma. Leginkább azoknak a memóriagyártóknak, akik pont lemaradtak vagy az Intel, vagy az AMD hardvereiről.
(#16532) Loha: Teljesen mindegy, hogy az Intelnek versenyképes-e ez alternatívája. Ez a cég teljesen másképp működik, mint az NV és az AMD. Egyszerűen saját gyárai vannak, amelyeket ki kell használni, tehát még ha a lapka nem is versenyképes, akkor is nagy mennyiségben legyártják, és betolják az OEM-ek segge alá. Azt, már leszarják, hogy az OEM aktiválja-e, felőlük le lehet tiltva ma is az IGP, mert azt az OEM már kifizette, te pedig kifizeted az OEM-nek a gép megvásárlásánál. A pGPU-val sem lesz másképp. Kifizettetik, aztán nekik olyan mindegy, hogy az adott gépben dísz lesz-e vagy sem, arra elég volt, hogy a gyárakat jó hatásfokkal kihasználják.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
BullKoxa
őstag
én ebből gondolom!
NVIDIA GeForce GTX 1080 GDDR5X 10.0 Gbps 256-bit 320 GB/s 2016
NVIDIA Next GPU With 256-bit bus Ha mondjuk ez lenne a 2080-n GDDR6 12.0 Gbps 256-bit 384 GB/s 2018.Remélem gbors-nak lesz igaza és +30%-l lesz erősebb mint a 1080-s széria, és max ilyen 600-700 euroért .
-
nagyúr
Ha a feltételezéseim stimmelnek (+40% ALU/TEX,+0% frontend és +0% ROP, +10% core clock, +40% sávszél), akkor a 30% + uarch, azaz cca. 35-40% elég pontos becslés. Ha 50-70%-ot szeretnél, annak valahonnan jönnie kell - melyik területre tennél ennyi pluszt?
- A 64 ROP szűkös lesz, de beduplázni nagyon durva lenne, mert az 1080Ti arra utal, hogy nem ROP-hiányos a Pascal sem.
- Az ALU/TEX adott, ha Volta lesz az uarch, ha pedig nem, akkor is mennyi fér egy Tier 2 kártyába?
- Az architektúrával csodát nem lehet tenni - a HD 4870 óta nem volt arra példa, hogy clock2clock, unit2unit viszonylatban 10-15%-nál többet lépett volna előre valaki
- Vagy durvább lesz az órajel? Ez nem elképzelhetetlen, bár a Titan V nem arra utal, hogy ez lesz. Ill. ahhoz a 16Gbps-es GDDR6 már jobban passzolna, ami mondjuk simán lehet.Nekem gyanúsabb, hogy most olyat fogunk látni, mint a 780Ti és a 980 között, és lesz valamilyen feature selling pointként - a raytracing adja is magát.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
-
Ren Hoek
veterán
Korábbi pletykákból, egy áttervezett GDDR6-os rendszerre gondolok.
Hasonlóan a Maxwell -> Pascal váltásnál...Sajnos az egész helyzet nem sürgeti a modern Volta arch bevezetését lentebb is, és még csak a neve sem utalna akkora hatalmas újdonságra. GTX 1080 Ti után 1180 Ti, kb semmi... +30% még lehet így is kihoznának belőle, az a vicc...
Na de ez csak találgatás! Remélem, hogy már nem a Maxwellt tupírozgatják, hanem a modern Voltát szegték meg.
Csak nem értem miért nem lehetett Voltának hívni? Ez is elég gyanús, hogy nem lesznek még a Volta újdonságai... se HBM2.
Itt az a kérdés, melyik volt egyszerűbb, a Pascalt finomítani újra, rárakni GDDR6-ot, új gyártástech stb...
Vagy fogni a Voltát, teljesen áttervezni az egész chipet, interposert stb GDDR6-ra, és kivágni a tensor procikat.
[ Szerkesztve ]
-
Dyingsoul
veterán
Ez az egész elnevezősdi spekuláció. Mi baj, a 1170 és 1180-al? Azt írja 1175 és 1185 lenne az elnevezés azért, hogy megkülönböztessék az 1070 és 1080-tól? az a +1-es az 1180 és 1170-ben miért nem elég a megkülönböztetéshez? Ennyi erővel legyen 1176 és 1186 a GDDR 6 miatt, nem?
Másrészt ahogy írtad a 11 Series teljesen megfelelő az elnevezési konvencióban (ahogyan írtad is, hogy a 20xx-et valaki egyszer kitalálta csak úgy). Csak nézzetek rá a driverek listázásakor arra, hogy mikor kezdtek el új sorozatot.
Egyébként kicsit azon is felesleges agyalni, hogy most ez Volta vagy Pascal refresh. Megkapjuk a szokásos 1170 ~ 1080Ti körüli szintet, a 80-as meg erre tesz rá +25%-ot. Legalább is a Pascallal az Nvidia szinte sebészeti pontossággal hozta ezeket a számokat, szerintem most is +-5%-os eltéréssel ezekre a számokra számíthatunk, miért lenne ez most másképp? A piros oldalon semmi extra, emiatt legfeljebb kisebb teljesítménynövekedés jöhetne, de azért a VR és a 4K terjedése miatt szerintem ez alá nem mennek.
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
Ren Hoek
veterán
Egyébként pont valami hasonlóra gondoltam én is korábban.
Több féle variáció elképzelhető, és nem biztos hogy mind Volta lesz.
Ez a Turing/Ampere nekem is gyanús, könnyen lehet hogy az egyik a Pascal arch tovább csiszolása. Ami nem annyira jó fejlődés szempontjából... mert mindenképp a Volta a jövő - még ha ott nem is annyira jelentős az előrelépés a mostani játékokban.
Az a vicc, hogy annyira elmaradt a DX12/ Vulkan forradalom, hogy megtehetik, hogy lehúznak még egy bőrt a Maxwell-Pascalról.
Pedig ha a Voltát kihozzák, Vega, majd Navi társaságában már elindulhatna egy fejlődés a játékok terén is. Több grafikus elem, részletesebb textúrák, jobb AI, valósághű fizika, rombolható környezet. Ez nagyon ráférne a játékokra manapság.
Így tényleg az van, hogy az orvosi szikére kiélezett Pascal van szinte minden gépben. Minek írjanak fejlett játékokat, ha minden gép még DX11-re van kihegyezve?
Egyébként nem jó szívvel adnék ki 200K felett egy Pascal reloadra. (Még ha Maxwell -> Pascal szintű is a fejlesztés)
Ennyi pénzért legyen már a legmodernebb arch.[ Szerkesztve ]
-
Dyingsoul
veterán
Én arra próbáltam finoman célozni, hogy néhányan itt a topikban úgyis csak annyit fognak belőle érezni, hogy hány fps-el megy a kedvenc játékuk, ezért tök mindegy is. Most a Geforce-okról beszélünk amik a gaming kategóriát képviselik ahol pláne ez a lényeg és nem az architektúra. Persze anno volt aki 1080-akból vásárolt be 4 kártyát mert gépi tanulásra végzett kísérleteket és előrébb volt vele budget szempontból, mint bármi mással.
Nagyjából egyébként vágom ki mire használná itt a topikból mert read onlyban régóta követem a dolgokat itt.
[ Szerkesztve ]
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
BullKoxa
őstag
Én az egész DX mizériát látom úgy,hogy mikor nem fogynak a VGA-k akkor nesze nektek új DX kártya,vegyétek ( kicsit lendül a piac ) . Eddig mindig azt csináltam hogy új DX akkor egyből cseréltem is VGA-t, de már a DX11-nél észre vettem hogy nagyon lassan jönnek rá a játékok, a DX12-ről meg inkább ne is beszéljünk.
Mostanában azt olvasom hogy sokan gyengének találják a Pascal-t DX12-ben, szerintem pedig jók abban is .( 9év piros kártyásság ) . De ez az új széria biztos ütős lesz, mindenben !
[ Szerkesztve ]
-
addikt
Miért keresne bárki különbséget látványban ennél a játéknál? Ugyanazok a textúrák és modellek.
"És hát igazából őszintén milyen előnye van a Dx12 módnak a Dx11 hez képest felhasználó szemszögéből?"
Pl.: "látható a radeon kártyák némi előnye, plusz az sem mellékes, hogy a vörösöknél ugyan az a proci a VGA mellett kb 20 % kal kevesebb terhelést kap, ami nem rossz."
Persze ez a motor sem egy megváltás, majd egyszer jobb lesz a DX12, vagy nem.
5600X 2x16GB 6800XT | i5-3570 2x4GB 1050TI | MS Surface Book | iPad Pro 12.9 | iPhone X | iMac e2008
-
Ren Hoek
veterán
Én pl a stratégiai és űrjátékok visszatérését reméltem grandiózus formában, mindhiába.
Egyedül az a fos AotS született meg, amivel azóta sem játszik senki.Sehol egy jó kis RTS, milliónyi egységgel, hatalmas csatákkal, rombolható környezettel, mesteri AI-vel, külön rakéták, külön fények, SW szintű űrcsaták, ezernyi vadász a csatahajók mellett stb.
Nem hiszem el, hogy ne lenne rá igény...
[ Szerkesztve ]
-
DudeHUN
senior tag
Most ennek min köze van ahhoz amit írtam? A jelenlegi konzolokat (és játékokat) a nagyon gyenge CPU hátráltatja. Ezen nagyon is sokat fog segíteni egy Zen magos proci, mert megsokszorozza majd a rendelkezésre álló teljesítményt. Ezt meg végre ki is lehet majd használni, hogy ne csak látványban lépjünk előre.
Gamer for Life
-
Abu85
HÁZIGAZDA
A Sony nagyon x86/AMD64-en akar maradni, mert nem akarják újrakezdeni a szoftveres munkát. Ez a PS4-nél elég nagy kiadás volt. Szóval vagy AMD vagy Intel lesz. Attól függ, hogy melyikőjük hajlandó egyedi lapkát tervezni nekik, és persze mennyiért.
A Microsoft nem zárja ki az ARM-ot, mert a Windows kódbázisa azt is támogatja. Az IBM az abszolút kizárt. Arra biztos, hogy senki sem akar OS-t és teljes ökoszisztémát portolni. Főleg úgy, hogy a fejlesztők egyre inkább kiszámíthatóságot akarnak konzolon is, vagyis amit írnak egy új gépre, azt egyszerűen vissza szeretnék portolni a régiekre. Ezzel maximalizálják a vásárlóbázist.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
DudeHUN
senior tag
Nem kell megmagyarázni nekem a konzolokat érintő korlátokat. Ahogy azt sem, hogy IPC-ben és más területeken is mennyivel fejlettebb 1-1 Zen mag a Jaguarokhoz képest.
Tényleg nem akartam offolni, de amikor marhaságokkal köttök bele az emberbe arra csak reagálni fog.Gamer for Life
-
Abu85
HÁZIGAZDA
Én nem hiszem, hogy az IBM-re annyira vágynak a fejlesztők. Azt nagyon utálták régen is. Nem véletlenül történt a váltás. Figyelembe véve, hogy mennyi munkával jár az átállás én ezt eleve kizárnám. Az ARM-nak abból a szempontból van realitása, hogy a Microsoftnak viszonylag kis munka lenne, és azért fejlesztői tapasztalat is van bőven. A Sony nem hiszem, hogy ARM-ra vágyik, mert nekik nem származna belőle túl sok előny. Inkább csak költségekbe vernék magukat.
A megrendeléstől függ, hogy az NV játszik-e. Ha a megrendelő egyedi lapkát kér, akkor biztos, hogy nem vállalják el. Nem rendezkedtek be erre. Még a Nintendonak sem javították ki a Tegra processzorbugját. Ha licencet vásárolnak, akkor azt természetesen tudnak adni, de kérdés, hogy akar-e valaki saját magának tervezni manapság, amikor meg tud bízni olyan cégeket, akik felvállalják ezt a kockázatot.
Attól, hogy binárisan nem kompatibilis, még a portolás lehet egyszerű.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Dyingsoul
veterán
Én a Pascal release-kor úgy emlékszem a bejelentési eseményen nem a Ti és XP árához mérték az 1080 árát hanem a 980-éhoz. És egyből mindenki írogatta, hogy a Titan tulajok fel lesznek háborodva és valóban az előző Titan-t drágábban árulták még az 1080 megjelenésem után is.
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
-
#45997568
törölt tag
Epp ma olvasgattam a GCP-s hirekben, el is indult a fantaziam hogy lehetne hozzacsapni egy Windows VM-hez es hasznalni egy kis jatekra. Tesztelesi celra van egy sysadmin projectem levalasztva a tobbiektol, az egyeduli szemely aki ralat, En
Ez a hivatalos GCP link
[ Szerkesztve ]
-
Ren Hoek
veterán
Eszerint meg már ősz van megjelölve az 1180-ra ... akkor még tovább csúsznak a kisebbek is.
Considering it’s almost May and Nvidia have told us next to nothing about them yet, an autumn release would seem most likely at this point, with Nvidia perhaps using Gamescom in September to set the stage for its big reveal. We may well see them appear after Gamescom, however, as DigiTimes said the cards wouldn’t be entering mass production until sometime between July-September, so it may be a bit of a tight turnaround if production either gets delayed yet again or it starts toward the latter end of that particular time window.
For now, though, we’re sticking with a generally fuzzy autumn release period, because nailing down a specific month is just silly at this point.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.