-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
TESCO-Zsömle
félisten
válasz KillerKollar #48628 üzenetére
Az tiszta sor, de már a nagykerekbe is 280k környékén vannak, pedig az nettó ár, nincs rajta áfa. 280k nettó pedig pont 900$... Annyiba kerül. +ÁFA... Ha éppen van... Erre megy még a szerény haszon meg a hiány-adó...
[ Szerkesztve ]
Sub-Dungeoneer lvl -57
-
Laja333
őstag
válasz KillerKollar #48623 üzenetére
Aggresszívan? Mi ezen aggresszív?
-
Malibutomi
nagyúr
válasz KillerKollar #48623 üzenetére
Mitol agressziv azarazas mikor a kartyak adott tierben ugyanannyiba kerulnek mint az elodeik????
2070S/3070 499$
2080S/3080 699$Nincs itt semmilyen agressziv arazas a top modell amit ugyis alig valaki vesz lett olcsobb csak
-
Simid
senior tag
válasz KillerKollar #48993 üzenetére
Hááát... Elég reménytelennek tűnik a helyzeted.
Az NV szerintem idén nem fog 20 gigás 3080-t kiadni. A 2 gigásakat hülyék lennének nem a Quadrora felhasználni, double sided meg szintén hülyeség lenne, mikor a RAM lapkákból így is hiány van.
Big Navi meg max ref lesz addig, és lehet pont az általad említett okokból elkapkodják akkor is ha nem lesz annyira ütős, de lesz rajta 16GB. -
Abu85
HÁZIGAZDA
válasz KillerKollar #48993 üzenetére
A gyártókat elsődlegesen a saját nagy címeik érdeklik. Az NV a Watch Dogs Legionre koncentrál, míg az AMD az Assassins Creed Valhallára.
Nyilván ettől még lesz támogatás más címre is, de aki nem szerződött kiemelt szinten, azt igazából nem is kezelik kiemelten.
Azért a fejlesztők számára is fontos ez, mert zabosak lennének, hogy optimalizálnak kiemelten egy szerződött dizájnra, majd az AMD és az NV elkezd nagyüzemben beszélni a Cyberpunkról.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Mumee
őstag
válasz KillerKollar #49342 üzenetére
"Just what we gathered this week from AIBs"
Jó nagy smiley-val...
Azért olvass is a sorok között. Alatta mindenki egyetért kb. a leakelős arcok közül, hogy az Aib-ok Navi22-n kívül mást még nem láttak.#49340 : Én csak egyszer olvastam eszmefuttatást árról, ahol AMD>3090 és ott $1200 +-$200 volt tárgyalva, de árakat nem igazán lehet leakelni, mert az az utolsó percig változhat.
Tehát az ár az mindig csak jóslás/tippelés/objektív kalkuláció.[ Szerkesztve ]
-
Devid_81
nagyúr
válasz KillerKollar #49342 üzenetére
Nem akarok mereszet almodni, de valahogy nem hiszem el, hogy ez a Navi21 amirol szo van. Navi22 talan.
Tehat ezek szerint az AMD-nek osszesen sikerult kitaposni az RDNA 2.0-bol egy 2080Ti teljesitmenyt?
Bar jelenleg semmi kezzel foghatonk nincs, akar ezt is elhihetjuk Oktober 28-ig.
...
-
Malibutomi
nagyúr
válasz KillerKollar #49342 üzenetére
Ez egy totalis marhasag szvsz
-
Jack@l
veterán
válasz KillerKollar #49599 üzenetére
De ha kijonnek a 16-20 gb-os kártyák, akkor már a közép-felső kategóriában se a 8-10 gb lesz a korlát. Max a játékot nem fogod futtatni max grafikán. A konzolokon viszont kb 8 lesz grafikára, ez az ami vissza fog fogni csomó konzolszökevény játékot minőségben.
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
atok666
őstag
válasz KillerKollar #49599 üzenetére
Az lesz a szivas, mikor ekkora hype utan kijon vegre a CP2077 es egy nagy csalodas lesz... (ne ugy legyen)
Atok
-
Jack@l
veterán
válasz KillerKollar #49613 üzenetére
Nem kötelező max grafikán játszani, GTA V is figyelmeztetett settingsben, hogy kevés a vramod.
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
EXA
aktív tag
válasz KillerKollar #49613 üzenetére
De ez eddig nem így volt
Ha minden évben az ember mindent csutkán akart/akar tolni, akkor bizony elég gyakran kellett/kell kártyát cserélni a gépben. Nem egy ember van, aki azért cserélgeti gyakran a kártyát, hogy még véletlenül se kelljen valamelyik grafikai opciót ultrá-ról very high-ra lekapcsolni. Neked milyen kártyád volt a 3080 előtt? Gondolom te is azért vetted ezt a kártyát, hogy majd a Cyberpunk-ot kompromisszum mentesen tud élvezni.[ Szerkesztve ]
-
nagyúr
válasz KillerKollar #49599 üzenetére
no offense, de az azért megvan, hogy a cp2077 ajánlott gépigénye high beállítási szint és fhd felbontás mellett egy 1060?
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
nagyúr
válasz KillerKollar #49635 üzenetére
ajánlott? a 60Hz monitorodhoz a 2080tid is bőven sok lett volna.
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
Busterftw
veterán
válasz KillerKollar #50090 üzenetére
Pontosan. Mire mainstream kevés lesz a 10GB (használ nem lefoglal, mert csak) arra kijön két új gen.
-
szmörlock007
aktív tag
válasz KillerKollar #50743 üzenetére
"De miért mutogatnák a gyengébb eredményeket ha tudták, hogy jönni fog egy jobb driver? Elfelejtettek szólni Lisa Su-nak? "
Azért mert azóta rengetegen erről beszélnek, ingyen marketing, és ha jók lesznek a kártyák, akkor jól fog jönni ez a hatalmas érdeklődés.
-
Malibutomi
nagyúr
válasz KillerKollar #50747 üzenetére
En ugy emlekszem nem volt lassabb a mutatott benchmarkon mint a 3080. Pont azon a szinten volt.
Az meg szerintem valoszinutlen hogy a legerosebb GPU-t mutatnak meg labjegyzetkent a CPU event vegen.
-
Pug
veterán
válasz KillerKollar #50747 üzenetére
AMD-nek nincs rálátása az NV készleteire, október 8.-án volt a Zen 3 event, szerintem fogalmuk sem volt, hogy mi lesz majd az Ampere készletekkel
Ezt ugye te sem hiszed el...konkrétan start óta az megy, hogy nulla... zérus készlet az Ampere-ből... de a konkurensnek erről fogalma sincs.... come'on...
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz KillerKollar #50743 üzenetére
Miért ne tették volna? Az egész egy bemutató volt. Meg ott volt a beetetési faktor is.
#50745 b. : Melyik megoldás? Nem tudlak követni.
#50747 KillerKollar: Azért az iparágon belül elég nagy rálátás van arra, hogy melyik komponensből mennyi van. Ezek a cégek sok dolgot ugyanonnan rendelnek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Danex
addikt
válasz KillerKollar #50747 üzenetére
Ezzel az érveléssel az a bajom, hogy az AMD-től nem igazán várta úgy nagyon senki, hogy a 3080 közelébe kerül, hiszen az előző szériák is arról szóltak, hogy jó nekik a 3060-3070 teljesitmény és jónapot.
Erre meg az történt, hogy az nvidia által behype-olt oriási teljesítményugrást jelentő 3080, aminek 300e alatti áron kéne a polcokon lennie, teljesen lőtávolságon belülre került az AMD által.
Ergo azok akik úgy voltak, hogy na úgy is hosszútávra vásárlok kifizetem a lehúzásadót és veszek egy kártyá 400e-ért, kaptak így egy infot, hogy hahó, mi is itt vagyunk ezen a teljesítményszinten és lehet megkaphatod valós készletről mondjuk 270e-ért. -
Pug
veterán
válasz KillerKollar #50754 üzenetére
De ha nem mondod meg, hogy nem a leggyorsabb GPU-t mutattad akkor rosszabb fényben tünteted fel magad, mert sokan azt hiszik, hogy a leggyorsabb volt. Ugyan így ha félkész driverrel gyengébb eredményeket mutogatsz.
Ne viccelj már, mióta megvolt a Ryzen bemutató többet beszél az internet az RDNA2-ről, mint magáról a CPU-ról...Az under-promising, over-achieving meg nagyon is jó lépés (akár az által, hogy nem a legnagyobb GPU tesztjét mutatod meg, akár az által, hogy low performer driverrel született eredményeket mutatsz)... főleg úgy, hogy azok lényegében 95-100%-os teljesítményt mutatnak a 3080-hoz képest...
Nagyon szép hype-ot építettek most fel
-
Abu85
HÁZIGAZDA
válasz KillerKollar #50754 üzenetére
Valószínűleg azt a 10 vásárlót túlélik.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
addikt
válasz KillerKollar #50945 üzenetére
Rage mód egy auto tuning, lehet nélküle élni.
SAM pedig 0 és 13% között hozott, de inkább 2-t, 3-t.5600X 2x16GB 6800XT | i5-3570 2x4GB 1050TI | MS Surface Book | iPad Pro 12.9 | iPhone X | iMac e2008
-
Abu85
HÁZIGAZDA
válasz KillerKollar #50945 üzenetére
Igen is, meg nem is.
A Smart Access Memory valójában a mai játékokban nem sokat ér. Azt a next-genre fejlesztették. A gyorsulás amit mutattak az igazából ~90%-ban a Rage mód miatt van.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Malibutomi
nagyúr
válasz KillerKollar #50945 üzenetére
Hat az OC 6900 vs stock 3090 igen...ez tortent...de az AMD nem tehet arrol hogy a 3090-en zero tuning potencial van. Szoval ez kb valos felhasznalas
Smart Access Memory meg elvileg segit, de nem hiszem hogy olyan sokat.
Amugy nyilvan a legjobb beallitasokat hasznaltak, de ha ezeket leveszed akkor is ott vannak kb eroben.
Itt egy kep hogy mennyit szamit:
[ Szerkesztve ]
-
Callisto
őstag
válasz KillerKollar #50945 üzenetére
Persze. Egyértelműen a "független" teszteket mindenképpen meg kell várni és véglegesen akkor lehet nyilatkozni vagy dönteni kinek mi kell.
[ Szerkesztve ]
"A wise man can learn more from a foolish question than a fool can learn from a wise answer." - Bruce Lee
-
Televan74
nagyúr
válasz KillerKollar #50945 üzenetére
Pont azért van. 6900XT+5950X+ Hard Core Ultra baszó X570 lap!
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
devast
addikt
válasz KillerKollar #51031 üzenetére
Egy szó mint száz, a 6900XT nem éri meg a +350$t a 6800XT-hez képest, a 6800XT viszont BŐVEN megéri azt a +80 dodót a 6800-hoz képest.
Pontosan. Ezt páran már mondták, hogy a sima 6800nak nem jó az ár/érték aránya. A 6900xt-nek sem. Persze a családon belül. -
Abu85
HÁZIGAZDA
válasz KillerKollar #51031 üzenetére
Inkább a 6800 túl drága.
A 6900 XT ellesz 999-ért, mert a teljesítményen túl e-péniszt is ad. Azokra hajtanak, akiknek ez megér 350 dollárt. Találni fognak nem kevés ilyen embert.
A 6800 viszont túl közel van a 6800 XT-hez.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
keIdor
titán
válasz KillerKollar #51031 üzenetére
A 6900XT válogatott, jobban sikerült GPU-t sejtet, ami biztos limitált példányszámban várható, tehát némi felár indokolt.
Ráadásul az RTX-3090 ellen megy, az meg +50%-al drágább, szerintem a 6900XT ára rendben van.
Ahogy a 6800XT-é is.A 6800 túl drága, de ugyanez megfigyelhető a Ryzen 5600X és 5800X-nél is, azok is drágák.
Terelik a népet a drágábbra, most már megtehetik.[ Szerkesztve ]
¡GLORIA A LAS PLAGAS!
-
awexco
őstag
-
X2N
senior tag
válasz KillerKollar #51343 üzenetére
Kivétel persze amikor nem, és a 3080 se proci bottleneckes 1080p-ben mert gyorsul még 720p-n is.
Launch code for russian nukes: 97 99 116 105 118 97 116 101 32 100 101 97 100 32 104 97 110 100
-
awexco
őstag
válasz KillerKollar #51343 üzenetére
A miértet értem , de olyan az egész mint ha kevesebb benzin kellenne egy 24h futamra mint egy 10 körösre
Szal ViccesI5-6600K + rx5700xt + LG 24GM77
-
Laja333
őstag
válasz KillerKollar #51670 üzenetére
DXR-t használ, miért csak NV kártyán menne?
-
Jacek
veterán
válasz KillerKollar #51674 üzenetére
Vagy halasztjak meg egy ket honapot
-
Laja333
őstag
válasz KillerKollar #51674 üzenetére
Azzal nincs gond ha november végén jön hozzá a patch, mert maga a játék se jelenik meg december előtt.
-
Alogonomus
őstag
válasz KillerKollar #51674 üzenetére
"so only PCs with the latest GeForce cards will experience the glory of simulated light in Cyberpunk’s neon-infused world"
Hát ez óriási öngól lenne a CD Projekt Red részéről, bár gondolom szerződésben vállalták.
Mondjuk nem egyértelmű, hogy a "latest" valóban az Ampere kártyákat jelöli-e. -
Malibutomi
nagyúr
válasz KillerKollar #51674 üzenetére
Ez mondjuk logikusan hangzott akkor hisz sem a konzolok sem az AMD kartyak nem voltak tervezve az eredeti novemberi CP launchra.
Plusz ugy enem art nemi optimizalas is. -
arn
félisten
válasz KillerKollar #51670 üzenetére
nem letezik olyan, hogy nvidia raytrace... dxr 1.0 volt eddig, most meg 1.1 van. mindketto a ms termeke.
az amd engedelyezi a dxr 1.0at?
[ Szerkesztve ]
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
Mumee
őstag
válasz KillerKollar #52048 üzenetére
MSRP meg a jelenlegi NV generációnál csak marketing immáron több oldalról is megerősítve.
Pl. Tech Jesus által : [link]Szóval eleve nincs $700 3080 és $500 3070 sem.
(Első hónapban/2 hétben Nvidia bónuszt ad az eladott kártyák után a pletykák szerint az AIB-oknak $50-$100, ezért a kezdőár MSRP közeli csalinak )Tehát egy valós $1000 20GB 3080ti még korrekt árnak is nevezhető.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #52048 üzenetére
Akörül igen.
Nézd, a memória olcsóbb kártyára is rárakható. Lehetne 16 GB-os 3070-et is csinálni, csak meg kell egyezni a Hynixszel, hogy szállítson memóriát, mert az AMD felvásárolta a Samsung 2 GB-os stackjeit, azokat rakják a kisebb kártyákra is. De a Hynix is gyárt ilyeneket, sőt, a Micron is.
A VRAM használatában annak van szerepe, hogy miképpen működik a leképező, milyen minőségűek a modellek, illetve milyen minőségű textúrákat szállítanak a fejlesztők. Teljesen lényegtelen, hogy az AMD vagy az NV szponzorálja a címet. A Godfall azért igényel sok VRAM-ot, mert 4096x4096 texeles textúrákat használ majdnem mindenre. Így állították be a PS5-re a játékot. Természetesen meg lehetne csinálni, hogy PC-re csak 2048x2048 texeles felbontásig hozzák át az egyes tartalmakon a textúraminőséget, és akkor 10 GB-ba beférne, de akkor meg az lenne a baj, hogy a konzolon jobb az elérhető minőség. Ráadásul a textúrarészletesség maximalizálása csak egy extra beállítás, nem érint senkit negatívan, mert ha nincs elég VRAM a kártyán, akkor lehet találni olyan beállítást, amivel bőven jól fut a játék. A VRAM használatát tehát nagyrészt az határozza meg, hogy mit hoznak át a fejlesztők a konzolról. Mivel az új konzolok a memóriaalrendszer szempontjából brutálisak azzal a marha gyors SSD-vel, így mostantól igencsak el lehet szállni ezeken a gépeken a textúrarészletességgel, egyszerűen csak egy virtuális textúrázásra szabott rendszer kell hozzá, ami pont van az Unreal Engine 4-ben.
Egyébként pont az AMD mondta a Radeonokra vonatkozó deep dive előadásokon, hogy nem véletlenül raktak mindhárom kártyára 16 GB-ot. Még a legkisebbre is. Eredetileg úgy számolták, hogy 12 GB elég lesz a következő egy évre, de aztán látták a tavaszig megjelenő konzolos címeket, és a mostani szimulációik alapján még a 16 GB-hoz is komolyan optimalizálni kell a PC-s portot. Szóval úgy döntöttek, hogy 16 GB-tal hozzák mindhárom cuccot. Ez van. Bivaly lett a konzolok memóriaalrendszere, és erre úgy rárepültek a fejlesztők, mint gyöngytyúk a takonyra. Viszont ezt egyelőre, megfelelő API-k hiányában csak nyers memóriakapacitással lehet helyettesíteni PC-n. Hosszabb távon jobb lesz a helyzet, de már készül olyan cím is konzolra, ami 16kx16k texeles textúrákat használ, amihez 16 GB VRAM is édeskevés lenne, oda majd kellenek az újítások, amiket a Microsoft tervez 2022-től a PC-be. De ez még messzebb van, egyelőre az elkövetkező egy év jelent problémát.
#52049 arn : A konzolon gyakorlatilag az SSD, illetve az alkalmazott technikai háttér miatt eléggé el lehet szállni a memóriahasználattal. Virtuális textúrázás kell hozzá, és olyan szintre küldheted a részletességet, amilyet sosem alkalmaztak még PC-n sem. Ennek az oka, hogy az SSD elég tempós ahhoz, hogy a memóriát gyorsítótárként használhasd. És igen. Pont ezért pakoltak 16 GB VRAM-ot a legkisebb Radeonra is, mert ezt a működést csak nyers kapacitással lehet PC-n ellensúlyozni, tehát ha nem korlátozzák a PC-s portoknál a minőséget, és áthozzák mindazt a tartalmat, amit konzolra szállítanak, akkor az bizony durván memóriagyilkos lesz. És ezt nem lehet menedzselni. Vagy ott van az adat, vagy nincs, utóbbi esetben jönnek az akadások.
A memóriahasználat gyártótól független. Azt nem lehet kihasználni, maximum győzködni a fejlesztőket, hogy van ám 16 GB-os VGA, nyugodtan hozhatják PC-re a konzol textúraminőségét. De nem hiszem, hogy nagyon győzködni kell erről őket, mert ez csak egy beállítás PC-n. Akár külön textúracsomaggal is lehet szállítani. Senkit nem ér hátrány, ha van egy extra beállítási szint.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #52097 üzenetére
Biztosan tudták, csak a GDDR6X egészen más árszinten mozog, mint a GDDR6. Tehát nekik meg volt kötve a kezük. Ugye a GDDR6 esetében van 2 GB-os stack, tehát egy 16 GB-os kártyához elég nyolcat használni. GDDR6X-ből csak 1 GB-os stack van, ergo dupla memóriához dupla mennyiségű chip is kell. Bármit is látnak, a dolgot megölte az, hogy az árba ennyi chip nem fér bele. Veszteséggel meg egyik cég sem kezdi el árulni az új generációt. Az túl nagy hülyeség lenne.
Az NV-nek az a biztonságos út, ha megvárják, amíg a Micronnak kész lesz a 2 GB-os GDDR6X stackje. Ez februárra reális, legalábbis a Micron ekkora ígérte korábban. Tavasszal tehát már lehet hozni frissítéseket a kiadott GeForce-okra, dupla memóriával. És tavaszig tényleg nem sok olyan játék lesz, ahol a 10 GB-os kapacitás drámaian kevés lenne. Tavasztól kezd el ez a dolog bedurvulni, de akkorra meg bőven lesznek nagyobb VRAM-mal rendelkező GeForce-ok.
Igen a 8 GB is kevés lehet, nem véletlen, hogy az egyel kisebb Navit 12 GB-tal tervezi az AMD. De nekik sokkal könnyebb ám mozogni a GDDR6 és az infinity cache miatt. Az NV-nek nincs infinity cache számukra nehézkesebb a mozgás most. Ezen kár törniük magukat, mert változtatni nem tudnak rajta, a fő cél, hogy tavasszal legyen egy frissítés.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
kisfurko
senior tag
válasz KillerKollar #52097 üzenetére
Ha igaz, hogy nincs elég GDDR6X, akkor kényszerből van 10GB a kártyán, nem pedig készületlenül érte őket az új konzolgeneráció. Ehhez jön még, hogy utolsó pillanatban a GA102-nek kellett beugrania a GA104 helyére, mert lemaradtak volna.
-
Pug
veterán
válasz KillerKollar #52100 üzenetére
az NV a piacvezető így a legtöbb játékot úgy fogják optimalizálni, hogy az Ő termékeiken is jól fusson max grafikán is.
Jaja, foleg a konzol portokat...lol
Veletlenul nem 3080-ad van?[ Szerkesztve ]
-
Pug
veterán
válasz KillerKollar #52102 üzenetére
Es ki mondta, hogy nem fog jol futni
Ha nem fer bele a VRAM-ba az adott textura reszletesseg, szepen leskalazza a textura felbontast. Ennyi. -
Abu85
HÁZIGAZDA
válasz KillerKollar #52100 üzenetére
A marketing az lesz, hogy fél éves frissítés, még jobbak lettek a VGA-k. Amikor itt a frissebb sorozat, akkor olyan mindegy, hogy mi lesz a régivel.
Ez nem hiba, hanem kényszer. Bizonyos anno jónak tűnő döntések vezettek ide, amik most visszagondolva rosszabb döntésnek tűnnek. De ezt régen nem tudták ám, vagy a Micron korábban azt ígérte, hogy lesz 2 GB-os GDDR6X a startra, stb. Ezernyi oka lehet. Ha mondjuk lenne elég GDDR6X, és lenne 1 és 2 GB-os opció, akkor nem lenne itt semmi probléma. Lehet, hogy eredetileg így volt tervezve, csak közbejött valami, amit nem bír gyorsan megoldani a Micron és az NV. Ilyenek azért bőven előfordulnak a fejlesztés során.
A fejlesztők nem akarják az NV tulajokat hátrányba hozni, be lesz építve egy olyan textúrabeállítás, amivel menni fog a játék 10 GB-os VGA-n is. Mivel ez fix paraméter, így az indításkor simán lekérdezhető, hogy mennyi VRAM-ja van a VGA-nak, és a textúrarészletességet automatikusan berakja a megfelelő szintre. Nagyon egyszerűen kivitelezhető, az NV felmérése szerint a játékosok döntő többsége eleve be sem megy az options menübe, tehát különösebb bajt ez nem okoz, a játék beállítja a pont jó minőséget. Tehát jól fog futni, csak nem biztos, hogy maxon.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #52106 üzenetére
Olyan kevesen vették meg a hiány miatt, hogy nagy bajuk ebből nem lesz. Nem mellesleg nem kellett atomfizikusnak lenni hozzá, hogy a 10 GB bizony kövéske.
És most mit csináljon az NV? Ennyi memóriát tudnak tenni a VGA-ra. Ez attól sem változik meg, ha tudják, hogy kevés. Vagy kiadják így, vagy nem adnak ki semmit. A 20 GB nem opció, mert nincs 2 GB-os GDDR6X stack, 20 darab 1 GB-os GDDR6X memóriát pedig marha drága lenne felszerelni egy 700 dolláros termékre. Ha a mérnökök egyesével tökön szúrják magukat, akkor sem tudnak ezen változtatni. De meg fogják tenni a lépéseket, amint lehetőség lesz rá, például, amint lesz 2 GB-os GDDR6X. Addig csak szét tudják tenni a kezüket, hogy tudják, hogy nem jó, de semmit sem tehetnek ellene, nem az NVIDIA-n múlik.
#52107 CME : Nem, de a textúra az, aminek a minősége könnyen módosítható, így ezzel lehet skálázni a kevésebb memóriára.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
TESCO-Zsömle
félisten
válasz KillerKollar #52102 üzenetére
"a PC-s változatnak azon a hardveren kell jól futnia ami a legtöbb PC-ben van"
Szerintem aláhúztam a lényeget. Jól kell futnia, nem pedig Ultra-n.
Crysis óta szerintem megszokott, hogy fullmax beállítások mellett a játékoknak legyen elvárása a tulajdonosok gépével szemben és ne a tulajdonosoknak a játékkal szemben. Ha valami megjelenéskor nem képes semmin fullmax beállításokkal futni, az nem szarul van optimalizálva, hanem jövőtálló. Szarul optimalizálva az van, ami minimumon sem fut semmin normálisan...
[ Szerkesztve ]
Sub-Dungeoneer lvl -57
-
Locutus
veterán
válasz KillerKollar #52106 üzenetére
Én értem mire akarsz kilyukadni, de az egész vita alapja az, hogy már megint túl van misztifikálva az AMD propaganda, amit ide Abu le szokott hozni. Még jó, hogy az ő forrásai azt mondják amit A valóság meg ezzel szemben rendre máshogy nézett ki évek óta.
A helyzet valószínűleg az, hogy a 10GB VRAM évekig elég lesz mindenre. Mindenre ami nem AMD-s techdemo, és nem direkt azért és úgy fejlesztették, portolták. Az nvidia is csinált ilyet anno a földalatti felesleges tesszelálással crysisban. Nem ezeknek a játékoknak a mesterségesen felsrófolt igényéből kell kiindulni. És főleg nem a leszarom pénzhajhász fejlesztők és kiadók fos minőségű portjaiból. A DX12 sem azért kell, mert milyen jó, hanem hogy a fejlesztőknek még kevesebb munkát kelljen rakni a portba. Amiből ugye már többszáz világmegváltó teljesítményű, és grafikájú játék kéne legyen az AMD-s mantra szerint.
Mindig elő volt húzva a kalapból egy játék, ami az épp aktuális mantrát kellett alátámassza valahogy. A kutyát nem érdeklik ezek, de tesztelni muszáj velük, mert csak. Ennyi erővel az RDR2 is lehetne etalon, mert olyan hardver igénye van mint semmi másnak. Mert egy szar port. De mivel ezen a sok VRAM sem segít, az AMD persze hogy nem ezt lóbálja mindenkinek az arcába
Ugyanolyan hitkérdés van itt ebből csinálva, minthogy az AMD-nek valami csoda folytán nem lesz készlethiánya startkor Nem persze... most még megy a nagy arc, aztán mikor 1-2-10 hét múlva beüt a valóság, akkor mind csendben lesznek.
Igen, az nvidia valszeg jönni fog jövőre super vagy ti kártyákkal, mint mindig is jött, amin valszeg több VRAM is lesz. Némelyiken. De nem azért, mert kell, hanem mert addigra már majd lehet, és ebbe az irányba IS előre tudnak lépni. De olcsók sem lesznek, az is biztos.Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
-
TESCO-Zsömle
félisten
válasz KillerKollar #52111 üzenetére
"szerintem egy 700$-os "flagship" kártya ami a "csúcs" (legalábbis desktop gamer PC-kben) GA102-es lapkára épül és alig 10%-al lassabb az 1500$-os 3090-nél szerintem ki kell, hogy elégítse ezt az elvárást."
Erre az elvárásra térjünk vissza, mikor a "kielégítéshez" nem 1440p-ben meg 1080p-ben kell renderelni és onnan felskálázni 4K-ra...
Kezd ez az "Ultra" beállítás olyan lenni, mint usákoknál az iskolai eredmények... Nem elég jók a mutatók, hát csökkentjük a ponthatárokat.
Szerintem egy grafikára gyúró AAA játéknak pont arról kéne szólnia, hogy beletesznek mindent, ami technikailag lehetséges, optimalizálják amennyire lehet, aztán majd jön valami, ami képes is az összes effektet egyszerre kitolni.
Mint ahogy a 3090 se képes 8K-ba játékokat futtatni értelmes sebességgel. Eleve ha fél tucat játék van, aminél egyáltalán be lehet állítani akkora felbontást...[ Szerkesztve ]
Sub-Dungeoneer lvl -57
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Palit GeForce RTX 3090 GameRock 24GB GDDR6X - 2024.05.21-től 1 év garanciával - Frissen padozva
- Videókártya felvásárlás, csomagküldéssel is. Készpénzes vagy utalásos kifizetés.
- XFX GTS RX 580 8GB OC - eladó!
- RTX 3070 Vision Fehér/ garancia/ ingyen foxpost
- SAPPHIRE RX 580 8GB GDDR5 NITRO+ Eladó! 28.000.-