-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Jacek
veterán
válasz KillerKollar #27274 üzenetére
Zabszem van a valagamban már... de lehet hogy most veszek egy 2080Ti-t
-
Dyingsoul
veterán
válasz KillerKollar #27404 üzenetére
Ezt a 3090-et ki találta ki? Mert szerintem meg 3097-es lesz a neve.
Na de komolyra fordítva a szót, 60-90%-os teljesítménynövekedést szinte biztos, hogy Ray tracing-ben értek el, már ha igaz.
[ Szerkesztve ]
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
stratova
veterán
válasz KillerKollar #27404 üzenetére
Ezzel "hírrel" van két apró gond: 1. lehozták egy youtuber tippelgetését hírként. Rendben, legalább pletykának tartva. 2. Látott már valaki GDDR6X JEDEC szabványt? A leggyorsabb 16 Gb/s GDDR6 ha jól rémlik a Samsung konyjáján rogyog K4ZAF325BM-HC16 és K4Z80325BC-HC16 képében, Micronnál pedig MT61K512M32KPA-16-ként, amit aligha húznának ennyire.
De 256 és 384 biten is 512 ill. 786 GB/s sávszélességet biztosít. -
hokuszpk
nagyúr
válasz KillerKollar #27404 üzenetére
ha lesz 3090, az azt jelentheti, hogy a 3080TI -re varnak megfelelo AMD -s ellenfelet
Első AMD-m - a 65-ös - a seregben volt...
-
gainwardgs
addikt
válasz KillerKollar #27404 üzenetére
Csak milyen proci fogja ezt kihajtani
-
szmörlock007
aktív tag
válasz KillerKollar #27404 üzenetére
Hát tekintve, hogy a legnagyobb rdna2 20+ tflops-ot fog tudni, 16 Gb (tippre hbm) memóriával, én azért még várnék azzal az amd temetéssel
-
keIdor
titán
válasz KillerKollar #27430 üzenetére
320bit-el 20GB, 352bit-el 22GB összehozható, de akkor ismét csak az volna a baj, hogy miért 550k meg 750k a videókártya és senki sem vinné őket.
Drága a memória, de vannak lehetőségek, pl. NVCache, amivel kompenzálható.[ Szerkesztve ]
¡GLORIA A LAS PLAGAS!
-
félisten
válasz KillerKollar #27432 üzenetére
az is lehetséges, hogy pont a RAM mennyiség is hozzá tesz , plusz a magasabb órajelek miatt bevállalják a rosszabb kihozatalt nagyobb fogyasztás kerettel. A nagyobb energiaszivárgású GPU-k is bekerülnek a játékba .
vagy hülyeség. Ez 7 nm-n kb 2x rosszabb hatásfok a Turinghoz képest. Az 250 watt TDP vel volt. Ha csak azt a perf / watt - teljesítményt hoznák akkor 320 wattos TDP vel a 3080 nak kb 2080 Ti+ 30 % gyorsulást kellene hozni, ami kizárt.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz KillerKollar #27436 üzenetére
Na igen de a 3090 - 3080 Ti és a 3080 külön kártya a táblázat szerint és a sima 3080 hoz is 320 watt van írva. valami nem kerek ebben.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Dyingsoul
veterán
válasz KillerKollar #27432 üzenetére
A Titán RTX ami 2500$, az 1M JMF fölött van. Szóval boritékolható, hogy ez is 1M fölött lesz. De hát a Titan kártyák soha nem a pórnépnek szóltak.
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
félisten
válasz KillerKollar #27494 üzenetére
Én is valahol a 2080 Ti főlé várom mondjuk 10 % kal a nagy Navit, de azért az érdekes lenne, ha Nvidia a 3070 kártyával 450 dollár környékén letenne az asztalra mondjuk egy 2080 Ti- 5% -t mert az erősen megszabná a konkurencia csúcs kártyájának az árát.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
X2N
senior tag
válasz KillerKollar #27497 üzenetére
Az a baj hogy hiába 4X-ezed a teljesítményt, sugárkövetés teljesítményigénye miatt az sem nagy előrelépés. Papíron jól mutat. Meg aztán hogy fogják mindezt letesztelni? Sugárkövetésben akkor lesz teljesítményed ha 4+ kártyát raksz a gépbe... Anno összehasonlítottam a 980Ti-vel az RTX 2060S-t, a 2060S kb 30%-al gyorsabb Iray alatt... CUDA számokat TDP össze tudod hasonlítani...
[ Szerkesztve ]
Launch code for russian nukes: 97 99 116 105 118 97 116 101 32 100 101 97 100 32 104 97 110 100
-
nagyúr
válasz KillerKollar #27497 üzenetére
Az 5700XT duplája inkább csak 35-40%-kal több, mint a 2080Ti. Duplázás pedig akkor lesz, ha nem csak a CU-kat szorozzák fel, hanem a chip többi részét is. Ha pl. a backend az NVIDIA-nál bevált 384-bites memóriabusz + 96 ROP lesz, akkor inkább csak az 5600XT duplájával lehet számolni. Az valahol 2080 Ti + 10-15%, és máris közelebb járunk a földhöz
A fentieket persze az órajelek és az IPC javulása mozgathatják ide-oda.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
JóképűIdegen
tag
válasz KillerKollar #27494 üzenetére
Igen csak egy dolgot tartsunk szem elott, az 5700xt-vel kapcsolatban, megpedig hogy az egy kenyszer kozepkategorias kartya. Nem azert van csutkara tekerve az orajele, meg majd 250w-os fogyasztasa a 250mm²-es chipnek mert ez annyira kozepkategorianak keszult, hanem mert ennyit tudott kihozni az Amd a 7nm-bol elso korben. Ha akkor tudott volna mar 80Cu-t megfelelo kihozatallal akkor biztos kiadta volna de nem igy lett aztan majd jott a bizonyitvany magyarazas, hogy ok ezt most direkt 2K-ra terveztek( nyilvan nem nyilatkozhatjak hogy eddig ert el a tudasunk gyartastehnologia es arhitektura valtas utan) Tehat mivel az 5700XT a jelenlegi csucs ehhez nezzuk az elorelepest es bizony kellene alsohangon a +100% teljesitmeny ugras amit en marcsak uzletileg is kizartnek tartok. Inkabb egymas utani 2 szeriaban adnam ki ezt a teljesitmenyt ha mar rendelkezesre allna.
-
gejala
őstag
válasz KillerKollar #27607 üzenetére
"Ha a sima 3080 30%-ot verne a 2080 Ti-ra az brutális lenne, a 2080 Ti alig ver többet a 1080 Ti-ra..."
Nem a 2080 Ti-ből kell kiindulni, az elmúlt 10 év leggyengébb csúcskártyája lett. A 1080 Ti majdnem dupla olyan gyors 1440p/4K-ban, mint a 980 Ti. Egyes játékokban még több, mint 2x is.Nextgen játékokban szerintem a 3070 is gyorsabb lesz, mint a 2080 Ti, RT off is.
[ Szerkesztve ]
-
Dyingsoul
veterán
válasz KillerKollar #27619 üzenetére
Független tesztek lesznek, mindig is voltak. A számok nem hazudnak. Aki meg név alapján vásárol VGA-t az meg is érdemli.
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
KillerKollar
senior tag
válasz KillerKollar #27633 üzenetére
Oops, most láttam, hogy te is írtad a végén, hogy fake, nvm
-
félisten
válasz KillerKollar #27633 üzenetére
Mondjuk ez amire hivatkozik a pont a legnagyobb hülyeség. Az A100 egy célhardver , tensor számításokra kihegyezve. Ha ez fake akkor biztos , hogy nem ezért. Az A100 nem összevethető a dekstop gaming kártyákkal semmilyen szinten...
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Kicsimix
őstag
válasz KillerKollar #27737 üzenetére
RTX az egy videókártya de RT-t alkalmazva játékokban csak az nV mutatott be igen..
A DXR 1.1 inline RT után lesz egyáltalán olyan aki az nvidia egyedi RT megoldására fókuszálna? Vagy majd szép lassan kikopik a köztudatból mint egy kudarcra ítélt valami.. Oké, hogy most nincs más alternatíva stb.. De ennek mindjárt vége kb. Esetleg a DXR-t is gyorsítja hardveresen? Mi lesz ami miatt gyorsabb lehet RT-ben az NV? A DXR egy egységes megoldás mindenkinek nem? Esetleg egy még hatékonyabb megoldást csináltak..
Nem tudom..
...Kockázat nélkül nincs vereség... : ------------)
-
Alogonomus
őstag
válasz KillerKollar #27737 üzenetére
DLSS-sel az a probléma, hogy nem egy univerzális megoldás az fps növelésére, hanem minden egyes játék esetén be kell tanítani a helyes működésre. NV rengeteg órányi tesztelés során a játékteret bejárva kitapasztalja és megtanítja a drivernek, hogy mikor és hol lehet spórolni a számítási igényeken a látvány érdemi csökkenése nélkül.
Na ez lényegében ki is zárja a nagy és változatos bejárható területtel bíró játékokat (MMO/free roam single player), és így főleg a lineáris történetvezetésű játékok, vagy a néhány folyosóra szorítkozó FPS címek a DLSS célterülete. DLSS ezek miatt csak néhány játékban érhető el, és a jövőben sem fog a játékok jelentős hányadában elérhetővé válni. Aki olyan játékkal játszik, annak hasznos, aki nem, annak értelmetlen.DLSS 2.0 elméletileg nem igényli ezt az előre betanítást, mégis csak szűk 30 játékban kapcsolható be. [link]
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz KillerKollar #27876 üzenetére
Csak ez nem annyiból áll, hogy dobsz rá egy ilyen hardvert. Kell hozzá az API is, amitől működik. A Radeon Pro SSG-n az SSG API nélkül az az SSD csak adattárolásra jó, de amúgy semmit sem tud hozzátenni a hardverhez. Az SSG API teszi működővé. Ezt könnyű eladni professzionális szintre, ahol nagyon is kell terabájtos szintű memória, mert nem akarják a vizualizációnál darabokra bontani a tartalmat, így oda persze megírják az SSG API-n keresztül a támogatás, de ez a consumer piac. Ide előbb egy szabványos technológia kell, hogy egyáltalán megérje SSD-ket szerelni a GPU mellé a NYÁK-ra.
Az AMD jelenleg annyit tud elérni, amit elér a HBCC-vel, ami például a PS5-höz képest egy híg fos.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #27878 üzenetére
A korábbi videókban még 7 nm-en jött.
Az a baj megint a youtube-ozással, hogy nem igazán vannak tisztában a szükséges tervezési munkával. tegyük fel, hogy az NV a Samsunghoz vitte a gyártást a 10/8 nm-re. Na most innen a TSMC-hez visszavinni 7 nm-re egy hiba lenne, mert elköltöttek egy rakás pénzt, hogy a Samsung node-jára portolják a dizájnkönyvtáraikat. Azokra lassan terveztek pár lapkát, megismerték a működését, és erre építve lehetne csinálni jobb verziókat. Erre kidobnak mindent, amit csináltak, visszaportolnak mindent a TSMC-hez, vagy egy újabb Samsung node-ra fejlesztenek, például a 7 nm-es EVU-re, és az elejéről kezdik a tervezéssel járó szenvedést. Itt nem az a lényeg, hogy a szám kisebb legyen a nanométer előtt, hanem az, hogy megértsék az adott node-ot, és onnan tudnak hatékonyságot nyerni. De ha csak ugrálnak a node-ok között, akkor sosem tudnak semmit sem kitapasztalni, amitől nem jönnek majd a jó órajelek, a jó fogyasztási adatok, stb. Majd a 3 nm-es GAAFET-re ezt meg lehet csinálni, de most a tapasztalat a döntő tényező. Simán sokkal többet lehet hozni úgy, hogy maradnak az eredeti node-on, és arra csinálnak újratervezést. Ha tényleg a 8 nm-es Samsung node-ról van szó, akkor az még nem is annyira bonyolult. Ha 7 nm-re mennek, akkor nem nyernek vele, mert nulláról kezdenek megint.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #27880 üzenetére
Ez jól hangzik, csak nem így működik. Ha eredetileg ezt a TSMC-hez tervezték, akkor az bizony nem jelenne meg idén a Samsungnál, mert a TSMC nem a Common Platform része. Nem portolható a Samsunghoz semmijük. Csak a GlobalFoundries és a Samsung egyes gyártástechnológiái között van átjárhatóság, de ott is nagyjából egy éves csúszással kell számolni, ha átmész az egyik cég gyárából a mások gyárába.
Szóval olyat nem lehet csinálni, hogy az egyik helyre tervezel, majd kiderül, hogy ott nincs kapacitás és átmész máshova. Másfél-két éves csúszással bünteted magad egy ilyenért. Legalább fél év mire leportolod a dizájnkönyvtárakat, és egy év mire azokra kihozol egy lapkát, ha pedig az nem elég jó, akkor egy respin plusz fél év. Ha ez tényleg így történt, akkor Ampere majd jövő nyárra lesz, de én úgy hallom, hogy idén ténylegesen elérhetővé teszik, tehát nyilván mindent oda terveztek, ahova akarták.
Arról nem is beszélve, hogy a TSMC annyi kapacitást épít, amennyi kell. Nekik az a lényeg, hogy mindenkinek legyen elég wafer, ha időben szól egy cég, akkor tudnak gyártósort építeni nekik. És nem hiszem, hogy ezekről a kérdésekről az NVIDIA idén döntött. Inkább 2018-ban, tehát bőven volt idő a TSMC-nél 2020 végére kapacitást építeni az NV-nek, ha akarnak náluk gyártatni. Ha most döntenének ilyen kérdésekben, akkor még 2021-ben se lehetne kiadni az Ampere-t.
Sokkal logikusabb az a sztori, hogy az NV kiszámolta, hogy a Samsung olcsóbban gyárt, mint a TSMC. És eleve hozzájuk mentek. Ezt azért tartom reálisnak, mert a Samsung tényleg olcsóbban gyárt, és nem kell nagyfiúkkal versenyezni a waferért, másrészt így az NV nem tűnik a világ legamatőrebb cégének, mint a fenti sztorival.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #27884 üzenetére
Az 5 nm az teljesen más tészta. Arra érdemes a lehető leghamarabb ráugrani, de mondjuk egy hatalmas lapkával eléggé kockázatos. A TSMC-hez jelenleg a kisebb dizájnok futnak be, amelyeknél a lapka kiterjedése nem nagyobb 100 mm2-nél. Egy adott gyártástechnológia ugyan alkalmas lesz később nagy lapkákra, de az elején nem igazán az. Le tudják gyártani, viszont sok lesz a selejt. És a 7 nm-ből kiindulva ez még 2021 végén is igaz lesz az 5 nm-re, ami nehezebb node. De jövő év végére már képes lehet a TSMC arra, hogy nagy lapkákat gyártson, ha a megrendelő állja a selejtek költségét. Én elképzelhetőnek tartok egy 5 nm-es NV GPU-t jövőre, de csak a szerverbe, mert ott azért van mozgástér akkor is, ha sok lesz a selejt. Általánosan inkább 2022-ben lesz itt az 5 nm. Ez igaz amúgy az AMD-re is. Ők is szerverpiacra hozzák az 5 nm-t először, talán még a HEDT-be a Threadripperrel, de a többi piacra csak 2022-ben.
Azt nehéz megmondani, hogy amikor leadod a terveket a partnereknek, akkor azokból mi lesz, és a formálódó termék mennyire lesz versenyképes a konkurens akkori termékével. Ezzel a kérdéssel nem is igazán szoktak foglalkozni a tervezésnél.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
core i7
addikt
válasz KillerKollar #27884 üzenetére
2022 lesz az a Hopper inkább
Aztán 2024-ben jön a KelvinDe az is lehet csak a szerver kapja a Hopper nevet jövőre és a kövi Gamer uarch lesz a Kelvin 22 ben
[ Szerkesztve ]
-
cyberkind
félisten
válasz KillerKollar #28015 üzenetére
Szerintem mindkettő, dollár egy az egyben megy eurora, majd egy kis árfolyamkockázattal meg forintra, erre jön az áfa meg haszon.
Paranormal Cocktivity
-
-Solt-
veterán
válasz KillerKollar #28015 üzenetére
Forrásfüggő... ha az EU-ból jön, akkor az euró a meghatározó, ha az EU-n kívülről jön akkor a dollár a meghatározó. Nálunk van mindkettőre példa, mert sokszor a német Amazon-n drágábbak a cuccok mint itthon, pedig ott csak 19% az ÁFA. Ezekben benne van az árfolyam és a szürke kereskedelem is.
Az alaptétel az, hogy MSRP ár * USD árfolyam + 27% ÁFA... pár hónap után meg mínusz 10-15%.
www.smart-bus.hu
-
wjbhbdux
veterán
válasz KillerKollar #28093 üzenetére
> rájuk ragad valamennyi készlet prev gen kártyákból azokat valószínűleg nagy kedvezménnyekkel szórják majd ki.
nem voltak ilyen legendák a pascalnál is hogy több millió 1070 rájuk rohadt amit a bányászoknak gyártottak? nem láttam őket olcsón
/s
-
nubreed
veterán
válasz KillerKollar #28100 üzenetére
"hatalmas a munkanélküliség és rengetegen nem tudnak lakbért sem fizetni, kétlem, hogy 800-1200 dolláros RTX kártyákra akarnának most költeni az emberek."
Szerintem ez az nV-t nem fogja mehatni. Vissza akarják hozni a fejlesztési költséget és még profitot is termelni. Persze én is reménykedek abban, hogy a 3000 sorozat olcsóbban tud kijönni, mint ahogy a 2000 jött, de ez csak az érzelmi vonulata a dolognak, a realitás meg lehet, hogy az lesz, hogy pont fordítva. Vagy ugyanannyin fognak kezdeni, vagy drágábban. Az nV meg fogja találni a piacát, ha más nem, majd Ázsiában.We are the first of cyber evolution. We are the first to program your future.
-
mormota79
tag
válasz KillerKollar #28100 üzenetére
Miért kell ezt a konzol mantrát napi szinten itt olvasni. A csúcskártyák árazásánál pont leszarják az akárhány 100 dolláros konzolt. Aki csúcskártyában gondolkodik azt pont leszarja a konzolt mert akármit képzeltek be az új konzoloknak az közel se fogja azt nyújtani. Illetve nem szarja le mert meg fogja venni mellé a konzolt is. A másik aki a válság miatt nem tud csúcskártyát venni az válság nélkül se vette volna meg. Álmodoztok itt a kártyák pedig ugyanolyan drágák lesznek vagy drágábbak és venni fogják őket szépen.
-
Raymond
félisten
válasz KillerKollar #28169 üzenetére
Hat igen, a tablazatban szereplo "Replacement Class"-okban nincs sok logika. Ennek lenne inkabb ertelme az elso haromra:
Titan
2080 Ti
2080 SuperPrivat velemeny - keretik nem megkovezni...
-
Dyingsoul
veterán
válasz KillerKollar #28338 üzenetére
Persze ez egyértelmű. De szerintem ez az ár amit bárki kitalált hülyeség. Még így is, hogy tisztában vagyok azzal amit írsz. Egyszerűen irreális.
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
Dyingsoul
veterán
válasz KillerKollar #28341 üzenetére
Én tisztelem a feature-öket is mert persze, hogy emberek munkaórái vannak benne ugyanúgy, mint a fizikai termékekben. De az RTX-et egy felesleges teljesítmény lehúzó funkciónak tartom. Persze nézhet ki jól meg minden de egyszerűen nem ér annyit a teljesítményveszteség, mint amennyit a látvány nyújt. Túl sokba kerül. A 60 vs 144 fps is irdatlan növekedés a látványban, persze másmilyen de akkor is. Ugyanígy lehetne menni 144 hz fölé is, mert egyszerűen látszik a különbség, mégis inkább az RTX felé mentek, mert egyrészt jól hangzik, másrészt látványos, harmadrészt a megjelenítőknek nem kell alkalmazkodniuk. Ezért kicsit politikai döntésnek is érzem az RTX-re való marketinget.
De hogy a jelen leakekről beszéljünk inkább:
Én utálom az összeesküvés elméleteket, inkább a logikus gondolkodás híve vagyok. Az érzelmek (már ha gépfejlesztés kapcsán beszélhetünk érzelmekről...) viszont azt sugallják a jelenlegi leakekkel kapcsolatban valami nincs rendben, valami változott. Ez a mostani árazási leak szürreális főleg a jelenlegi helyzetet figyelembe véve. Ahogy írtátok, az árazás logikusan a bejelentés előtt derül ki órákkal vagy akár egy nappal előtte. Akkor mégis ki és hogy tippelheti be így az árakat?
Az én ötletem az, hogy már most kezdődik azt emberek "szoktatása" a nagyobb árazáshoz. Ha ez után az jön szeptemberben bejelentésben, hogy 1000$ a king size GPU, akkor mindenkinek nagy kő esik le a szívéről, "no hát csak nem 1400$, vegyük hát meg!"...
Én ezzel nem vagyok elégedett.Mi van azzal, hogy teszem azt valaki megvette az 1000$-os 2080 Ti-t 2 éve. (nem magamról beszélek) Mi kényszerítené őt a váltásra? A plusz teljesítmény? Oké, legyen az. De mennyit adjon ki érte? 2 év után 1000$-t ismét? Vagy 2 év után most már többet, mondjuk 1200 vagy 1400-at? Ugyanazért a teljesítményért nyilván nem fog az ember 2 év után ismét 1000$-t fizetni, csak hogy azt mondhassa "nekem új kártya van a gépemben, garanciális"....
Csak azt akarom mondani, hogy a plusz teljesítmény az egy dolog. De két év után ez várható is, mármint az hogy nagyobb teljesítményért adsz ki még egyszer ennyi lóvét. De hogy még többet adj ki, mint előtte az csak szerintem dupla szopatás?Valószínűleg nem ezek a tényezők árazzák be a kártyákat egyébként. Hanem a fejlesztési költségek, a gyártási költségek, logisztikai és egyéb költségek. Fogalmam sincs milyen piackutatás előzheti meg valóban az árképzést, de tuti azt is kell készíteniük.
Nvidia subredditen még az árazásról való beszélgetéseket is kimoderálják... Én két kérdést/eszmefuttatást is feltettem az elmúlt napokban az árazásról, mindkettőt törölték a moderátorok pedig flairt is adtam hozzá és upvote-okat kaptam...De ha ilyesmire kerestek Google-n azért ez is érdekes, hogy ilyet dob fel, hoyg a 2080 Ti marhára nem éri meg az árát. Akkor mihez viszonyítjuk az Ampere-t? 4-6 éves technológiákhoz?
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
Malibutomi
nagyúr
válasz KillerKollar #28341 üzenetére
Es itt jon be hogy ha az AMD tenyleg betalal most (akar csak eleg kozel kerul) akkor kihasznalhatja ezt arazasban. Akkor viszont NV is muszaj lesz arat vagjon
-
paprobert
senior tag
válasz KillerKollar #28341 üzenetére
Nincs szoros összefüggés a GPU legyártásának ára és a végfelhasználói ár között.
Ez olyan, mintha azt mondanád, hogy holnaptól 500Ft lesz a 300Ft-os Red Bull, azért mert drágult a benne lévő egy kanál cukor.A 150 dolláros hűtőn pedig kifejezetten röhögnöm kell. Nyilván azért spórolnak a gyengébb gyártástechnológiával egy keveset és hoznak egy rosszabb fogyasztású chipet, hogy utána ezt kompenzálva elkölthessenek kártyánként 150 dollárt a hűtőre... eszem megáll, komolyan.
[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
-
warcat
veterán
válasz KillerKollar #28567 üzenetére
Én továbbra sem erre reagáltam, hanem hogy egyáltalán (úgy tűnik) felmerült, hogy PCIe 4.0-val érkeznek-e a kártyák, mivel számomra nyilvánvaló volt, hogy igen, a csatoló lefelé kompatibilis, az alaplapon kell a megfelelő jelerősséget és -tisztaságot biztosítani.
-Horizon Zero Dawnt meg hibás dolog így a szőnyeg alá söpörni, bár vannak gondjai, 'Ritka szar optimalizáció'-ról akkor beszélhetünk, ha pazarolja, elvesztegeti az erőforrásokat, miközben erről szó sincs.
2080 Ti@ 4k szűk 60fps a prezentált látványvilág mellé teljesen normális.Itt a friss mérés, ahol szépen előjön az 5700XT@ 1440p bottleneck.Vélhetően 4k-n is lenne, csak oda már nem elég erős a kártya,hogy előkerüljön.
[ Szerkesztve ]
EA: It's in the crate!
-
Abu85
HÁZIGAZDA
válasz KillerKollar #28567 üzenetére
Ezt már írtam egy párszor. Hiába használja valami ugyanazt a motort, ha a megjelenített tartalom részletessége sokkal nagyobb az egyik esetben. A Horizon: Zero Dawn pont hogy rengeteg vegetációt jelenít meg, míg a Death Stranding gyakorlatilag semmit, egy pusztaság az egész. Geometriai terhelésben ez óriási különbség, mert a vegetáció pont olyan részlet, amely rendkívüli mértékben növeli a háromszögszámot, vagyis nehezebb vele elbánnia a hardvereknek. Ha mondjuk lecsupaszítod a Horizon: Zero Dawnt a minimumra, vagyis a geometriai részletességét közel leveszed a Death Stranding szintjére, akkor már láthatóan ugyanolyan gyorsan fut.
Emellett az is számít, hogy a Horizon: Zero Dawn esetében egy csomó karakternek látszik a haja, amelyekre fut a TressFX. A Death Strandingben ugyan megvan ez az effekt, de ritkán látod a ruha miatt a hajat. Nem mindegy, hogy egy igen erőforrás-igényes TressFX-et négy-öt karakterre is lefuttatsz, vagy egyre sem.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
KRoy19
őstag
válasz KillerKollar #28567 üzenetére
"A Horizon: Zero Dawn egy ritka sz*rul optimalizált játék, a Death Stranding ugyan ezt az engine-t használja, ott nincs ilyen probléma"
Ja mert a DS-ben kb. csak sziklák vannak, úgy nem nehéz... -
sutyi^
senior tag
válasz KillerKollar #28571 üzenetére
"Előbb utóbb biztos az lesz, de jelenleg az NV-nek nem érdeke, hogy a 3.0 komoly bottleneck lergyen, hiszen ez sokakat eltántoríthat a vásárlástól, akiknek még nem támogatja a 4.0-át az alaplapjuk/procijuk."
Ez nem érdek kérdése, hanem egyszerű matek. Ha elfogy a sávszélesség a PCIe 3.0 x16-on bizonyos terhelések esetén, akkor bottleneck lesz belőle... kész pont. Akinek meg nincs a gépében ilyen csatoló felület, az így járt azt jó napot.De sanda gyanúm hogy akinek belefért a kosárba egy RTX 3090 annak nem lesz gond venni év végén egy ZEN3-as rendszert akár, ha úgy látja hogy ez már idén "probléma" lehet AAA címekben és neki kell az utolsó fps is.
Egyelőre játékok alatt nem látom hogy ez komoly "problémát" okozna, legalábbis még vagy 1-2 évig minimum.
-Pedig nem is én utállak téged, te utálod saját magad! - ...és mégis egész nap együtt kell lennem saját magammal.
-
Devid_81
nagyúr
válasz KillerKollar #28571 üzenetére
A 10900K egy 5 eves arch, aki ezt figyelmem kivul hagyta vasarlasnal az sajnos tajekozatlansagbol elkovetett felesleges penzkoltesbe kezdett
Akinek kell a PCI-e 4.0 az megkaphatja AMD rendszerrel, vagy var Intelnel.
Ha barmilyen bottleneck lesz 3.0-an akkor biza ez szivas az Intel tulajoknak, es egy ujabb jo pont az AMD-nek, es akkor a Zen3 meg kint sincs.[ Szerkesztve ]
...
-
Abu85
HÁZIGAZDA
válasz KillerKollar #28571 üzenetére
Ezekkel az új konzolokkal a Horizon-féle jelenség egyre inkább jellemző lesz. A problémát az adatmásolások mennyisége jelenti. Az újabb motorokban ebből egyszerűen több van. Az NVIDIA azon kívül nem tud vele mit kezdeni, hogy hozza az x16-os PCI Express 4.0 támogatását. Ugye a kétszer nagyobb sávszél segít a probléma redukálásában.
Az sosem segít, ha valaki korábbi generációs platformokon ragadt. De őszintén szólva az AMD és az NVIDIA ezzel mit csináljon? Annyi lehetőségük van, hogy élnek a visszafelé kompatibilitással, mert az x16-os PCI Express 4.0-s VGA-ikat bele tudod rakni egy 3.0-s interfészbe is. De ha az limitál, akkor a legtöbb, amit tehetnek, hogy széttárják a karjukat, és javasolnak egy PCI Express 4.0-s platformot. A házi feladatot az NVIDIA is elvégzi idén, áttérnek a 4.0-s vezérlőre, ennél többet nem tudnak tenni. Egyébként akkora problémát ez szerintem számukra nem jelent, mert a PCI Express 4.0 kapcsán már nem beszélhetünk, arról, hogy csak az extrém drága alaplapok és procik támogatják. Ma már ez teljesen elérhető technológia. Csakis a felhasználó egyéni döntése az, hogy akarja-e az előnyeit, vagy sem. Szóval ezen olyan nagyon az AMD és az NVIDIA sem görcsöl, nem mintha tudnának bármit is csinálni a PCI Express 4.0 támogatásán túl.
Jól emlékszel, a PCI Express 3.0-t az Ivy Bridge hozta be. De az éveket itt nem érdemes számolni. Az egész limit attól függ, hogy a motorok hogyan épülnek fel. Amikor a mostani konzolgeneráció behozta az egységes memóriát, akkor minden ezt kihasználó fejlesztés még prototípus szinten volt. Az exkluzívok gyorsan ráugrottak, de a többiek csak lassan. Ma már viszont igen tipikusak azok a motorok, amelyek még multiplatform szinten is előnyt kovácsolnak az egységes memóriából, és így már számításba kell venni a memóriamenedzsment tervezésénél, hogy a PCI Express teljesítménye limitáló lehet, mert a konzol itt sokkal többet tud az egységes memóriával.
A mai motorok tehát alapvetően rátervezhetők az x16-os PCI Express 3.0 limitjeire, és ilyen formában ezzel élnek is a fejlesztők. De mivel idén az NVIDIA és az AMD is támogatja az x16-os PCI Express 4.0-t, így nyugodtan lehet emelni a lehetőségeket szoftveres szinten is. Ehhez már a platformok is elérhetők, 100 dollár alatt/körül vannak erre alaplapok és processzorok is. Tehát jelen pillanatban a PCI Express 4.0 egy tömegpiac számára is elérhető technológia. Innentől kezdve miért is fogná mesterségesen vissza egy szoftverfejlesztő a saját motorját, amikor relatíve olcsón beszerezhetővé vált a PCI Express 4.0 PC-s szinten? Ha ez nincs meg, akkor a user veszít némi teljesítményt. Vagy elfogadja, vagy megy a boltba vásárolni.A multi-GPU szerintem ma már nem annyira fókusz a gyártók számára. De azért valószínűsítik, hogy ha valaki össze tudja kalapálni két csúcskártya árát (ami manapság igen durva összeg lehet), annak nem jelent majd gondot venni egy harmadik generációs Ryzen Threadrippert, meg a hozzá való alaplapot, ami aztán bővelkedik PCI Express 4.0-s sávokban.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
DudeHUN
senior tag
válasz KillerKollar #28576 üzenetére
Előbb utóbb muszáj lesz PCIe-ben is váltani a kártyáknak. Mire várjanak? Ma már bőven van hardver, ami támogatja. Arról nem tehet sem az AMD, sem az Nvidia, hogy az Intelnél nincs PCI 4.0-ás hardver.
Szerintem előbb várjuk meg a teszteket, hogy mekkora hátrányt fog ez jelenteni a csúcs VGA-k esetében és csak utána pánikoljunk. Lehet ebben a generációban, vagy 1-2 évben még csak elhanyagolható lesz az előnye. Plusz ugye szoftver is kell hozzá, ami használja is.Gamer for Life
-
Abu85
HÁZIGAZDA
válasz KillerKollar #28576 üzenetére
Igen. Ez igaz. Sokan ragadtak PCI Express 3.0-n. De ezzel őszintén mit kezdjen az NVIDIA vagy az AMD? Az egyetlen dolog, amit tenni tudnak, hogy hozzák a PCI Express 4.0-s hardvereket, aztán rád bízzák a döntést, hogy váltasz-e modern platformra. Ha nem, akkor az nekik nem igazán baj, mert az új hardverek működnek PCI Express 3.0-val is. Kis teljesítményt vesztesz, de ezzel nem tud senki sem kezdeni semmit.
A visszafelé kompatibilitás pont azt szolgálja, hogy ne kelljen a régebbi rendszereket lecserélni, de az nem várható el egyik piaci szereplőtől sem, hogy sok éves dizájnok miatt ne használják ki az új lehetőségeket.
Nem a konzol erőssége a lényeg, hanem az, hogy mennyi adatmásolásod lesz a PC-s portban. Láthatod, hogy egy szimpla PS4-es játékot is ki lehet úgy hozni, hogy limit legyen a PCI Express 3.0. A mostani motorokban egy multiplatform címnél valószínűleg az x16-os PCI Express 4.0-hoz fogják igazítani a működést. Ez azért hasznos, mert az új hardvereket kihasználják, és aki x16-os PCI Express 3.0-n ragadt, az sem fog elkönyvelni 5-8%-nál nagyobb teljesítményvesztést. Tehát alapvetően szó sincs arról, hogy egy új generációs multiplatform cím játszhatatlanná válik x16-os PCI Express 3.0-val, csak korlátozni fogja valamelyest a busz sebessége, de nem drámai mértékben.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #28592 üzenetére
Ez programfüggő. Amit például ma kiemeltél a Horizon: Zero Dawn, annak azért számít a PCI Express interfész, mert 4K-ban nagyjából 230 MB-nyi puffert hoz létre Host Visible és Coherent típusú memóriára. A motor maga úgy működik, hogy ezeket a puffereket a processzor és a GPU is eléri. És mivel a processzornak el kell utaznia a Radeon memóriájába, ezeknek a puffereknek a kezelése a processzor által a PCI Express sávszélességével történik.
Az NVIDIA esetében ez másképp van, mivel a GeForce-ok a VRAM-jukon belül nem alkalmaznak speciális beállítású memóriatípusokat, így ezeken a rendszereken a rendszermemóriában van az a 4K melletti, ~230 MB-nyi puffer, amit a CPU és a GPU közösen kezel. Ilyen formában a CPU gyorsabban eléri ezeket, de a GPU már nem, így az NVIDIA menedzsmentkonfigurációjával a GPU fogja ezeket a puffereket a PCI Express sávszélességével meglátogatni.
Igazából egyik sem jobb a másiknál, mert valamelyik erőforrás, vagy a CPU, vagy a GPU nem fogja teljes sebességgel elérni ezeket a pufferekt. Viszont láthatod, hogy sokat számít a PCI Express 4.0 a Radeonnak, mert csak gyorsabban fér hozzá az AMD GPU VRAM-jában tárolt adatokhoz a CPU. Ugyanúgy számítani fog az NV-nél is a a PCI Express 4.0, talán még jobban is, mert a GPU többet címzi ezeket az adatokat, mint a CPU, és ugye az NV rendszere ezekért az információkért a rendszermemóriáig megy, nincsenek benne az adatok a GeForce VRAM-jában.
Ezek a funkciók a konzol miatt vannak, mivel ott a CPU és a GPU is pontosan ugyanolyan sebességgel éri el ezeket a puffereket, tehát az új generációs motorokat erre építik fel. A PC-ben pedig a DirectX 12 kínál erre megoldást, koherencia szükségessége mellett mindegyik DirectX 12-es meghajtóimplementációnak, kell olyan memóriatípust kínálni, ami koherens és látható a host CPU számára. A Vulkanban is van ilyen lehetőség. Ezzel fedik PC-n az egységes memória hiányát. Viszont régen ezekbe a memóriatípusokba 100 MB-nál több puffert nem helyeztek, ma viszont már bőven lehetőség van 200 MB fölé is menni, az x16-os PCI Express 4.0 sávszélessége már elég nagy arra, hogy megoldja.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
gejala
őstag
válasz KillerKollar #28597 üzenetére
"Az Unreal 5 engineről is kijött már egy demo, de elvileg leghamarabb 2022 vége fele jöhet majd az első Unreal 5-ös játék"
Ráadásul az a demo csak 1440p@30-al futott PS5-on, miközben PC-n egy 2070S + NVMe SSD is simán tudja ugyanezt már most.
Megint megy a mese, hogy az új konzolok annyira tutik lesznek, hogy PC-nek semmi esélye. Emlékezzünk kicsit vissza PS4 megjelenése előttre. Pont Abu magyarázta, hogy PS4 olyanokat tud, hogy PC-re nem is lehet majd portolni a játékokat. Aztán megjelent PS4 és kiderült, hogy legjobb esetben is egy közepes PC szintjét üti meg és inkább konzolokon kell visszafogni a dolgokat, nem PC-n.
Nyilván lesz egy nagy ugrás hardverigények terén a következő 2 évben, de túlzásokba azért ne essünk.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz KillerKollar #28597 üzenetére
Az Unreal Engine 5-ről a demó az aranyos, csak azt nem mondják el, hogy annak a kis demónak a mérete majdnem 110 GB volt. Ez az új konzolok legnagyobb erőssége, de egyben a legnagyobb gyengéje is. Mert az SSD-vel, a finomszemcsés adatbetöltéssel és az új geometriai futószalaggal ugyan képesek extrém adatmennyiséget kezelni, de ezt tárolni is kell ám az SSD-n. Ha most ezt a minőséget elkészíted egy tényleges játékban, akkor nem leszel 1 TB alatt. Tehát persze a gép tudná futtatni, csak nem férne fel az SSD-re. Szóval annyira sokat attól az Unreal Engine 5-től nem érdemes várni. Továbbra is tipikus lesz a modellek játékhoz konfigurálása, esetleg a kisebb tárgyak esetében lehet megejteni azt, hogy bedobod csak úgy simán a sculptingolt alkotást, de az összes tartalomra biztosan nem. Annyira kicsi az adattároló kapacitása mindkét gépnél, hogy nem férne el az adat. Erről szándékosan nem beszélnek. Mert mind a Microsoft és a Sony talált megoldást arra, hogy extrém adatmennyiséget tudjanak streamelni, de nem tették a gépek alá az extrém adatmennyiség tárolásához szükséges adattárolót.
Azért azok a pufferek, amiket ír a CPU és a GPU nem tekinthetők nagy adattömegnek. Alapvetően 100 MB-ról van szó, és ez is 4K-val értendő. Azért növelik ezt 200 MB körülire, mert egyszerűbbé teszi a motorok működését, és megvan hozzá a PCI Express 4.0 sávszélje. De ha nincs a gépben ekkora sávszél az se baj, nem fog nagyot esni a sebesség, 5-8% mínuszt jelent kb., ahogy a Horizon esetében. Tehát sokat nyersz vele a leképező komplexitását tekintve, miközben elenyésző mértékű limitet tolsz a hardverekre. A legtöbb esetben egy ilyen módon működő motor még úgy is gyorsabb PCI Express 3.0-s csatolóval, mintha más megközelítést alkalmaznának az erőforrás kezelésére, tehát bár a PCI Express 4.0-hoz képest ugyan a 3.0 deficitet jelent, de ha az alternatív működést veszed figyelembe, akkor ahhoz képest teljesítményelőnyben van minden rendszer. Ezért érdemes alkalmazni. Egy fejlesztő általában azt nézi, hogy egy optimalizálással nyer-e egy adott PCI Express 3.0-s konfig, és ha nyer, akkor nem érdekes, hogy egy PCI Express 4.0-s konfig még többet nyer. Sőt, annál jobb.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jacek
veterán
válasz KillerKollar #28626 üzenetére
Végül is csak 100%-os áremelés lenne nem tudom kinek venné be a bele...
-
nagyúr
válasz KillerKollar #28626 üzenetére
Elég jó közelítést ad az USD ár x árfolyam x 1.27 kalkuláció, ennél induláskor drágábbak a kártyák, aztán pár hét alatt beállnak. Van viszont úgy, hogy az USD ár más, mint az MSRP - ahogy a 2080Ti esetében.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nubreed
veterán
válasz KillerKollar #28626 üzenetére
"Szép világ" lesz ha egy 3070 -es kártya 300k lesz. Sajnos benne van a pakliban. Azért remélem, hogy nem.
We are the first of cyber evolution. We are the first to program your future.
-
gejala
őstag
válasz KillerKollar #28626 üzenetére
A 2070 MSRP-je $500 volt megjelenéskor. Nem is vette kb. senki. Összehasonlításképp 1070 $380-al indult. Aztán jött 2060S $400-ért kicsit lassabban és mindjárt vették is rendesen.
Ebből kiindulva $450 fölé nem mehetnek, ha szeretnének sokat eladni, mielőtt kijönnek a konzolok/AMD kártyák.[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- BESZÁMÍTÁS! ÚJ AORUS MASTER / ROG STRIX WHITE RTX 4090 24GB videokártyák számlával 3 év garanciával
- BESZÁMÍTÁS!Bontatlan RTX 4060Ti 16GB / 4070 12GB / 4090 24GB videokártyák számlával 3 év garanciával
- BESZÁMÍTÁS! Bontatlan Sapphire PURE RX 7800 XT 16GB videokártyák számlával 3 év garanciával
- BESZÁMÍTÁS! Bontatlan RADEON RX 6600 8GB / RX 6700 XT 12GB videokártyák számlával 3 év garanciával
- ASUS TUF Nvidia RTX 3070 OC Gaming 8GB
Állásajánlatok
Cég: Alpha Laptopszerviz Kft.
Város: Pécs
Cég: Promenade Publishing House Kft.
Város: Budapest