-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Pug
veterán
válasz #09256960 #48742 üzenetére
Well well..
Additionally, AIBs have confirmed to my source that Nvidia forced them to provide BOM (Bill of Materials) cost-downs in order for their cooling designs to be approved for sale. This is far from a normal requirement for Nvidia, and in fact it gets weirder when you learn that supposedly most AIB BOM’s detailed margins below 40% if sold even close to MSRP. Some of you probably just connected the dots to what is going on here.
A cost-cut csodakra kepes... -
nagyúr
válasz #09256960 #48782 üzenetére
Lófaszt mert nincs
Érdeklődés amúgy van, de ezek inkább ilyen végső elkeseredésben lévő emberek akik már végigkérdeztek kb mindent. Bár hazudok, mert 2 fix vevőm már lenne.
De 3080-at sehol sem látok csak 2-4 hét rendelési idővel azt se jó áron.
Viszont 3090 gigát tudok egy darabotÚj hardverek számlával, garanciával érd PM.
-
TESCO-Zsömle
félisten
válasz #09256960 #48766 üzenetére
Nekem az egész. Hogy mennyire át van gondolva az a hűtő, mennyire out-of-the-box az elgondolás, hogy a lehető legjobb módon adja le azt a 350W hőt.
Nincs kontra. Egy jól szellőző házban nincs kontra, mert egy 1500$-os kártya mellett a CPU-n úgyis AIO van vagy a lehető legnagyobb noctua szörny. Egyébként az a poén, hogy a gyártó gondolt is arra, amit mondasz. Az a ventillátor később kapcsol ba és lassabban pörög fel, mint ami kifele dolgozik. Eltér a két vezérlőprofil. Ilyet is ritkán látsz hűtésen...
A mókuskerék is meg van magyarázva. Egyrészt nem engedi a levegőt oldalirányba távozni, másrészt stabilizáló szerepe is van, ahogy azt már az eLoop-oknál is tapasztalhattuk 120-as, 140-es méretben.
De persze magyarázhatok én neked, ízlésről nem lehet vitatkozni. Ha neked nem tetszik, akkor teljesen mindegy, hogy nekem miért igen. Nem igaz?Sub-Dungeoneer lvl -57
-
-
Mumee
őstag
válasz #09256960 #48805 üzenetére
Navi 21b 500-2200 csak VCZ elírta a táblázatban, de irreleváns a Navi21-et kétlem hogy 2300-2500 közé eshetne. Már a 2200 is szép lenne.
Viszont Petykemano a 40CU-s Navi22-re írta a 2500mhz-et.
Ha valóban tud annyit jó backendel, akkor igaza van.
Viszont részemről itt se várom hogy 2300mhz felett lesz. -
Yany
addikt
válasz #09256960 #48960 üzenetére
[...] egy valós nem AMD-s független összehasonlítótesztet Gamers Nexus, Linus, Digital Foundry vagy hasonló nívójú csapattól.
Ettől Objektívebb válasz szerintem nincs.[...]
Khmm... Linus, meg a 3090.es promó videója, amiután a "review"-ban még meg is védi. Hát nem tudom. A GN telitalálat, de az LTT minden, csak nem döntési alap.Építs kötélhidat - https://u3d.as/3078
-
Petykemano
veterán
válasz #09256960 #49052 üzenetére
" or lower the prices of the 3080 10GB."
Régen vagy ha más csinálja, akkor ez nagy égés.
Ha az nvidia csinálná, akkorDe én nem számítanék árcsökkentésre. Az AMD valamivel, amije van, az nvidia alá árazhat 5%-kal. Ha elképesztően jó az RDNA2, akkor sem fogja ugyanazt a teljesítményt mondjuk $700 helyett $500-ért adni. Adja inkább $650-ért és köszöni szépen elteszi a különbözetet.
Ha elképesztően jó az RDNA2, akkor kétféleképpen nyerhet: vagy úgy, hogy amit egyébként $500-ért adott volna, az méretben "oda való" és akkor egy kisméretű, olcsón gyártható, de túlhúzott lapkával nyer nagy marzsot. A másik lehetőség, hogy nem húz túl egy kisebb lapkát, hanem olyan mérettel verseng, ami "oda való", akkor fogyasztás-előnnyel (csendes, húzható, stb) győzheti meg a vásárlókat.
Ha az RDNA2 csak simán versenyképes, akkor persze ilyen luxus opciók nincsenek.Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz #09256960 #49123 üzenetére
azt nem vágom, hogy a videóban elhangzik, hogy kipróbáltak sokféle konfigurációt, 384bit, 256bit, HBM, cache-sel ,vagy cache-nélkül. Nem tudom, hogy ezt vajon úgy kell-e érteni, hogy szimulációval? Vagy FPGA-val, vagy tényleg legyártottak szilikon 5-6 verziót, miközben tudjuk, hogy 7nm-en egy lapka a tervezéstől a gyártásig $300m. Vagyis tényleg elszórtak másfél milliárd dollárt arra, hogy megtudják, melyik konfiguráció a legjobb?
A másik lehetőség, amit Ön mond, hogy valójában legalább egy IO lapka és egy-egy compute lapka van, amit aztán a jóég tudja hogy kötnek össze, de akkor valóban könnyebben cserélgethető, hogy a compute lapkát milyen IO-val kötöd össze.
Valamire kell, hogy alapozódjon az, hogy a lapkában mindenféle memóriavezérlő benne van, és szerintem a mobil és professzionális piacokon kitermelhető és hasznos a HBM hő, sebesség és kiterjedés szempontjából is. De azért nem élném bele magam ebbe egyelőre.
Találgatunk, aztán majd úgyis kiderül..
-
Devid_81
nagyúr
válasz #09256960 #49328 üzenetére
Ha jo lesz akkor vastagon fog fogni a ceruza, nVidia mar elokeszitette a piacot ehhez.
Nezd meg a 3080-as topikot, €900 felett vesznek az emberek VGA-kat es azzal nyugtatjak magukat es a tobbieket is, hogy ez most ebben a helyzetben jo vetel volt...ok if you say so...Ha AMD az nVidia arakat korbelovi es kaphato is a termek akkor mar nyertek.
De ehhez jonak kell legyen, es nem pedig a kovetkezo ami utan azt mondjuk, hogy oke nem rossz, varjuk meg az RDNA3-at hatja az jobb lesz......
-
-
Laja333
őstag
válasz #09256960 #49474 üzenetére
Ja meg még egy:
" we were rather surprised to see that it takes the RTX 3080 to breach 60 FPS at 4K, using the High graphics preset. There are two more presets above that one, so this game might be pushing GPU hardware for a while yet." Oldal, ahonnan a kép van.
Tehát Navi 61 FPS, 3080 2 presettel lentebb 74. Nem sok értelmét látom az összehasonlításnak, főleg úgy, hogy a setup sem egyezik. -
Piszmaty76
aktív tag
válasz #09256960 #49560 üzenetére
Én iszonyatosan rühellem szegénykémet...
[ Szerkesztve ]
Thermaltake Overseer RX-1, Seasonic Prime 750W Titanium, ASUS C8H X570 wifi, R9 5900X, Thermalright Peerless Assassin SE, G.SKILL 32GB KIT DDR4 3600MHz CL16 Trident Z RGB, Sapphire 7900XTX Nitro+, Samsung 960 pro NVME gen3. 256GB/Kingston KC3000 NVME gen4. 2TB, LG QNED863QA 55" (HDMI 2.1)
-
Mumee
őstag
válasz #09256960 #49680 üzenetére
Korábban linkeltem itt vagy AMD CPU találgatósban egy másik AMD szabadalmat is.
Így mindent összevetve az összkép arra mutat, hogy a GPU MCM design felé fejlesztenek és annak egyik állomása ez.
CPU-nál is ugye most már a 2 chiplet közösen éri el ugyanazt az L3-at.
Twitteren is volt erről eszmefuttatás az okosabbak közt. -
Busterftw
veterán
válasz #09256960 #49865 üzenetére
Mi az, hogy abbol?
Irtam barmit is fogyasztasrol, vagy RT teljesitmenyrol?Tesztek nelkuli, pletykakra alapozo hsz-em az "fanatik", jelentsen ez barmit. Jol nyomod.
Ha annyit er el a Big Navi a 3080 elleneben, akkor miert ne vonhatnek parhuzamot a legutolso AMD csucskartyara?
En is tudom mi a kulonbseg a Radeon VII es a Big Navi kozott, ahogy azt is tudom mi a kulonbseg a 2080 es a 3080 kozott. Mit akarsz ezzel mondani?Ha nekem celozod a hsz-t, legalabb annyi legyen benned hogy nekem irod.
De ha ez lesz a felallas, miutan kijonnek a tesztek, akkor gondolom te nem "fanatikkent" majd elnezest kersz remelem.
Fanatikus te vagy, aki tesztek nelkul eldontotte, hogy a Big Navi gyorsabb lesz mint a 3080, es a tobb vram = gyorsabb kartya, szegeny 10GB-os 3080 tulajok.
[ Szerkesztve ]
-
Devid_81
nagyúr
válasz #09256960 #49865 üzenetére
Az a baj, hogy az AMD meg sokak szemeben mindig a csunya masodik.
Sokat fogyaszt, melegszik, nem is olyan gyors mint az nVidia es meg a driver is sz@r.
Ha most erre az AMD kihozna egy tegyuk fel 3080-as szintet 275Wattbol, jo RT teljesitmennyel -$100 al olcsobban de elerhetoben, akkor jonnenek a zold halyogosok, hogy Oke de DLSS
You cannot win...A penztarcajukkal gondolkodo usereket persze azonnal megfogna egy altalam emlitett Big Navi
...
-
Busterftw
veterán
válasz #09256960 #49879 üzenetére
Igen, kivancsi vagyok mennyi RadeonVII felhasznalo van a 16GB miatt es mennyi 2080 (8GB).
Akik eletuk elso kartyajat vettek, nem azt neztek, hogy a 2080 kevesebb fogyasztasbol 5-15%-al gyorsabb volt jatekokban (azota tobb), hanem hogy a RadeonVII 16GB-rammal jott.
A 16GB-os jovoallo kartya, ami 1 ev mulva eltunt a piacrol.Pont ez lenne a PR, a duma, mert a valosag mast mutat.
Mint amikor a Gzianhou X2 mobilban 10GB ram van, de egy 6GB-os S20 3x annyi pontszamot hoz jatekokban.
A dobozon jol mutat a 10GB, csak valos teljesitmeny nincs mogotte.Aztan en vagyok a "fanatik".
-
Ribi
nagyúr
válasz #09256960 #49899 üzenetére
Csak mennyi idő az a jövő. Ez az én kérdésem, mert általában a konzol fejlesztők is megkapják az új vasat, és minimum 1-2 évig még a régi cucc szerint nyomnak mindent, mintha mi sem történt volna és csak utána jönnek amik igazán ki is használják. Én nem hiszem, hogy ha valaki most mondjuk 6800-at vesz 3080 helyett, akkor 1 év múlva a 3080 kuka kategóriás lesz, míg a 6800 csudiszupi. Microsoft kitudja mióta nem sokmindent csinál, hogy a win normálisan kezelje a sok magot, pedig már tényleg gizi is vehet 16 magos cuccot. Nem rég effektíve nem kezelte a desktop windows a 32 magos procikat. Értem én, hogy majd most minden megváltozik, de az eddigi 4 konzol generáció alatt nem ez volt. Valahogy az a sejtésem, hogy most sem az lesz, hogy 1 év múlva gyökeresen megváltozik minden. Egyszerűen nem változnak dolog 1-2 éven belül. dx11 "megszűnik" oszt emberek még midnig dx9 játékokkal játszanak.
-
Petykemano
veterán
válasz #09256960 #49918 üzenetére
Nem azt mondta Abu, hogy a neuronhálót tanítani kell magas felbontású képekkel, különben szar lesz az eredmény?
Vajon honnan szedtek a holdi környezetről magas felbontású képeket, amivel tanították a neuronhálót, hogy milyen a holdi környezet valójában?Találgatunk, aztán majd úgyis kiderül..
-
félisten
válasz #09256960 #49918 üzenetére
igen, igyekeztem,de Musk nem engedett fel az űrsiklóra, mert Nvidiás polóba voltam... ez ahhoz hasonló technológia- és ez petykemanonak is szól a kommentjére amiben a magas felbontású képeket keressük- amit most hoztak videókonfokhoz az Nvidia Maxine- vel. kipótolja szépen az AI a hiányzó dolgokat az eredeti videók alapján.Itt meg mintát vesz egy képből aztán szépen -like Maya- animálja . [link]
belinkelem mert ilyen jellegű információk ezen a oldlalon úgy sem bukkanak fel , meg amúgy is szar, majd lesz jobb késöbb mástól[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Petykemano
veterán
válasz #09256960 #49968 üzenetére
Semmi extra
- zen3 átveszi a best gaming cpu szerepét, ezért a drágulás. 2021Q1-ben lehet áresés már csak azért is, mert jön a Rocket Lake. Ami nem lesz egy nagy durranás, mert az intel valószínűleg nem fog budget áron jönni. De nem is nagyon van hová. Az AMD a budget szegmenst is eléggé fogja a 12nm-es 6 magosokkal $100 körül.
A zen1 8 mag $500-hoz képest a +50% teljesítmény nyújtó 8 magos zen3 nem drága.
Aki mégis úgy érzi, hogy igen, az vegyen last gen zen2-t.
- Amit már én is mondtam másutt: lehetséges, hogy a Ryzen 5700 Cezanne lesz, azért van kihagyva.
- A Quadro A6000-nek 2x annyi tensor magja van, mint a 3090-nek, ami felveti a tensor magok kihasználhatóságának kérdését. Vagy jön még egy Titan a 3090 fölé.
- "Nvidia ultimate play". Az nvidia célja, hogy alacsony kínálattal élénken tartsa a keresletet. "JAj, ilyen kevés van, gyorsan előrendelek, akármennyibe is kerül, mert ki tudja mikor lesz elérhető" és a magasabb kínálatot is úgy akarja rácsorgatni a piacra, hogy az értékesítés valójában azon a magasabb áron történjen. TEhát, hogy a kínálat sosem haladja meg a keresletet, aminek hatására be kéne állnia a MSRP árnak.Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
-
Petykemano
veterán
válasz #09256960 #50013 üzenetére
"[...] így én nem csodálkoznék ha GFel kötnének valami 12++os megállapodást a középkategóriában [...]"
Nos igen, de ugye ezt kérdeztem a múltkor - amire senki nem reagált - , hogy alulról jönnek az apuk, DDR5-tel az RDNA2 biztos elketyeg majd 12, sőt akár 16CU-val (ha DDR4-gyel elment 8CU vega)Illetve $300-500-ért ott vannak a konzolok.
A series S $300 és pont benne van az a 20CU, ami belépőszintre kellene. Mennyiért kéne adni egy ekkora aput, hogy az versenyképes legyen az xboxSS-sel? $150?
mivelhogy neked még meg kell venned az alaplapot, ramot, háttértárat, stb. Egyetlen reményünk az lehetne, hogy az AMD tényleg kiad AMD márkás szériagépeket a Quantum project égisze alatt.
És mennyiért kéne adni egy ekkora GPU-t? $100?Arról nem is beszélve, hogy itt már versenyezni kell az $5-10-os cloud-dal is.
Szóval szerintem sajnos nem fognak már vesződni azzal a piaccal, amelynek a fizetőképessége $100--300 között van.
Remélem tévedek.Találgatunk, aztán majd úgyis kiderül..
-
Simid
senior tag
-
Danex
addikt
válasz #09256960 #50072 üzenetére
Mert ha annyiba kerül egy plusz vásárló közeg megfogása hogy ráírják gamer meg 8K akkor ennyit megér... Illetve jelenleg is 1200$nal tobbet fizetnek az emberek boldogan, dicsekedve a 3080as kartyákert... Egy jobb 3csatlakozos 3080 kis BIOS módosítással mrg hozza a 3090 teljesítményét
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.