Új hozzászólás Aktív témák
-
Firestormhun
senior tag
Egyelőre annyi tűnik biztosnak, hogy 28nm-es lesz. Azonos gyártástechnológián túl nagy csodákat csinálni nem lehet, pláne úgy hogy az elődje már közepesen nagy maggal rendelkezik ami fogyaszt és melegedik rendesen. Ugyanakkor túl nagy die-t sem építhetnek, mert AMD-nek gyakorlatilag nincsen HPC piaca, ahonnan kompenzálni tudná a költségeket. Ne feledjük, Nvidiának tavaly februárban/márciusban már több tíz ezres rendelése volt GK110-re HPC piacon.
...
-
norb55
senior tag
Mindenhol ezt írják hogy November Decemberbe kiadják. És szerintem ez logikus, karácsonyra sokan
azeretnék ajándékba.Mindegy én, várok, van ezer más játék, mint ez, mikor már sokan megunják, PC-sek akkor élik ki magukat, és szerintem nem töredezett élekkel fogják végigtolni Biztos erős PC kell hozzá, ezzel számolni kell .
[ Szerkesztve ]
-
Tirexi
addikt
Akkor nem értem Abu honnan a pokolból szedi ezeket az AMD-s megnyilvánulásait.
Ha nincsen alapja miért mondana ilyet?Na meg már látom előre milyen külföldi fórumok nyílnak meg ezzel.
How to unlock 290x fan control...De ha még be is jönne ez minek? Minek kell mindig az AMD-nek valami óriási nagy hülyeséget elkövetnie? Zero Core is halál volt most meg ez fan lock hát hihetetlen.
Ennél nagyobb baromság már csak az NV-nek a Boost 2-je volt.
Nem értem miért nem lehet egy olyan VGA-t kiadni ami mindenkinek megfelelne.Vagy zárjon le mindenféle tuningot és vezérlést vagy oldja fel, de ne keverje össze vissza. Vicc amit ez a két cég csinál néha és szokás szerint ki szívja meg? Ki más mint mi akik megveszik a termékeit.
Természetes, hogy megvárom a hivatalos teszteket, de egy ilyen fan lock gondolata is már magába egy oltári nagy baromság.
(#2504) BlackSoft:
Csak egy megjegyzés volt, hogy érezd a súlyát a dolognak.(#2506) Landon:
Meg addigra meg lesz a 2. VGA-m akkor meg már mind1 mit tud majd a Mántli és társai.[ Szerkesztve ]
-
norb55
senior tag
Nem info csak következtetés , mégha annyi cuda lesz benne mint a Titan kariba akkor is a Titan szintet hozhatja maximum.
Nvidiának ezzel az a célja hogy a Titant ami régen piacra dobta, hogy legyen egy nagyon jó kártya , viszont nagyon drágán . most ki válltja a 780 Ti karival .
Szerintem ilyen 210K-ért lesz elérhető a 780Ti, és a maga a titan ami nem is passzol a seriához ugyan is semmilyen számozás nemutal rá, azt meg szépen kivonja a piacról, magyarán a 780 Ti válltja le a Titant, sokkal jobb áron.
Maxwell-ről ne is állmodjon senki hogy jövő nyárig kijön .
2560) players111 minden bizonnyal egy ilyen lesz a második kari [link]
[ Szerkesztve ]
-
norb55
senior tag
Persze van 900MHz felett is élet, de sokat ne várjunk már attó la szerencsétlen 780Ti-tó.
Titan a csúcs , minden benne van ami csak lehet a GK 110-ből. Szerintem a 780 Ti megörökli a 6giga memoriát , meg talán a Titan cuda magjait . Azonos órajelen mint a GTX 780 és szerintem ezzel ki is fog merülni, Ja és mondom olyan 210K-s áron jön kb de lehet kicsit drágább lesz
-
norb55
senior tag
Erre mondják azt inkább pozitívan csalódjak, mint negatívan
Ittvan a nyakunkon a megjelenése, sok újjat ne várjunk tőle.A másik hogy nem generáció váltás lesz hanem csak szimplán egy Ti jelzés kerül a GTX 780 után. 25% töbletket ne várjunk már attól .
#2584) Tirexi Belőled is nagyon nehezen nézem ki hogy AMD legyen a gépedbe, mert nagy Nvidia fan vagy
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Konkrét számot nem tudok, de Full HD-ben 4xMSAA mellett 700-800 MB között csípnek le a VRAM-ból csak a képkocka számításához szükséges pufferek. De a motor szándékosan van így felépítve, mert a VRAM-ot ugyan mennyiségileg nem kíméli, de a sávszélt már igen, mivel keményen használja az LDS memóriát.
Repi megoldásának az előnye, hogy 3000+ fényforrással jelenetenként MSAA nélkül ennél nincs gyorsabb render. De MSAA-val a Forward+ ugyanilyen körülmények között gyorsabb. Jövőre lesz majd Mad Max. Az mindkettőnél gyorsabb kaszteres leképzőt használ.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
akoska07
nagyúr
Akkor még nem tudták,hogy jön maxwell ?
Ők kb mióta vélik tudni a specifikációkat ?
[link]
A 860Ti "vélt adataival" szemben ez már abszolut nem fedheti a valóságot.[ Szerkesztve ]
Az Amd a jövőbe mutat...De amikor az a jövő jelenné válna akkor az a jelen már régen a múlté... :DDD ....Na meg a horpadós ájemdééé
-
Abu85
HÁZIGAZDA
De 4,9 GHz-es Ivy E-vel. Mert ők is azzal mértek.
Egyébként reális, hogy erre gyúrnak, mert 2015 végéig nincs DX12, míg az AMD áprilistól kezdve senkit sem utasít el a Mantle tagfelvételen. A GDC-n volt róla szó, hogy 40+ játékon dolgoznak, és sok érdeklődő fejlesztőt még elutasítottak. Erre kell valamit lépni. A kis procikkal nem tudnak mit kezdeni, de a gyors procik mellett van tartalék, az egyetlen probléma a DX túlterhelése jelenti, ami dobálja a BF4-ben is a device hungot. Ezt kell elkerülni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
h1mpi
nagyúr
igen ott droppol le. amúgy van olyan valley mérésem is az SLI-vel, ahol 40 FPS alá nem is esik és a pontszáma mégis kevesebb Aki ismeri a valleyt az tudja, hogy elvileg a havas hegynél adja a legtöbb fps-t. Nos SLI-nél nem ott, hanem az első-vagy a második teszt alatt.
[ Szerkesztve ]
Eladó egy használt HyperX Alpha Gamer füles - 12 999 Ft
-
HSM
félisten
Mit nevezünk "régi játéknak"? Én játszottam néha szerintem régi játékokat, StarCraft1, Diablo2, azokkal nem volt gond, de tény, nem vagyok egy nagy retro-játék fan, kevés van, amit egynél többször végigjátszok.
Amúgy ami a topikban lévő panaszokat illeti, emlékeim szerint még senki nem panaszkodott, hogy a retro játékokkal lenne baj, az utóbbi időben főleg a BS-parázás ment, meg a nem jó a mantle, meg a CF...
-
MiklosSaS
nagyúr
Igen, teljesen igazad van. Annak idejen en is nagyon szidtam a referencia kartyakat...de mondjuk az fekete volt es forro !
~~~~~~ Privatban NINCS szakmai tanacs! ~~~~~~
-
ittakary
nagyúr
De komolyan, akkor ez azt jelenti, ha bármilyen félreárazott terméket megrendelek KÖTELESEK odaadni, akármilyen nevetséges árra is lett elírva?
Akkor ezt miért nem akarták nekem ideadni? (Extreme Digital)
Amúgy bocsánat mindenkitől, de ez a kérdés ahányszor felmerült itt a fórumon, annyiféle választ mondtak már rá nekem...
Ja és: én mindenféle szívfájdalom nélkül mondanám vissza a rendelést és rendelném meg újra, FŐŐŐLEG ha majdnem 10k-ról van szó. iPon tulajdonosait majd akkor fogom sajnálni, ha ráérek... (ja várj, még akkor sem).
Főleg annak fénykében, hogy a kolléga bekapcsolta a "velem nem basznak ki"-üzemmódot, hogy elhozza és 8 napon belül visszaviszi Ez még nagyobb kibaszás, mert míg a rendeléssel játszadozás csak papírmunkát ad nekik, ez már elég komoly szervezési procedúrát is.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A játékosok követelése ebből a szempontból teljesíthetetlen. A textúrák felbontása ma már nem befolyásolja igazán a teljesítményt, viszont a streaming igen. Konzolon gyakorlatilag ingyenes streaming rendszereket lehet kialakítani, mert tudod mennyi memóriát szeretnél és ismered a motorod működését is. Egyszerűen az elején lefoglalja a program a textúráknak azt az 1-2 GB-ot, ami kell, és abban manuális menedzseléssel cserélgeti az adatokat. PC-n a WDDM kezeli a VRAM-ot. Egy rétegen keresztül mondhatja meg a program, hogy mi legyen, de például a memória felszabadítása olyan időbüntetéssel jár, hogy csak a legvégső esetben alkalmazzák, amikor már betelt a VRAM. Ide nem robosztus textúramenedzsment kell, hanem egy olyan API, ami megengedi a VRAM explicit menedzselését magából a motorból.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
"Azért fáj a textúrákat médiumra rakni, mert a magas felbontású textúrákkal lehet a legnagyobb képminőségbeli javulást elérni, ráadásul GPU terén szinte ingyen."
Igen, a GPU-ban kvázi ingyen van, ugyanakkor videómemóriában drága. Én továbbra is azt mondom, jobb, ha van tényleg ultra textúra, amit majd 2 év múlva a 8GB-os videókártyáinkkkal ki tudunk majd használni (meg a kevesek pl. GTX Titan-al), mintha "kioptimalizálják", hogy ami eddig medium volt, mostantól az lesz az ultra is a játékban.
"...bizonyos alaplapokon a PCI-E busz gyakorlati teljesítménye erősen elmarad az elméletitől"
Szerintem egyszerűen arról van szó, hogy túl sokat vártok a PCI-E-től és a streameléstől. Levezetem. Tegyük fel, hogy egyenletes 30FPS az, ami még folyamatos, azaz minden képkocka legfeljebb 33,3ms idő alatt (!!!!) elkészül, ez alá nem szeretnénk menni. Minél több az FPS, annál kevesebb ez az idő. Tehát, ha a user hirtelen elfordul, és a játéknak világossá válik, hogy kelleni fog még textúra (itt már eltet közben némi idő, de vegyük 0ms-nak) akkor 33ms van a GPU-hoz átmásolni az adatot (ez is kevesebb, mert a GPU-nak az adat beérkezése után azt fel is kéne használnia még 33,3ms-en belül). A PCI-E elméleti átviteli sebessége 15.754 GB/s. Azaz, 33,3ms alatt legfeljebb 0,524GB adat átvitelére van lehetőség! Ez az elméleti maximum, semmiféle késleltetéssel és egyéb számítási időigénnyel, vagy szűk keresztmetszettel nem számolva, hogy ne essen a képidő 33ms, azaz 30FPS alá. Ha 0,524GB-nál több plussz adat kellene a képkockához, mint ami a fedélzeti videómemóriában megtalálható, akkor olyanokat lehet csinálni, mint az ID tech 5-ben, hogy későn rakod be a textúrákat, objetumokat, vagy pedig jön az akadás. Mindkettő elég rossz, illúzióromboló élmény.
Arról nem is beszélve, hogy a 16GB/s sebesség csak akkor elérhető, ha a proci memóriavezérlője is képes a szükséges adatmennyiséget időre hozni, és a procin belül is időben eljut a PCI-E vezérlőbe a megfelelő sebességgel. Itt is lehetnek a platformon belül késletetések, szűk keresztmetszetek, mert azért játék közben ritkán terheletlen a proci.
Természetesen lehet minimalizálni a problémákat, ha a játék mindig karbantartja az adatokat a VRAM-ban, meg megpróbálhatja jósolni, mire lehet szükség, de ha bármikor is lehet egy jeleneten belül több adatra szükség, mint ami elfér a VRAM-ban, akkor már nem úszható meg valamelyik gond.
Nekem amúgy, amikor 280X-et lecseréltem a 290-re, a +1GB VRAM is fontos szempont volt, pont a jövőre nézve, és pont ezért, mert én nagyon utálom a VRAM-elfogyós, streamelgetve toldozgatott-foltozgatott "játékélményt", viszont szeretem a jóminőségű, éles textúrákat, meg úgy mindent maxra húzni.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A PCI Express helyzete könnyű. Minden kiadott alaplapot és terméket (amiben van vezérlő) be kell vizsgáltatni a PCI-SIG-nél. Ha nem jó, akkor nem adható ki. Itt nincs olyan, hogy x gyártóé jó, míg a másiké rossz.
Maga az API nem működik kiszámíthatóan hogyan lehetne rá bármilyen kiszámítható rendszert írni? Lehet jót csinálni a WDDM-ben, de annak is megvannak a határai. A Watch Dogs túllépi ezeket. Nem ez lesz idén az egyetlen játék, ami ezzel küzd majd. Exponenciálisan romlik a helyzet ahogy nő a játékok komplexitása.
A DX11-ben az elfogadott fejlesztői koncepció, hogy semmi ne kerüljön ki a memóriából, mert a memória felszabadítása brutálisan költséges. A scoreboard akkor lenne hatékony, ha nem kellene brutális késleltetéssel számolni az erőforrás felszabadításánál.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
"mással nem tudom magyarázni, hogy ugyanolyan VGA / CPU / OS kombináció mellett az egyik gépen megy ultrán 3G VRAM-mal, a másikon nem."
Azért itt sokminden közbeszólhat. Pl. a procituning. Valakinél stabil, valakinél nem annyira. OS pedig... Ki tudja, milyen patch-ekkel, ki tudja milyen háttérben futó programokkal, és azt sem udjuk, kinél van bitcoin bányászos virágbolti verzió. Nekem is feltűnt amúgy ez az anomália."miután a CPU ismeri a kamera pozícióját és a textúrák helyzetét, elég egyszerű csinálni egy scoreboardot, ami megmondja, milyen valószínűséggel fog kelleni egy adott textúra a következő 8-10 frame-ben"
Oké. Tegyük fel, hogy a 10. mapon a fa tövében 10-ből 9 alkalommal balra fordulok, majd előre megyek. Mi lesz a maradék 1 alkalommal, amikor "rossz" irányba fordulok? Fail. Persze, sokszor lehet ez jó megoldás, ha a közelben lévő dolgokat a memóriában tudjuk tartani, mert elfér, azért is írtam, hogy ha egy jelenet nem fér a memóriába, vagy pályarész, akkor vannak a komolyabb gondok, mert akkor a streamelés nem fog tudni segíteni. -
HSM
félisten
Azért általában az igazán szép látványhoz kell sajnos az űrhajó. Lásd a Tomb Raider, Crysis 3, Battlefield 4....
Persze, lehet hangulatos, nagyon szép játékot űrhajó nélkül, pl. Metro LL, vagy Bioshock Infinite, de azért ott nincs az az áll-leejtős grafikai élmény, amit én szeretek azért. Mondjuk nyilván ez szubjektív is, kinek melyik játék mennyire tetszett.A nekem címzett résszel maximálisan egyet kell értsek.
-
Abu85
HÁZIGAZDA
Az A-Sync az ugyanaz, mint a G-Sync. Bedugod és működik, csak a kompatibilis hardvereket kell kiválasztani. Persze, ahogy az NV, úgy a VESA is figyelmeztet, hogy vannak olyan játékok, amelyek sajnos nem adnak jó élményt. Ezek szimplán kikényszerítik a V-Sync alkalmazását kikapcsolhatatlan formában. Ezekkel se az A-Sync se a G-Sync ne kompatibilis. Pontosabban nem garantálják, hogy jó lesz az élmény. De ez tisztán szoftveres probléma.
A Dell biztosan nem fogja támogatni a G-Syncet. De az A-Syncet már számos kijelzőjük támogatja. A Computexen is egy Dell panellel működött a VESA és az AMD demója. Persze módosították a firmware-t, de mást nem.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
-
HSM
félisten
Én nem bizonygatok semmit. Csupán arra próbáltam célozni, hogy ez az elérhető egy darab termék amolyan nesze semmi fogd meg jól. Egy nagyon szűk célcsoportnak jó, de másnak nem. Hiába tetszik nekem a G-sync, nem lenne opció ha most vennék gépet, mert nekem 2014-ben ne akarjanak egy túlárazott TN-es monitort annyiért adni, amiért kettő hasonló méretű, félprofi IPS-t kapok... Arról nem beszélve, hogy az ipar jelzése is egyértelmű, hogy egyetlen G-sync monitort sem kapni készen összerakva, csak a DIY kitet...
Ami a Freesyncet illeti, elég meggyőző, hogy VESA szabványt használva működik, így mivel csak firmware-t kell felkészíteni a már meglévő monitorokhoz, és így már a mai hardverekkel is működőképes, így igazából semmi akadályát nem látom a közeljövőbeni terjedésének. A VESA szabványba se véletlen került be, ami önmagában jelzi az ipar érdeklődését. Álmodozásról szó sincs, ez a valóság, ha picit benézel a színfalak mögé. Ha pedig szigorúan csak a zord jelent nézzük, akkor igazából egyik technika sem elérhető még megfelelő áron széleskörben.
-
Abu85
HÁZIGAZDA
Az nem segít egy piacképes technológián, hogy a legnagyobb monitorgyártók szándékosan összefogtak ellene, és a kicsik meg a 3D Visionhöz vásárolt TN panelek kiszórására használják fel.
Ez így jelen formájában értelmetlen, mert a gyártók nem akarnak monitoronként 150 dollárt az NV-nek adni. Ezt a licencdíjat A-Sync mellett el lehet költeni másra is, vagy szimplán nem kell rárakni az árcédulára.
A legtöbb G-Sync monitor is azért csúszott, mert ment a vita, hogy kiadják-e, ugyanis a játékosok eléggé megszívták a 3D Visiont. Egyszerűen bezárták magukat egy olyan technológiába, amelynél az NV hirtelen úgy döntött, hogy nem rak bele több pénzt. Ez a monitorgyártónak komoly kérdés, hiszen felmerül, hogy a G-Sync támogatása is véget érhet, és akkor ott állnak a csomó eladhatatlan monitorral.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
Vásárlói szemszögből Te magad is szeretnél G-syncet, még ki is fizetnéd, de nem tudsz megfelelő G-synces monitort venni, mert nincs választék, tehát hiába fizetnél, nincs megfelelő termék. Végeredmény? Ugyanúgy nem lesz G-synced, ahogy Freesync-ed sem, hiába, hogy egyik csak papíron létezik, míg a másikból van elméletileg a gyakorlatban is. Tehát mint érdeklődő vásárló, számodra Freesync nincs, G-sync úgyszintén nincs.
Azt nem mondtam, hogy idővel nem lehet olcsóbb a G-sync, de jelenleg ennyi, és mire olcsóbb lesz (ha lesz egyáltalán) addigra sanszosan lesz már Freesync is, az pedig jóval olcsóbb fog tudni lenni, mivel nem kell hozzá a hardveresen amúgy nem épp olcsónak tűnő G-sync modul, meg Nv licenszdíj. Igazából egyetlen pontban látok minimális életképességet a G-syncben, hogy nem kell hozzá okos GPU, ami tudja a min-max-ot, de ha ez elvész (el fog), akkor már semmi nem fogja indokolni a létezését az Nv anyagi érdekein kívül egy olcsóbb, minimum azonos képességű technológiával szemben.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A gyártók tartják túl soknak. Ez a G-Sync problémája. Szinte mindenki mondta, hogy támogatnák a rendszert, ha nem kellene 150 dolláros licencdíjat fizetni érte monitoronként. Mert az A-Syncért nem kell. A hardver, ami szükséges azt kifizetik, az nem téma, de a licencdíj az nagyon sok, különösen annak fényében, hogy a másik technológia dettó ugyanazt tudja licencdíj nélkül.
A G-Sync ma csak annyi, hogy az ASUS, a BenQ, a Philips, az Acer, meg a többi kis monitorgyártó, amelyek a 3D Visiont megszopták el tudják adni a 144 Hz-es TN paneleket. Ennél több a Samsung, LG, Dell és a többi nagy cég támogatása nélkül sosem lesz, mert nincs értelme az NVIDIA-nak adni a monitoron a nyereséget.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A cache elsődlegesen ma az NV regiszterhiányán segít, ami az übershaderek miatt fontos. Nyilván egyszerűbb a hardverbe ilyen módosítást rakni, mint minden programra átírni a shadereket. A későbbi programokban lehet több szerepe, de ma jellemző, hogy PC-n rosszul cache-elhető formátumokat használnak a fejlesztők. Az új konzolok miatt fokozatosan áttérünk a jól cache-elhető formátumokra.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Amivel nőne a fogyasztás. Mivel az NV számára a stratégia mobile first, így nem az számít, hogy hogyan a leggyorsabb, hanem hogy hogyan a leghatékonyabb.
A Maxwellben kétszer annyi regiszter jut egy feldolgozóra, mint a Keplerben. Tekintve, hogy a Kepler mekkora mélypont a GPU-architektúrák között ebből a szempontból, simán lehet ezzel gyorsítani ennyit.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Azért vannak a 144 Hz-es TN panelek eladva, mert ebből van egy rakás eladatlan és visszamaradott készlet a 3D Vision támogatásának leállítása miatt. Most csak a vezérlőt kell cserélni és mind eladható. De ezek 2-3 éves paneltechnológiák. Az új panelek már sokkal jobbak és sokkal olcsóbbak. Ezért nincs szankció az NV ellen, mert volt róla szó, hogy az VESA elveszi tőlük a licencet és akkor az AMD szétperelheti őket, de mivel bezárják magukat egy szűk gyártói támogatásra, így érdektelen a VESA számára is. Az AMD sem foglalkozik velük, nekik külön jól jön, hogy az NV elzárja a vásárlóitól a Samsung, LG és Dell monitorújdonságokat.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A 144 Hz az semmire sem garancia. Attól még nem lesz 144 független képkockád, ha a hardver nem bírja.
A 60 Hz 4K az egy reálisabb megoldás. De oda meg eleve kell a multi-GPU, amihez a hidas megoldások már nem elég jók. Elég ha elolvasod a HOCP beszámolókat, hogy általános érzetre a 4K-s XDMA CF jobb mint az SLI. Egyszerűen kevés az 500 MB/s a hídon keresztül, míg az XDMA CF 8 GB/s-os kapcsolattal jól érzi magát 4K-ban.A VESA számára miért érné meg hazudni? Ők nem részesülnek ebből. Nekik csak rosszul eset, hogy meg volt beszélve az A-Sync és erre az egyik támogató előállt egy saját megoldással.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
● ne OFF-oljatok!
- 10x R5 430 2GB DDR5 egybe (zörgő ventis)
- PowerColor RX 6800 XT Red Dragon 16GB GDDR6 256bit - Számla + Garancia, Ár alatt! BeszámítOK!
- MSI GTX 1660 ti armor oc
- ELADÓ 32 DB Nvidia RTX 3060 Ti és 8 DB Zotac Gaming Geforce RTX 3080 Trinity / KOMPLETT BÁNYAGÉP
- BESZÁMÍTÁS! SAPPHIRE RX 460 2GB GDDR5 videokártya garanciával hibátlan működéssel