-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Ribi
nagyúr
válasz #09256960 #49899 üzenetére
Csak mennyi idő az a jövő. Ez az én kérdésem, mert általában a konzol fejlesztők is megkapják az új vasat, és minimum 1-2 évig még a régi cucc szerint nyomnak mindent, mintha mi sem történt volna és csak utána jönnek amik igazán ki is használják. Én nem hiszem, hogy ha valaki most mondjuk 6800-at vesz 3080 helyett, akkor 1 év múlva a 3080 kuka kategóriás lesz, míg a 6800 csudiszupi. Microsoft kitudja mióta nem sokmindent csinál, hogy a win normálisan kezelje a sok magot, pedig már tényleg gizi is vehet 16 magos cuccot. Nem rég effektíve nem kezelte a desktop windows a 32 magos procikat. Értem én, hogy majd most minden megváltozik, de az eddigi 4 konzol generáció alatt nem ez volt. Valahogy az a sejtésem, hogy most sem az lesz, hogy 1 év múlva gyökeresen megváltozik minden. Egyszerűen nem változnak dolog 1-2 éven belül. dx11 "megszűnik" oszt emberek még midnig dx9 játékokkal játszanak.
-
Busterftw
veterán
Ez meg a masik. Nem ugyanaz a ketto.
Plusz kb 2 ev mulva a kovetkezo gen kozepkategoriaba kuldi a jovotallo kartyat.
2-3 evre boven eleg a 10GB, amikor a jatekosok tobbsege 1080p-ben jatszik, meg csak most jon fel a 1440p, a 4k meg 1%.Eltunik a dx11, de mikor tunik el? Mar 4 eve jon a dx12...
Tul van ez reagalva. Kb senki nem vesz 6-8 evre kartyat. Elobb fog keves lenni eroben a Big Navi, mint a 16GB vram.[ Szerkesztve ]
-
Petykemano
veterán
"Innosilicon selects Imagination’s new BXT Multi-Core GPU IP for cloud computing"
Ebből vajon lecsorog valami a desktopba?
Találgatunk, aztán majd úgyis kiderül..
-
Yutani
nagyúr
válasz Busterftw #49889 üzenetére
Kedvenc bőrjakósod elmondta a bejelentésnél, hogy a Titan helyett van a 3090. Nem jön fölé semmi, hacsak nem csinálnak egy mééég nagyobb GPU-t a GA102 helyére.
Tehát van nekünk a GA102 GPU, amire két termék, az RTX 3080 és 3090 épül. Ugyanez Turingnál a TU102 GPU-ra épülő RTX 2080 Ti és RTX Titan. Ezek a csúcs GPU-val szerelt kártyák. Egy kategóriával lejjebb lesz a GA104, amivel az RTX 3070 fog gyártódni. Ez Turingnál a TU104 GPU volt, amire az RTX 2080 és RTX Super épült.
Na most legutóbb az AMD a Radeon VII-tel a consumer sorban 3. kártyának tudott csak egy gyenge ellenfelet állítani (a Titan prosumer, nem vesszük ide). Most viszont a big Navi elviekben a consumer sorban 1. kártya ellen megy, és a várakozás szerint sokkal jobb pozícióban lesz, mint a Radeon VII valaha is volt.Kicsit tovább menve: az AMD most az NV csúcs GPU (GA102) ellen indítja a big Navit, nem a teljesítményben második GPU ellen (GA104).
Ez így érthető?
#tarcsad
-
dudu5130
őstag
válasz .Ishi. #49885 üzenetére
Én inkább egy olyan réteget mondanék, hogy amit a streamerektől és videóeoktól látnak, hallanak. Sajnos köztük van a legtöbb hype vonatra felülő nem számít a pénz ember akik viszik a néző bázisukat és azt vesznek amit ő mondd. De ugyanez egy esport verseny. Látják, hogy milyen speccel mennek és azt veszik. Szóval első körben őket kell áttéríteni mert szerintem ez a nagyobb réteg.
-
Busterftw
veterán
válasz Yutani #49904 üzenetére
Pontosan, ahogy volt ket termekunk, a 2080 es a 2080ti.
Nem vitatom azt, ahogy nezitek a kartyakat, de azt is fogadd el, ahogy en nezem oket.
2060-3060 / 2070-3070 / 2080-3080 meg ami efelett van.
A ketto nem zarja ki egymast.Azt jelenleg tesztek hianyaban pedig nem vizsgalnam, hogy az AMD mi ellen inditja a Big Navit. Szerintem a 3080 ellen, de tolem aztan indithatjak a 3090 ellen is. Aztan a tesztek majd megmondjak melyik teljesitmenyszintre lesz eleg a valosagban.
Szoval igen, ertheto, de legyen ertheto az en megkozelitesem is.
Csak az en megkozelitesem ugye "hivo" es "fanatik", a tied meg nem.Mintha abszolut FPS-ben neznenk a kartyat, de ha valaki perf/watt-ban nezi a szinteket, akkor az mar "hivo".
-
félisten
válasz Yutani #49904 üzenetére
elméletileg van pletykálva egy 48GB verzió.
valószínűleg amúgy azért csúszott el az egész , amit a fogyasztásmrőrn láthatunk.Úgy gondolom normális gyártással megfelelő előkészítéssel legalább 30 % kal feljebb ért volna a 3090 mint a 3080.
ha jövőre valóban jön a TSMC re vagy az amper refresh (vagy a hopper) az tudja majd megmutani milyen lett volna ha... de mivel ezek a mondatok értelmetlenek, most egyelőre várjuk meg milyen áron jön konkureciának az AMD mert a 20 GB 3080 ra 850-899$ dollár van pletyizve,ebből én arra tippelek, hogy a legnagyob kártyájuk a vörösöknek 700 és 800 dollár közé fog érkezni.( 749-799?) amihez azért nem igazán van hozzászokva senki ezen az oldalon.
ha ez alá jön akkor nagyon jó lehet.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Petykemano
veterán
válasz Busterftw #49907 üzenetére
Szerintem nem érted, vagy nem akarod érteni.
Megpróbálom én is - táblázatba foglalva.
A terméknév direkt zárójelben, mert pont nem arra kell figyelniPascal korszak:
GP102 [11,8mrd] (Titánok sora)
GP102 [11,8mrd] (1080Ti)
GP104 [7,2mrd] (1080) vs Vega10 [12.5mrd] (Vega 64)
GP104 [7,2mrd] (1070) vs Vega10 [12.5mrd] (Vega 56)Turing korszak
TU102 [18.6mrd] (Titan RTX)
TU102 [18.6mrd] (2080Ti)
TU104 [13.6mrd] (2080S)
TU104 [13.6mrd] (2080)
TU104 [13.6mrd] (2070S) vs Vega20 [13.2mrd] (Radeon VII)
TU106 [10,8mrd] (2070) vs Navi10 [10.3mrd] (5700XT)Ampere korszak
GA102 [28.3mrd] (3090)
GA102 [28.3mrd] (3080) vs Navi21 [?mrd] (6900XT?)
GA104 [?mrd] (3090) vs Navi22 [?mrd] (6700XT?)Amit ebből a táblázatból ki lehet olvasni az az, hogy
1) míg a Vega10 borzalmas fps/tr értékkel rendelkezett és az nvidia egy lényegesen kisebb tranzisztormennyiségű lapkáját tudta csak elérni, tehát nagyobb is volt és többet is fogyasztott. Addig a Turinggal szemben a Navi10 nagyjából elért egy fps/tr és fps/w paritást.
2) Míg a Pascal és Turing korszakokban az AMD legnagyobb terméke csak a második legnagyobb Nvidia lapkával tudott versenyre kelni. Addig a Navi21 az nvidia jelenleg ismert legnagyobb lapjájával fog versengeni.
3) Most egy olyan helyzet fog előállni, mintha a Vega64 nem az 1080-at nyaldosta volna, hanem az 1080Ti-t, vagy a Radeon VII / 5700XT nem a TU106 tetejét, TU104 alját képviselő 2070/2070S kártyákkal versengett volna, hanem a 2080S (TU104 teteje) és 2080Ti (TU102 alja) kártyákkal.Az igazsághoz persze hozzátartozik, hogy az nvidia tranzisztorszámaiban benne van az RT képesség és a DLSS-hez szükséges tensor magok is.
És persze bármikor előállhat az nvidia egy még nagyobb lapkával. a GA102 "csak" 628mm2-es, míg a TSMC 12nm-es node-ján lejött 800+ és 750mm2-es lapka is.[ Szerkesztve ]
Találgatunk, aztán majd úgyis kiderül..
-
gabika1972
tag
Már az is kérdéseket vet fel hogy mi a lópikulának kellett elhagyni a Titan nevet és beállítani a számozott gf-ok közé?Jól behatárolt piaca volt úgyhogy én arra gondolok kevésnek találta az nv a 3080at a gaming szegmensbe. Nem nagyon tudok itt olyan usert aki titanon tolta a gameket az előző generációkon...
-
Malibutomi
nagyúr
válasz Busterftw #49907 üzenetére
En ertem a nezopontodat csak kicsit fura nekem.
Ha az NV nem tolja el a chipeket /szamozast az elozo generaciokhoz kepest es a csucs chip vagott verziojat ugyanugy x080Ti-nek hivna mint eddig akkor elegedett lennel a Navival csak mert az NV kartyan van pluszban egy "T" meg egy "i"? Es akkor mar a csucskartyaval versenyez a szemedben nem "csak" a x080-al?
Ertenem ha igy latna valaki akinek fogalma nincs teljesitmenyrol es a kartyak felepiteserol csak a tipusszamokat latja, de te azert alkando vendeg vagy itt es tisztaban vagy ezekkel
-
kisfurko
senior tag
válasz Busterftw #49907 üzenetére
Pontosan téged célzott meg az Nvidia marketing. Azért nevezték 3080-nak, azért húzták maximumra, hogy kifogják az AMD vitorlájából a szelet, hogy csak a 3080-at érte be. Csak a vak nem látja, hogy eredetileg nem ez volt az Nvidia terve. Ha még jobban rámászott volna a 6xxx, akkor a 3090 lenne most a 3080, azaz semmit se jelentenek a kategóriáid. Aztán fél-egy év múlva jönne a refresh, mert megengedhetik.
-
Malibutomi
nagyúr
válasz paprobert #49915 üzenetére
A mostani tweetek alapjan az a 80CU de nem csucsrahuzott modell volt.
Esetleg meg a 72CUs lehetett talan.
Amugy igy hogyha az AMD ilyen kozel kerulne az NV-hez akkor nem is ez a generacio az erdekes...mindiket ceg mint az allat fogja hajtani az ezutaniakat a kovetkezo egy evben. Ki jon ki majd azokkal eloszor es mit tudnak az lesz a nagy kerdes.
A mostani helyzet pedig elegge ugy nez ki mint anno a 680 vs 7970 felallas
[ Szerkesztve ]
-
#09256960
törölt tag
A mai nap eddig itt Jó tudom nem lesz leak mivel a wolf , kitty és társai is mind önszivárogtatás... nincs kétségem, az jön ki amit ők akarnak.
Gyere bé legalább veled lehet beszélgetni.
Most hogy betiltották a szemetelést a holdon felmerül a kérdés
láttátok e az MIvel feljavított videót. Szenzációs!
Én végig azt vártam ahogy követik a keréknyomot hogy felbukkansz rajta , és a -Maga meg mit csinál itt kérdésre azt mondod: Neuronhálót optimalizálok , mi mást[ Szerkesztve ]
-
Petykemano
veterán
válasz paprobert #49915 üzenetére
Szerintem nem nevezték volna Bignavinak.
Az 5700XT és a 2080Ti között 4K-ban ~60% a differencia.
még ha generózusan +15% "IPC", +30% frekvencia növekedéssel is számolunk, akkor se ugraná meg a 40CU-s navi a 2080Ti-t 4K-ban.Ahhoz hogy valami ilyesmi történjék, ahhoz át kellett volna szabni a WGP-ket valahogy úgy kellett volna kiszélesíteni, mint ahogy az az NVidia tette. Noha a Mark Cerny mutatott olyan képet, hogy az RDNA2 CU hízottabb, mint a PS4 CU, de az mástól is lehet. Meg annak meg akkor reflektálódnia kéne a tflops számban.
Szerintem a 40CU-s lapkának egyébként nem target a natív 4K.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz #09256960 #49918 üzenetére
Nem azt mondta Abu, hogy a neuronhálót tanítani kell magas felbontású képekkel, különben szar lesz az eredmény?
Vajon honnan szedtek a holdi környezetről magas felbontású képeket, amivel tanították a neuronhálót, hogy milyen a holdi környezet valójában?Találgatunk, aztán majd úgyis kiderül..
-
Mumee
őstag
válasz Petykemano #49919 üzenetére
Amúgy OCUK-n számolták, hogy matematikailag kijönne hogy Navi22 40CU = 2080ti, ha minden csillag együtt áll.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz Petykemano #49920 üzenetére
Volt egy eredeti videójuk, amivel kiegészítették a két képkocka közötti részt.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jacek
veterán
válasz Malibutomi #49917 üzenetére
Lehet e és mennyi előnye vajon az AMD-nek a chipletes desinben szerzett gyakorlatával? NV van bármi?
-
#09256960
törölt tag
Intelnek van. a 4Tiles GPUjuk, csak nincs adat hogy az 3D nyomtatással vagy 4 külön GPU de bármelyik is mérföldekkel megelőzi a többit technikailag. Nagyon esélyes hogy a 3090-et másik oldalról verik el. Mivel 1500 dollár fölött már sok minden belefér! De GPU chipletben mindenképpen az intel vezet.
Csak az a nem mindegy egy ilyen tile 96 EU mert akkor vagy a négy összesen 960 EU mert akkor visz mindent is![ Szerkesztve ]
-
félisten
válasz #09256960 #49918 üzenetére
igen, igyekeztem,de Musk nem engedett fel az űrsiklóra, mert Nvidiás polóba voltam... ez ahhoz hasonló technológia- és ez petykemanonak is szól a kommentjére amiben a magas felbontású képeket keressük- amit most hoztak videókonfokhoz az Nvidia Maxine- vel. kipótolja szépen az AI a hiányzó dolgokat az eredeti videók alapján.Itt meg mintát vesz egy képből aztán szépen -like Maya- animálja . [link]
belinkelem mert ilyen jellegű információk ezen a oldlalon úgy sem bukkanak fel , meg amúgy is szar, majd lesz jobb késöbb mástól[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
do3om
addikt
válasz Malibutomi #49846 üzenetére
Pedig nem kel nagyon messzire visszaemlékezni.
(vega)Ha érdekel valami szerelési anyag írj privátot. Eladó Schneider Mágneskapcsoló 18,5kW/38A
-
Abu85
HÁZIGAZDA
Ez teljesen más technológia. A képkockák kiegészítése megoldható a DAINAPP-pal. Ez is AI, de nem szabad összehasonlítani például a játékokba való AI upscalinggal. A fő különbség az idő. A játékokban valós idejű válaszra van szükség. Természetesen lehetne igazán jó általános AI upscaling is a játékokban, ha egy képkockával szöszölhetne a GPU 10-20 percet, de erre egyszerűen nincs idő, mert te a kattintástól nagyjából 100 ezredmásodpercnyire akarsz új frame-et, nem 10-20 perccel később.
Amit láttok programokban AI upscalingot, vagy ilyen olyan dolgokat, azok nem adnak ám valós idejű eredményt, elindítod a programot és örülsz, ha tíz percen belül végez. Ennyi időre levetített számítási kapacitásból persze, hogy nagyságrendekkel jobb képet hoznak össze, mint a DLSS.
Amit belinkeltél az is igazából számítási kapacitásból él. Fel kell húzni mögé egy bivalyerős szervert, hogy működni tudjon. És ott már elgondolkodik rajta az üzemeltető, hogy az AI-ra költött számítási kapacitás azért nem kevés fogyasztás. Sokkal drágább egy ilyen szervert üzemeltetni, mint elfogadni a videók sávszéligényét. Ennek akkor lesz igazán értelme, ha túlmegyünk például a 16k-s felbontáson, mert ott már nem biztos, hogy annyira gyorsan javul a hálózat sebessége, mint amilyen gyorsan nő a pixelek száma.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
kisfurko
senior tag
-
Abu85
HÁZIGAZDA
Az egy DAINAPP. Semmi extra. Ha belerakod az erőforrást akármelyik videóval meg tudod tenni ezt. Sőt, a Google-nek van olyan AI-ja, ami a kezdő és a végponti frame közé be tud rakni vagy 60 frame-et. Effektíve két képből csinál animációt. Ez mind számítási kapacitás kérdése. Otthon nem nagyon fogod ezeket megcsinálni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
kisfurko
senior tag
válasz Petykemano #49919 üzenetére
Valahogy így gondolom én is, bár én még 30%-os frekvencianövekedést is nagyon eltúlzottnak tartok. Az én tippem max. 15%.
-
félisten
de ki mondta hogy otthon meg akarom csinálni vagy bármi egyebet? mi reflektáltál vagy mikről beszélsz nekem miért keverd ide ezeket a dolgokat? Azt kondtam hogy az nvidia maxine is hasonló elven működik.leszarom a googlet, azt sem tudom hogy keverted ide.
jah hát a többit meg gondoltam hogy számodra ez is szar meg az üzemeltetőknek is szar.de figyelj ez is igaz lehet, de ez sem érdekel nem volt benne mondandómban hogy ezt mekkora über dolgonak gondolom. Jó lenne ha néha a kisebbség ( Nvidiát kedvelők de nem AMD haterek pártjára gondolok, aminek alapító tagja vagyok ) mi is kommentelhetnénk szabadon.
A te véleményed egy elmondása szerint független ,de nem pártatlan újságíró véleménye, nem a piacé.
Ráadásul engem az sem érdekel ez a maxine sikeres lesz e vagy sem , egy párhuzam volt a video minőség feljavításával, ahol a H264 tizedre való tömörítéséből állítanak elő jobb végeredményt mint az eredeti. Ha telekommunikáció nem használja hasznos lehet a netflixnek és társainak ha az sem megy a süllyesztőbe akkor ott a helye de nem tudsz se te se én nyilatkozni semmilyen üzemeltető nevében, mert nem vagy az.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
A legfőbb probléma, hogy sokan csak a technológiát látják. Most már ezt és azt is lehet például. No, de milyen ára van ennek-annak. A fő oka, hogy számos AI technológia csak papírsárkány még ma is, hogy alapvetően drágább üzemeltetési költséggel old meg egy adott problémát, amivel eddig együtt éltünk. Ebből a cégek eladják azt, hogy micsoda innováció ez, de amikor megkérdezed, hogy árban ez mekkora extra kiadás, akkor hallgatnak, mert pontosan tudják, hogy a költségek szintjén nem nyersz vele, hanem egyenesen buksz. Ilyen formában már az alapprobléma nem is tűnik olyan nagy dolognak.
A problémamegoldás akkor reális, ha azt megoldod mondjuk egy AI technológiával, és közben nem generálsz vele egy még nagyobb problémát. És ez nem a gyártóktól függ, teljesen független tőlük.
Pont ez a lényeges kérdés, amit felvetettél. Egy szolgáltatónak mi éri meg. Kifizetni a szükséges sávszélt a piac felé, hogy eljuttassák a tartalmakat az ügyfeleknek, vagy spórolni ezen, de közben építeni egy marha nagy szervert sokkal drágábban, hogy AI-val dolgozzák fel a tartalmakat. Oké. Megoldottuk azt, hogy hatékonyabb legyen a sávszélesség használata, de közben behoztuk azt a problémát, hogy ki kell termelni a szolgáltatással egy bitangdrágán üzemeltethető szerverparkot, amire korábban nem volt szükség. Melyik kezemet harapjam le effektus...
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#09256960
törölt tag
válasz Petykemano #49934 üzenetére
De nem érted mennyire kritikus a helyzet Petyke? Azt mondta Abu bének képzeljen el még a DLSS-től is jobb AI upscalinget.
De a Bé nem tud elképzelni DLSS-től is jobbat
Jössz már ilyen Innosilicon-okkal vészhelyzetben .ááhh[ Szerkesztve ]
-
Laja333
őstag
Valahonnan az rémlik, hogy idén nem lesz Custom RDNA2.
Tényleg így van, vagy csak behaluzom? -
Mumee
őstag
válasz Petykemano #49839 üzenetére
Ok. Az Avery pletykákat ki lehet dobni a kukába.
[link] -
Bandit79
aktív tag
válasz Laja333 #49943 üzenetére
Nem azért állnak sorba , mert azt mondta valaki higy 2x2080 teljesítménye lesz... meg azért mert mindenki hülye aki it a PH-n is 3080 -at vett, már kb mindenkintudja higy mekkora a teljesítménye , ami nem gyenge , mégis sorban állnak még.. ... elég szép teljesítménynövekedés van, ahhoz képest hogy árakhoz mérten van olyan generáció ahol 10% sem volt ... és nem akarok újjal mutogatni..
Tudom nehéz elfogadni , hogy valaki új NV vgat vásáról, de szokd meg.. -
Laja333
őstag
válasz Bandit79 #49946 üzenetére
Mondod ezt nekem, akinek ott volt sokáig várólistán a 3080 kifizetve.
Mondjuk én nem 1000-1200 Euróért rendeltem be...És nem, a 3080 nem lett olyan jó, mint amilyennek beállították/beállítják. Ha te így gondolod, akkor első kézből érzékelheted a marketing erejét.
Ezeknek a kártyáknak csak az volt a vonzereje, hogy a customok 7-800 eurós áron jöttek. Aki ettől drágábban veszi az hülye, ezen nem tudok szépíteni.[ Szerkesztve ]
-
félisten
válasz Laja333 #49949 üzenetére
mi más lenne egy új generációnak a vonzereje ha nem az hogy olcsóbban kapsz meg addig elérhető teljesítményt vagy kitolja felfele a határokat? ezt úgy írtad le minha nem ez várnák el az emberek úgy általában.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Rog 4070 Ti //KERESEM!!//
- BESZÁMÍTÁS! GIGABYTE WindForce 2X GTX 960 4GB GDDR5 videokártya garanciával hibátlan működéssel
- BESZÁMÍTÁS! Gigabyte AORUS MASTER RX 6800XT 16GB GDDR6 videokártya garanciával hibátlan működéssel
- PowerColor Red Dragon Radeon RX 5700 XT 8GB
- GIGABYTE RX 6700 XT 12GB GDDR6 AORUS ELITE Eladó! 102.000.-
- NVIDIA Quadro RTX 4000 Ada Generation 20GB GDDR6 új garis eladó
- Nvidia Quadro RTX A2000 12GB GDDR6 192bit LP-normal dobozos VGA eladó
- MSI GeForce RTX 3070 GAMING X TRIO 8GB GDDR6 256bit - Garancia: 2024.05.10-ig!
- GIGABYTE GeForce GTX 1050 OC 2GB GDDR5 128bit Videokártya,hibátlan állapotban,tesztekkel!
- Sapphire HD 4830 512mb/256bit