Új hozzászólás Aktív témák
-
nagyúr
válasz TTomax #32989 üzenetére
Kíváncsi leszek az NV beárazza e majd a bányászatot is a következő generációba hogy több pénz jusson belőle nekik... feltéve hogy nem tudják megakadályozni a bányászatot a játékos kártyákon valahogy.
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
->Raizen<-
veterán
-
Valdez
őstag
válasz TTomax #33061 üzenetére
"Didn't notice any improvement in PlayerUnknown's Battlegrounds using i5-6600k overclocked at 4.7GHz, with a GTX 1080, 16GB Ram DDR4 3000, Windows 10 pro, on a 144hz gsync monitor with vsync off in game, not sure but seems like the performance is worst, with more stuttering or sudden frame drops"
[ Szerkesztve ]
-
->Raizen<-
veterán
válasz TTomax #33186 üzenetére
En csak a negativ hatasait latom a dx 12 nek eddig csak 1 cimnel ert valamit az is 1080 al. Az meg a tomb radir. Amit mast probaltam ott nem voltam elorebb teljesitmenyben. A vulcant meg csak a doomban lattam mukodni illetve a wolfi 2 ben de az meg bugtenger volt. Ugy hogy eddig meroben melytorok a low level. /Forza 7 a legalja mindennek most./ Dx11 ben irodott cuccokkal tovabbra sincs problemam
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz TTomax #33186 üzenetére
A Wolf 2-t érdemes felhozni példának. Ott az IDtech 6.5-re átírták a leképezőt. A Doomhoz képest 30x több a rajzolás képkockánként, amiről eredetileg azt gondolták, hogy menni fog OpenGL-en is, de aztán a gyakorlat azt mutatta, hogy az OpenGL a Wolf 2 megterhelésével már egyetlen mai hardveren sem tud játszható sebességet produkálni. Tehát ha egy játékot explicit API-ra tervez egy stúdió, akkor már felesleges DX11/OpenGL-ben szállítani, mert nem fog futni a hardvereken. A Wolf 2-nél persze ebből akkora para nem volt, mert szállították Vulkan API-val, és az OpenGL-t kihagyták belőle, annak ellenére, hogy eredetileg tervben volt. Ez jól mutatja, hogy csak úgy tudod az explicit API előnyeit kihasználni, ha elhagyod a legacy API-kat. Ezt eddig csak a Bethesda tette meg.
Egyedül ott látod ma a DX12 hatásait, ha konzolra tervezett jeleneteket hozol át PC-re. Lásd Rise of the Tomb Raider, ahol sokszor látványos előnye van a DX12-nek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #33196 üzenetére
A DX12 és a Vulkan koncepciója pontosan ugyanaz. Hasonlítani azokat a játékokat sosem tudod, amelyeket explicit API-ra írtak. A Wolf 2-nek volt OpenGL portja, de végül nem került bele a véglegesbe, mert még a pre-béta állapotban sem ért el egyetlen kapható hardveren sem 30 fps-t, eközben a legerősebb GPU-k Vulkan alatt 100 fps fölött működtek. Szóval nem volt értelme több erőforrást áldozni az OpenGL-re, mert nem volt realitása, hogy a végleges kódra játszható lesz bármin is. Emiatt inkább kivették ezt a módot. De egyébként nem hiszem, hogy az egészet komolyan gondolták. Eleve 30k draw/frame pont tízszer több, mint amivel az OpenGL hatékonyan képes megbirkózni. A Vulkánnak persze ez gyerekjáték, de ezt az API-t így tervezték, míg az OpenGL-t nem. A Doomban azért működött az OpenGL, mert ott a terhelés csak 1k draw/frame volt.
Bizonyos Vulkan implementációk okozhattak ilyet, de az újabb frissítésekben ezt már javították az érintett gyártók, és a Bethesda is adott ki patch-eket.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Kolbi_30
őstag
válasz TTomax #33199 üzenetére
A probléma ott van, hogy a játékokat az átlag embernek készítik..így ha AI fejlesztés lenne, akkor menne a sírás..mert az átlag annyira a béka segge alatt van agyilag, hogy az elképesztő. Ha pedig a gépigény csökkenne ami megoldható lenne az új apikkal, akkor még nem venné senki hardvert, évente ez még a gyártók miatt nem megy...
Ennyi az egész, lenne fejlődés csak a vásárló birka, a másik oldalról meg jönnek a pénzek dobozba, hogy ezt tedd bele mert akkor a következő szériával jól fog menni a jelenlegi el még kevésbé...
Na Battya ezért nincs fejlődés, mert sok az ostobák szar a gamerek közt, meg mert a kiadók/studiak le vannak fizetve..You want some birth control, you can smoke a cigarette.
-
do3om
addikt
válasz TTomax #33204 üzenetére
Még a Far Cry 2 is elégé ott van a toppon, az lassan 10 éves!!
Szerintem a konzol korlátai miatt van ennyire belassulva a fejlődés, a meg a 4k mizéria is rátesz kicsit de a felbontás régen is ugrált felfelé.
[ Szerkesztve ]
Ha érdekel valami szerelési anyag írj privátot. Eladó Schneider Mágneskapcsoló 18,5kW/38A
-
Abu85
HÁZIGAZDA
válasz TTomax #33204 üzenetére
Az AI az egy külön problémakör, ami nem igazán független a grafikától. A problémát az adja, hogy ha az AI komplexebb lesz, akkor az nagyobb számítási teljesítményt igényel. Jelenleg nincs egyetértés abban, hogy ezt a hiányzó erőforrást honnan vonjuk be. Például az Oxide Games szerint a GPU lenne az ideális erre, ami nekik lehet, hogy így van, mert ezek a szörnyeteg lapkák a sokezer szállal marha jók az útkeresésében. Aszinkron compute-ban megoldják a számítást, amikor éppen nem a shaderek dolgoznak, és kész, meg is van a komplexebb AI. A probléma, hogy ehhez az aszinkron compute miatt mindenképpen explicit API kell, tehát addig nem lehet bevetni, amíg a DX11/OpenGL API-t el nem hagyja egy játék. A másik lehetőség, hogy maradni kell a CPU-nál, és a Bethesda/id Software is ezt vallja, így az id tech 7 motor már átalakítja a szálkezelést, hogy jobban ki lehessen használna a processzorok magjait. A probléma ezzel, hogy az efféle, extrém párhuzamosságra kigyúrt rendszerek nem igazán kompatibilisek az DX11/OpenGL API-k dizájnjaval, tehát addig nem lehet bevetni őket, amíg a játékban ott vannak a leképezők a legacy opciókhoz. Tehát irány és ötletek vannak, de akármi is lesz, csak akkor vethetők be, amikor a DX11/OpenGL már a múlt.
A környezet rombolhatósága is ugyanitt tart. Egyszerűen a processzor erőforrásának zömét szimpla ellenőrzésekre költi, amelyek ráadásul nem csak erőforrást vesznek el, hanem megakadályozzák a párhuzamosítást.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
->Raizen<-
veterán
válasz TTomax #33199 üzenetére
A nfs payback is a hypeolt frostbyte motort tartalmazza. Na mar most az arnyek meg a lagy arnyek egyutt semmisiti meg a sebesseget foleg. Ilyen effektek amik alig tesznek hozza a kepi vilaghoz.. ez a szomoru. Mestersegesen feltornasszak a gepigenyt hogy el lehessen adni a 2-300k-s vgat is.
-
Puma K
veterán
válasz TTomax #33289 üzenetére
"ehhez a grafikához nem nagyon kell vas..."
Mi ez a cím...?
...
......
.........
Mi ez a grafika...?Odamész egy barlanghoz és loading screen... ilyet a WoW is tudott már 2004-ben jóval nagyobb bejárható pályával, több NPC-vel és játékossal.
De amúgy vicc ehhez a játékhoz egy belépőszintűnél erősebb CPU-VGA (ennek a játéknak egyáltalán minek külön VGA-CPU teszt?? ). Ez ilyen IGP-s szörtyögős játék (ha már PC) amúgy meg konzolra való ez elsősorban a kontrollereseknek
Kicsit keveslem a minimum 132 meg maximum 148 FPS-tA nagyon sok verzióban lévő meg reskin-elt Dynasty Warriors jutott az eszembe ahogy néztem a videót.
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Abu85
HÁZIGAZDA
válasz TTomax #33289 üzenetére
Naná, PC-re ez az első Ni no Kuni. Minden korábbi rész valamilyen konzolra jött (Nintendo DS vagy PS3). Én a PS3-as Wrath of the White Witch alapján ismerem, nekem nagyon tetszett. Itt van egy kis videó róla: [link] ... Ez pedig az új rész PS4-en. [link]
Egyébként persze, ez a játék akkor élvezetes, ha amúgy is csípi az ember ezeket a Zelda-szerű JRPG-ket. A PC-sek számára pedig nyilván új, hiszen korábban konzol-only cím volt. Valószínűleg azért kaptuk meg PC-re, mert a PS4-ről egyszerű volt átportolni, míg PS3-ról ugye ez nehéz ügy lett volna régebben.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
rambustibi
őstag
-
Crytek
veterán
válasz TTomax #33436 üzenetére
És? A jó nem érhet véget?Ugyanmár.... Az intel amd eddig csak az ugrodeszka végén dobbantgatott..még nem jött el az ő idejük, de majd elfog....Első lépés a laptoppiac leigázása a intel@amd hidriddel.... Kemény évek jönnek az nvidiára én mondom nektek. Ezért is adtam el a 980Ti met....
[ Szerkesztve ]
Next PC Upgrade: 2022
-
Abu85
HÁZIGAZDA
válasz TTomax #33599 üzenetére
Ilyen nincs. Mi is ugyanebben a rendszerben dolgozunk. Se az Intel, se az AMD, se az NVIDIA sem mondja meg nekünk, hogy mit hogyan csinálhatunk. Ha megmondanák visszaadnánk a termékmintát és viszlát. De mivel ezt nem tesszük meg, így erre vonatkozóan nincs semmilyen külső befolyásolás. Egyetlen általános kérés szokott lenni az említett cégek felől. Ha tesztelünk valamit, akkor legyünk szívesek és olvassuk el az általuk készített pdf-et, ami leírja a terméket részletesen. Szóval olyanról, amiről ő beszél még csak hírből sem hallottunk senkitől, nem csak az AMD, de az NV és az Intel oldaláról sem.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #33601 üzenetére
A Youtube-on gomba módra szaporodnak az ugyanarra szakosodott tesztelők. Sokkal könnyebb ide belépni, mint felépíteni egy külön weboldalt, és a helyzet az, hogy az ottani sample-ök is eléggé végesek, tehát nem sokat kockáztat a Tech of Tomorrow, ha megpróbál azzal kitűnni, hogy ők annyira függetlenek, hogy még termékmintát sem fogadnak el, mert gyenge félmillió feliratkozóval úgyis kikerülnek ebből a körből. Főleg úgy, ha a kontaktjuk elment az AMD-től, ahogy mondta. Nagyon sok múlik a kapcsolatrendszeren, mert ezeket a mintákat nem szimpla számok alapján adják oda, hanem valamennyire számít, ha valaki valakinek a haverja. És ha jön egy új kontakt, akkor az valószínűleg inkább a számok alapján kezdi el osztogatni a mintákat, amiben a JayzTwoCents, Linus Tech Tips, HardwareCanucks, Bitwit, stb. sokkal jobban áll. Tehát effektíve érdeke fűződik ahhoz, hogy az emberek azt higgyék, hogy ő volt kemény és nagyon független ember, aki beintett az AMD-nek, és nem az AMD volt az, aki látta a többi csatorna fejlődését, és inkább nekik viszik a hardvert, nem pedig a kevesebb feliratkozóval rendelkezőnek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
válasz TTomax #33613 üzenetére
Elmondom mit küld az AMD. Van egy bő 40-70 oldalas review guide (terméktől függően), amire az AMD azt mondja, hogy szerintük ez a reális tesztkörnyezet, ezek a reális programok, és ezekből gyakorlatilag csinálnak egy saját tesztet. Azt kérik, hogy ezt olvassa el mindenki, aki teszteli. De sose, hangsúlyozom sose kérték azt, hogy ezt másoljuk le részben vagy egészben. Sőt, a Ryzen esetében kifejezetten buzdítottak arra, hogy nézzük meg olyan programokban is, amelyek nincsenek benne a review guide-ban, és ha ez egy egyedi program, amit más nem is igazán tesztel, akkor küldjük el nekik az eredményt, hogy ők is láthassák. Ilyenkor esetleg felkereshetnek, hogy mondjuk el azt is, hogy miképp teszteltük azt az adott, ritkán használt programot. A szerződés sose tartalmaz semmilyen teszthez kötött feltételt, akármit lehet írni, akármit lehet tesztelni. Az van benne, hogy be kell tartani az NDA-t, azaz nem lehet egy x időnél hamarabb közölni az információkat, különben ilyen-olyan retorziókat von maga után, emellett az adott teszt értékelését a megjelenése után el kell küldeni a helyi képviselőnek. Gyakorlatilag kérik a plecsnit, hogy a marketinganyagokba oda tudják rakni, hogy a xy média Béla plecsnire értékelte a terméket. Utóbbi nem kötelező érvényű, de ha nem küldjük el, akkor az AMD nem fog hivatkozni az adott sajtóra. Mindenki eldöntheti, hogy ez jó-e neki, vagy sem.
Ki nem húzta le az utóbbi időben a Xeon részleget? De nem kell ezekre hallgatni, vannak tesztek: [link]
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #33615 üzenetére
Mert nem ebben a rendszerben vagy benne, csak egy külső szemlélőként látod az egészet, és senkiről sem hallasz semmilyen olyan információt, ami megrendíthetné a bizalmat vele szemben. Ellenben a gyártók kontaktjaival én szoktam beszélni, évente többször, akár személyesen is, és nem csak a kívül látható, rózsaszín, cuki pónikat szóró ködfátyolig ismerem ezeket a médiákat.
(#33616) Raymond: Mint írtam a haveri alap számít, de amint megy a haver kontakt, onnantól kezdve jönnek a nyers számok.
(#33618) MiklosSaS: A lab501 nem minden gyártónál tartozik a mi régiónkhoz. Az egész régiókra van osztva a gyártóknál, és régiónként van x mennyiségű kiosztható teszthardver.
A régióknál pedig ne a földrajzra gondolj. Az egyes kontaktok kapnak régiókat, tehát amíg mi az NV-nél a cseh központú régióhoz vagyunk besorolva, az AMD-nél a szerb központúhoz.
Emellett a lab501 egy GeForce Garage partner, ami elég sok pénzt hoz nekik, így tudnak fennmaradni a jelenlegi gazdasági helyzetben.Mi alapvetően egyetlen gyártóhoz sem szeretnénk anyagi alapú partneri viszonnyal tartozni, mert elsődleges irányelvünk a függetlenség. Persze kurva jó a pénz, amit egy speciális szerződés hozhat, de a legnagyobb érték egy újságnak az, ha bármiről szabadon írhat.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
füles_
őstag
válasz TTomax #33692 üzenetére
Ez van, most ezzel mit csináljak? A jelenlegi piaci helyzetekhez mérten a Pascal sokkal jobb választás, mint a Vega vagy a Polaris, nem hiába fogynak nagyobb számban.
A Fury meg a Vega nem sikertermék sajnos, a Polaris sem volt az, de az nem volt egy rossz cucc a GTX 1060 ellen, bármikor azt választottam volna (választottam is).szerk.:
Szerintem ezekkel a termékekkel már értelmetlen előállni. Feljesztsék csak a Navi-t, és tegyenek le valamit az asztalra, ami a Ryzenhez hasonló sikert arat.[ Szerkesztve ]
-
olymind1
senior tag
válasz TTomax #33739 üzenetére
A hangsúly talán a megengedhette szón van, ha pl a Vega olyan nagy durranás lett volna hogy találomra mondom: Vega56 lehagyná az 1080 TI-t, akkor az AMD is visszatarthatta volna a 64-et, és adhatott volna ki akár Vega48-at is.
Meg lehet hogy gyártásnál belekalkulálták hogy kevés lesz a fullos működő chip és a működőket félretették ínségesebb időkre / későbbre.
De az AMD picit jobban összekaphatná magát hogy legyen jó kis árverseny, mert mostanában úgy tűnik mintha mindig az NV mögött loholna (felső-csúcs kategóriára értve), mondom ezt úgy, hogy az utolsó GeForce-om egy GTX460 768 MB kártya volt.
Nekem úgy tűnik, ha felső kategóriában nincs árverseny akkor az (alsó-)középkategóriában is igencsak stagnálnak az árak.
Persze simán tévedhetek
-
Abu85
HÁZIGAZDA
válasz TTomax #33746 üzenetére
Igazából arrafelé tart.
Ez valóban elkészült prototípus szinten. Most azt csinálják, hogy elkészüljön kiadható termékként. Előbb szerver, majd asztali és mobil vonalra. Az Intel dettó ugyanilyenen dolgozik. Nem a Kaby Lake-G-vel, hanem a saját lapkáival. A Kaby Lake-G csak egy kényszertermék.Szóval az Intel és az AMD hosszabb távú tervei nem változtak. Szépen a tokozásba egy-két erős CPU, majd egy erős GPU, és viszlát PCI Express. Ha tetszik, ha nem ez lesz. A Windows 10 1803 is tartalmaz olyan kísérleti funkciókat, ami ilyen hardvert igényel. Például a Tiled Resources TIER_4.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #33752 üzenetére
Nem tudod a PC-t úgy fejleszteni, hogy a CPU-k 10+ maggal rendelkeznek, a GPU-k 10+ TFLOPS-osak, a memóriák elérése a CPU oldaláról 80, míg a GPU oldaláról 500 GB/s is lehet, és eközben a PCI Expressen keresztül egy nem memóriakoherens kapcsolat érvényesül 16 GB/s-mal. Még a PCI Express 4.0 32 GB/s-ja is kevés lesz. Ahhoz, hogy értékelhető mértékben gyorsíts mindenképpen radikális lépés kell. Egy memóriakoherens, legalább 100 GB/s-os kapcsolat. Az már nem feltétlenül szükséges, hogy a GPU beköltözzön a CPU mellé. Ez csak abból keletkezik, hogy az Intel, az AMD és az NV nem tud megegyezni egy memóriakoherens és nagyon gyors szabványról.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
válasz TTomax #33759 üzenetére
A PCIe pont az igényeket követi, ezért tartunk még mindig a 3.0 -nál, mert nincs igény jobbra, kb. sehol nem korlátozó tényező a PCIe busz PC-n.
A PC Gaminget kb. 10 éve sokan temetik az AMD-vel egyetemben, ehhez képest minden eltelt évvel csak nagyobbra duzzad és egyre meghatározóbb lesz mint játékplatform. Az NV, meg a játékos kiegészítőket gyártó cégek temetés helyett, szarrá keresik magukat rajta...
-
olymind1
senior tag
-
_drk
őstag
válasz TTomax #33769 üzenetére
Meg az Nvidia-nak is kell az AMD, hogy szépen belőhesse az árakat. Mondjuk a középkategóriát 100ezer huf fölé.
Egyedül a piacon nem hiszem, hogy ilyen szépen tudná árulni a kártyáit, max a Prémium maradna ott ahol, meg a totál budget kategória.Ami vicces, hogy mindenki szidja az AMD-t miért szerencsétlenek, hát ők örülnének a legjobban ha tudnának prémium kategóriát fejleszteni. Ami még viccesebb, hogy a RX480-al Full HD-n freesync-el igazából ami kell a gamernek az ott is van. 4k még jelenleg az Nvidia-nak se megy, majd max most meglebegtetik a 1180-at hogy ez már elég lesz nagyjából. Mikor a konzolok ha csalnak is, de ott van már élvezhető "4k" tartalom.
-
Abu85
HÁZIGAZDA
válasz TTomax #33769 üzenetére
Nem pont a VGA a limit. Leginkább az API. Volt régebben egy előadás, hogy a DX12 és a Vulkan API-val igencsak taccsra lehet vágni a PCI Express 3.0 x16-ot is. Egyszerűen a legacy API-kban máshol voltak a hardveres korlátok, és sok dolog nem jött elő, amelyek az új API-kkal problémásak. És nem kell ehhez szupergyors VGA. Szóval valóban, amit most látunk az leginkább egy kényszerű tényező. Azért nem érezzük a PCI Express-t limitnek, mert a programok úgy vannak elkészítve, illetve effektíve butítva, hogy ne legyen limit, mivel a user nem tud vele mit kezdeni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
válasz TTomax #33769 üzenetére
Mire használnád jobban a PCIe buszt?
PCIe 2.0 -án is 4k (valódi) 60fps-el futnak (csúcs VGA-kon) az elsődlegesen a PS4 APU-jára fejlesztett AAA játékok, úgy hogy nem a PCIe busz a szűk keresztmetszet, hanem a GPU...PUBG -ből pl. több mint 30 milliót eladtak Steamen, miközben a PS4 -en a legjobban fogyó exkluzívok 10 millió körül járnak...
Sőt így is lehet nézni a dolgokat:
PC had more “good” exclusive & multi-platform games than any console in 2017Mielőtt nagyon belemennél ebbe a megsarcolós témába:
NV vonalon egy GTX 780(Ti)/970/1060(3GB) -al a PS4 grafikai szintjének megfelelő beállításokon tudod tolni a multiplatform játékokat 30fps helyett 60fps-el... -
Abu85
HÁZIGAZDA
válasz TTomax #34411 üzenetére
Hivatalosan nem kapta meg sosem. Engedélyezték, de ha valami problémád van a G-Sync+GT 1030-cal, akkor mossák kezeiket. Megmutatják, hogy a specifikációban a G-Sync-re "NO" van írva.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
válasz TTomax #34502 üzenetére
Ez a kérdés a gyakorlatban szinte soha nem merül fel, mert akinek nincs PC-je, annak nincs igénye a PC nyújtotta extrákra, elég neki az okostelefon, neki jobb választás egy konzol, de nem elsősorban pénzügyi okok miatt, hanem mert megnyomod a gombot aztán játszol, nincs semmi komplikáció...
Akinek meg van már egy PC-je, ő valszeg igényt tart a PC nyújtotta extra szolgáltatásokra és a komplikációkkal is megbirkózik miattuk, neki az eldöntendő kérdés a PC gameresítése (ami jórészt csak egy VGA-t takar) vagy egy konzol a PC mellé.
[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- 3 db ICERIVER KAS KS0 PRO
- DOBOZOS MSI Raider GE76: i7 12700H,32GB DDR5,1TB,17.3" QHD 240Hz 400nit 100%sRGB,RTX 3070Ti 8GB 150W
- Asus Tuf Dash 15 i7 11370H/16Gb/512Gb/RTX3060
- HUAWEI MateBook 16: Ryzen 7 5800H,16GB,512GB,16" 2.5K 2520x1680 350nit 100%sRGB,Radeon RX Vega 8
- Playstation 5 Fat lemezes ( Makulátlan !!! ) Gyári garanciával, ajándék játékkal
Állásajánlatok
Cég: Alpha Laptopszerviz Kft.
Város: Pécs
Cég: Ozeki Kft.
Város: Debrecen