Hirdetés
- S.T.A.L.K.E.R. 2: Heart of Chornobyl
- Polgári repülőgép-szimulátorok
- Star Wars: The Old Republic - MMORPG
- PlayStation 5
- Red Dead Redemption 2 (PC)
- WoW avagy World of Warcraft -=MMORPG=-
- Nintendo Switch
- S.T.A.L.K.E.R. 2 Heart of Chornobyl - Máris túl az 1 millión
- Gran Turismo
- Genshin Impact (PC, PS4, Android, iOS)
-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz VinoRosso #401 üzenetére
A gyári teszt alapján nem nagyon van 100 FPS alatti sebesség, még extrém beállításon sem. A GTX 295-nál már sokkal lassabb volt, persze az mindenképp hozzátartozik a történethez, hogy az SLI még nem működik normálisan. Majd az NV csinál hozzá profilt és az is jól fog skálázódni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
keIdor
titán
-
tzsolesz
nagyúr
válasz biggamer #398 üzenetére
► Видеокарта: ATI Radeon HD 2600 XT or NVIDIA GeForce 6800 Ultra
Annyira tudok röhögni mikor meglátok egy ilyen ajánlott VGA párosítást mint ez: 6800 ultra, meg a 2600XT.
A 2600XT minimum 2X erősebb mint az ULTRA, de lehet hogy többször. Megnézném én azért hogy megy egy 2600XT-én, és hogy egy 6800 ultrán. Nem igaz hogy ennyire elvakult fanatikusok ülnek még ilyen helyeken is, ahol meghatározzák a minimum VGA elvárásokat.
A helyes nagyjából így lenne:
► Видеокарта: ATI Radeon HD 2600 XT or NVIDIA GeForce 8600GT(S)
Ellenpéldának pedig ezt szánnám:
► Видеокарта: ATI Radeon HD 2600 XT or NVIDIA GeForce 9600GT/GS
Amúgy köszi a linket, vártam ezt a játékot.
[ Szerkesztve ]
-
Dark KillerX
addikt
válasz tzsolesz #404 üzenetére
Ugyan így pl. a Far Cry2 esetén is érdekes a minimum:
NVidia™ 6800 or ATI™ X1650 or better , mert azért ez sem egy kategória.
De tényleg ki az az idióta aki meghatározz egy játéknál minimumként,egy ilyen eltérő vga párost,mert a 6800 és X1650Xt-Pro(ami kb. Nv szinten megfelel egy 7600Gt-nek és 7900Gs-nek.) Szal tényleg vannak furcsaságok,de nem csak ennél a játéknál. -
TTomax
félisten
Hát én nem tudom,nekem volt speciel AGP-s 6800Ultrám ,meg 1650prom is...az Ultra egy b@szott kemény kártya volt,akárki akármit is mond...én éreztem olyan erösnek minta az 1650Pro-t,söt...igaz a Pro ha jól emlékszem DDR2-es volt...
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Sweet Lou 6
addikt
Ja ez sok játéknál előfordul. GTA4 a kedvencem: ajánlott vga: 8600GT vagy HD3870...tisztára mintha egy kategória lenne
sweetlou6.wordpress.com
-
Abu85
HÁZIGAZDA
válasz tzsolesz #404 üzenetére
Pedig tök logikus. A Riddickhez minimum GF 6 kell az NV oldalról, és minimum HD 2000 az AMD oldalról. Azt nem mondták, hogy ugyanúgy fog teljesíteni, csak ez kell minimum a futtatáshoz.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
tzsolesz
nagyúr
válasz Sweet Lou 6 #407 üzenetére
Ja ja, sokszor egy kategória, a 8600GTS a 3870-el a PCX-en az ára miatt.
Egyébként a 3870 GTA4-beli teljesítménye köszönőviszonyban sincs a 8600GT-éhez.
Annyira nehéz megtanulni???3870/9600GT, és 8600GT/2600XT, ez nagyon nehéz eset. Ráadásul a játékvásárlók félrevezetése. De ez itt már nagyon OFF, úgy hogy bocsi, és léceltem is.
Abu85: Értem, akkor miért nem írtak 2400pro-t.
[ Szerkesztve ]
-
Dark KillerX
addikt
Hát igen a régmúlt nagy ágyúiban mint a Doom3,Prey,Far Cry valószínű nagyon jól szerepelt az ultra és tényleg elérhette az 1650pro teljesítményét főleg a ddr2-ét ,de az újabb shared íntenzív játékoknál már lehet máshogy alakúlt a helyzett,ja és ezeknél a kártyáknál meg még főleg nagyon sokat számított a Vga ram,hogy mondjuk 800Mhz-es drr2 volt rajta-e,vagy hogy 1400Mhz-es ddr3. Szerintem.
[ Szerkesztve ]
-
biggamer
veterán
válasz Beowulf_78 #399 üzenetére
Köszi a kimerítő tájékoztatást.
tzsolesz
Szívesen.Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN
-
TTomax
félisten
válasz Dark KillerX #410 üzenetére
Hát nem tudom a Colin Dirt mennyire régi nagy ágyu....
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Dark KillerX
addikt
Kivételes ,amúgy a mai napig vannak játékok,amik nagyon is fekszenek az NV kariknak. Egy ilyen a Colin McRae Dirt.
Bár furcsálom,hogy olyan jól futna egy 6800Ultrán,mert emlékeim szerint a 600/1600Mhz-en futó 7900Gs-em,is megküzdőtt vele 1024-es felbontáson.
[ Szerkesztve ]
-
Beowulf_78
addikt
A HD 4870 X2 a Riddick alatt magas terhelésen dupla olyan gyors, mint a GTX 295
Erre csak annyit tudok reagálni, hiszem ha látom, de ezt az infót addig kénytelen vagyok fenntartásokkal kezelni...mert egyelőre még nincs visszajelzés a fórumokon, hogy fut 4870 X2-es kártyán. Persze nem kizárt hogy nem megy az SLI, és akkor az a 40-70fps GTX 295-nél is lesz 100fps feletti max. AA-val. Esetleg tudsz linkelni tesztet 4870 X2-vel?
[ Szerkesztve ]
Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.
-
Abu85
HÁZIGAZDA
válasz Beowulf_78 #415 üzenetére
Nekem is küldték. Elvileg az AMD kérésére készítették a fejlesztők tesztet. Majd egy közelgő AMD-s anyagban fel lesznek használva az eredmények. Bár hír az nem lesz belőle, de majd berakom a fórumba. Szerintem arra megy ki a dolog, hogy az NV a múlthéten elkezdte szapulni az AMD OpenGL meghajtóját (jobbára mást nem tehet), így most gondolom az AMD az új OpenGL-es Riddick teljesítményeredményekkel akar válaszolni a támadásokra.
Ami lényegében ki van emelve a belső tesztben, hogy a HD 4770 gyorsabb, mint a GTX 285. Majd gondolom pár tesztoldal beveszi a tesztjátékok közé a Riddicket is, és akkor lesznek függetlennek mondható mérések is. A pcgameshardware még csak a pre-alphát tesztelte, bár ott is meredek Radeon fölény volt.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Beowulf_78
addikt
Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.
-
Abu85
HÁZIGAZDA
válasz Beowulf_78 #417 üzenetére
Nem hiszem, hogy mi átlagfelhasználók cégek vagyunk. Cégként engem sem érdekelne a Win 7 sőt még a Windows sem.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
schwartz
addikt
válasz Beowulf_78 #417 üzenetére
En tuti valtok... Ruhellem a konzolt s remelhetoleg a DirectX11 majd kiuti nyeregbol... (a gagyi portokat is)
If he dies, he dies.
-
Beowulf_78
addikt
Persze nem vagyunk cégek... De mindent feltenni a Win7-re és a DX11-re, baromság ill. korai. Főleg már a kezdetek kezdetén. Ez volt az apropója a múltkori hsz-nek is. Döcögősen fog ez beindulni véleményem szerint.
schwartz: Én is váltani fogok. Fájl szintű műveleteknél jóval gyorsabb a Win7. De jelenleg a build 7077-et tesztelve, játék sebességben és böngészőben gyengébb mint a Vista.
[ Szerkesztve ]
Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.
-
VinoRosso
veterán
válasz Beowulf_78 #420 üzenetére
Áhh szerintem úgy fognak váltani az emberek win7re, mint a mesében. Nem si emlékszem olyanra, hogy valaha lett volna olyan, hogy egy béta oprendszer hónapokkal a megjelenés előtt ennyire elterjedt lett volna. Az ismerőseim közt is még aki eddig óckodott a Vistától, és Xp mellett tartott ki, egyből ahogy megjöt a béta híre feltették és nem csalódtak.
-
VinoRosso
veterán
válasz tzsolesz #422 üzenetére
azért azzal várjunk még. win7 - dx közti korreláció nem lehet nem lesz annyira tuti mint ahogyan azt várják, pl Vista + dx10 vonatkozásában hasonlókat lehetett elmondani, aztán se a Vista nem tudta behozni a dx10et, se a dx10 a vistát, bár ez utóbbi jobban dominált. Ha javítanak az api használhatóságán akkor lehet, hogy gyorsan el fog terjedni, de a dx10 is többek közt azért szorult háttérbe, mert nem olyan egyszerű vele fejleszteni, mint ahogy sokan hiszik. Ezért jó cucc pl a CUDA, mert sok terhet levesz a fejlesztők válláról, DX meg csak egyre bonyolultabb lesz, aminek látványbeli haszna nem nagyon van, mert dx9ben már szinte mindent meg lehet csinálni, csak teljesítményben javul, de ha így fejlődnek a vasak, akkor nem nagyon lesz egyelőre olyan engine, aminél megérné belefektetni azt a + energiát.
-
Abu85
HÁZIGAZDA
válasz VinoRosso #423 üzenetére
Számos fejlesztő mondta már, hogy a DX10-zel a legegyszerűbb fejleszteni, mert minden szabványos. Ami baj, hogy a DX9-et is meg kell csinálni, ami időigény, hisz a két rendszer már nem kompatibilis.
A CUDA-ra majd térjünk vissza, ha támogatja az AMD és az Intel is. Addig felesleges köröket futunk.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
old gray
addikt
válasz VinoRosso #421 üzenetére
Az újdonság varázsa, nagy a hype a win7 körül, ennek ellenére én Vista X64-ről most váltottam XP-re. Nagyon jó dolog a 64bites op.rendszer, nekem nagyon gördülékenyen ment, csak hát a 64bites driverek, meg adobe sem szeret 64bitre fejleszteni, jó, van silverlight, de az nem u.az
[ Szerkesztve ]
Broadcasting lies on the television screen / Trying to get us hooked on your american dream
-
VinoRosso
veterán
DX10-zel a legegyszerűbb fejleszteni, mert minden szabványos
Ne haragudj de ez már megint egy akkora sületlenség...miért lenne valami egyszerűbb, mert szabványos ? A dx9 éppen annyira szabvány, mint a dx10. Ha valami azért egszerű, mert szavbányos, akkor miért lenne egyik egyszerűbb a másiknál?
DX9-et is meg kell csinálni, ami időigény, hisz a két rendszer már nem kompatibilis.
Pont fordítva van, a legegyszerűbb egy dx9-es motort csinálni, ami felruháznak pár dx10-es featurerel, hiszen erre vannak már jól bejáratott módszerek, és van egy csomó újrafelhasználható kód. Teljesen új motort csinálni a semmiből a legköltségesebb mulatság, főleg egy új tehcnológiával, amiben annyi buktató lehet, mint égen a csillag. Ezért tudod megszámolni egyetlen kezeden, hogy hány full dx10-es motor van, mert nem éri meg az a +10-20 FPS.
pl imádott techlanded sem fog ezért dx10-es motort csinálni(holott ők már megtehetnék), mivel tökmind1, hogy a jelenlegi hardvereken 60 vagy 80 fps-el fut a játékuk.
(#425) old gray :én egy évig használtam 64 bites Vistát, végre kijött egy olyan oprendszer, ami használható volt 64 biten. A driverekkel csak annyi problémám volt, mint amennyi bármelyik másik oprendszerrel, illetve amennyi a Vistának általában, a 32bites is éppen annyira belassult tőlük. Nekem a flash is ment, nem kell 64 bites böngészőt használni, ha lassabb is a 32 bites nem annyira, hogy nagyon lerontsa a használhatóságot.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz VinoRosso #426 üzenetére
A DX10-ben nincsenek vendor specific caps bitek. Ha megírsz valamit DX10-ben, akkor az biztos, hogy menni fog egy DX10-es kártyán. DX9-nél rengeteg a gyártóspecifikus fícsőr, például a render-to-vertex-buffert nem támogatja a GeForce, így ode kell egy vertex texture fetch alapú megoldás ... és ezzel máris dupla munkát végeztünk.
A Techland Chrome Engine 4 az DX9/DX10-10.1 és DX11 motor. Jakub Klarowicz az egyik programozó, vele sokat szoktam beszélni. Speciel a Call Of Juarez második részénél a határidő miatt nincs DX10. Mert az UBI nyár elejére kérte. Ebbe vagy a DX9, vagy a DX10 render fért bele. Az UBI pedig a DX9-et választotta. Ez persze majd azt eredményezi, hogy nincs elsimítás támogatás semmilyen formában sem.
A DX10-nél az interjúban arra gondolhatnak, hogy az API kötelezi a programozókat a shader kódok megírására, azaz az új rendszer már nem tartalmaz fix funkciós shadert, de manapság már mindenki saját megoldásokkal dolgozik, így ez nem jelenthet gondot. Nyilván a DX10 rengeteg problémára tartalmaz megoldást, a DX9-ben meg lehet mondani, hogy az API nem támogatja a color részinfók mintavételét, így az AA-t sajnos buktuk, mert Deferred Shading a motor ... és még lehetne sorolni. Ettől nyilván könnyebb lesz a dolog, hiszen van kifogás, miért nincs AA támogatás.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
El tudnád magyarázni, hogy pontosan miért nincs AA támogatás az ilyen játékoknál? Régen is volt a dx9-esekben. Vagy csak vista alatt nincs, vagy hogy?
Bocs, hülye a kérdés, de ezt sosem értettem.
Köszi![ Szerkesztve ]
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
VinoRosso
veterán
Te konkrétan hol dolgozol, hogy Klarowcz féle fazonokkal diskurálsz? Megkérdezhetnéd tőle, hogy ha nehezebb dx9re fejleszteni, akkor miért nem gyúrnak rá dx10re. A szó szerinti fordítása a nyilatkozatának az, hogy elég nehéz használni a dx10 featureöket hogy egy kis javulásnál többet érjenek el a játék minőségében. Lehet, hogy én nem tudok magyarul, de nálam ez köszönőviszonyban sincs a magyarázatoddal. Na meg meg kéne kérdezni még pár gurut, hogy miért nincs elárasztva a piac dx10es technológiákkal, ha annyival egyszerűbb használni mint a dx9et. Elvégre az egyszerűség az egy egyszerű elv, olyasmi mint az energiaminimum elve, van egy csomó "lusta" fejlesztő, akik minél könnyebben szeretnének eredményeket elérni, és arrafele gravitálnak, amerre ezt a leghatékonyabban meg tudják tenni. Ergo ha megnézed hogy hol van sok tömeg, ott kell lennie valahol a minimumnak is és ez nem a dx10es bolygó környéke
[ Szerkesztve ]
-
Beowulf_78
addikt
válasz VinoRosso #430 üzenetére
Én is ezért mondtam amit mondtam...hova a faszba rohan az AMD-ATi? Semmi sem dőlt még el. Akár a nagy vesztesei is lehetnek a csatáknak, mert ez is benne van még, ezért nem értem az álláspontjukat. "Kötélhúzó verseny" zajlik az API-k között is, az OP rendszerek között is, A 2 nagy GPU gyártónál is. Nincs elfogadott irány, mindenki próbálja ráeröltetni a high tech-et a jónépre, vegyél DX10.1 karit, használj Win7-et, mert jönnek a DX11 karik és játékok..vicc amit művelnek. Aztán itt az első blama a COJ 2. Nem hogy DX10.1 de még DX10 se kerül bele. Nesze neked fejlődés. Persze lehet szépíteni, hogy ezét meg azért, meg nincs idő rá...persze. Ez csak üres magyarázat, semmi több. De gondolom nem publikus valós érvek is vannak..ez a DX9 a kitaposott út, és nem akarnak befürödni egy esetleges túlságosan hardverigényes DX10 motyóval. Lásd COJ első része. A mai napig ATi kártyákon lényegesen jobban megy, mint nV-n, és hát azokon se túl régóta megy jól. 1920x1200 full az még a GTX295-öt is megfogja, ippeg-hogy játszható. Bár lehet nem megy rendesen az SLI. Végülis...ATi-ra optimalizálták.
Amikor viszont kiadták alíg tudott vele valaki normális felbontásban játszani. 3870 X2 is szopatta, 1680-ban játszhatatlan volt, és még nem is volt full-full. 1280-ban toltam végig szégyen szemre egy 103k kártyával. 2 éve nem volt megfelelő hardver a játéhoz, ami gondolom nem kis bevételkiesés. Ezt akarják most elkerülni. Ennyi.Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.
-
biggamer
veterán
Új játékok NVIDIA PhysX támogatással : [link]
Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN
-
Hakuoro
aktív tag
-
rocket
nagyúr
Ugytunik Charlie megint bal labbal kelt fel
Az biztos nagyon nagy a csend a 40nm-es GT2xx GPU-k korul ami nem jo jel szokott lenni.
A konkurencia nyomasa egyre nagyobb igy elkene hinteniuk nemi morzsat, hogy legalabb beszeljenek roluk, nem jellemzo az NV-re ez a fejuket a homokba dugjak strategia."A lower resolution generally means that there can be more quality per pixel."
-
jozsef11
tag
Ha az nv nem fog tudni kijönni valami nagyon jó ár/érték DX11-es karival az éven akkor nagyot fognak bukni. Főleg ha az ati kiadja a nyár végén az 5870-es szériát.
-
T.Peter
őstag
Azért nincs, mert ahogy Abu is írta, Deferred Shading a motor. "A reformok kora" című cikkében ír erről bővebben (A Direct3D 10.1 címszó alatt lévő 2. bekezdésben).
[ Szerkesztve ]
-
Beowulf_78
addikt
Ennyi. Az nV is úgy gondolkodik ahogy én.
Kint lesz az ATi 5xxx szériája, meg kint lesz a COJ DX9 támogatással. Nah...ide aztán kell a DX11 támogatás. Tipikus..."kiadjuk de minek".Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.
-
Abu85
HÁZIGAZDA
válasz VinoRosso #430 üzenetére
Hát a PH-n dolgozom. Ez pont elég ahhoz, hogy a Klarowcz féle fazonok szóba álljanak velem. A Techland Chrome Engine 4 motorja DX10-re készült. Egyszerűen az Ubisoft miatt kell a mostani Call Of Juarezt DX9-ben kiadni, nincs idő két rendert összetákolni. Sokkal jobban szeretnének a játékosok korrekt játékélményt, mint AA támogatást.
Mit kellett volna mondani a szóvivőnek? Azé nincs DX10, mert nem fért bele az időbe? Ez nem hangzik jól. Mellesleg annyiban igazuk van, hogy DX10 mellett még a shadereket is meg kellene írni az AA-hoz, így meg el van intézve, egy "nem támogatja a technika az élsimítást oszt jólvan" mondattal. Világos, hogy az utóbbi az egyszerűbb.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
VinoRosso
veterán
válasz Beowulf_78 #431 üzenetére
mindeki azt ott próbál előretörni, ahol reális esélye lehet. G80 után az atinak nem volt más választása, mint innovativnak lenni, mert egyedül így tudtak leghatékonyabban teljesítménynövekedésre szert tenni. Ezért erőltetik a dx10.1-et, de a bökkenő az, hogy szoftver oldalról nem olyan egyszerű az átállás, mert egy játék feljesztési ideje nem mérhető össze egy VGA-éval. Egy VGA-nél a dx9-dx10 illetve a dx10 dx10.1 váltás max 1- fél év, és ha kell onnéttól kezdve el tudják árasztani vele a piacot, viszont a szoftveres átállás nem ilyen egyszerű. Ha valaki dollár millókat beleöl egy sw kifejelsztésébe, nem akar fél-egy év múlva egy újat piacradobni, egyszerűen nem is tudna, mert évekkel korábban el kell ahhoz fejleszteni, a kb 2-3 éves fejlesztési idő miatt. Ebből általában legalább ugyanennyi ideig szeretne megélni, és emiatt ezeknek a termékeknek az életciklusa is jóval hosszabb. Nem fél- egy éves ciklusban cserélődnek hanem minimum 3 de inkább 5-6 éves vagy még több. Egy 8800 GTS 640 ma már nem csúcskártya de 2 éve még nagy király voltam vele viszont UT3, Xray, Cryengine még mindig ott vannak a toppon, jönnek ki rájuk játékok. Ergo anno az architektúra, ami jól teljesített abban, addig jó piaci helyzetben lesz, amíg ezek eltejedtek lesznek. Az nvidia erre alapozott, mert a g80 jó volt ezekben, az atinak ezért nem volt esélye másra, mithogy várjon arra, amig ezek kiöregszenek.A váltás meg nem egyszerű, mert a deveknek is akkor éri meg technológiát váltani, ha a régiből már nem lehet kipréselni eleget. Toldozgatni foldozgatni nem sok értelme van, mert egy dx9es motorból fabrikált dx10es nem hozza azt a teljesítményt amit kellene neki. Egy full dx10.1es motort fejleszteni meg megint 2-3 év, tehát legkorábban 4 év, ha már van egy dx9es gammájuk. Valószínűleg emiatt kevés igazi dx10.1es játék lesz, mert mire ezek a fejlesztések piacra kerülnek, addigra már lesz dx11, és dx10.1ről dx11re váltani már egyszerűbb.
-
VinoRosso
veterán
áhh már azt hiszem hogy átálltál az nvidia pártjára mert állandóan zöldségeket beszélsz . Kerek perec le van írva, hogy nem hoz elég teljesítménynövekedést, és túl sok erőfeszítésbe kerülne elkészíteni. Eleve dx10-es motort kellett volna írniuk, olyat, amilyen a stormrise, és akkor tényleg megmutatkozna a dx10 előnye. Attól még hogy van egy renderer a motorban, ami tud dx10-et, nem lesz dx10 alapú a játék. Ahhoz h dx10 alatt megteremje a gyümölcsét a fejlesztésbe fektetett munka, teljesen új alapokra kell helyezni az egészet. Egészen addig míg ez meg nem történik, alig lesz fps nyereség, vagys megeshet az a blama, hogy dx9ben jobban fog futni a játék mint dx10ben, ahogy ez a SoC, Clear Sky, Crysis, WiC stb esetében meg is mutatkozott.
-
Abu85
HÁZIGAZDA
válasz VinoRosso #443 üzenetére
Nem látom az ellentmondást, pontosan ezt mondta Jakub Klarowicz is. DX9-re és DX10-re egyszerre nem volt idő. Meg eleve a Techland nem ilyen összecsapós csapat. Ha valamit jól csinálnak az a grafika.
Annyi lett volna a különbség, hogy lett volna AA támogatás is, de akkor a DX9 kiesik és ezzel együtt a Vista felhasználók is. A nagy sebességet a DX10.1-ben lehet nyerni. A DX10-ben problémákra vannak megoldások némi teljesítményugrással.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
VinoRosso
veterán
Hát ennél jobban nem fogod látni, mert alá is húztam. Na jó...lehetett volna még félkövérbe is tenni akár Egyébként ha olvasod a cikket nem csak nézed, abban a részben pont nem a B.i.B-ről kérdezték őket, hanem arról, hogy úgy "általában" megéri e dx10re fejlesztni, mikor ugyanazokat az effekteket meg lehet csinálni dx9-el is. Erre azért több mint furcsa válasz az, hogy "azért fejlesztünk dx9re, mert az Ubisoft szivat minket".
-
rup1u5
nagyúr
Why don't you knock it off with them negative waves!
-
Dark KillerX
addikt
Sztem mostanában inkább a Vram,ami megfoghat egy felsőkategóriás kártyát.Jó példa erre a 4870 512MByte.Mert hiába nyers számolási teljesítmény,és a DDR5 miatti magas memória sávszélesség ,ha az 512MByte 1600 felbontás fölött sokszor kevésnek bizonyul,még AA nélkül is.Ergo evvel arra akartam utalni,hogy a mostani csúcskarik memória sávszélessége bőven elegendő már most is.
[ Szerkesztve ]
-
zuchy
őstag
Igen, GPGPU lesz, hogy nem csak grafikai számításokhoz legyen jó.
Nv mindig is ilyen volt. Mindig is felsőkategóriára mentek magas előállítási költségekkel és még magasabb eladási árakkal. Ha nem akarnak megint szívni mint a GT200-al, erősebbnek kell lennie a Radeonoknál.PC-STYLE.hu
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Inno3D GeForce GTX 1060 Twin X2 3GB dobozos, szép állapot
- GIGABYTE GeForce GTX 1050 Ti Windforce OC 4G GV-N105TWF2OC-4GD - DOBOZOS
- PowerColor Red Dragon RX 6800 XT 16GB
- PALIT GameRock GeForce RTX 4070 Ti SUPER OmniBlack 16GB - Alza garancia: 2026.08.22.
- SAPPHIRE RX580 NITRO+ 8Gb GDDR5 OEM, nincs hozzá semmi!
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest