-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
nagyúr
válasz fatallerror #10601 üzenetére
ha 192-bit, akkor majdnem mindegy, hogy 1.5GB vagy 2GB - sőt, szerintem konkrétan a 1.5GB jobb is.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
veterán
válasz fatallerror #10603 üzenetére
Mindenki ezzel jön, aztán a tesztekből az látszik ki, hogy még 1 giga ram is teljesen elég fullHD-hoz..
Jah, hogy az after 2.5Gigákat ír memóriahasználatnak... értem...
Nézd meg a hirdetéseim. Finomságok!!!
-
veterán
válasz ricshard444 #10606 üzenetére
Persze, én is teljesen tisztában vagyok vele, hogy nem mindenhova, de nekem BF3 alatt single-be teljesen jó volt 560TI mellé az 1GB, pedig minden földi szart ráadtam fullHD mellett...
Max Payne-t még nem próbáltam, mert nem van itthon jelenleg procca, de crysissal nekem nem sikerült fullHD mellett megfektetni az 560-at... Persze nem is raktam rá a realistic mod-ot...
De 1.5Gigáról mennyen a vita... annyi lesz a 660.. Az 50%-al nagyobb az 1GB-nál.
Amúgy sem kell már sokat aludni, megnézzük, mennyi játék alatt fekszik majd el. Ennyi.Nézd meg a hirdetéseim. Finomságok!!!
-
nagyúr
válasz tombar #10604 üzenetére
abban az irányban, igen. a 192-bit 3db 64-bites memóriavezérlőből jön össze (vagy 6db 32-bites? mindegy, a lényeg ugyanaz). ha mindegyik vezérlőre 512MB VRAM-ot teszel, akkor jön ki az 1.5GB. ha ebből 2GB lesz, akkor az minden bizonnyal úgy fog történni, hogy az egyik vezérlőn 1GB, míg a másik kettőn 512MB van. miután az egyik kontrollernek átlagosan duplaakkora forgalmat kell bonyolítania, mint a másik kettőnek, könnyen válhat szűk keresztmetszetté - különösen azért, mert nem hiszem, hogy a GPU és / vagy a driver figyelne arra, hogy a memóriatartalmat ehhez a felálláshoz optimalizálja.
1GB téma: lassan megy lefelé az határ a GPU sebességében, ahová már elkelne több, mint 1GB VRAM fullHD-ben. a jelenlegi alsó-középkategóriában (GTX460, HD6850) ez már helyenként így van, bár az emiatt kötendő kompromisszumok jellemzően vállalhatók. ez változhat, ha egyre több játék fog érkezni brutál méretű textúrákkal.
a GTX660-hoz szerintem már kevés lenne az 1GB, de a 1.5GB egyelőre elég kellene legyen. a GTX580 hol fogy ki a VRAM-ból? annál azért lassabb VGA lesz.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
tombar
senior tag
ja. most már kapizsgálom. mondjuk én úgy gondoltam h 1 bitnyi sávszélre mekkora adatmennyiség jut, de kvázi ugyanott vagyunk.
btw a nontihez bőven elég lesz 1,5 giga ram, a kérdés az h a ti-nél elegendő lesz-e. szerintem rendben lesz, főleg ha azt vesszük h a 680 is beéri 2vel. plusz a gk nagyon spórolós lett, rövid pcb, relatíve kevés vásárlócsalogató vram mennyiség (exp. for gt 640 ) szerintem azzal nem lesz gond.Everybody knows, you dance like you fuck. So let me see you dance!
-
veterán
válasz fatallerror #10611 üzenetére
te most tényleg kötözködsz?
Leesik az fps, természetesen erre gondoltam, nem arra, hogy kiírja a játék : not enough video memory...Nézd meg a hirdetéseim. Finomságok!!!
-
Löncsi
őstag
Nagyon kényes az a VRAM/adatsín... az itt a probléma alapja, hogy generációváltásnál általában van egy VRAM-duplázás, az adatbuszt meg nem vágják vissza.
Ebből jön az, hogy GTX580 1.5 GB -> GTX680 3GB kellett volna, hogy legyen.
GTX460/560 1GB -> GTX660 2GB+256 bit kellene legyen.
Nem lesz elég ennyi memória, ha a BF3 megeszik kezdésnek 1.5-öt, és akkor az tavaly jelent meg, előre is kellene gondolni kissé. Plusz ez a 192 bites busz is eléggé hurka... gyors memóriákat muszáj lesz rárakni.[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Löncsi
őstag
válasz tombar #10614 üzenetére
Persze, de a tudatalatti e-penisz-nek azért kellemetlenek ezek a specifikációk és lehet ebből a spórlásból csak a gyártók látnak valamit... lásd pl. HD7770, 16ROP, 128-bit, 123 mm2 lapkaméret és elkérnek érte egy csomó pénzt. GPUZ-t meg se merném nyitni.
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
válasz Löncsi #10615 üzenetére
Persze, hogy jókora felárral kínálja az AMD a 7700-as szériát, hiszen nincs ellenfele, így gond nélkül megteheti. A gond az - ami egyébként már számtalanszor le lett írva -, hogy az NV-nek már egyáltalán nem fontos a VGA piac, gyakorlatilag nekik mindegy, hogy asztali VGA-ként miként fog teljesíteni az új középkategória.
Amúgy én is nagyon kíváncsi vagyok, hogy mi fog kisülni ebből a nagy várakozásból, de megváltást korántsem szabad várni tőle! Abban én is egyet értek, hogy nagyon nem valószínű, hogy 128 bites buszt alkalmazna az NV, hiszen az túl lassú lenne és az ellenfél pedig a Radeon HD 7800-as széria lesz. Bár a GK107-nél rosszabb nem igazán lehet ár/teljesítmény szempontjából.Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Löncsi
őstag
válasz huskydog17 #10617 üzenetére
Én a GK107-et sem írnám le amíg nem láttam egy GDDR5-ös tesztet...
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
válasz Löncsi #10618 üzenetére
Nem segítene rajta sokat, még GDDR5 lapkákkal sem lenne ütőképes a 7700-asok ellen, legfeljebb a 7750-et megközelítené. A GK107-nél nem csak a DDR3 VRAM a ludas, azt a GPU-t egyszerűen túlságosan megnyirbálta az NV. Abu ezt is sokszor leírta már.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
nagyúr
válasz huskydog17 #10619 üzenetére
Abu sokszor leírta, de ettől még nem lesz rögtön igaz. ahogy az sem, hogy az nVidia-t nem érdekli a desktop piac.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Löncsi
őstag
válasz huskydog17 #10619 üzenetére
Abu sok mindent leírt, de ennyire komplex GPU-nál nem lehet csak egyszerű "megnyirbálta" kifejezéssel élni... egy GTS450-et is korlátoz a DDR3 jelentősen, nemhogy a kis Kepler-t és ehhez nem kell PhD mérnöknek lenni...
Érdekességnek itt egy videó, ray-tracing + solver + GPU water Kepleren: [link]
[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Mivel tudod alátámasztani, hogy nem igaz?
Nem azt írtam, hogy egyáltalán nem érdekli, persze, hogy érdekli, hiszen ha nem lenne benne érdekelt, akkor nem ölne bele pénzt. MIndössze arról van szó, hogy korántsem akkor ajelentőségű ez a piac, mint néhány évvel ezelőtt volt. Az NV-nek nem gond, ha az asztali VGA-k piacán nem teljesít jól egy vagy több GPU, hiszen nem ez a fő fejlesztési célplatform. Ezért mondtam én is, hogy nem szabad csodát, illetve megváltást várni az augusztusban debütáló középkategóriás GPU-tól sem. Lehet ,hogy jó lesz, de azon sem szabad meglepődni, ha annak sem lesz fényes az ár/teljesítmény mutatója.Löncsi: Ez mind nagyon szép, csakhogy a gond ott van, hogy tech-demo, ilyet játékban szinte soha nem fogsz látni, legalábbis PC-n nem valószínű, mivel ezt is célhardverre fejlesztették. Ezen felül a videóból az se mderül ki, hogy pontosan milyen GPU-n vagy GPU-kon ment a tech-demo. Lehet ,hogy több GK104-es számolta párhuzamosan a dolgot. Ehhez azonban a GK107 igencsak leves. Szóval nem értem ,hogy jön a GK107-hez ez a tech-demo.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Löncsi
őstag
válasz huskydog17 #10622 üzenetére
Vazzeg, ez KEPLER-en van demózva, milyen célhardver ? Huang elmondta, hogy következő években lesz csak ilyen a grafika (3. perc), nyilván én sem várom el, hogy holnap ilyen legyen.
Tényleg nem írok ide többet, mert végig se nézik/olvassák amit linkelek. Marad a PH-s/külföldi teszt majd ha megjelenik a cucc, na sziasztok.
[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Abu85
HÁZIGAZDA
válasz Löncsi #10623 üzenetére
Ja persze a következő 3 évben. Maradjunk annyiban, hogy a ray-tracing majd az évtized vége felé lehet opció a kliensgépeken. A felhőben van hozzá teljesítmény, csak nem hiszem, hogy anyagilag megtérülne egy olyan szerver fenntartása, ami egy userhez ekkora naftát rendel.
Azért a felhő ígérete átalakult már. Régen az unlimited power volt a kulcs ehhez. Ma sem tagadják, hogy ez lehetséges, és elméletben nyilván nem lehetetlen, csak a szerver beépítési és fenntartási költségét ki kell gazdálkodni. Ergo olyan hardvert kell választani, ami arányaiban a leggazdaságosabban képes működni. A játék grafikáját hozzá lehet butítani. A felhő már kinőtt a mézesmázos ígéretekből. A realitás az, hogy semmi sem fut max. grafikán ezeknél a szolgáltatásoknál ... unlimited power ide vagy oda.
Ez olyan, mint a Samaritan demó. Ez lesz a jövő! Persze elméletben lehetséges, hiszen a hardver ereje adott. De ki az aki három évet adnak a művészeknek egy utcarész kidolgozására? Ki az aki így finanszírozni tud egy teljes játékteret anyagilag?
Teljesen világos, hogy a mai PC-s hardverek sokkal többet tudnak, mint amit látsz egy játékban. A gond, hogy senki sem finanszírozza azt a művészi munkát, ami azzal járna, hogy kihozzák a rendszerek valódi erejét. És a realitás az, hogy a jövőben sem fogják finanszírozni. Az erre szánt anyagi befektetések nem fognak növekedni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Löncsi
őstag
De a felhő esetén nem is a max grafika itt a probléma szerintem, hanem a tömörítés + latency + kötelező nagy sávszél, túl sokat ront az élményen szvsz. Inkább veszek erősebb hardvert ha nekem fontos a grafika/3D stb. Nomeg manapság sokat fejlődött a grafika amúgy is, kvázi pici chipeken is szépen futnak, ott lesz majd a 100 dolláros Tegrás konzol, 0 zajjal, nem rossz azért.
Én elhiszem, hogy odébb van a ray-tracing, csak érdekességképpen linkeltem a videót is, csak annyira fárasztó olyat olvasni, hogy "GK107-en biztos nem fog futni és csak tech-demo...". Tényleg nem gondoltam volna...
[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
fatallerror
addikt
az a baj h samaritan demo sem nyűgözi már annyira le a ma emberét...ma már tényleg nagyon élethű grafikát vár el az ember, én is...néhány éve azt hittem h mára már a fifaban szabad életet él a mez és még túlzott gólörömként le is lehet venni meg h a fizika olyan lesz h ahogy fut a játékos rezeg a teste, az izmok rajta stb de csak annyi h van olyan játék ahol tűéles nagyfelbontású textúrát kapunk de a fizika meg minden természetellenes...
rajzolni sosem fognak a művészek élethű dolgokat mert akkor 10 évente jönne játék... bekellene scannelni a dolgokat 3d-sen nem tudom hogyan de csak akkor van esély élethű játékra ha mind a fizikát mind a vizuális dolgokat vhogy bemásolják 1 az 1ben mert rajzolgatni örökkévalóság....
viszont ha ez bekövetkezik jóval kevesebb játék lesz mert ezek után már csak az egyedi ötletekből lesz nagy dolog mint 1 nagy film esetében....szerintem még nincs real time bemutató a valós emberi test működéséről pl futás közben
[ Szerkesztve ]
don't tell me what i can't do!
-
válasz Löncsi #10623 üzenetére
Célhardver alatt a Kepler architektúrát értettem. A játékoknak nem csak egy architektúrán kell futniuk.
10625: "GK107-en biztos nem fog futni"
Én ilyet nem írtam, ezt csak te képzeled bele a kommentembe. A Real-Time Raytracing - ahogy Abu is írta - rendkívül erőforrás-igényes, nem tudjuk, hogy pontosan milyen és hány darab Kepleren ment az a bemutató, de hogy egy darab GK107-es ehhez édeskevés az is biztos. Lehet, hogy elindulna rajta, de diavetésnél nem jutna tovább valószínűleg.Amúgy én nem akarok vitázni a GK107-ről, én csak említésképpen hoztam fel, hogy túl gyengére sikerült.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Löncsi
őstag
válasz huskydog17 #10627 üzenetére
Így már értem. De persze itt a CUDA ami cinkes, de gondolom át lehetne ezeket az algoritmusokat ültetni OpenCL-re.
[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Löncsi
őstag
Izzítsátok a hardvereket (főleg a GTX670/80 tulajok): [link]
[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
nagyúr
válasz huskydog17 #10622 üzenetére
a GT640 teszteredményei elég összevisszák (mind a konkurens radeon, mind a korábbi geforce kártyák viszonylatában), és ennek vélhetően az az (egyik) oka, hogy helyenként bedől a memória-alrendszer. ezt az effektet sikerült is demonstrálnom úgy, hogy a GTX460-am memóriájának órajelét lefeleztem (ehhez hasonlít a gDDR5 -> gDDR3 downgrade), mire a teljesítmény felére-harmadára zuhant. szóval szerintem nagyon sokat hozna a konyhára a 640-esnek a gDDR5.
az nVidia és a VGA-piac viszonyáról meg felesleges szórni az eszmét, attól, hogy Abu véleményét még 50 ember ismételgeti, még ugyanúgy egy ember szubjektív véleménye marad az biztos, hogy az nVidia kommunikációja nem támasztja alá ezt a mondást - a technológiai irányukban vannak olyan elemek, amik utal(hat)nak erre (is).
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
A VGA-piac senkit sem érdekel. Egy alacsony nyereséghányaddal rendelkező, folyamatosan szűkülő szegmensről van szó. Ide fejleszteni nem éri meg. Sem a GCN, sem pedig a Kepler esetében nem figyelték a mérnökök, hogy a VGA-piacnak mi lenne a jó. Ez mindkét architektúrán látszik, ugyanis a GCN brutál hatékony compute-ban, míg a Kepler hatékonysága a DX11-es architektúrák között az eddigi legrosszabb, vagyis az előző generációhoz képest visszalépés. A VGA-piac számára az ideális szint a kettő között lenne, de mivel egyik cég számára sem érdek egy folyamatosan szűkülő szegmensre fejleszteni, így a növekvő piacok kerültek előtérbe. Az AMD-nél az APU-k, míg az NV-nél a Tegra. Ha ezeket figyelembe veszed, akkor rögtön világossá válik, hogy a GCN architektúra, miért néz ki úgy, mint egy vektortömbökkel felturbózott RISC processzor, és az is világossá válik, hogy miért tervezték úgy az architektúrát, hogy kezelje azokat a pointereket, amiket az AMD64-es processzorok kezelnek. Egy VGA-nál egyiknek sincs haszna, de ha bekerül a proci mellé, akkor máris kész az egész heterogén éra következő nagyobb lépcsőfoka (lásd Kaveri APU). Szintén be lehet hozni a Tegrát a képbe az NV-nél. Ugyan miért lenne értelme akkor harmadolni az LDS teljesítményt, amikor egyre több a Compute a játékokban, és jön a DX 11.1, ami közvetlenül nem, de közvetve számít, ugyanis a Windows 8 az új API-ban pont azért hoz be egy shader-trace interface-t, mert a fejlesztők szerint a DirectX 11-ben nagyon nehézkes a bonyolult DirectCompute programok teljesítményének kielemzése, ezért nem képesek egy bizonyos szintnél bonyolultabb programokat írni, mert túl lassú lesz, és követhetetlen, hogy hol kellene rajta optimalizálni. A shader-trace interface ezen segít, így a fejlesztők sokkal komplexebb DirectCompute programokat írhatnak, amire már egy ideje igény mutatkozik. Ez egyébként DX11 alatt is működik, hiszen shader-trace interface, csak magát a DX 11.1-es API-t követeli, de a DX11.1-es hardvert már nem. És akkor fel lehet tenni a kérdést, hogy vajon miért futott át az NVIDIA agyán, hogy na most aztán letörjük a Kepler képességeit compute-ban, hiszen a fejlesztők most kezdik majd igazán kihasználni a DirectCompute lehetőségeit. Ez egy elég rossz időzítés volt. És, ha valami ezt jelzi, akkor az az, hogy a Kepler megjelenése óta 5 DX11 játékből négy erősen épít a compute kepésségekére. A GeForce GTX 680 teljesítménye erősen függ a játéktól, de egyikben sem képes már megverni a HD 7970-et, sőt inkább a HD 7950 ellen megy, de van két játék, ahol a HD 7870 válik ellenféllé, és egy játékban a HD 7850 is megközelíti. Pont az az egy játék fejti ki az eddigi legnagyobb compute terhelést. Ennek csak akkor van értelme, ha a Tegrát is számításba vesszük. Mivel ez egy ultramobil fejlesztés, így nem kell hozzá nagyon nagy compute hatékonyság. Ezzel jelentős tranyóbudgetet lehet megspórolni. A Kepler tehát azokkal a megszorításokkal, amiket az NV bevezetett, pont ideális az új Tegrákba.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
KillerKollar
senior tag
"A GeForce GTX 680 teljesítménye erősen függ a játéktól, de egyikben sem képes már megverni a HD 7970-et, sőt inkább a HD 7950 ellen megy"
[link]
Ez a GHz edition és csak egy példa,mutathatnék rengeteget és annó a Ghz Editionos cikkeknél a legtöbb esetben azt mondták hogy nem lehet egyértelműen kimondani hogy a Ghz Edition gyorsabb a GTX 680-nál...Elnézést kérek de elég bosszantó hogy ennyire AMD-s a PH...Ittvan a techpowerup tesztje ahol összességében 2%-al lett gyorsabb a Ghz edition mint a 680,viszont a sima 7970-nél 8%-al gyorsabb a 680...18 játékteszt+2 szintetikus benchmark eredményei alapján és ugyebár nem egy régi teszt...
[link]
És most megint el lehet mondani hogy de a legtöbb oldal nem max grafikán tesztel de ti igen...de álljunk már le az ilyen túlzó kijelentésekkel,hogy sehol nem veri meg a 7970-et hogy a 7950 ellen megy...Elismerem a szakértelmedet és mindig szívesen olvasom a véleményedet dolgokról,de ez a túlzott egyoldalúság az AMD felé csak arra készteti azokat akik vagy nem elfogultak egyik oldal irányában sem vagy pont NV pártiak hogy azt feltételezzék a PH egy AMD párti oldal és kicsit sem elfogulatlan. -
Abu85
HÁZIGAZDA
válasz KillerKollar #10632 üzenetére
Ne ragadj ki részletet a szövegből! Vagy, ha mégis megteszed, akkor nagyobb részletet rakj hozzá, mert elveszti az értelmét, illetve más lesz a jelentése. "... a Kepler megjelenése óta 5 DX11 játékből négy erősen épít a compute kepésségekére." - Ez a fontos részlet jelen esetben. A Kepler megjelenése óta 5 darab új DX11-es játék jött ki. Ebből négy erősen épít a compute képességekre. Annyira, amennyire eddig semmi. A kiragadott mondat erről a négy játékról ír. Ha csak a mondatot értelmezed, akkor teljesen rossz következtetést vonsz majd le, mert kiragadtad a szövegkörnyezetéből.
Próbáld meg úgy értelmezni az egészet, ahogy a szövegkörnyezetben van. Teljesen más lesz az egész írás értelme. Jelen esetben ugye arról van szó, hogy mivel magyarázható az, hogy az NVIDIA pont most visszalépet a compute hatékonyság területén, amikor kapásból jött négy olyan játék, ami erre gyúr. Ez a nagy kérdés, és szerintem ez a Tegrával magyarázható. Más logikus érvet nem tudok mellette felhozni. De nem pont a négy játék miatt, hanem a shader-trace interface is a DirectCompute erősebb felhasználását segíti elő. Az tisztán látszik, hogy a fejlesztés iránya logikátlan, mivel ellentétes azzal, amerre a szoftverek és az API-k mennek. Viszont biztos van magyarázata.Általánosságban a hsz-em teljesen értelmetlen. Ne is értelmezd úgy.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
KillerKollar
senior tag
-
fatallerror
addikt
abu inkább találgass a gtx 660 ti-ről mert a jövőképről nem fogtok tudni megegyezni : DD
don't tell me what i can't do!
-
Abu85
HÁZIGAZDA
válasz KillerKollar #10634 üzenetére
Így már érthető, miért nem nem értetted, amit írtam. Semmi gond amúgy, de komolyabb leosztás helyet kérdezhetsz is.
Tehát a Kepler megjelenése után 5 DX11-es játék jött ki. Most nem sorrendben, de Max Payne 3, Nexuiz, Sniper Elite v2, DiRT Showdown és Ghost Recon Future Soldier. A MAx Payne 3 esetében gondolom az NV időben szólt, hogy ne izmozzák agyon a DirectCompute fícsőröket, mert a Kepler nem lesz benne jó. A többi négy játékban ez elmaradhatott. A Nexuiz, Sniper Elite v2 nagyjából Metro 2033 és AVP eredményeket hoz, vagyis a GTX 680 a HD 7950 körül van. A Ghost Recon Future Soldier esetében a GTX 680 a HD 7870 és a HD 7950 közé szorul. Ezt főleg a valós idejű globális illumináció bekapcsolása okozza. A DiRT Showdown compute terhelése jelenleg a legnagyobb, így a GTX 680 a HD 7850 és HD 7870 között van. Ezt főleg a forward+ lighting modell és az ezzel implementált globális illumináció okozza.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Löncsi
őstag
válasz KillerKollar #10632 üzenetére
Ez bosszant engem is, BF3 húzó cím és itt egyszerűen nincs semmi olyan algoritmus ami a HD7000-ből profitálna, pedig cutting-edge. Kell még egy fél-egy év legalább mire kiderül, hogy ez a compute dolog valóban okoz-e komoly hátrányt. Ha igen, az nV kénytelen lesz az árait lenyomni (ez lenne a legjobb).
[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
smkb
őstag
Újabb távozó az AMD-nél, és érkező NV-nél
NVIDIA's Major Coup: How AMD Lost a Man Who Brought All Next-Gen Console Deals
-
Abu85
HÁZIGAZDA
válasz Löncsi #10637 üzenetére
A BF3 esetében Repi hamarabb megtudhatta, hogy nem lesz erős a Kepler LDS teljesítménye. Éppen ezért a megjelenésre nem teljesen olyan lett a kód, amit a GDC-n előirányzott. A HDAO-t a HBAO váltotta. Ez rosszabb minőséget ad, de nem terheli az LDS-t. Sima FXAA lett SRAA-val irányított, DirectCompute 5.0-ban implementált MLAA helyett is. Ez szintén az LDS terhelés miatt lett kivéve, pedig minőségében ez volt előrébb. Valószínűleg az volt itt a gond, hogy Repi nem tudta pontosan, hogy mekkorát herél az NVIDIA. Mivel a Frostbite 2 tile-based deferred acceleration technikája LDS-re épül, így ennek van egy minimum igénye ebből a szempontból. Na most, úgy túlterhelni az LDS-t, hogy a motor alapját képző technika is erre épít, hát nem célszerű. Most, hogy látják, hogy mi lett a Keplerből, elő lehet venni a kérdést újra, és a gyakorlatban is meg lehet nézni, hogy mennyire lehet megterhelni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Löncsi
őstag
Jó de ez fejlesztő "korlátoltsága", hogy nem alkalmaz high-tech eljárásokat, ez miért lett volna gond ? Menjen ULTRA fokozatba a sok finomság, és onnan lehet lefele menni és akkor max az NV lenyomja a hardver árát, ha érződik, hogy ez kevés, mert ez nem gond, csak legyen olcsóbb a hardver.
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Abu85
HÁZIGAZDA
válasz Löncsi #10640 üzenetére
Ez nem teljesen ilyen egyszerű.
A Frostbite 2 motor úgy használja/használta az LDS-t, ahogy eddig még semmi. Ez roppant kockázatos volt eleve, de ott voltak az eddigi termékek a gyakorlati tesztekhez. Na most nyilván volt erről koncepció, hogy hogyan lehet ezt úgy terhelni, hogy az ne jelentsen problémát a motor működése szempontjából. Az eddigi DX11-es rendszerek LDS teljesítménye nem volt kisebb 0,6 bájt/FLOP-nál. Logikus volt tehát, hogy ha erre rátervezik, akkor az jó lesz mindegyikre. Ha gyorsabb az meg nem baj. Ilyenkor jöhetett az, hogy a Kepler meglepetésre 0,33 bájt/FLOP-ot tud, vagyis az eddigi tervekhez képest nem 0,6-ra, hanem 0,33-ra kell tervezni. Mivel gyakorlatban nem volt tesztlehetőség a BF3 megjelenése előtt, így maradt egy eléggé drasztikus lépés, vagyis kivenni/kicserélni minden olyan extra effektet, ami LDS-t használ. Gyakorlati tesztlehetőség nélkül én is így döntöttem volna. Ma már lehet, hogy másképp döntenének, hiszen ki tudják próbálni, de a játék kiadása előtt ezt nem tudták megtenni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Löncsi
őstag
Mind1 most már, csak tényleg picit vicces a felállás emiatt.. mert azt vettem észre, hogy bizonyos címek alatt valóban jobb a Radeon (Alan Wake, AVP, Metro), gondolom a komplex algoritmusok miatt, csak épp BF3-ban meg lemarad... ergó itt olyasmi van, hogy általános terhelés mellett gyorsabb a Geforce, de komplex terhelés alatt elkezd lemaradni. Szóval remélem idővel letisztul a dolog, idő kell mire a játékmotorok/tesztek befutnak.
[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
nagyúr
A VGA-piac senkit sem érdekel.
Komolyan, Abu, rejtély előttem, hogy a rengeteg tudásról árulkodó továbbiakat miért kell egy ilyen nyilvánvalóan valótlan megmondással indítani. Teljesen nyilvánvaló már a Fermi óta, hogy a GPU-k nem kizárólag a játékpiacra vannak optimalizálva, és a Fermi meg a GCN esetében azt is elfogadom, hogy még csak nem is a játék az elsődleges target (a Kepler esetén ebben nem vagyok egészen biztos, amúgy - értem a Tegrás vonalat, de az a látottak alapján sokkal inkább tűnik mellékszálnak). De innen még nagyon messze van az, hogy "nem érdekel a VGA piac". Csak egy példa erre a real time tesszelátor folyamatos fejlesztése, de ha visszaolvasnám a lauch preziket, akkor biztosan találnék számos gaming irányultságú fejltesztést. Rendben, hogy szűkül a piac, de attól még van benne pénz - és még egy darabig lesz is.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Nem holnap dől ez be, még úgy két év a gyártók szerint lesz benne. Azt senki sem várja, hogy egészséges két év lesz. 2015 után már úgy gondolják az OEM-ek, hogy a high end szint marad csak meg.
A VGA-piac bedőlését egyébként az is jelzi, hogy az AMD az év közepére letett ennek a szegmensnek a jövőjéről. A gyártóktól tudom, hogy ők voltak a legnagyobb támogatói a dedikált VGA-nak eddig, és a HSA-t is ki akarták terjeszteni VGA-kra. Ma már ez a terv nem szerepet a roadmapon. A Compal szerint azért gondolták meg magukat, mert 2014-re úgy saccolják, hogy a VGA-piac 70%-kal lesz kisebb. A fennmaradt rész gyakorlatilag a teljes GPU-piac 9-10%-a lesz, ami annyira pici, hogy nem érdemes a HSA-t ilyen irányba fejleszteni. Nyilván, ha feltételezzük, hogy fennmarad a mostani ~55-45%-hoz körüli NV-AMD részesedés, akkor 5-4% jut egy-egy cégnek. Szóval a piaci részesedés többségét az NV és az AMD az IGP-ből szerzi majd.
Természetesen a GPU fejlesztések számítanak, hiszen a integrált grafikus vezérlők piaca óriási marad. Ezek gyakorlatilag GPU-k, csak nem dedikáltak. Így természetes, hogy rengeteg grafikai irányú fejlesztés van. Ráadásul az IGP-ken a nyereség jóval nagyobb.
Ami pénz van ebben a piacban az nudli már ma is. Nyilván a szűkölés, generációról-generációra folyamatosan eszközölt áremeléssel egyensúlyban tartható, de ez a folyamat öngerjesztő is, vagyis az a szűkülés, amit 2011-ben egy általános visszaesés okoz a Q2 óta, az 2012-ben rányomta a bélyeget az új generáció árazására. Ez újabb szűkülést jelent, mert egyre drágábbak a termékek. Szerencsére még a korábbi generáció hozza az eladásokat, de ezek idővel elfogynak. Akkor már csak új generáció lesz jóval drágábban, mint azt eddig megvehetted.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
tombar
senior tag
a második bekezdés nagyon érdekes. ugye a cseszett 660 ti is a sulikezdés, meg a beragadt 570esek miatt jön csak augusztusban. viszont addigra kihal a 40nmes család, szóval családbarát áron adhatnák a kártyákat. ha folyamatosan a konzumer piac fogyasztási határhajlandósága felett/akörül adják a kártyákat, akkor én ezen az egészen nem is nagyon csodálkoznék. tulajdonképpen kötik az ebet a karóhoz. folyamatosan unszolják a népet a szarabbnál szarabb játékokkal h vegyenek ilyen-olyan kártyát, ezeket folyamatosan drágábban adják és folyamatosan degradálják le a vásárlóközpontú magatartásformát. semmi alternatívát nem képesek nyújtani, illetve szerintem nem is akarnak.
amúgy nem úgy volt h a dgpu gyilkos nV is csak 2017re prognosztizálta a dgpuk konzumer szintű elhalását?[ Szerkesztve ]
Everybody knows, you dance like you fuck. So let me see you dance!
-
Abu85
HÁZIGAZDA
válasz tombar #10645 üzenetére
Nem tehetnek mást, próbálják úgy alakítani az árakat, hogy az számukra megérje. Az olcsó árcédula veszteséget okoz.
Gyakorlatilag, csak a high-end rész fennmaradása 2015-ben már a vég. Nyilván idővel ez is el fog tűnni teljesen, szóval az NV a 2016-2017-es jóslatával reálisan gondolkodik. De azért öt évre nehéz ezt előre megállapítani. Az még talán segíthet, ha a gyártók platformhoz kötnek szolgáltatásokat. Ergo csak akkor kapsz meg minden funkciót egy VGA-tól, ha a vásárolt APU is a dGPU gyártójától származik. Ez abból a szempontból jó, hogy a dGPU-t vásárló réteget megpróbálják a nagy nyereséget termelő APU-kra kényszeríteni, ami összességében kedvező anyagilag.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Egon
nagyúr
Ami pénz van ebben a piacban az nudli már ma is.
Kár, hogy a tények egész mást mondanak - de hát ez téged sosem zavart (ahogy a konkurencia fórumán való trollkodás se esik a nehezedre, láttam ma délelőtt - tök gáz, hogy mindenhol a gagyi tereléseidbe botlok: mintha bárkit érdekelne a WinZip meg a VLC).
Az AMD teljes negyedéves bevételének negyede a grafikus részleg eredménye, ráadásul a profit túlnyomó részét is ők hozták, erről ennyit.
Forrás: Csalódást keltő negyedév az AMD-nél A hír ph-s címe nyilván a "Megint nyereséges az AMD "lesz...Amúgy meg nem tudom, hogy ezen fórum első hozzászólása utolsó mondatának miért nem lehet érvényt szerezni...
[ Szerkesztve ]
"Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
FireKeeper
nagyúr
-
Löncsi
őstag
válasz FireKeeper #10649 üzenetére
De mai APU-k grafikus része nudli, szóval én még várok a részemről.
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.