-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
d.beni
aktív tag
sziasztok!
van tippetek mikor várható a 7xx széria megjelenése? -
fatallerror
addikt
nagy off de az nvidia kézikonzolt csinált
don't tell me what i can't do!
-
veterán
válasz fatallerror #11304 üzenetére
Nagyon brutál lett ez a Tegra 4. Megint sikert egy jó terméket letenni az asztalra.
Jöbet a verseny. (Az azért meleg hogy az AC3-at futtatja)Addig gyorsítottuk a világot míg mi magunk maradtunk le...
-
Taposo
aktív tag
válasz fatallerror #11304 üzenetére
Mmm elég pofás, sikert kivánok neki
-
Lapajbacsi
aktív tag
válasz tombar #11300 üzenetére
Haver pc-jén Far Cry 3 szintén szaggat. A konfig erősebb mint az enyém jóval: dual CPU-s 2x Core i7 3,6 Ghz (4 mag, azaz 2x4 ugyebár) és hozzá szintén duál GPU-s ATI 6870 x2... Namost állítólag a Far Cry 3 Atira optimalizált... 15-20 fps-el megy, ha az msaa 8-ra van véve.... (igaz dual monitoron)... no comment...
-
tombar
senior tag
válasz Lapajbacsi #11307 üzenetére
jó azért meg kell hagyni h az fc3 erősen optimalizálatlan lehet (ehhez Abu a kompetens). viszont a vliw5re nem kifejezetten érdeke fejleszteni az amdnek, arra ott van a gcn, vagyis a 7ezres széria. meg ugye ott van az a tényező is h valszeg nem jó a cf támogatottsága a játéknak. mivel az x2 nem hivatalos gyári termék, szal annak támogatottságáról is az adott brandnek kell gondoskodni szvsz.
Everybody knows, you dance like you fuck. So let me see you dance!
-
Abu85
HÁZIGAZDA
válasz Lapajbacsi #11307 üzenetére
Az optimalizálás a hardver gyengeségein nem tud segíteni. A 8xMSAA szinte minden VGA-t megfektet a Far Cry 3-ban. Ami a sebességen segít az a GCN architektúra, mert az nagyon gyorsan le tudja futtatni a compute shadert az MSAA-hoz.
Tök mindegy, hogy kettő vagy egy procija van. A legtöbb átlagfelhasználóknak szánt PC-s alkalmazás csak egy processzoron fog futni. A másik a háttérben futtathatja az OS-t, de az amúgy sem egy megterhelő feladat.
(#11308) tombar: A Far Cry 3 elég jól optimalizált alapvetően. A shadereket cserélik le gyorsabbra az új patchekben, de a motor működése már eleve hatékony.
A CF az konkrétan 100%-osan skálázódik. Ha valamelyik játéknak jó az AFR kódja, akkor az a Far Cry 3. Az elméleti maximummal skálázódik a teljesítmény.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
válasz Lapajbacsi #11307 üzenetére
a 6870x2 az ugye 2x1 GB VRAM-ot tartalmaz? mert akkor a 8xMSAA még egy monitoron is sok neki, nemhogy 2-n. dual monitor mellett javaslom a 0xMSAA-t a haverodnak, az alapból úgyis futó FXAA eltünteti a recék nagy részét.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
válasz Lapajbacsi #11313 üzenetére
1,5 GB nem lehet, mert nem tudnák felfűzni a memóriacsatornákra. Vagy 1 GB/GPU, vagy 2 GB/GPU. Én az előbbire tippelek.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
tombar
senior tag
válasz Lapajbacsi #11313 üzenetére
6870x2ből elvileg csak 2x1 gigás létezik. 2x2 gigás a 6990
Everybody knows, you dance like you fuck. So let me see you dance!
-
Amacs
aktív tag
Eredetileg nem úgy volt, hogy GK110-es GeForce nem lesz? [link]
Eszement kártya, szemét nagy gpu-val, kíváncsian várom természetesen. -
ricshard444
veterán
Én is kétlem,hogy asztali szegmensbe ez a gpu jönne
Vannak dolgok...
-
BeLucZ
addikt
válasz ricshard444 #11320 üzenetére
sztem ez a hir ugy kacsa ahogy van, persze ilyen óriáschip beéri 225 W-al hmm, max akkor lenne hihető ha kerek perec 300 W-ot fogyasztana, gondolom a gk110 már nem muzsikálna olyan gyengén a computeigényes gamekben, ha lesz is belőle, akkor is kimondott presztizstermék lesz kevés darabszámmal 200kért
kb annyi értelme lesz, hogy na azért is mutassák meg ki a góré, nvidia módra -
Amacs
aktív tag
válasz BeLucZ #11321 üzenetére
Miért hihetetlen a 225W, amikor a Tesla K20 is annyit fűt, igaz egy shader tömbbel kevesebb az aktív benne, de a K20X is "csak" 235W-os, viszont magasabb órajelen, és abban pedig már pont annyi aktív shader van, mint ebben az "ugy kacsa ahogy van" hírben szereplőben.
Attól még, hogy kegyetlen nagy a chip, az órajelével tudnak variálni. (pl, ha 0 MHz-en megy, akkor ez az óriás is 0 wattot fogyaszt )
Abban biztosak lehetünk, hogy arany áron fogják mérni, ha eljutnak a megjelenésig vele. -
tombar
senior tag
"Arra vajmi kevés esély van, hogy a GK110-ből GeForce legyen. Sok a teljesen felesleges funkció a lapkában, és nagyjából jó, ha 5-15%-kal gyorsabb egy GTX 680-nál. A GK104-et egy újabb tervezésű lapka váltja, mely kisebb és gyorsabb, mint a GK110. Nem lesz gyorsabb a HPC környezetben, de játékokban az lesz.
A Big Kepler csak azoknak az álma, akik nem látják át, hogy azt nem játékra tervezték. A Tesla K20 a paraméterek alapján még a GeForce GTX 680 teljesítményét sem hozná egy játékban. De nem is kell, mert sosem volt cél, hogy a GK110 játékokban is teljesítsen. Természetesen lehet rá GeForce-ot építeni, de egy éves távlatban butaság ezt megtenni, mert ez idő alatt már lehetett egy gyorsabb, játékokhoz illesztett GPU-t tervezni.
Egyébként a GK110 nem alkalmaz olyan módosításokat, amivel megoldaná a Kepler új DX11-es játékokban jelenlévő compute hatékonyság problémáját. Ehhez a legegyszerűbb megoldás, ha az SMX 192 CUDA magjának felét eldobják. Ezzel nő a shared memory tempó, és a context switch teljesítmény. Természetesen a shader multiprocesszorok számát ilyen irány mellett meg kell duplázni. Ahhoz viszont, hogy a GCN compute hatékonyságát hozzák új architektúra szükséges.
Röviden összefoglalva, amiben a Kepler le van maradva a GCN-hez képest. A cache-szervezés jelentősen gyengébb, a shared memory tempóban 4,5-szeres a különbség, és a context switch is nagyobb büntivel oldható meg azzal, hogy a GK104-ben összesen 2 MB regiszterterület van, miközben a Tahiti-ben 8 MB. Nagyjából ezek adják az általános büntit. A komolyabb shader programokban az architekturális különbségek jönnek elő, vagyis az, hogy a GCN az elágazásokkal tarkított kódot olyan hatékonyan dolgozza fel, mint egy központi processzor. Eközben a Kepler a korábbi rendszerek szintjén van ebből a szempontból. A forward+ lighting például annyira nem használ sok számítást. A főbb különbséget az architektúrák között az adja, hogy mely rendszerek kezelik jól az elágazásokkal tarkított kódot. Egyelőre a GPU-k között csak a GCN képes erre hatékonyan. Ezért esik ennél a rendszernél messze a legkevesebbet (4-8 fps) a sebesség a Dirt Showdownban az AL effekt bekapcsolásánál." by Abu
majd ha lesz hivatalos launch időpont, akkor talán igaz lesz.Everybody knows, you dance like you fuck. So let me see you dance!
-
-
nagyúr
mi lenne, hogy ha azzal is foglalkoznánk egy kicsit, hogy hogyan lehet ilyen kártya, ahelyett, hogy miért nem lesz? csak mer' szerintem inkább maradjon a topic találgatós (legrosszabb esetben hülyeségről találgatunk, so what), mint menjen át mythbusterbe.
indulunk ki a következőkből:
- tegyük fel, hogy igaz a 14 SMX-48 ROP-384-bit, és igaz a 235W is
- a GK104 a jelen feszültségek órajelek mellett kb. 190W-ot eszik
- a GK110 tranzisztorban duplája a GK104-nek
- az nVidia anno panaszkodott a 300W-os fogyasztási limit miatt, tehát a "nagy" kártya ennél vélhetően többet harapna be
- a memóriák és az IO funkciók fogyasztását most nem veszem külön, akinek van kedve, boncolja továbba találgatás:
- a teljes értékű GK110 azonos órajelek és feszültség mellett valamivel kevesebb, mint duplaannyit ehet, mint a GK104 -> max. 360-370W
- mivel a pletykált chip enyhén herélt, ez további 5-8%-ot jelent a fogyasztásban -> max. 340-350W
- a 340-350W-ot a feszültség és az órajel csökkentésével kell lehozni 235-re. ez 45-49%-os csökkentés. miután a feszültség négyzetesen, az órajel pedig lineárisan hat a fogyasztásra, ezt sokféleképpen el lehet érni, a lényeg az, hogy az eredményül kapott órajel és feszültség páros működjön.
- tippelek egy olyat, hogy 850MHz-es boost clock, 1.08V feszültség mellett, a memória pedig legyen 1350MHz.egy ilyen kártya a GTX680-hoz képest 20-40%-kal lenne gyorsabb, függően attól, hogy a szűk keresztmetszet a backendben vagy az SMX-ekben van. ahol a szűk keresztmetszet a shared memory vagy a branching kapacitás, ott a gyorsulás a felső határ közelében lenne a nagyfokú SMX növekedés miatt.
+1: ha bevállalják a 300W-os kártyát, akkor simán el tudok képzelni 950/1500-as órajelet is. ilyenkor 35-60%-kal vagyunk a 680 fölött.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
TESCO-Zsömle
félisten
- tegyük fel, hogy igaz a 14 SMX-48 ROP-384-bit, és igaz a 235W is
Ez gyakorlatilag 1:1-ben a Tesla K20X, szóval nem az a kérdés, hogy lehetséges-e, hanem az, hogy lehozzák-e GeForce vonalra.
A 235W-os TDP-hez 732MHz-es Core, 732MHz-es Shader és 5200MHz-es memória órajel tartozik.
Sub-Dungeoneer lvl -57
-
BeLucZ
addikt
szép kis eszmefuttatás, ez a sor különösen tetszett:
"ha bevállalják a 300W-os kártyát, akkor simán el tudok képzelni 950/1500-as órajelet is. ilyenkor 35-60%-kal vagyunk a 680 fölött."
ezt dijaznám ez computeban lenne olyan combos mint a tahiti? vagy ez is fulldokolna a computeshaderes gamekben?mármint amikben sokat használják
[ Szerkesztve ]
-
oliba
őstag
Ha ez a hír valóban igaz, az azt feltételezi, hogy nem haladnak túl jól a GTX780-as kártyával. Nem tudom melyiknek örüljünk jobban, bár engem egyik sem érint
-
ZZotyo
csendes tag
Sziasztok!
Nem tudom, hogy jó helyre írok e, de van egy Nvidia Quadro 2000-esem és nem tudom működésre bírni a display portokat!
Gondolom valahol aktíválni kell, csak én nem jövök rá, hogy hol kellene bekapcsolni!
Egy hp z600-as workstation-ről van szó ha ez segít!Köszönöm előre is a segítséget!
-
nagyúr
válasz TESCO-Zsömle #11328 üzenetére
a kérdés az, hogy ugyanazt a chip-konfigurációt hozzák-e le a Gef vonalra (ha lehoznak bármit), mint ami a tesla. ugyanis ha elégedettek a 680 balanszával, akkor elég a 12 SMX is.
a TDP-s párhuzam akkor áll, ha:
- ugyanúgy határozzák meg a TDP-t a két termékvonalon
- ugyanahhoz az órajelhez ugyanaz a feszültség megy a két termékvonalonamellett ne felejtsd el, hogy a 732MHz base clock, viszont a Gef vonalon a garantált boost clockkal érdemes számolni, hiszen abból jön a kézzelfogható teljesítmény.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Amacs
aktív tag
válasz fatallerror #11335 üzenetére
Azért nem lenne példa nélküli ennyi butítás sem.
-
BeLucZ
addikt
válasz fatallerror #11335 üzenetére
pedig milyen jó is lenne egy butitásmentes, herélésmentes makulátlan szuperchip, ugyis aranyáron fogják adni, akii ilyen kategoriában vesz vga-t, az szarik a fogyasztásra, a teljesitmény a lényeg, engem az se érdekelne ha 400 W-ot fogyaszt de menjen mint az őrült
-
fatallerror
addikt
válasz BeLucZ #11337 üzenetére
igen csak akkor a potenciális vásárló az pár 1000 ember és annyiért meg nem éri meg kiadni pár 1000 dollárért sem.
de tényleg felesleges még találgatni is róla, az 1 professzionális vga nem igazán lehet belőle átmenteni semmit ami játékokban jól jönne szóval full mind1...
semmi nagy dologra nem kell számítani csak 1 kicsit foltozott keplerre...kis órajel játék lesz meg a 3 gb vram. az nv már majdnem maximális figyelemmel a maxwellre gyúr, az hozza csak a reformot náluk.még arra is nagyobb esélyt látok h már a maxwellből csennek át 1-2 turpisságot a keplerbe minthogy a tesla-ból
don't tell me what i can't do!
-
veterán
válasz fatallerror #11339 üzenetére
Ha a GTX 690-et érdemes volt kiadni, akkor a Titant (GK110) is érdemes, főleg úgy, hogy a kártyát csak minimálisan kell áttervezni, hogy GeForce legyen belőle. Nagyobb memória sávszélt, a több shadert, a nagyobb compute sebességet mind tudják a játékok használni.
[ Szerkesztve ]
-
fatallerror
addikt
az semmi tervezést nem igényelt, rákerült 2 680as ami eleve jóval kisebb és olcsóbb mint a tesla.
nem minimális áttervezést kéne eszközölni hanem drasztikusat, a compute shadereken kívül mindent kukázni kellene mert játékban haszontalanok....tehát egyszerűbb újat tervezni v a maxwellhez nyúlni
ez 1 nagy lapka és nem érné meg kihozni mert nem annyiba kerülne mint a 690es hanem 3x annyiba, 3 ezer dollárért meg szerintem 1000 ember ha megvenné...még annyi se.az összes külföldi hozzáértő is azt szajkózza mint abu tehát h képtelenség h abból geforce legyen
don't tell me what i can't do!
-
BeLucZ
addikt
válasz fatallerror #11341 üzenetére
akkor nem értem hogy ez a hír hogy röppent fel újra, valami alapja csak van, mert ha már kihozzák, csak úgy érdemes hogy üssön vagy ha szét van herélve akkor meg nincs értelme
-
veterán
válasz fatallerror #11341 üzenetére
Az semmi tervezést nem igényelt, rákerült 2 680as ami eleve jóval kisebb és olcsóbb mint a tesla.
Mert egy meglévő Teslára ráírni, hogy GeForce, meg tenni rá egy másik hűtőt az sokkal több meló,
de nem folytatom ezt az értelmetlen vitát, hanem majd jövök, ha már hivatalosan bejelentették, megmondani, hogy én megmondtam! -
Amacs
aktív tag
válasz fatallerror #11341 üzenetére
Amúgy mennyire nagy ez a lapka konkrétan?
-
nagyúr
válasz fatallerror #11341 üzenetére
ezt most csak én nem értem? mit kellene kikukázni? meg mitől lenne 3x az ára a 690-hez képest? és mit szajkóznak a külföldi szakértők? clarify pls, mert nekem ez kínai. ill. még az sem, mert azon jobbára kiigazodom
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
veterán
válasz fatallerror #11344 üzenetére
Az hogy a Tesla K20X ~3200 USD nem jelenti azt, hogy ennyiért éri meg csak eladni, mert a Tesla, Quadro (professzionális) kártyák árának jelentős részét a support meg a driver teszi ki, nem a hardver. Tesla M2090 is ~2600 USD aztán GTX 580-ként egész olcsón meg lehet már venni ugyan azt a GF110-el szerelt kártyát.
AMD-s példával élve a HD7970 alapjául szolgáló Tahiti XT-t ha a Radeon helyett FirePro W9000 -ra szerelik akkor egyből ~4000 USD-be kerül ~429 USD helyett.
[ Szerkesztve ]
-
fatallerror
addikt
a fícsörök 80%-a semmit nem ér a játékokban..... jó annyival nem de biztos h érezhetően drágább lenne. azt mondogatja mindenki h nem éri meg geforce-t csinálni a teslából
#11347) Loha: azért az jól megvolt csonkítva és annyira nem is jött be, nem véletlenül készítettek saját lapkát a gtx 680asnak...
don't tell me what i can't do!
-
tome.jr
addikt
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.