-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
A textúrák minősége jól skálázható. Ez sosem volt probléma, ha valaki tényleg komolyan vette a PC-s portot. Aki meg nem, az ezután sem veszi majd komolyan.
A modellek skálázása egyszerűbb lesz, ha bevezetik a fejlesztők a PTEX-et. Tekintve, hogy mennyire nagy művészek felé a követelmény, ez a leglogikusabb irány a next gen gépeken. Ezzel jóval egyszerűbben skálázható a tesszellálás is. Vektor displacement map mellett akár csúszkával is, amit már korábban hiányoltál. A PTEX implementálása sem nehéz. Az AMD már megmutatta, hogy PRT-vel meg lehet csinálni elég jól. De nem hiszem, hogy ne lehetne rá írni szoftveres megatextúrázást. A Keplernél binned textúrázással akár.Agyonrombolós fizika még jó ideig nem lesz. A játékmenet nagyon nehézkessé válik, mert szétrombolt fizikai objektumokba beakadhat az AI és a játékos. Ha pedig ezeket kivesszük az ütközésvizsgálatból, akkor átmehet rajta minden. Szóval sok a gond. A fizika rombolhatósága olyan szinten lesz jelen, ahogy mondjuk a BF3-ba és a Red Faction két új részében. Ezek már nem eye candy-k, hanem valóban hatnak a játékmenetre, főleg a Red Faction. De ott kínosan ügyelnek arra a fejlesztők, hogy a potenciális akadályt képző részek eltűnjenek.
A GPU-k, illetve pontosabban az IGP-k felhasználásán más szempontok szerint gondolkodnak a fejlesztők. A GPU-kat egyelőre nem bántanák ezekkel, mert nem hatékony a procinak oda-vissza küldözgetni az adatot.(#10729) KillerKollar: Ez a baj, hogy sehol. A beállítások részletezésének mellőzése eleve nagy hiba. [link] - így kell ezeket jelölni. Ebből kiolvashatod a részleteket. Minden max., kivéve a DOF. A high/very high nem mindenhol informatív. Például a Metronál felmerül a kérdés, hogy a DOF aktív volt-e. Emellett Metronál van Very High opció is. Dirt 3-nál van Ultra opció. Nem mondom, hogy nem ezt értette ez alatt, de nem egyértelmű. És ez hiba, mert nem nekem kell találgatni a beállításokról, hanem neki kell leírni.
Az AA/AF világos, hogy inaktív volt. Az utolsó előtti oldal mér bekapcsolt AA-val vagy AF-fel. A kettővel együtt csak a Just Cause 2 esetén, pedig a Metro, az AVP és a Far Cry 2 támogatja mindkettőt. A Mafia 2-ben valóban nincs AA-re lehetőség.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Konzolon jellemzően az a baj, hogy kevés a memória és a memória-sávszélesség. Ebből a két szempontból most sem fogja hozni a PC-s szintet a hardver. A next gen esetében 1-2-4 GB memóriáról hallani, és ez meg van osztva a CPU és a GPU/IGP között.
A PTEX más. Alapvetően megatextúrázással lehet implementálni, tehát technikailag csak az a hátráltató tényező, hogy van-e elég tárhely az adathordozón. Ha van, akkor lehet csinálni 30 GB-nyi textúrát, és mindig a megfelelőt kell betölteni LOD-dal. A Rage ezért használja ugyanazt a textúraadatot mindegyik platformon, mert a megatextúrázás lehetővé teszi.
A másik opció, amit a Codemasters felvetett az AFDS előadásán, hogy számolhatná a textúrát a GPU. Egyszerű matematikai képletekből állna az egész. Ráadásul ezzel a rendszer procedurális is lenne, hiszen a képlet módosításával módosul a textúra. A tesszellációra is valós időben generált displacement mapot lehetne használni.Annyit már ma is tudhatnának, mint a Red Faction. Nem kell ahhoz GPU, csak egy megfelelő motor a fizika kezelésére.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Én is olvastam azt a 8 magos Atom + 8 GB előrejelzést. Az Atom miatt erős a kétely bennem.
CPU-powa megvan. A Red Faction 4 maggal simán elvan. Boxon is szépen teker.
Borderlandset sose néztem meg. Nem jön be ez a rajzfilmes stílus. De lehet, hogy ott jól működik.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Löncsi
őstag
Gondolom sokat. De mind1, nagyon kényelmesen elvagyok a húzott GTX460-al, csak gondoltam jövőre hátha lesz vmi fejlesztés jóáron, de ilyen árazással nem hiszem...
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Firestormhun
senior tag
+1
Néha azért nem árt levenni a technikusi szemüveget is és egy kicsit szélesebb látókört alkalmazni. Grafikus motorok irányát alapvetően az üzleti környezet/üzleti faktorok határozzák meg.Mivel a fejlesztők is meg akarnak élni, ezért soha nem fognak olyan dolgokra időt, energiát, erőforrásokat pazarolni amelyet csak a potenciális vásárlók kis százaléka élvezhet. PC esetében ezért kell a gyártóknak a zsebükbe nyúlniuk.Fizetnek x összeget a stúdiónak, küldenek 4 embert, azok leprogramozzák amit kell, aztán hajszálnyival jobb megjelenítés mellett lehet villogni benchmarkokban.
...
-
Abu85
HÁZIGAZDA
Nem fog senki sem lemenni hardverszintű támogatásra. Jobb alternatíva a virtuális architektúra. Arra bárki írhat szoftveres futószalagot. Ha ezt a vISA-t sokan támogatják, akkor a gyártók felelhetnek a vISA->hardver ISA fordításért, ez lenne a finalizer. Így működik a HSA, sőt, még a CUDA is, hiszen az is PTX-en keresztül támogatja a hardvereket. Utóbbi a vISA. A HSA esetében a vISA a HSAIL. Persze ezek között van különbség, de a koncepció ugyanaz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Én 40-50 között voltam 1680x1050-ben maxon. Simán aprítottam.
A CryEngine 3 egy partial deferred lighting motor. Oda a jó AA-hoz elég komplex megoldás kell. A Nexuiz szimplán MSAA-t próbál erőszakolni, apró trükkökkel. Valójában tehát nem bugos csak nem felel meg a motor sajátosságainak. Jobban jártak volna egy post-process AA-val (én ezt lövöm be hozzá driverből, SSAA-val is próbálkoztam, de az fájt neki ).
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Csak azért ront a képen, mert az MSAA kikapcsolja a vele nem kompatibilis effekteket, mint az EdgeDetect blur a növényzetre. Az ilyen parák miatt kellene hagyni a francba a deferred rendert.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
fatallerror
addikt
én se értem h miért várnak drasztikus változásokat évente az emberek...és évről évre egyre nagyobb %-os erősödést várnak, olvastam már olyat h ha nem lesz 60%-al gyorsabb a köv generáció akkor szar lesz xDDD
amd-nél se lesz megváltás és szerintem nincs is rá szükségdon't tell me what i can't do!
-
Crytek
veterán
Mi így látjuk.De üzletpolitikailag mindig lesz olyan vérpista aki veszi az újat akkor is ha az csak alig pár %-al jobb.
Mert milyen raj már hogy neki 5 fps-el több van mint másnak.Ezek a nemmindegy dolgok.
Ha te is VGA gyártó (vagy bármilyen más termék) lennél ugyanezt csinálnád.
Amíg veszik addig mindig is ez lesz.Next PC Upgrade: 2022
-
fatallerror
addikt
feleslegesen elvárás mert a mostani generációval is megvan a 40-60 fps wqhd felbontásban a legtöbb esetben és ha az neked 60-90 fps-re nő attól sokkal jobb nem lesz neked de ha jópár ezrest spórolhatsz a villanyszámlán az már számít.
a hd6000 abban volt nagy fejlődés h fogyasztás csökkenés volt ill az árazással nagyon jó ár/értéket nyújtottak. hasonló várható szerintem jövőre, szerintem az induló árak lesznek annyiak mint a most beállt árakszerintem a generációnkénti 20-30% telj növekedés ill 10-30% fogyasztáscsökkenés az nagyon jó és teljesíthető dolog lenne. ha nem bechbuzi vagy akkor elégedettnek is kell ezzel lenni
#11081) tombar : és mit írt? ne követelőzz maki?
[ Szerkesztve ]
don't tell me what i can't do!
-
fatallerror
addikt
ugyanazzal az architcechtúrával ekkora teljesítménynövekedés a reális. teljesen új cucc majd a maxwell lesz aminél kijön a 60% az tuti
prociban is uez van, ott sem lehet évről évre 60%-ot javulni
sokan elfelejtik h emberek ők is és nem 2 perc teljesen újat alkotni ezért csinálják az újat és párhuzamosan frissítik ami van (nem pénzlenyúlás ha ezzel jönnél mert semmit sem kötelező megvenni : P ) és kihozzák belőle amit lehet ami sose lesz szerintem 60% pluszszóval irreálisak az elvárásaid meg minek évente fél millát gépre költeni v pár 100 ezret.
a másik meg h a hardverek így is megelőzték a szoftveres fejlődést és szerintem kihasználatlanokdon't tell me what i can't do!
-
fatallerror
addikt
a történelem nem számít, régen sokkal egyszerűbb volt. most minél kisebb a csíkszélesség annál macerásabb chipet tervezni, fejleszteni...
de mind1, várjál 60-80%-ot generációnként de sokszor fogsz akkor csalódni (feleslegesen)#11098) Löncsi: nem beszélek hülyeséget, ezek a hardverek sokkal többre képesek mint amit látni velük. mindenki tudja h nehézségeik vannak a fejlesztőknek és ezért van megakadva a grafikai, fizikai fejlődés holott a hardver ereje elég lenne
don't tell me what i can't do!
-
fatallerror
addikt
nem, pont h azt írtam h ugyanabból nehéz kicsikarni ekkora teljesítménynövekedést. épp elég érv a történelem nem számít nem?
egész biztos vagyok benne h nincs ebben a cuccosban még 60% lehet még vele ügyeskedni de csodát nem kell várni tőle. az viszont 90% h jelentősen csökkenhet az ár mert év elejére már a tsmc észbe kap. ez a csíkszélesség lesz még szerintem 2 generációig és ez a 2 lehet generációnként teljesítményben 20-40%-al jobb de 60-al nem, ami a fontosabb az a teljesítmény/fogyasztás mutató az ő szempontjukból a jövőt illetően.nagyon rég volt már az és akkor is ritkán h generációnként megérte cserélni, semmiképpen sem nevezhető megszokottnak a generációnkénti váltás....
mondtam már h hiába erősödne a hardver 60%-ot ha a játékok nem tartják a lépést.
márpedig vga vásárlásra elsősorban az adja az okot/igényt ha van olyan játék ami nem megy jól az aktuális kártyádon ezért új vga kell.
nem nagyon van ilyen játék, talán majd most jön el ez a far cry 3-al, sim city-vel stb-vel. szerinted miért kezdték hirtelen a régi időkhöz hasonlóan pénzelni a vga gyártók a játékkészítőket?don't tell me what i can't do!
-
fatallerror
addikt
ezzel nem lenne meg a 60% szerintem de nem nekünk kell ezen törnünk a fejünket, tudják ők a dolgukat
nem tudom h hol írtam h más döntsön a váltásról egyébként ahogy magadon is tapasztaltad vhol 2005-6-7 körül lassult be a fejlődés és akadtak meg a mérnökök( ezért jöttek a dual core procik is)
don't tell me what i can't do!
-
Abu85
HÁZIGAZDA
Gondolom a teszteken nem jött ki a 2 GB előnye. Meg lehet úgy csinálni, hogy ne legyen különbség. Ez pont az a kategória, ami már képes profitálni a 2 GB-ból, de ugyanakkor az ára miatt inkább gyengébb grafikán tesztelik, így az 1 GB gyakorlatilag semmivel sem tűnik majd lassabbnak.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
fatallerror
addikt
hegyekben nem állnak a játékok sem nem h a compute terhelésesek de amik vannak azok most amd által pénzeltek ezért gondoltam, bár ennek ellenére kb ugyanúgy futnak mind2 kártyán...
na de állítólag már a jelen ez a compute dolog még ha csak kismértékben is. a 3gb vram meg kicsit megemelt órajelek meg ilyenekkel szerintem teljesítményben ott lehet az amd nyakán az nv csak az a baj h szerintem súlyos ezresekkel többe fog megint kerülni 1 nv kártya.... nagyon szeretnék újra 1 nv kártyát de ha nem éri meg nincs mit tenni
a 3 gb 384 bit az biztos mert 1 crytek-es fejlesztő "elszólta" magát és gondolom marad nv-s játék a crysisdon't tell me what i can't do!
-
Abu85
HÁZIGAZDA
A marketinges részre tudok válaszolni. Más az AMD és az NV prezentációs politikája. Mondhatni gyökeresen eltérő már. Nyilván senki sem korlátozza a sajtószabadságot, így az NV sem, a közhiedelemmel ellentétben, de amíg az AMD a review guide-okra tényeket felsorakoztató írásként tekint, addig az NV jóval marketingesebbre veszi, és úgymond olyan az írás, hogy meggyőzze a tesztelőt, hogy milyen játékokkal érdemes tesztelni, és az sem mindegy, hogy milyen beállítással. Próbálják teljesen kiszűrni, azokat a játékokat és beállításokat, amiben gyengék. Az AMD-nél azt figyeltem meg, hogy olyan beállítást használnak, aminél a csúcs-VGA-juk 30 fps fölött tartja a tempót mindig. Ez egyébként valamilyen szinten az NV-nél is megfigyelhető. Általános, hogy mindkét cég a 30 fps-t tekinti játszható vonalnak.
Az összehasonlításoknál az AMD direkten csinálja a méréseket az NV ár szerinti ellenfélnek szánt VGA-ival, míg az NV gyakorlatilag kerüli a Radeonokkal való összehasonlítást, így jellemző, hogy egy új terméket egy két-három évvel korábbi GeForce-szal mérnek össze. Ez amolyan "mennyit javul a sebesség, ha erre váltasz" politika. Ezek a prezentációkban is visszaköszönnek. Ebből a szempontból az NV review guide-jai szerintem rosszabbak, mert nem tudjuk ellenőrizni az eredményeket. Túléljük persze, csak logikailag hülyeség a tesztelőknek szánt anyagba ennyi marketinget rakni. Szimplán nem érdekel minket, hogy egy GTX 650 Ti mennyivel gyorsabb a 9800 GT-nél.
A partnerprogramoknál is megfigyelhető, hogy az NV és az AMD más szempontok szerint dolgozik. Az NV-nél előtérbe kerültek az MMO-k és az F2P játékok. Valószínű, hogy ezt az irányt tartják a PC jövőjének. Éppen ezért az AAA multiplatform játékokból kevesebbet támogatnak. Az AMD pont fordítva csinálja, és az AAA multiplatform címek jelentik a legnagyobb fókuszt és kevesebb MMO és F2P játék mögött állnak. Ez is valószínűleg egy stratégiai szempont, talán a next-gen konzolokkal kapcsolatos. Van átfedés természetesen, de ma a TWIMTBP és a Gaming Evolved inkább kiegészítik egymást.
Ahogy nézem ez a "kizárunk egy-két szabványos effektből" dolog is megszűnt. Bár ez lehet, hogy inkább a fejlesztőknek köszönhető, mert pénz ide vagy oda, azért ezek roppant kellemetlen szituációt teremtenek. A sebességkülönbséget lehet magyarázni, de a program indításakor a feltételes elágazást már nem.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
[link] - ha a teljesítményt nézzük az azonos árú konkurenseknél, akkor nem kérdés, hogy fosnak. Viszont nem biztos, hogy mindenki berakja a programot a tesztbe, vagy esetleg nem kapcsolják be a megterhelőbb grafikai effekteket.
Nem viccelek, ismerek olyan tesztelőt, aki azért nem használja a DiRT Showdownt, merl az NV-től egy ember azt mondta neki, hogy az AMD egy olyan specifikus szubrutint kényszerít a GeForce-ra, ami miatt lassabb lesz a sebessége, de annak az eredménye el lesz dobva. Másnak is mondhatnak ilyeneket. Akár a Hitmanről is. Amíg ez nincs leírva, addig nehéz bizonyítani, hogy elhangzott egy NV rep szájából, maximum azt mondják, hogy félreértette. Mondjuk a Codemasters helyében én már rég seggbe rúgtam volna őket, mert tényleg kegyetlenül bashingolják az új DiRT-et (gondolom ezzel nem javul a partnerkapcsolat). Mindkét cégnél vannak játékok, amiket nem akarnak a tesztekben látni, de ezt sosem adták élesen a tesztelők tudtára. Jellemzően annyi volt, hogy hallgattak a program létezéséről. Ha rákérdeztél, akkor jött a "sose halottam róla, milyen játék az ... ó hát ebben a stílusban van jobb" . A DiRT Showdown ellen konkrét merénylet folyik.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ez a compute terhelés miatt ilyen, mivel a Hitman egy nagyon speciális MSAA-t használ. Nem számolja ki őrült módjára az összes render targetre, mint más deferred render motor, hanem először egy compute shader elemzi az összes render targetet, hogy azok mely részén van értelme az MSAA-t futtatni. Ezt kiértékelve a motor az eredmény függvényében a kijelölt részeken lefuttatja a szűrést. A többi részt érintetlenül hagyja. Na most ez a compute shader nagyon bonyolult, és mindegyik render targetre lefut. Természetesen számít, hogy legyen kellő memória-sávszélesség, mert eleve egy post-process eljárásról van szó pufferenként, de azért számítás is van, nem is kevés. Akár lesz eredménye az MSAA-nak, akár nem az eljárás le fog futni. Maximum az MSAA extra sebességbüntije spórolható meg. A fejlesztők szerint ezzel jobb a sebesség, mintha szimplán deferred MSAA-t használnának.
Nem azzal van a baj, hogy nem kerül bele a tesztbe, mert valakinek nem tetszik, hanem azzal, hogy hadjárat folyik a játék ellen. A Kepler teljesítményéről egyedül az NV tehet, de a Codemastersen verődik le az egész. Nekem mindegy, de ez a legkevésbé sem építi a két cég közötti partnerkapcsolatot. A Codemasters nem az NV-nek akart a Forward+ eljárással rosszat. Amikor eldöntötték, hogy belerakják még azt sem tudták, hogy milyen lesz a Kepler, ugyanakkor az előnyöket átvizsgálva a Forward+ egy logikus előrelépés egy tradicionális forward render motornak.
Az NV-nek annyit kellene tenni, hogy a Dirt 3 sokkal jobb játék, és szerintük azzal érdemes tesztelni. Vagy szimplán nem kell említést tenni róla. Ennyi, és ez egy elfogadható politika.Az ár az egyetlen értékelhető összehasonlítási alap két termék esetében. Ha az NV szerint megéri a GeForce a prémiumot, akkor az az ő dolguk, de objektíven akkor is az ár lesz a döntő két termék párosításánál. Ha az NV-nek ez nem tetszik, akkor árat kell csökkenteni.
(#11246) fatallerror: Ez a review guide mérés.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Azok a kártyák, amik egymás nyakán loholnak a számítási teljesítményben sem mutatnak sok eltérést. De nyilván számít a sávszél is, mert post-processt futtatni minden render targetre terheli azt is.
Ez a stabilabb háttér akkor ér valamit, ha ki is mutatnák a tesztek. Erre nem lehet építeni addig, amíg ennek nincs tényszerű alapja. Maximum a felhasználó nyugtathatja magát ezzel, hiszen valamivel meg kell magyarázni, hogy miért vásárolt több pénzért egy lassabb és kevésbé jövőbiztos VGA-t, ugyanakkor egy tesztben az árnak és a felmutatott működésnek van helye.
Az NV az eladásokban a mobil piacon nyert sokat. Az AMD már nem épít ennyire erre a területre, mert azzal a hülye vékonyításos iránnyal egyszerűen nem lesz hely a VGA-nak. Cserében a notival kenyeret lehet szelni. A hülyeség határtalan a gyártók részéről.
Az eladásokat a termék márkája és nem a belső lapka gyártója generálja. Erre jó példa az új Atom. Komolyan mondom gyártói támogatás nélkül árulják. Nézd meg az Intel oldalán, nem fogsz találni a Clover Trailhez grafikus drivert. És a helyzet az, hogy viszik.
Ez egyre nagyobb probléma lesz az NV-nek és az AMD-nek is. Bemegy a júzer és látja, hogy Samsung. Az biztos jó lehet. Van rajta egy Atom matrica ... hmm halottam már róla. És fogalma sincs, hogy a termékhez nincs gyári támogatás, a hardver sokkal többre képes, mint az eszközszintű driver, és arról sincs fogalma, hogy a korábbi Atomokból kiindulva lesz egy driver és kész. Használja, és ha valami nem megy, akkor szar a Windows, vagy szar a program. Ennyire egyszerű az átlagemberek gondolkodása.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ez a nyers számítási teljesítmény, de a valós compute teljesítmény az nem csak ebből áll. Ott számításba kell venni a hatékonyságot, illetve főleg a post-process kódoknál a memóriára is van komolyabb terhelés. Azokat a VRAM-ból kell szerezni és a visszaírni a változásokat. És itt sem csak a nyers GB/s számít, hanem a memória vezérlési formája, és a cache-szervezés hatékonysága.
Amikor azt nézed, hogy a GCN architektúra compute hatékonysága jobb, mint a Kepleré, akkor nem csak a valós GFLOPS különbségei játszanak ebben közre, hanem a sokkal nagyobb shared memory tempó, a sokkal nagyobb regiszterterület, a nagyobb gyorsítótárak, a hatékonyabb cache-szervezés, a jobb branching, a jobb ütemezés, az ACE out-of-order elvű task ütemezése, a jobb memóriavezérlés és végül persze a nagyobb elméleti (GFLOPS és GB/s) értékek az egyes azonos árú kártyákon. A különbséget az eljárás komplexitása adja majd. Minél komplexebb az adott algoritmus, annál rosszabbul érzi magát egy tradicionális alapok szerint épített architektúra, mint a Kepler, miközben a GCN a központi processzorok nagy vonalakban levezetett logikai felépítését másolva lényegében bármilyen szituációval képes hatékonyan megbirkózni. Ebből a szempontból egy-egy compute shader bekapcsolásából szerzett előny lehet kicsi, illetve sokszoros.A vásárlók azt sem tudják, hogy mi az a driver. Pontosan ezért van az Intelnek 50+%-os részesedése a GPU-piacon. A vásárlók 50+%-a konkrétan szarik a stabil háttérre, ha a számokat nézzük, de valószínű, hogy ennél is nagyobb az arány. Olyan 90% lehet. Nagyjából a piac 10%-a vásárolhat tudatosan, a kiszemelt gép mögött megbúvó platform képességeit figyelembe véve.
(#11256) tombar: Igen a márkahűség az egy komoly vásárlási szempont manapság. De nyilván semmiképp sem tudatos vásárlás, mert előre eldöntöd, hogy bármit is mutat fel a konkurencia, akkor sem veszed meg.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A HD 4000-ig simán kihúzták volna. Az már a tervezés vége felé járt, amikor az AMD megvette őket. A HD 5000 volt az a termék, amibe komolyabban bele tudott szólni az AMD. A GCN-n pedig nyilván úgy volt tervezve, hogy az integrációs iránynak megfeleljen, azt valószínűleg nem így tervezte volna az ATI az AMD nélkül. De lényegtelen már ezen rugózni, nyilván pont azért vették meg 2006-ban őket, mert akkor el kellett kezdeni a GCN tervezését. A másik opció egy saját Larrabee lett volna, de az Intel megoldását látva nem valószínű, hogy az AMD sokkal jobban megoldotta volna. Talán nem ragaszkodtak volna makacsul az x86-os alapokhoz, de akkor sem lenne az ATI nélkül tapasztalat.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
TESCO-Zsömle
félisten
- tegyük fel, hogy igaz a 14 SMX-48 ROP-384-bit, és igaz a 235W is
Ez gyakorlatilag 1:1-ben a Tesla K20X, szóval nem az a kérdés, hogy lehetséges-e, hanem az, hogy lehozzák-e GeForce vonalra.
A 235W-os TDP-hez 732MHz-es Core, 732MHz-es Shader és 5200MHz-es memória órajel tartozik.
Sub-Dungeoneer lvl -57
-
BeLucZ
addikt
szép kis eszmefuttatás, ez a sor különösen tetszett:
"ha bevállalják a 300W-os kártyát, akkor simán el tudok képzelni 950/1500-as órajelet is. ilyenkor 35-60%-kal vagyunk a 680 fölött."
ezt dijaznám ez computeban lenne olyan combos mint a tahiti? vagy ez is fulldokolna a computeshaderes gamekben?mármint amikben sokat használják
[ Szerkesztve ]
-
fatallerror
addikt
a fícsörök 80%-a semmit nem ér a játékokban..... jó annyival nem de biztos h érezhetően drágább lenne. azt mondogatja mindenki h nem éri meg geforce-t csinálni a teslából
#11347) Loha: azért az jól megvolt csonkítva és annyira nem is jött be, nem véletlenül készítettek saját lapkát a gtx 680asnak...
don't tell me what i can't do!
-
fatallerror
addikt
ugye van az a mondás h minden termék annyit ér amennyiért megveszik márpedig megfogják venni 900ért simán, sőt még 5000ért is megfogják ha annyi lesz 1x
én biztos nem leszek az a hülye aki 900ért vesz vga-t 20%-ért ad a fene 400 dollárt jó lesz 500ért a 8970 vagy még az se éri meg lehet...ráadásul az nv most előnyben van annak a volt amd-s embernek köszönhetően bár szerintem ki is rúgták miután leadta az amd-s adatokat...kinek kell 1 tolvaj, őket is meglopná
vajon felhasználja e az nv az amd cuccaitdon't tell me what i can't do!
-
fatallerror
addikt
#11361) KillerKollar
mondjuk mostmár kezdem elhinni h igaz mert hülye pletykáknál abu mindig idejön és megmondja mi miért nem ahogy eddig ezzel a hírrel is tette most meg nincs itt cáfolni, ő tud vmit
amilyen meglepi volt a shield lehet itt is olyan meglepi h már a maxwellhez nyúlnak na mind1, akármi is lesz a lényeg h 3 gb vram már meglesz
don't tell me what i can't do!
-
KillerKollar
senior tag
+40% nem gyalázás? Hát nemhiszem hogy az NV marketingesei 5000 körüli eladással számoltak világszerte a GTX 690-nél,de szerintem kezdenek rájönni hogy kicsit elszaladt velük a ló.Amúgy ha ez a pletyka igaz,akkor gondolom nem lesz GTX 790,max nagyon limitált kiadásban valamelyik vállalkozó kedvűbb kártyó nevével fémjelezve(Asus?).Ugyanis az 1800 dollárba kerülne,ha itt is duplázzák az árat mint a 680-690 esetében tették.
-
KillerKollar
senior tag
a +40-et a 8970hez mondtad nem?Mert írtad hogy +40%ért dupla ár az teljesen okés ebben a kategóriában,gondolom arra reagálva amikor írtam hogy ha 600 dollár körül lesz a 8970,ez meg 900 akkor senki nem fogja ezt venni.Bár az még mindig nem dupla ár,de azért nagyon nem mind1.Mind1 a lényeg az hogy ha ez a pletyka igaz és az is hogy a 8970 csak egy kicsit ráncfelvarrt 7970 lesz akkor bizony eléggé el fogja verni teljesítményben,de tény és való,ha 300 dollárral olcsóbb lesz a 8970 még mindig az lesz a jobb vétel.
fatallerror:Ha az AMD nem csinál 8990-et akkor nem lesz árbeli párja ennek a kártyának.Ha pedig csinál és ugyan annyi lesz mint ez a kártya akkor beszívta az NV mert még egy butított dual GPU-s 8990 is el fogja verni,hiszen a 690 is gyorsabb 15%-al a pletyka szerint,az pedig ugye még a jelen generáció.[ Szerkesztve ]
-
Amacs
aktív tag
Biztos amúgy ez a 780-as elnevezés ennek a GK110-es Geforce Titannak? Csak mert Geforce GTX 780 alatt inkább egy GK114-est képzelnék el. Abból meg készülhetne referencia 790 is akár. Ennek a GK110-esnek meg valami egészen más módon adnának nevet.
A GK110-ből 2 GPU-s szörnyet készíteni szerintem nem lehetetlenség, csak ahhoz mocskosul le kéne butítani, viszont az már igazán kinek? & minek? kategória.
GT200-ból is készült 2 GPU-s kártya, csak akkor annak ha jól rémlik volt közvetlen ellenfele.
Az is tesla vonalról átemelt GPU... Ja nem, az maga volt a Tesla.
Bár így akkor sem hasonlítható össze a GT200 és a GK110, még ha méretre nagyon is hasonlítanak. -
fatallerror
addikt
én is a pletyire alapozva mondtam h ez alapján a tituka nem a 8970 ellenfele lesz
nekem az gyanús h abu most nem jön ide kommeltelni h mennyire kamu ez a hír mint amikor még először röppent fel. ezért még a végén lehet h igaz a kártya létezése
don't tell me what i can't do!
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Autós topik látogatók beszélgetős, offolós topikja
- LG C4 tévé, a népszerű OLED-sorozat legfrissebb tagja
- Trollok komolyan
- Politika
- Parfüm topik
- Milyen CPU léghűtést vegyek?
- Samsung LCD és LED TV-k
- Android alkalmazások - szoftver kibeszélő topik
- Horgász topik
- HBO Max & OD topic
- További aktív témák...
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen