Új hozzászólás Aktív témák
-
nagyúr
három lehetséges kimenetele van a mérésnek:
1. nVidia oldalon az input lag (4 * 1000 / FPS ) mseccel nagyobb, mint AMD oldalon. ebben az esetben az látszik, hogy a megnövekedett input lag még nem lép át egy olyan mértéket, ami a játékosok többsége számára érzékelhető.
2. a két input lag között kisebb a különbség. ez esetben a Mantle-lel kapcsolatos információ fals.
3. a két input lag között nagyobb a különbség. ez esetben az nVidia még 5-nél is nagyobb prerenderrel dolgozik. ez kevéssé valószínű.pontot egyik kimenetel sem tenne a kérdés végére, bár valóban érdekes lenne látni.
(#2529) HSM: ha látod a különbséget az 1 és a 3 között, az sokkal valószínűbb, hogy a DX renderer valamilyen egyéb problémája miatt van, nem a prerender miatt.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
#1: igen, ha nem egyformák az FPS-ek, akkor külön kell számolni.
azt szívesen megnézem, amikor egy vakteszten különbséget teszel 49ms és 83ms input lag között#3: nem tudom, ez mennyi lehet, de nem hiszem, hogy a frame delivery idejével azonos síkon mozog.
Bármi miatt is érzékelhető a különbség, van. Márpedig ha a DX okozza, nem is a prerenderer, akkor ott az Nv-k is érintettek, nem csak az AMD-k szvsz.
ha az AMD DX-implementációja okozza, akkor az nV-k nem érintettek...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
19:09 - Ami az AMD-s DX implementációt illeti, nem hinném, hogy drasztikusan rosszabb lenne, ha pedig mégis, akkor nyilván már rég kiszaglászták volna, az Nv-é miért jobb, és megcsinálták volna ők is....
20:54 - AMD DX-szel ott különösen rossz a helyzet a Shanghai mapon, a torony ledőlése után
hmmmmm...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Malibutomi #2619 üzenetére
onnan, hogy a piaci részesedés billegése nem műszaki kérdés. akkor fog tudni az AMD piaci részt visszarabolni az nVidiától, ha lesz egy terméke, ami a 980-nál
1. gyorsabb
2. számottevően (min. 15-20%) olcsóbbaz #1-est vehetjük biztosra, innentől csak a második a kérdés, ami elsősorban üzleti. a technológiának persze van közvetett hatása az árra, egy kevésbé drága terméket könnyebb jó áron adni. megjegyzem, ez pont a HBM ellen szól...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
nem vitatom a potenciális előnyöket, viszont jelentős kockázatot hordoz egy ilyen technológia bevezetése - várhatóan az első ráépülő termékek igen sokba fognak fájni gyártáskor, + csúszások. én most az AMD helyében mielőbb kidobnék egy 380X-et, ami gyorsabb a 980-nál, és a flagshipben kísérletezgetnék a memóriával - ha egyáltalán 2015-ben.
(#2621) Malibutomi: nem feltétlen áll vissza. a 970/980 egy elég érdekes piaci húzás miatt volt ennyire zajos siker - remélem, az AMD is képes egy ilyenre, de egyáltalán nem vagyok benne biztos.
(#2623) Habugi: passz, nem szoktam ennyire belemászni a számokba. annyit tudok mondani, hogy a meglódulások nem igazán kötődnek a csúcskártyákhoz, ha valaki meg tudja lepni a piacot (jó irányban - nem a Titan Z-re gondolok ), akkor el tud csaklizni pár %-ot az ellenségtől.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
igen, valamint az AMD-nek az eszeveszett mértékű CF-stuttert. az a vicces, hogy akkor úgy volt tálalva a pH!-n a dolog, hogy az nVidia a kisimítós megoldásával növeli az input lagot, míg az AMD a hardcore gamerek igényeire figyel. no further comment necessary
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz deadwing #2778 üzenetére
végül csinált az AMD is frame pacinget, a komplett játékos / tesztelőtársadalom hosszas könyörgése hatására, úgyhogy nagyrészt a múltban. ha jól tudom, a Catalystban kikapcsolható, azaz meg tudod nézni, hogy fest 144Hz-es monitoron. gondolom, 50-60 FPS sebesség esetén ugyanúgy, mint egy 60Hz-esen.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
a játékélmény rovására felpumpált FPS-értékekről volt szó - ott is pontosan az volt a helyzet.
a "hardcore gamer" a témával kapcsolatban pedig idézet, nem tőlem származik(#2781) Abu85: nem kell frame pacing, de a lassabb framerate ugyanúgy magasabb input laggal jár.
egyébként ennek sem itt, sem a frame pacing esetében nincs jelentősége, csak a reprezentációk közötti eltérésre mutattam rá.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
kb. 7 éve megy ez az "nVidia hamar elavul" propaganda a pH!-n. ehhez képest:
- a 9600GT-m két év alatt nem lassult le a konkurenciához képest.
- a GTX460-am két év alatt nem lassult le a konkurenciához képest.
- a GTX660-am két év alatt nem lassult le a konkurenciához képest.nem vélsz felfedezni valamiféle mintát a fentiekben?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Laja333 #2917 üzenetére
azért vicces ez a post, mert ugyanazt a propagandát hajtogatod, aminek a cáfolatára írtam 3 személyes példát az elmúlt 7 évből. ha nem csak kiragadott példákkal jönnél elő emlékezetből, akkor lehet, hogy nem futsz bele egy ekkora melléfogásba - ahogy arra többen rávilágítottak.
igen, nyilván az nVidia egy csomó mindent beáldozott a hatékonyság oltárán a Maxell generációban (btw. az előzőeknél mi volt a beáldozás tárgya?). nem ez a kérdés. az a kérdés, hogy a beáldozott dolgoknak a) mennyi a jelentősége van, b) mennyi jelentősége lesz. az a)-ra tudjuk a választ: semmi. a b)-re nem tudjuk a választ - személy szerint nem nagyon hiszek benne a történelem miatt, de ez mindenkinek szíve joga.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Laja333 #2924 üzenetére
a tavalyi (tavalyelőtti) generációnál pont annyira érezhető, amennyire daveoff linkelt tesztje mutatja - kb. semennyire. van játék, ami AMD-n gyorsult sokat, és van, ami nVidián. business as usual - tessék átfogó tesztet mondani, nem kiragadott példákat.
majd ha a 370 porba alázza a 960-at, akkor térjünk vissza a témára - de ezt sajnos nem hiszem. pedig a piacnak jót tenne[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Laja333 #2926 üzenetére
így van, lehet, hogy a 780Ti-t megelőzi, a 970-et pedig minden bizonnyal. azt is megmondom, miért: az initial launch nVidia teljesítményeiből a boost bevezetése óta bátran levonhatsz 5%-ot, mert a launchkor tesztoldalak nyilván maximum boost binbe sorolt kártyákat kapnak. ez egy egyszerű teszt-manipuláció, amivel fixen számolhatsz, semmi köze az architektúrához.
nem viccelek, a 370 fog a 960 ellen menni (200 USD), a 370X meg a 960Ti ellen (250 USD, ha lesz olyan). mert szerinted hová lesznek pozícionálva?
(#2927) HSM: tök jó, hogy in hindsight megmagyarázod, hogy igazából nem is voltak olyan rosszak azok a kártyák (mellesleg a 9600GT a 3870-nel versenyzett - nem volt ütős?). de akkor azt mondta az AMD-párt, hogy hülye, aki olyat vesz, mert hamar el fog avulni. akkor most mi van?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
ha választhatnék a 960 és a 285 között, akkor mindkét cégnek azt üzenném, hogy 200 USD-ért dugják a seggükbe a csodálatos kreálmányukat
nem azonosítalak senkivel, ne vedd személyesnek a dolgot. egyszerűen csak arról van szó, hogy minden egyes generációnál előjön az elavulós kérdés. most éppen Te mondod ezt a Maxwellről, korábban más mondta a Keplerről / Fermiről / G9x-ről. eddig egyszer sem jött be
(#2934) Laja333: tessék konstruktívan érvelni - mondd meg, szerinted hová fogják pozícionálni - a "nem tudom, de nem oda, ahová te mondod" nem érvényes válasz
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
El is avultak végül a 7970 vetélytársuk mögül a 680-ak, igaz, nem a Fermihez képesti butítások, hanem végül a 2GB ram miatt, de a végkifejleten nem sokat változtat.
néhány konkrét sarokesetben ez valóban jogos bár aki ezen aggódott, az tudott 4GB-os 680-at venni.
de azért ha ránézel a két cuccra, meg a specifikációkra, azért na...
durvának tűnik a különbség a unitok száma alapján, viszont nézz rá az órajelekre is - mindkét domainban közel 30% (!) a 960 előnye. az sem kicsit durva.
(#2938) Laja333: mondom - ne azt írd le, hogy miben kételkedsz, hanem hogy mit gondolsz... amúgy simán benne van a pakliban, hogy a 370 egy átnevezett Tonga lesz.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
sajna nem emlékszem pontosan, mennyi volt a 4GB-os 680, de az rémlik, hogy annyival volt drágább, mint a 7970
haaaaalt! senki nem beszélt a Tonga GPU-ról, az R9-285-ről van szó. ha építenek a Tongára egy fasza 370-est, akkor örülünk. de attól a 285 még az marad, ami.
(#2941) Laja333: nincs elképzelésed, hogy mi fog történni, csak hajtogatod, hogy szerinted nem. gondolom azért, mert az iparági tudásod nem túl erős. ez nem baj, csak akkor nem kéne ilyen stílusban...
amúgy az indoklásom roppant egyszerű - a 380-at várom a 970 játszópajtásának, és az determinálja a többit is:
370: ~200 USD
370X: ~250 USD
380: 300-350 USD
380X: 400+ USD[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
nagyon érdekes ez a DX12 teszt - annak ellenére, hogy minden preprepre állapotú benne, néhány érdekes következtetést azért le lehet vonni belőle.
1. Abunak teljesen igaza van abban, hogy kritikus lesz a program oldali optimalizálás - ez nagyon jól látszik a 290X / 980, valamint a 285 / 750Ti viszonylatból.
2. Ez a teszt erősen arra utal, hogy az nVidia "buta" architektúrájára (mind a Maxwellre, mind a Keplerre) könnyebb optimalizálni, mint az "okos" GCN-re. Ez önmagában nem túl meglepő, nyilván komplexebb tudást nehezebb megfelelően kiaknázni - viszont az "nvidiaköcsögmertnemdokumentáljaazarchitektúrát" típusú érvelést a jövőben érdemes erős fenntartásokkal kezelni, mert egyáltalán nem biztos, hogy ez tényleg akkora probléma, legalábbis end user oldalon.
3. Az optimalizálás mértéke nagyban függ a ráfordított időtől - mindegyik architektúrára fel lehet rajzolni egy kb. görbét, hogy mennyi idő befektetésével milyen közel lehet jutni az ideális eredményhez. A teszt arra utal, hogy ez a görbe a Kepler és a Maxwell esetében meredekebben megy felfelé, mint a GCN esetében - cserébe valószínűsíthető, hogy az ideális pont a GCN esetében magasabban van.a fentiekből azt az (erősen tentatív) következtetést lehet levonni, hogy a DX12-s játékokban az AMD-tulajok sokkal inkább rá lesznek utalva a kiadók jóindulatára, mint az nVidiások. tekintve, hogy jelenleg az AMD-nek van több kiadó-partnere, ez a jelenlegi egyensúlyt talán nem fogja nagyon felborítani - viszont extrém szélsőségekre (mindkét irányban) nagyobb arányban számítanék, mint eddig.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
senki nem beszélt a Mantle-ről, a DX12-n van a hangsúly, a Mantle csak egy mellékes információ a tesztben. szerintem nagyon is megállja a helyét a következtetésem, de lehet (valódi) cáfolattal jönni
hogy az AMD-re alapból sokan fognak optimalizálni
ez pedig elméletben így van, de a gyakorlatban már most is látszik, hogy PC-re újra kell optimalizálni. nem mondom, hogy a konzol-hatás 0, de arról szó nincs, hogy sokkal nagyobb munka lenne nVidiára - sőt, attól tartok, hogy sőt
meg ugye nem csak konzolportok léteznek...Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
nem volt valódi a cáfolat, mert egy szót sem szólt arról, hogy mi az oka az AMD DX12 és az nVidia DX12 közötti, a vártnál nagyobb differenciának.
a grafikonokról az a véleményem, hogy a DX12 tesztek teljesen GPU-limitesek, kivéve a GTX 980-at, ami ennek megfelelően gyorsul is 2 mag és 4 mag között. a 290X-nél a Mantle azért gyorsabb, mint a DX12, mert feláldoztak némi CPU-erőforrást annak érdekében, hogy a GPU parancs-pufferén kisebb legyen a terhelés, így kicsit feljebb tolták a GPU-limitet.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Malibutomi #3073 üzenetére
az lesz az igazi, ha külön fog megjelenni a GTA Va és a GTA Vn
amúgy a GameWorks-nek nincs semmi baja (ha azt nem számítom bajnak, hogy marhára nem érdekelnek az effektek, amik benne vannak ), a minőség a kiadó keze munkáját "dícséri"...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
igen, ezeket nagyrészt tudom, ill. a második bekezdésben írtak nem mindegyik effektre igazak. a HBAO+-n és a TXAA-n (ami a legtöbb játékban felbukkan) nem látni ilyen minőségbeli korlátozást, és a HBAO+ sebességre is normális, legalábbis nVidia hardveren. HairWorksot nem láttam még élőben, de elhiszem, hogy nem sikerült jól, eléggé izzadtságszaga volt az egész sztorinak, olyan "én is tudok ilyet csinálni bmeg" jelleggel. ezekből nem szokott sok jó kisülni.
igazából pont az általad leírtak miatt nem értem a hisztit a GameWorks körül. kapsz néhány extra effektet a játékban, amik enélkül nem lennének benne. ha nem tetszenek, vagy túl sok erőforrást zabálnak, akkor egyszerűen nem használod őket.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
ezt nehéz megítélni anélkül, hogy belelátnánk, mennyi erőforrás megy a GameWorks-re. másrészt az elmúlt 2-3 évben nem nagyon történt olyan változás a játékok látványvilágában, amitől el lehetne ájulni, így kicsit öncélúnak tűnik a HW-lóverseny is - elég vicces, hogy 1-2 játékban kikapcsolod a AA-t és az AO-t, és hirtelen 3x annyi FPS-ed lesz. nyilván a GW ezt is hivatott "támogatni" a TXAA-val.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
el kell, hogy keserítselek, de egy üzleti vállalkozás esetében a pénz gyakorlatilag minden. a high-tech piacokon jellemzően olyan erős a verseny, hogy aki megengedi magának azt a luxust, hogy tisztességesen játszik, az gyakorlatilag a saját csődjét készíti elő. szomorú, de ez van.
"Meglátjuk majd, mit hoz a jövő." - ez meg annyira magas labda, hogy nincs szívem lecsapni
amúgy ha iszonyúan lesarkítom a dolgot, akkor az nVidia fényes GPUs pénzügyi eredménye két számnak köszönhető. az egyik az 549, a másik a 329. elsősorban ezt lenne érdemes eltanulni az AMD-nek - hogyan pozícionáljunk úgy magas profitra, hogy már előre kivédjük az ellenfél (ellenség) válaszlépését. most tavasszal lesz erre lehetőség - lássuk, tudnak-e vele élni.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
persze, az árazásról volt szó. viszont ennek a műszaki háttere egyrészt egyszerűbb, másrészt sokkal jobban felépített, mint ahogy leírtad.
azt gondolom, hogy a GM204 egy teljesen logikus 2nd tier chip, aminek amúgy a fő paraméterei (többek között funkcionális egységek száma) valószínűleg már jóval a 290-esek megjelenése előtt fixek voltak. a chipet alacsony fogyasztásra tervezték, aminek az ultramobil szinergia és a marketing mellett van még egy óriási előnye: nagyon széles órajeltartományt tesz lehetővé. amikor kész volt a GM204, nem volt más dolguk, mint belőni úgy az órajelet, hogy a 980 a garantált boost clockkal kb. 10%-kal gyorsabb legyen a 290X-nél (ami a top binned példányok esetében 15-20%), a 970 meg annyit tudjon, mint a 290 (top binned - kb. 290X). így elérték, hogy a 970 egyszerre versenyezzen a 290-nel és a 290X-szel egy olyan áron, aminek komolyan már nem lehet a Hawaii chippel alámenni (ez volt az árazásban az igazán nagy okosság), a 980 pedig a látványos 20%-os (top binned) előnyével mehetett halo áron. ezzel egyszerre húztak nagyot piaci részesedésben és árbevételben - ennek eredménye a most mellékelt pénzügyi jelentés.
mint utólag kiderült, a 970 igen kompetitív árának volt még egy előfeltétele - kellett, hogy az enyhén backend-hibás (ROP vagy L2 cache) GM204-ekből is lehessen 970-et csinálni (ez saját következtetés, nem hivatalos info). ez a sztori viszont nem annyira egyszerű, hogy parasztnvidiahazudott - pedig amúgy én nem osztom a nyugati sajtó elnéző véleményét, szerintem szándékosan tájékoztattak félre mindenkit.
lássuk be, a 970 akkor is igen jó vétel, ha azt írjuk rá, hogy 56 ROP, 3.5GB RAM, 224-bites memóriavezérlő. a gond ott van, hogy ha azt írjuk rá, hogy 3.5GB RAM, akkor az nagyban megcsappantja a vásárlók körét - 95%-ban olyanokkal, akiknek a gyakorlatban marhára mindegy a 0.5GB. a probléma persze ott van, hogy egyrészt az 5%-ot ténylegesen megkárosítják, másrészt egy cég akkor se nézzen hülyének, ha történetesen hülye vagyok. az nVidia láthatóan nem hisz az ilyen etikai gyerekségekben - ezért félig egyetértek a konklúzióddal, én is alaposan tájékozódom, mielőtt bármit veszek tőlük (amúgy ez eddig is így volt). de azt érdemes látni, hogy (feltételezve a szándékos félretájékoztatást) ez a 3.5GB-os botrány nem jött volna létre, ha a vásárlók nagy része átgondolt szempontok szerint venné a VGA-it.[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
szerintem ennél egyszerűbb a helyzet, legalábbis a HD7970 / GTX 680 vonaltól kezdve. a Cryengine mindig is backend-intenzív volt, és míg fullHD-ben ellavíroznak a GTX900-asok a rengeteg ROP-pal meg a magas órajellel, WQHD-ben már elkezd kevés lenni a sávszélesség, és a ROP-ok éheznek (erre utal amúgy a 280X és a 770 komolyabb lemaradása is - ott meg nincs elég ROP).
sokkal izgalmasabb a 2010-es generáció - a HD6970, és különösen a GTX580 teljesítménye egészen vicces. szerintem ott még volna munka a driverekkel is bőven.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
a 6970 még csak-csak, bár a 7800-asok indulásakor szinte bitre megfelelt egymásnak a 7870 / 6970 és a 7850 / 6590, szóval ahhoz képest sokat változtunk. viszont ha az 580-at és az amúgy nem túl jól teljesítő 660-at összeveted - na az durva.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
-
nagyúr
válasz Firestormhun #3310 üzenetére
lesújtó hol a p***ában van már a 300-as széria?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Malibutomi #3316 üzenetére
pont ezért gáz üzletileg, hogy nem jön rá a válasz - az nVidia tárva-nyitva hagyta a kaput a 200 dolláros ársávban, ezzel muszáj lenne élni a konkurenciának.
(#3314) proci985: hát ez az...
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Malibutomi #3321 üzenetére
5-10%-kal gyorsabb, és annyival drágább is - vagyis 200 dollárért van két lehetőséged is, hogy gyenge ár / teljesítmény arányú kártyát vegyél. ez egy olyan piaci ziccer, amit muszáj lenne kihasználni - anélkül lehet megszólítani egy széles vásárlóközönséget, hogy az árbevételen nagyon komoly kompromisszumot kellene kötni.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz trufa12 #3333 üzenetére
ó, az nVidia a legnagyobb átnevezőművész - a 700-as széria igazából kispálya ahhoz képest, amit a G92 chippel csináltak. lett belőle 8800GT, 8800GTS, 9800GTX és 9800GTX+ - aztán mindezek után a más architektúrás GT200 generációban még egy GTS250 is
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
hiába írogatjátok le 50x, akkor sem fognak a referencia GTX900-asok 200W-ot enni. annyi a "csalás" a Maxwell esetében, hogy a GTX750Ti-től kezdve a tényleges tipikus fogyasztást adják meg TDP címen, eddig meg volt benne 10-15% tartalék.
a 200W-ot bekajáló custom kártyák meg azért esznek annyit, hogy lehessen őket rendesen húzni.Viszont nem túl fair egy 3 éves GPU-t tartalmazó 280-at egy 3 hete bemutatott VGA-hoz hasonlítani.
én nagyon szívesen összehasonlítanám a frissen megjelent AMD-s versenyzővel. hol van?
(amúgy a 3346 utolsó bekezdésével teljesen egyetértek)[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
olvasom a topicot, és én úgy látom, hogy azért tologatják a power limiteket, mert tuningolni akarnak
amúgy a ref 980-ak jellemzően a hőmérséklet miatt vettek vissza - a 970-eknél elképzelhetőnek tartom, hogy a 145W tényleg szűkös, de ahhoz, hogy a ref órajeleket tartsa, aligha kell felmenni 200-ra - ld. még lejjebb.(#3348) Malibutomi: ahhoz, hogy ilyet lehessen mondani, végig kellene nézni legalább a népszerűbb 970-eket, mert valóban, a ref modell nem jellemző a piacon. viszont a fogyasztásukat kellene megnézni, nem a power targeteket - míg az utóbbiak egy csomó kártyánál tényleg 200W körül vannak, a fogyasztások a pár teszt szerint, amit most megnéztem, 10-25W-tal magasabbak, mint a ref.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
lehet, hogy Te elfelejted, viszont én pontosan tudom, mennyi a 960 sávszélessége
komolyra fordítva, 77%-a a 660-énak, miközben a sávszélesség fogyasztóinak mind jelentősen nőtt a kapacitása. szerintem ez nem jó irány - nem tudom pontosan, melyik engine-ekre gondolsz "mai" alatt, de pl. a Cryengine eléggé mainak tűnik, és annak igencsak kell a sávszélesség. meg amúgy mindennek, ahol a konzolportot post process effektekkel akarják felturbózni, bár ez utóbbiban pont segít a dcc.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz proci985 #3391 üzenetére
igen, emiatt borzasztó nehéz objektívet mondani. a nagyobb oldalak valószínűleg válogatott kártyákat kaptak, mert ott a G1 sem mutatott extrán több fogyasztást (kivéve Tamáséknál). miután a G1 extra magas TDP limittel rendelkezik (nem 280 az a 250?), én inkább tekinteném kivételnek, de hiteles csak akkor lenne a dolog, ha mindegyik gyártó kártyájáról lenne pár mérés.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
ezt nem értem. miért kell feltétlenül programkód akár a G-sync, akár az A-sync támogatásához? az, hogy a display output milyen módon vezérli a monitort, szerintem pont belefér abba a kevésbe is, ami a display driverből megmarad.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
továbbra sem értem. minden postprocess eljárásra igaz, amit leírsz (driverből force-olt AA, AO, whatever), de a variable sync-eknek minden szoftveres közreműködés nélkül is működni kellene. mihez kell a FB?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
-
nagyúr
igen, bár ha megnézed a piaci részesedés alakulását, amit rocket pár hsz-szel lejjebb linkelt, korábban az ATI / AMD tudott profitálni az nVidia ballépéseiből.
megmagyarázni nem tudják, Jensen levele annyira bullshit, hogy még az írott sajtó is csak a fejét ingatja. a 970-ek visszavételét amúgy szerintem incidens alapon képzelik el, és le merném fogadni, hogy a gyártókkal el fognak számolni a jövőben, csak minden egyes kártyához tízoldalas customer case elemzést fognak kérni, és baseball-ütővel kell majd kiütlegelni belőlük a pénzt. igen csúnya megoldás, de tekintettel arra, hogy valódi kárt csak a vásárlók igen kis százalékának okoztak, sajnos logikus. ha valaki sikeres vállalatvezető akar lenni, akkor ilyen döntéseket muszáj meghoznia. csak gondolj bele az alternatívába, mi történne...(#3568) rocket: igen, ez konkrétan Darwin-díjas megszólalás volt
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
szerintem szedjük szét a dolgokat a megfelelő szereplőkre, mert ebben a postban a Maxwell és a 970 minden gyengeségét az nVidia nyakába varrod, holott ez marhára nincs így. a 256-bites busz korlátozó ereje, valamint a TDP fogalom megváltozása az első tesztekben is világosan kiderült majdnem minden portálon. így is elég gyors? igen. így is sokkal kevesebbet fogyaszt? igen. akkor miért ne ajánlanák? ha pedig valaki érzékeny a részletekre, akkor szíveskedjen elolvasni a teszteket és gondolkodni, ne csak az ajánlásra ráizgulni.
a 4GB sztori már más téma, és itt is több külön track van.
először az AMD-nek okozott kár kérdéskörét gyorsan felejtsük el, mert ilyen alapon bármelyik erős versenypiacon folyamatosan perelhetnék egymást a gyártók. ennél sokkal durvábbakat húznak a joghurtok, húskészítmények vagy gyógyszerek gyártói.
másodszor, ha a 970-esben a technikailag prudens megoldást alkalmazzák, szoftveresen kiiktatják a 0.5GB memóriát, és 3.5GB-osként hirdetik a kártyát, akkor biztosan kevesebbet adnak el belőle. jó kérdés, hogy mennyivel, mert ebben a formában is igen jó az ár / teljesítmény mutatója, de egész biztos, hogy látható gap lett volna a sales-ben. abban viszont teljesen biztos vagyok, hogy nem akkora, hogy ez a piaci részesedést jelentősen mozgassa - gondolj vissza a GTX260-ra, a GTX570-re, és különösen a 8800GTS-320-ra,
jelenleg baseball ütővel sem versz ki belőlük pénzt - az csak később lesz
az pedig, hogy a vásárlóknak potenciálisan, a jövőben milyen kárt okoz a húzás, egyrészt túlzottan teoretikus, másrészt ez is csak azokra vonatkozik, akik 3.5GB-osan nem vették volna meg.a bottom line akkor is az, hogy kihoztak két nagyon jó terméket, amire a konkurenciának nincs válasza. aztán kihoztak egy korántsemannyirak***ajó terméket, amire a konkurenciának szintén nincs válasza. akkor mire számítanak?
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Én a tesztek töredékében olvastam bármi utalást a TDP-s dologra
no ez itt a gond. tudod, hogy én melyik tesztben olvastam, hogy sundámbundám van a TDP-vel? mindegyikben - ugyanis annyit fogyasztott, mint a 680, és alig kevesebbet, mint a 770. bizonyítékom is van rá tehát az információ elérhető volt bárki számára.
a vásárlók félrevezetésével elért versenyelőny
pontosan. ilyenkor max. a vásárlónak van jogalapja a céggel szemben, nem a versenytársnak. de mind a joghurtipar, mind az nVidia gondosan ügyel arra, hogy a kényelmetlenség jogalapnak ne legyen elég erős.
Pont erről beszélek, és akik ebben a gap-ben lettek volna, vagy 980-at vesznek inkább, vagy 290/290X-et, esetleg kivárnak.
ezzel egyetértek, max. a mértékén lehet vitatkozni. ezért hoztam kiemelt példaként a 8800GTS-320-at - már a megjelenéskor tudott volt, hogy nem túl hosszú távon kevés lehet a 320MB (sokkal inkább, mint most a 3.5GB), mégis vitték, mint a cukrot. még az árazás is hasonló volt.
a Radeonos mondásoddal pedig akkor értenék egyet, ha nem lettek volna már 1 éve a piacon. nyilván az árcsökkentés generált extra sales-t, de ez nem váltotta meg a világot. kizártnak tartom, hogy sokkal többet adtak volna el, ha kevesebben vesznek 970-et.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
a Maxwell esetében a TDP és a valós fogyasztás aránya jelentősen más, mint a Keplernél. miután egy szót nem szóltak arról, hogy a TDP definíciója változik, ez már önmagában is lightos megtévesztés, de erre csak legyintenék. viszont azt is mondják erre építve, hogy a Maxwell teljesítmény / fogyasztás terén rádupláz a Keplerre - ez már konkrétan hazugság, mégpedig nem is kicsi.
(#3597) players111: az egyszerű válasz természetesen az, hogy nem volt mit. az izgalmasabb kérdés, hogy miért nem volt semmi tartalékban. ha csak annyit csinálnak, hogy gyűjtögetnek kiemelten alacsony szivárgású chipeket, és kiadnak egy 290X Extreme Editiont (vagy vmi ilyen bullshit) 20%-kal magasabb órajellel, már az borzasztó sokat számított volna. pont, ahogy az nVidia belerondított a 780Ti-vel a 290-es party-ba.
lehetett tudni, hogy az nVidia legkésőbb a karácsonyi sales-re kijön valamivel, szerintem megbocsáthatatlan piactervezési hiba, hogy semmivel nem tudtak reagálni. mi lesz most tavasszal? jönnek az új Radeonok, és az nVidiának ott van tartalékban a GM200, a 960Ti, ill. a megvágott GM206, ami legyen mondjuk 950Ti. érezhető a különbség, igaz?(#3625) HSM: ne már, hasonlítsd össze a 780-nal...
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
tök mindegy, melyik áll közelebb a valós fogyasztáshoz, változott a definíció. (mellesleg szerintem a TDP-nek nem a jellemző átlagot kellene jelenteni, hanem legalább a fenntartott kiemelkedő értékeket, de ez már csak privát vélemény)
mind a 980-ra, mind a 960-ra elsütötték a x2 perf / wattot. a TPU-s lapon ne a 4K és a sorround méréseket nézd, mert ott már a VRAM is beleszól - WQHD-ben és fullHD-ben 66%-kal van előrébb a 980, mint a 680. én magamtól 60%-ot mondanék, de ez már függ a játékmixtől is. szóval közel sem dupla.
a 960-at meg inkább ne is említsük...Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Uraim, próbáljunk egymás elemzése helyett az AMD-nél és az nVidiánál maradni
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Malibutomi #3936 üzenetére
csak egész zárójelben jegyezném meg, hogy nekem 2 hónapig volt 7770-em, és azalatt előjött 3-4 driver-gond - egyik sem súlyos, de mindegyik idegesítő. a másik oldala meg az, hogy az elmúlt 1 évben nVidia oldalon is voltak problémák - kicsit mintha visszább vettek volna a QA-ból.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- iPAD 8 (2020) 98% aksi
- LENOVO IDEAPAD GAMING 3 -15.6"FHD 120Hz - Ryzen 5 5600H - 16GB - 512GB - RTX 3050 - Win11 -1 év gari
- Bomba ár! Dell Latitude 7300Touch - i5-8G I 8GB I 256GB SSD I 13,3" FHD Touch I I Cam I W11 I Gari!
- Bomba Ár! HP ProBook 650 G1 - i5-4GEN I 8GB I 128GB SSD I 15,6" FHD I Cam I W10 I Garancia!
- Bomba ár! Dell Latitude 5500 - i5-8GEN I 8GB I 256SSD I HDMI I 15,6" FHD I Cam I W11 I Garancia!
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen