Új hozzászólás Aktív témák
-
Reggie0
félisten
Kar, hogy ilyen gyenge lett, kellett volna mar egy kis egeszseges piaci verseny.
-
válasz
jacint78 #283 üzenetére
Elolvastam, de függetlenül attól, hogy Te csak a Fury-ról beszéltél, ez egy általános jelenség GeForce és Radeon között már évek óta. Nézd meg egy kicsit alaposabban a grafikonokat, mondjuk a 390X és a 980 viszonyát.
Ugyanekkor a 290X, a 390X és a Fury X viszonya ebben a tesztben nem változik a felbontás emelésével, tehát nem tudom, miből látod a saját igazadat bizonyítva...A tesztelt játékok hiánya ezer dologra utalhat, akár arra is, amit írtál. Nekem eszemben sincs azon találgatni, hogy melyik oldal miért milyen játékokat használ. Ha valamelyikkel folyamatosan gondom van, akkor azt a későbbiekben nem olvasom.
(#295) Raysen623: írtad, de attól még zöldség marad. Úgy látom, Te is az a fajta vagy, aki eldönti, hogy mi az, ami mindenkinek megfelel, aztán lehülyézi azokat, akik mást szeretnének. Sok sikert hozzá
(#296) Peat; ) :
... elhiszem, hogy így van ...Pedig ne, mert az eredeti felvetésed nagyon is megalapozott volt...
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Valójában egyik VGA sem fog még magórajelen sem működni, ha egy játék a belső terhelés szempontjából eléri a 70-80%-os kihasználást. Ma azért működik a GPU-knál ez a boost dolog, amit egyébként az AMD és az NV is alkalmaz, mert az API az egész fotószalag feldolgozást soros munkavégzésre kényszeríti. Nyilvánvaló, hogy nem erre készült egyik architektúra sem, de nem tudnak mit tenni, ha csak sorban, szigorúan egymás után jönnek a feldolgozásra váró futószalagok.
Az órajelet pedig úgy érdemes értelmezni, hogy az AMD eleve maximumot ad meg, még nem is magórajelet. PowerTune mellett a magórajel nem definiálható, mert a hardver másodpercenként sokszázszor képes órajelet váltani. Még amit a szoftvernek visszaad az is egy átlagolt adat, mert nem fogja az összes órajelállapotot biztosítani.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A legújabb játékok a mai VGA-kat 15-25%-on dolgoztatják. A tesztben használt játékok átlépik a 30%-os terhelést, de 60% a plafon, ami a Metro: Last Light.
A 70-80% jelenleg álom kategória, de DX12 SDK mintáiból látható, hogy elérhető, és az Ashes of the Singularity is ilyesmi terhelést fejt majd ki. Alapvetően ebből az látszik, hogy nem a hardverek a rosszak, hanem a szoftver kényszeríti őket soros feldolgozásra. Még az is hátrányos, hogy DX11 alatt az adatmásolás a munkavégzés teljes leállítását követeli, pedig sok GPU-ban van két DMA. A hardvernek a stoptáblára nincs szüksége mert tudja hogyan kezelje a helyzetet, csak az API túl buta, hogy ezt belássa.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
DoxaM
aktív tag
válasz
ricsi8800gt #284 üzenetére
hát igen, nagyon nem fogták be sajnos, látszik, hogy mindenhol kb a 980Ti-nek a felét teljesítik fps-be, igen
óriásiak itt páran...azt se zavarja őket, hogy több helyen gyorsabb a fury x dx11 játékokban ...dx12-ről meg még semmit nem tudnak
-
Raysen623
addikt
Jah értem: ha én írom baromság, ha te írod szentírás....Érveid nincsenek, csak mások véleményét forgatod ki, ráadásul folyamatosan teljesen másról beszélsz és kitérsz a korrekt válaszadás elöl.
Lehülyézni meg pont a magadfajták szokták a másikat, mivel a fent leírt okokból kifolyólag mást nem tudtok. Neked van egy prekoncepciód amit semmilyen teszteredmény nem támaszt alá! Ennek ellenére szajkózod tovább...én meg nem fogok veled hitvitába kezdeni.
A MÁV-nak öt ellensége van: a négy évszak, meg az utasok.
-
-
Abu85
HÁZIGAZDA
Ha arra gondolsz, amit a 3rd party programok kiírnak OSD-ben, akkor az azt jelenti, hogy a vizsgált időszakban a hardver parancsprocesszora százalékosan mennyi parancsot fogadott. Ez azért nem lényeges adat, mert belül a GPU-k valójában heterogén processzorok. Van bennük egy csomó célirányos hardver az általános feldolgozók mellett, és bizonyos futószalagok a célirányos részeket terhelik, míg mások főleg a shadereket. Jelen pillanatban ma sokszor alakul ki az a szituáció, hogy vagy a shader lustul vagy a célirányos részek. Ez a soros feldolgozás alapvető hátránya.
(#314) Sir Ny: Ne keverjük a felhőt ide. A felhőben a késleltetés azon múlik, hogy a hálózat mennyire jó, és hogy fizikailag mennyire messze van a kiszolgáló. Ennek semmi köze a VR-hez, ami felhővel jelenleg nem is működik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Sir Ny
senior tag
"Ez egy népszerű tévedés, korántsem a sávszélesség miatt gyorsul relatívan az összes Radeon az összes GeForce-hoz képest."
Akkor mi miatt?
Paraszti ésszel nézve az ember azt gondolná, hogy az AMD kártyákban a különböző effektekért felelős egységek vannak nagyobb arányban/kisebb kihasználtsággal, az általános 3d leképezésért, textúrázásért stb felelős egységek meg leterheltebbek. A felbontás növelésével pedig ezek kapnak még több szerepet, gondolom.Valami felépítésbeli/arány miatti okra vezethető vissza, vagy valami trükkös technológia miatt esnek vissza kevésbé az AMD termékei az nVidiáénál?
-
-
Sir Ny
senior tag
segítek:
amd konzol: 100
nvidia maxwell: 50Mik ezek az értékek, mire jók, mitől kap a VR-es hányingert és a GRID-es káromkodási rohamot?
segítek 2: az NV is azt állítja a saját diáiban, hogy például a késleltetésben sokkal jobbak az AMD-nél. Ami viszonylag hihető is.
vagy: http://thevr.hu/integralt-vr-tamogatas-legujabb-nvidia-kartyakban/A mutogatott slide-okban, illetve a technológiák hangzatos elnevezésében, a meghatároztt irányban nem nagyon van különbség, kimérve meg még nincsenek.
Csak kicsit ellenpontozni akartam a PH-n levő AMD-VR túlsúlyt.[ Szerkesztve ]
-
-
jacint78
addikt
Ezt én sem értem, a GPU-z azt írja, hogy a TDP keret 80%-án megy a kártya, kihasználásnak 100%-ot ír, akkor minek menne csak 30%-on? És a Mantle-val miért nem lesz gyorsabb maga a videókártya, ha az már hardverközelibb? Nem tudom felfogni ezt a 30%-os kihasználtságot, azt meg pláne, hogy akkor mi a retkes frászért rakják bele a kártyákba a sok kihasználatlan részegységet. Nonszensz az egész.
Azzal tisztában vagyok, hogy nem minden játék hazsnálja ki az összes textúrázó egységet, vagy bármelyiket és ez össze is függhet azzal, hogy nem megy 100-os TDP-n a GPU még rendesen meg OC-zva sem és a 60-80% korrektnek is tűnik, de az a 30....
[ Szerkesztve ]
type your text here..
-
Zeratul
addikt
Kártyára kötött VR szemüveg látenciáját ne hasonlítsd a felhőjével, már csak azért se mert a felhőnél elég gyakori a packet loss.
Josshy: azt nem tudja a szoftver mérni hogy GPU végrehajtók mekkora százaléka végez valódi feladatot és mekkora pörög üresen, csak az tudja hogy mennyire pörög.
[ Szerkesztve ]
-
Joshi
titán
Oké ez mondjuk így van, de mitől lesz ebből a szempontból előnyösebb az AMD mint az NV? Ugye itt most az NV aránylag magas tuning potenciáljára gondolok, míg az AMD Fiji gpu alig tuningolható. Mi köze a gpu kihasználtságnak ehhez? Ha mondjuk én meg tudom mérni az FPS értékekkel a tuning mértékét, akkor működik tehát örülök. Létezik jelenleg olyan program (benchmark) ami legalább 60-70%-on járatja a gpu-t? Vagy ez majd csak a DX12-vel jöhet el? Csak azért kérdezem, mert Mantle se hoz annyival több fps-t, szinte csak akkor ha gyenge proci van a gépben.
[ Szerkesztve ]
-
nbg
senior tag
Csak gyorsan kerestem egyet a helyi arukereson. A kollega altal emlegetett AX900E szeriat peldaul igy meg sem talaltam. Mondjuk amugy is csak alig, plusz DP-ot nem is lattam a leirasaban, de ha o modja, elhiszem.
[ Szerkesztve ]
I'm not saying there should be a capital punishment for stupidity, but why don't we just take the safety labels off of everything and let the problem solve itself?
-
GeryFlash
veterán
válasz
Malibutomi #307 üzenetére
Mire számítasz, ha rev 1-es HBM-mel kikap az Nvidától, akkor majd ha az Nvdiai rev 2-es (és az AMD is..) HBM-mel szereli a kártyát, akkor mi lesz? A rev 1-es HBM-nek is jobbnak kéne lennie mitn a gddr5-nek, az AMD erre volt vele képes.
AMD-nek össze kéne kapnia magát már, normális driver kéne, és elszakadni a TSMC-től. Valószínűleg még a GF is előbb fog 20nm alá bemenni, szerintem lehetne velük gyártatni VGA-t is, vagy esetleg megpróbálni a Samsunggal. LOW API-ból és HBM-ből már most látszik, hogy nem fognak profitálni (az Nvidiával szemben).
Kell valamilyen rizikót vállalnia az AMD-nek, mert el fognak sorvadni. APU-ban Intel lassan de biztosan le fogja őket hagyni, és azt sem értem hogy az ARM-mel miért nem foglalkoznak... Persze ott meg a saját gyártósorral rendelkező Samsungot illetve a rengeteg tapasztalattal rendelkező Qualcommot nehéz lesz megfogni... Tényleg nem látom, hogy melyik vonal az, ahol az AMD a következő években érvényesülni tudna.
PS4-X1 eladásokból nem lehet megélni, és egyáltalán nem vagyok benne biztos, hogy a következő gen tenderét meg tudná nyerni.Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
zovifapp111
aktív tag
Érdekes, nem elég hogy a vártnál jóval gyengébben teljesítenek a Fury-k de az Asus még rátett egy sz@r hűtést (elb@szta a régit) is csakhogy teljes legyen az öszkép.
Alig várom a tavaszi zöldelést!
-
Petykemano
veterán
A magam részéről kissé csalódott vagyok a mantlel elért eredményekkel. Attól volt szó, hogy a bf4 kivételével mind jó. Vagy ezek az implementációk csak ilyen v0.9-ek, hogy ok,megcsináltuk, működik, de semennyivel nem működtetik más elven a gput? Se async shader, se async compute, se semmi nyalánkság, ami jobb kihasználtsággal nagyobb leadott teljesítményt eredményezne?
Találgatunk, aztán majd úgyis kiderül..
-
jacint78
addikt
válasz
Petykemano #329 üzenetére
V0.9-ek is, meg ez csak az API, ez a kártya előtt dolgozó egységeken segít jelenleg. Nem vagyok ebben szakértő, de ahogy olvasgattam nekem az jött le, hogy gyorsabbak nemigazán lesznek ettől a játékok, inkább csak szebbek, persze lehetne gyorsítani is, de nem lenne sok értelme. Ha megnézed gyengébb processzorok mellett voltak jobbak a minimum FPS-ek és csak akkor, ha processzorlimit volt, a max FPS minden esetben mérési hibahatáron belül volt VGA lmit mellett ugye.
type your text here..
-
Malibutomi
nagyúr
-
Ed3r_X_
nagyúr
válasz
Malibutomi #331 üzenetére
Ennek ellenére a fogyasztás nem valami baráti.
“Songbird, Songbird, see him fly, drop the children from the sky. When the young ones misbehave, escorts children to their grave. Never back-talk, never lie, or he'll drop you from the sky!”
-
Egy oka biztosan van: az AMD kártyákon bizonyos színformátumok mellett a ROP-műveletek teljes sebességűek blending mellett is, míg az nVidiákon felezett. De gyanítom, hogy van más, kevésbé látható oka is.
A memória-sávszélesség jó tippnek tűnik, de a tesztek nem igazolják.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Raysen623
addikt
válasz
GeryFlash #326 üzenetére
Egyszer majd ugye elárulod miért fog az NV azonnal profitálni nulla tapasztalat HBM használattal az új kártyáival? Teljesen más technológia, de gondolom ezen is kár fennakadni...
A Rev1-es HBM is jobb mint a GDDR5, különbség azért nem tud lenni mert a kisebb csíkszélesség úgy látszik ennyit nyom a latba + dx11. Így marad pariban a 980Ti és a fury.(#332) Ed3r_X_ : aha persze, mintha olyan egetverő különbségek lennének terhelt állapotban.
(#334) Joshi : +1
[ Szerkesztve ]
A MÁV-nak öt ellensége van: a négy évszak, meg az utasok.
-
Ed3r_X_
nagyúr
válasz
Raysen623 #336 üzenetére
Miért kéne jobbat kitalálnom? Jöttek azzal, mennyivel kevesebbet fogyaszt. Hát, én ezt nem igazán látom a grafikonokon.
“Songbird, Songbird, see him fly, drop the children from the sky. When the young ones misbehave, escorts children to their grave. Never back-talk, never lie, or he'll drop you from the sky!”
-
-
jacint78
addikt
válasz
Raysen623 #336 üzenetére
Komoylan nem értelek titeket. Oké tegyük fel, hogy a DX12 gyorsulást fog hozni (egyenlőre kötve hiszem) Arra nem gondoltok, hogy az NV is gyorsulni fog? Eszetekbe sem jut, hogy úgy talán mégnagyobb is lehet az előnye? Komolyan választ szeretnék erre a kérdésre!
type your text here..
-
Ed3r_X_
nagyúr
válasz
jacint78 #340 üzenetére
Csakazájemdéfoggyorsulnilegalább120%ot...
Amúgy megint be lesz harangozva, mennyivel jobb lesz ez a DX12, ilyen-olyan funkciókkal, csak nehogy ez is akkorát szóljon, mint a HBM a Fury X-en.
“Songbird, Songbird, see him fly, drop the children from the sky. When the young ones misbehave, escorts children to their grave. Never back-talk, never lie, or he'll drop you from the sky!”
-
GeryFlash
veterán
válasz
Raysen623 #336 üzenetére
Milyen kisebb csíkszélesség? Tudtommal mindketten a TSMC-vel gyártatnak 28nm-en. Semmi különbség nincs, simám annyi, hogy a HBM egyértelmű előnyével sem képes az Nvidát megfogni, pedig egy fél évvel később jöttek ki.
jacint78: Nem, a dx 12től és a HBM rev 2-től is csak az éjemdí gyorsul, az Nvidia meg csak pislog... De ahogy nézem, még GDDR5-tel is elvernék jövőre az AMD-t. És rohadtul nem vagyok NV fan, csak egyszerűen felcsesz az AMD töketlensége.
[ Szerkesztve ]
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
Joshi
titán
válasz
jacint78 #340 üzenetére
Nekem az AMD üzletpolitikája ott hibázik hogy nem a jelenről szól, mindig a jövőbeni teljesítmény növekedéssel magyaráznak mindent ami aztán soha nem jön el. Én azt csodálom hogy még vannak hívek akik ezt elhiszik. Miért nem a jelenben élnek? Egyébként a Fury nem egy rossz kártya, de nem 1080p-hez főleg ennyi pénzért. Nem akarok trollkodni főleg úgy hogy nem olyan rég váltam meg a 290-es kártyámtól.
-
Abu85
HÁZIGAZDA
Csak így kidobni pár ms-ot... Ezek akkor érnek valamit, ha tudnánk miben mérték, azt milyen API-n futtattak, az a kód kihasználta-e a platformok előnyeit, illetve ugyanaz volt-e a szinkronablak. Amennyiben ezekre nincs válasz, akkor az egész számháború semmit sem ér.
Állítani barmit lehet. És teljesen természetes, hogy nem azt mondják, hogy az AMD jobb, bár tényleg nagy kérdés, hogy az a dia miről szól, mert csak számokat látok a levegőben lógni. Addig ezt nehéz értékelni, amig a fentiekre nincs válasz.
Ha az Occulus értékelési rendszerét nézzük, akkor ma csak a Fiji megy at rajta, mert 5+TFLOPS, stateless compute elvű, és támogatja a finomszemcsés preempciót. Utóbbira az NV már mondta, hogy később bevezetik.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Joshi
titán
válasz
Petykemano #346 üzenetére
Nincs összehasonlítási alapom 290 vs 980-al, de én nem éreztem eget rengető változást driver terén amíg meg volt a 290-em. Lehet hogy javult néhány fps-t, de azzal nem lehet megváltani a világot. Arról nem is beszélve, hogy whql drivere az AMD-nek fél évente van csak.
(#347) Abu85 igazság szerint ezek a kártyák a játékokban nyújtott teljesítményükben mutatják meg a valós tudásukat. Az hogy ilyen-olyan szintetikus tesztben melyik hogy teljesít egyáltalán nem releváns. A jelenlegi tesztben is van ComputeMark és LuxMark, ahol egy R9 290 is kenterbe veri a 980Ti kártyát pedig én tudom hogy a 290 mire képes a valós életben. A gpu technikai fejlettsége akkor jó, ha azt a gyakorlatban is érezzük. Szerintem.
[ Szerkesztve ]
-
jacint78
addikt
Azért nem feltétlenül kell nekimenni az AMD-nek, mert csak félévente vannak WHQL drivereik, érdekesebb kérdés, hogy mi ennek az oka? Ha az, hogy nem akarnak talán feleslegesen is pénzt költeni rá még érthető, de nem zárnám ki azt sem, hogy csak akkor sikerül olyan drivert csinálniuk ami átmegy.
type your text here..
Új hozzászólás Aktív témák
ph Vajon mire elég az AMD vadiúj, HBM memóriával társított gigászi méretű GPU-ja? Cikkünkből kiderül!