-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz ricshard444 #8051 üzenetére
Azt mondták nekem, hogy lesz egy GM107. Az Maxwell. Szerintem azt már a Q2-ben bedobják, de legkésőbb a computexen.
Azt is láttam, hogy elsősorban az energiahatékonyságra gyúr. Strukturálisan sokban hasonlít majd a Keplerre, csak alapvetően olyan változásokat vezet be, amivel az egységnyi tempó melletti fogyasztás jelentősen visszaesik. Leginkább telefonba fejlesztik ezt az architektúrát. Mindent alárendeltek ennek.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
HSM
félisten
Amúgy ki lehet valahogy deríteni, hogy egy adott kártyán XT2 vagy XTL a GPU? Lehetőleg bontás nélkül.... TSMC data extractor nekem eddig minden 280x-emre azt írta, Asic revision ID:866. Ez kiírná? Mert a legfrisebbet egy hete kaptam karácsonykor garis cserére, friss, mint a hó, és az is még ez a 866 revízió, pedig már rég XTL-nek kéne lennie a hírek alapján...
[ Szerkesztve ]
-
Sonja
veterán
Ha csalódni akarsz, bízz az emberekben!
-
Abu85
HÁZIGAZDA
Valószínű lesz külön ID-je. De fogalmam sincs, hogy az mi lesz. A PowerTune lesz egy kicsit fejlesztve. Megkapja a 3-as verziót, mivel a Tahiti még mindig a 2-est használta, míg a többi GCN-es GPU már a 3-as vagy jobb PowerTune-nal dolgozott. Ugye a Bonaire a 4-essel, míg a Hawaii az 5-össel.
A 3-asról annyit tudni, hogy hatékonyabban tudja az órajelet paraméterezni Mantle alatt. A 2-es PowerTune-nal is működni fog ez, de esélyes, hogy lesznek olyan szituációk, ahol a 3-as verzió 5-7%-kal is gyorsabb lehet, mert nem veszi annyira vissza az órajelet a jobb menedzsment miatt.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
Épp idevág, köszi!
(#8057) Abu85: Így már értem, köszi! Nem is az ID a lényeg, hanem hogy más lesz-e neki. Ugye az XT2-re írja nekem a 866-ot.
Akkor ezekszerint a jobb fogyasztás és a magasabb teljesítmény kizárólag ennek az új 3-as powertune-nak tudható be, plussz az alacsony, 850Mhz-es alapórajelnek? Csak azért kérdezem, mert akkor engem ez egyáltalán nem fog érinteni, a PowerTune2-es XT2-m is koppra húzott power limittel megy, kézzel belőtt fesszel, még furmarkot is bírja tuningolva. Szóval itt én ilyen felhasználásnál úgysem vennék észre semmit ezekszerint, ha XTL lenne.
Viszont gondolom, így olcsóbb, spórolósabb, de ahhoz képest gyorsabb 280X-ek lesznek gyárthatók a jövőben...[ Szerkesztve ]
-
veterán
Valamit lehet már tudni arról, hogy mikor szűnnek meg a 290 ellátási problémái. 2-3 héten belül vennék, de most perpill sehol sincs.
Addig gyorsítottuk a világot míg mi magunk maradtunk le...
-
Sonja
veterán
AMD Kaveri APU A10-7850K Gaming and General Performance Unveiled – Mantle 45% Faster Than DirectX
Nem hangzik rosszul.
Ha csalódni akarsz, bízz az emberekben!
-
Abu85
HÁZIGAZDA
-
veterán
Hm. Akkor lehet, hogy én voltam elszállva a 100% vagy több növekedéstől. Mindegy. Annak is kell örülni ami van, és legalább van irány ami mentén a következő 6-8 évben lehet fejleszteni.
Az kiderült már, hogy a kaveri mely vga-kal hogyan tud együttműködni mantle és dx alatt. Konkrétan egy 290 érdekelne.
[ Szerkesztve ]
Addig gyorsítottuk a világot míg mi magunk maradtunk le...
-
Abu85
HÁZIGAZDA
válasz adamssss #8066 üzenetére
Nézd meg a linket. Felülről a hatodik kép.
Mantle alatt az egy gépbe helyezett VGA-kat egy nagy GPU-nak látja a program. Mindegy mit raktok mellé. Ha az IGP és a dGPU támogat Mantle-t, akkor lehet rajtuk aszinkron feldolgozást futtatni.
DX alatt valszeg a 260X lesz a max.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
KillerKollar
senior tag
A Battlefield 4 Mantle patchről lehet már tudni valami pontosabbat?Tudom jelen állás szerint január...ezelőtt meg december vége volt...és abból nem lett semmi.Esküszöm jobban örültem volna ha azt mondják hogy január 31.Oké hogy az a legvége de legalább egy pontos dátum és tudjuk hogy úgy készítik és előre tudják hogy akkor ki kell adniuk.Persze úgy is késhet valami hogy pontos megjelenési dátuma van(lásd: Watch Dogs), de így hogy január van egy olyan érzésem hogy megint nem fog kijönni ebben a hónapban,csak várunk,várunk,várunk aztán a hónap végéig semmi konkrétum utána meg nagy elnézéskérés közepette bejelentik hogy de februárban kijön.Nem nem pontos dátum,valamikor februárban...Ha már Decembert lekésték legalább megmondanák napra vagy legalább hétre pontosan hogy mikor jön ki mert így megint időhúzásnak tűnik ez a január,mert abban benne van hogy most már bármelyik nap kijöhet hogy ne panaszkodjon annyira a nép hogy mekkorát késik,de igazából a vége előtt úgysem fog,de lehet hogy akkor sem.
[ Szerkesztve ]
-
Gainka
őstag
válasz KillerKollar #8069 üzenetére
Atya világ
Százszor le lett már irva hogy bugos a bf4 valszeg ezért nem döobták még ki rá a mante-t.Abu85
Lehetséges hogy a konzol=amd+mantle stb, szoval ezek miatt halasztotta el az nvidia az uj kártyákat kiadását? Van valami köze hozzá vagy az nvidia nem is foglalkozik ezzel?
[ Szerkesztve ]
-
KillerKollar
senior tag
Igen és ez nem jelentheti azt hogy megint késni fog?Egyenlőre ha kiadnak egy új patch-et akkor kijavítanak 2-3 régi hibát és kreálnak 2-3 új hibát.Mellesleg a mantle patch megoldást jelenthet azok számára akiket különböző DirectX hibával dobál ki a játék,ez is elég gyakori hiba,igaz csak azoknál oldaná meg akinek olyan kártyája van ami támogatja a Mantle-t.NV kártyák tudtommal 20 nm-en készülnek már,de nem tudni mikorra lesz elég jó a kihozatal így azt sem hogy mikor jönnek majd az új kártyák,de tudtommal nem halasztottak el semmi,hiszen soha nem volt hivatalos álláspont arról hogy mikor jönnek,legalábbis az asztali gépekbe szánt kártyák,csak pletykálták hogy tavasszal kijöhetnek,de ha jól tudom azt is azért mert valami régebbi roadmapon ez volt megjelölve.De lehet hogy tévedek.
(#8071) korcsi
Tudtommal GCN architektúrás GPU-kat fog támogatni a Mantle első körben.
[ Szerkesztve ]
-
mcwolf79
veterán
válasz KillerKollar #8072 üzenetére
Mi készül 20 nm-en?
Ha a Maxwell-re gondolsz akkor tévedsz. Pont a rossz kihozatali arány miatt nagyon valószínű, hogy az még 28 nm-es lesz.
[forrás középtájt]Ja,és ez valszeg az asztali szegmensre is vonatkozik, mert állítólag nem nyernek vele annyit, hogy megérné akkora selejtaránnyal gyártani 20 nm-en.
[ Szerkesztve ]
Xbox Series X GT: Mcwolf79xy PSN ID: x_mcwolf_79_x
-
daveoff
veterán
-
veterán
Az ott tényleg több mint 200%. Minden APU-n máshogy skálázódik, mert voltak olyan pletykák, hogy a leggyengébb apu-kon (pl:temash-on) fog a legnagyobbat szólni.
Solt: Azért nem sok a 45, mert a driverek optimalizálásával is sokszor jön plusz 20-30 % boost.
[ Szerkesztve ]
Addig gyorsítottuk a világot míg mi magunk maradtunk le...
-
veterán
Többet nem linkelek. Az egyikben van egy egy kártyás 16%-os gyorsulás, a másikban 35%, szintén single gpu. A többi játék is 10-20% között van. És ez csak egy dirver. Az FC3-ban egyes vgak-nal 30-40% lett a gyorsulás a játék kiadásától, az utolsó driverig. (nálam 35-30 volt, bár igaz ebben patchek is voltak)
No, szóval ezért nem estem hanyat attól a 45%-os Matle-tól.
[ Szerkesztve ]
Addig gyorsítottuk a világot míg mi magunk maradtunk le...
-
-Solt-
veterán
válasz adamssss #8078 üzenetére
Akkor nézz utána ezeknek az "akár" kifejezéseknek! Full HD felbontáson egy GPU-s rendszereknél maximum 10-15% "valós" gyorsulást szokott hozni a driver optimalizálás.
A 45%-tól meg nyugodtan ess hanyatt, mert ha az "valós", akkor az olyan mintha két generációt ugrottunk volna... szerintem...
www.smart-bus.hu
-
-
Sonja
veterán
Ha csalódni akarsz, bízz az emberekben!
-
-Solt-
veterán
válasz adamssss #8083 üzenetére
Jaj ne legyél már ilyen ellenséges! ITT van egy teszt a 6970-ről 2010 decemberében, és ITT egy évvel később. Nézd meg mennyit gyorsult...
A 45%-ra meg az írtam, hogy akkor nagyon jó eredmény, ha "valós", tehát ha ez a 45% nem 3db 4K-s monitoron 45% úgy, hogy 10 helyett kapsz 15 FPS-t!
Tehát, hogy összegezzem, én csupán arra próbáltam felhívni a figyelmedet, hogy, ha ez a 45% tényleg igaz, és adott generáción ekkora pluszra képes, akkor az bizony szép eredmény... gyakorlatilag olyan, mintha kaptál volna két generációt ajándékba.
(#8080) Malibutomi: Úgy-úgy...
[ Szerkesztve ]
www.smart-bus.hu
-
Abu85
HÁZIGAZDA
A mai driverekben is vannak tartalékok. Sok is. Az a kérdés, hogy megéri-e egy évig egy játékra optimalizálni +10-20%-ért.
Például ott a DiRT Showdown, ami nagyon gyengén ment GeForce-on. Másfél évet töltött azzal az NV, hogy kellő mértékben átlapolják a compute és a grafikai munkát, és csak erre az egy motorra. Nyilván lényeges tapasztalat volt, de valójában ennyi időt beleülni ebbe nem biztos, hogy megéri, mert mire begyorsult, addigra már itt volt a GRiD 2, amihez ezt a melót újra kell kezdeni.
Van egy szint, ameddig az NV és az AMD is elmegy a driverben, de ezen túl már túl időigényes az egész, és a specifikus kód miatt csak egy játékra vagy motorra használható.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Mr Bond 007 #8087 üzenetére
Természetesen lehetséges. Bár a Frostbite 3-at nem ajánlott nagyon piszkálni. Ez a motor tele van olyan optimalizálási megoldásokkal, amelyeket a Direct3D eleve nem ajánl, mert nem megbízhatók. Viszont a DICE beépítette, mert ezek nélkül jóval lassabb lenne a játék. Cserébe megkaptuk a "DXGI_ERROR_DEVICE_HUNG" hibákat. Nem viccből nem ajánlják az extrém optimalizálási megoldásokat. Sokat lehet nyerni, de nagyon instabilak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-Solt-
veterán
Abu, lesz cikk a “FreeSync”-ről? Ha nem, akkor mondj már pár szót róla légyszíves...
www.smart-bus.hu
-
Abu85
HÁZIGAZDA
Lesz. De ugyanaz, mint a G-Sync csak a VESA VBLANK szabványára építve. A G-Sync is erre épül. Csak azért kell hozzá G-Sync modul, mert a szoftver, ami ezt működteti nem kapcsol be a modul nélkül, vagy más olyan modullal, ami ugyanezt támogatná.
A FreeSync egy olyan szoftver, ami kihasználja a szabványt. Igazából ez nem az AMD megoldása, hanem a VESA-é. Bárki írhat hozzá szoftvert. Akár az Intel is, vagy az NV. A monitorgyártóknak az egész tíz extra sor a Firmware-ben, ha még nem rakták bele.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
daveoff
veterán
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
radi8tor
MODERÁTOR
válasz Mr Bond 007 #8094 üzenetére
Így van, elég csak elolvasni a videó alatti kommenteket.
⭐ Stella
-
Azon túl, hogy eleve egy zsákutca az egész!
Eye tracking motion blur
Ezen a G-sync és Freesync nem segít, csak a rengeteg (>>60) valódi folyamatos képfrissítés (szerezz stabil 120 minimum fps-t játékok alatt CFX rendszerrel, hajrá! ), vagy ~60Hz-es impulzus üzemmód (a kijelző ciklikusan felvillan, majd elsötétül, nem folyamatosan világít). Utóbbi gyakorlatilag csak fix frissítési sebességgel életképes.Illetve a G-sync modulnak mégis van gyakorlati előnye!
Alacsony késleltetéssel dolgozik. Ha most magas egy kijelzőnél az input lag, mert lassú a hardware, vagy bugos a szoftver, akkor azt ez a VESA szabvány nem oldja meg.[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Abu85
HÁZIGAZDA
válasz janos666 #8096 üzenetére
A VESA megoldása sem működik másképp. Annyiban eltérő, hogy a harmadik puffert nem kell a kijelzőbe moduljába másolni, mert a hardver képes belsőleg küldeni a jó adatott. Tehát nem használ szoftveres hacket a tripla pufferelésre.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Malibutomi #8098 üzenetére
Ha semmi szinkron nem lenne, akkor igen egy hangyányit nő, ez pusztán abból ered, hogy ellenőrizni kell a kijelző frissítését. De a V-synchez képest meg csökken.
De ezek hardverből eredő lagok. Elkerülhetetlen a hozzáadásuk. És a G-Sync extra lagja csak 1-2 ms. Tehát nem kritikus. A grafikus driver DirectX alatti extra parancskötegelése általánosan sokkal többet ad hozzá ehhez az egészhez mindenféle megjelenítés mellett, akár +5-7 ms-ot is. Szóval ezt is elvehetnék, igaz akkor a teljesítmény 20-30%-ot is esne.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
válasz Malibutomi #8098 üzenetére
Ahogy Abu írta, a hagyományos DirectX V-sync is megvárja, és legalább annyi, jellemzően több késést okoz. Ha pedig nincs semmilyen szinkronizálás, akkor mindig töredezettek lesznek a képkockák, ami még 120 valódi fps mellett is látható, sőt zavaró (persze tudom, hogy van aki már <=60fps mellett is kikapcsolja a V-sync-et, de most beszéljünk igényes és maximalista szemszögből, ne arról, hogy mi az ami még élvezhető bizonyos emberek számára).
A hangsúlyt én inkább oda tenném, hogy egy fixen 60Hz-es impulzus jellegű képmegjelenítés gyakorlatilag tökéletes mozgókép élményt eredményez. Legalább olyan (gyakorlatilag tökéletesen) folyamatosnak és élesnek látod így a mozgást (60Hz-es impulzus módban), mint ha sample and hold alapon dolgozik a kijelző (ahogy az LCD-k 99%-a) 120-140 valódi frissítéssel (amire viszont már csak az LCD-k kis része képes). Csak épp sokkal nehezebb stabil 120fps-t kicsikarni egy gépből, mint stabil 60-at. Mert tudjuk, hogy egy papíron kétszer annyi nyers erőt felvonultató hardware még nem feltétlenül produkál kétszer annyi fps-t, sőt... Sok tényező jön számításba, hogy mikor mi a limitáló ebben, és van amit nehezebb leküzdeni, mint a többit.
Ezért lenne sokkal hatékonyabb és ésszerűbb, ha inkább az impulzus meghajtást kezdenék prómótálni, nem pedig azt hazudni, hogy ezek az újabb sync megoldások "a de facto megoldás"-ok minden mozgásmegjelenítési problémára, mert szerintem nem, vagy legalább is messze nem az optimális megoldások. Pontosabban akár sample and hold, akár impulse drive, a szinkronra mindkét esetben oda kell figyelni, mindkettőnél törekedni kell a minimális lagra. Csak ez a sync marketing most elfelejti az eye tracking motion blur jelenség tényét, amire ez nem ad optimális megoldást. Az impulzus módot viszont szorgalmazhatnák a kijelzőgyártók felé a VGA gyártók is, kölcsönös reklámkampányokkal. Főleg mondjuk kiegészítve az ilyen új szinkronizálási megoldásokat.
Ha pl. én csináltam volna az nv kampányát, akkor nem a 120-140Hz-es LCD-k kaptak volna G-sync logót, hanem 60Hz-es, de impulzus módban hajtott háttérvilágítású LCD kijelzők, és ezekre optimalizáltam volna a rendszert. Ami persze nem hajszolja az embert arra, ahogy vegyen 2-3 Titan-t SLI-hez, hogy legyen 144fps-e, de az igényesebb játékos, aki viszont nem lát a dolgok mögé, annak csak annyi jött volna le, hogy a G-sync logó egyet jelent az éles mozgóképpel, és ráadásul nem is kell hozzá SLI rendszer Titan-okból.
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Autós topik
- Bestbuy játékok
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- Futás, futópályák
- sziku69: Fűzzük össze a szavakat :)
- Nincs több főgombos iPad, van helyette nagyobb Air és Pro M4 chippel
- Milyen asztali médialejátszót?
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Redmi Note 12 Pro - nem tolták túl
- Amazon Fire TV stick/box
- További aktív témák...
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen