Új hozzászólás Aktív témák
-
füles_
őstag
válasz keIdor #33703 üzenetére
Nem csak az, hogy magasabb lett a fogyasztás, hanem, hogy a 400-as szériánál sokkal több volt a nem ajánlott vagy a kevésbé ajánlott kártya. Például a Nitro marha kicsi hűtőbordát kapott a 400-as szériánál, ezáltal eléggé hangos volt, az 500-as szériában, meg kapott egy bazi nagy bordát, aminek köszönhetően az egyik leghalkabb kártya lett.
A feszültség az nem tudom, hogy alakult gyakorlatban, de ha jól emlékszem, akkor kapott újféle szenzorokat a Polaris 20/21, amelyekkel növelhető volt az órajel azonos feszültségértékek mellett az P10/11-hez viszonyítva (elméletben).[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz keIdor #33724 üzenetére
Nem bugos. A probléma az, hogy az aktuális HDR szabványokat nem játékokra tervezték. Meg lehet csinálni, de mindegyik szabványos pipeline csinál egy extra tone mapping lépcsőt azután, hogy a PC-ről elküldte a program a képet a kijelzőre. Az a kép akkor igazán jó, ha a kijelző képességeiről az adott játék információt kap, és abból az információból kiindulva csinálja a tone mappingot, majd az így keletkező képet küldi el, amit a kijelző lehetőség szerint már nem módosít egy extra tone mapping lépcsővel. Effektíve így működik a Samsungnak a három HDR kijelzője, amit a játékosoknak szánnak, de ezeken kívül semmi más nem támogatja ezt a formát, vagyis a HDR a játékokban az említett kijelzőkön kívül minőségtorzító hatásban részesül. Egyszerűen a HDR10 és Dolby Vision nem alkalmas arra, hogy a játékokba tegyen jó minőségű HDR-t. Ezért is dolgozik a háttérben az ipar egy olyan gaming kiegészítésen, amelyek szabványosan is megoldják a kijelző adatainak beolvasását, és ebből a közvetlen tone mappingot, csak ez még évek kérdése ugye, mert szabványosítani kell.
A Samsung alapvetően egy nem szabványos megoldást használ, a FreeSync 2-t, amit a PC-n csak az újabb Radeonok, míg a konzolpiacon az Xbox One S és X támogat. Mivel ez nem szabvány így könnyű építeni rá támogatást, csak magát az alapproblémát egy nagyon szűk részterületen oldod meg vele. És ez is játékokra van bontva, például a Far Cry 5 ezt a formát már támogatja, de ha nincs Samsung FreeSync 2 Gaming monitorod és újabb Radeonod, akkor a Microsoft szabványos HDR pipeline-ját használja a program, aminek a minősége sokkal rosszabb. Az Xbox One S és X is hiába támogatja, konzolon a Far Cry 5 nem tudja használni a FreeSync 2-t.
Szóval nem bugos a dolog, nagyon korlátozott hardverek használata mellett működik, de általánosan a szabványos pipeline-ok nem játékokra vannak kitalálva, és ha ilyen HDR-t használsz, akkor nyilván nem lesz jó eredmény a kijelzőn, maga az extra tone mapping fázis lehetetleníti el ezt. És ez egy full szoftveres probléma, hardverből nem oldható meg.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz keIdor #33729 üzenetére
Nem teljesen. Inkább a Windows aktuális HDR pipeline-jának "mellékterméke", ami bizonyos hardver összeállításokat jobban érint, míg más konfigurációkat kevésbé. Amint betöltesz egy olyan tartalmat, ami gyakorlatilag letiltja a szoftver oldalról nem kezelhető tényezőket, a jelenség teljesen megszűnik. Az más kérdés, hogy ehhez olyan hardverek is kellenek, amivel ez az egész kikerülhető a játékok alól.
Amelyik gyártó HDR implementációja a Windows pipeline-ját használja az érintett lehet ettől a problémától, akár súlyos formában is, és ezt nem lehet kívülről, egy hardvercserével kezelni. A Microsoft talán tudna tenni valamit, de ahhoz is új pipeline kell, és ugyanúgy a rengeteg eltérő hardver miatt nem kizárt, hogy az meg más problémás jelenségeket hoz elő. Egyedül a FreeSync 2 kerüli meg a Microsoft saját rendszerét, így az ebben lévő úgymond mellékhatásokra nem érzékeny. De ezzel az a baj, hogy nem szabványos, tehát te például el sem tudod érni. De mivel nagyon korlátozott a hardveres támogatás, így arra a korlátozott hardvere jól meg lehet csinálni, azzal a pár szoftverrel, ami támogatja is.Ezek azok a dolgok, ami miatt az iparág elkezdte vizsgálni azt, hogy a rendszer esetleg beolvashatná a kijelző paramétereit, és ezt figyelembe véve állíthatná elő a HDR-t is. Gyakorlatilag ez így egy szabványosított FreeSync 2 lenne, ami működne mindenen, mármint minden új kijelzőn, mert az aktuálisaknak mindegy.
Végeredményben ez a jelenség már egy éve létezik: [link] - Nem igazán bugról van szó, nem lehet csak úgy fixálni. Új pipeline-t kell tervezni, de leginkább el kellene érni, hogy az alap HDR is úgy működjön, ahogy a FreeSync 2. Szépen össze kell ülnie az iparágnak (szoftver, GPU, kijelzőgyártó) alkotni egy tényleges szabványt a FreeSync 2 mintájára.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
TTomax
nagyúr
válasz keIdor #33740 üzenetére
Pontosan,az árakon felfelé toltak,de a kategórián meg lefelé...ettöl lett szuper nyereséges az nVidia,ehhez kellett egy töketlen AMD,mert ha lett volna kompetetor akkor a vért is leizzadták volna,mint ahogy tették a keplerrel amikor le kellett hozni desktopra,mert nem volt még kész a maxwell.
[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
TTomax
nagyúr
válasz keIdor #33744 üzenetére
Igen sajnos ez a várható forgatókönyv,és az a baj ezzel hogy itt fórumon is sokan meg fogják védeni hogy de hát gyorsabb mint a 1080Ti egy picivel,meg 50 dolcsival olcsóbb is és még hűvösebb is,bestbuy...és amennyire el vannak szabadulva a vga árak nem is lesz nehéz ismét extra profitot termelni,és még befolyásosabb céggé válni.
Magára találhatna az AMD,nem kell nekünk hitech hbm2,meg csillámpor és tündérmese.Gyors hűvös és jól tuningolható kártyát kérünk jó olcsón nem ficsörlistát aminek a 90% papíron mutat jól,de ehh álmodozok csak nem lesz ebből semmi,nem arrafelé tart az AMD,már évekkel ezelőtt kijelentették az (RV770) hogy nem akarnak versenyezni nem profitál annyira mint gondolták.
[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
gV
őstag
válasz keIdor #33731 üzenetére
nagy kópé az nV, de ebben az esetben csak tanítvány, a mestert amdnek hívják: [link]
Nos, annak, hogy míg az AMD látványosan lépett árszintet, az nVidia suttyomban tette meg ugyanezt. Bár hoztak 30% előrelépést ár / teljesítményben, a GTX 680-ban nem az eddig megszokott 500mm2 feletti GPU-monstrum dolgozott, hanem egy, az AMD által sokat hangoztatott, de elég gyorsan hátrahagyott 300 mm2 alatti chip. Ezt a lépést pedig az tette lehetővé, hogy az AMD a saját 350 mm2-es GPU-jára épülő kártyát beárazta a szokásos 350-400 USD helyett 550-re. Jajj, de jó...
Ugyanez volt a célja az AMD-nek a GCN architektúrával. A HD 7970 indulásként nem is sikerült rosszul, és a driverek folyamatos javulásával később (amikor már túl sokat nem számított) el is hagyta a GTX 680-at, a szoftveres támogatás javulása mellett a 3 GB memória okán is. Egyetlen bajom van a kártyával, ez pedig az ára, ami rövid távon biztos jót tett az AMD-nek, viszont ezzel a húzással elég komoly kárt okoztak a "jó árú VGA" imidzsnek, és bár ezt számokkal kimutatni szinte lehetetlen, szerintem hosszú távon ez pénzben is lefelé billentette a mérleget. Ja, és ők lőttek először abban a "csatában", ami a VGA-k árának drasztikus emelkedéséhez vezetett.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz keIdor #33756 üzenetére
Mert a 16 GB/s már borzalmasan kevés. A 32 GB/s csak szimplán kevés lesz, mire megjelenik. Önmagában ezzel, hogy fejlődik nincs baj, de egyrészt nagyon lassan, és gyakorlatilag csak a teljesítmény növelése a fő cél, holott azért ma már a memóriakoherencia is eléggé fontos lenne.
Én azért remélem, hogy nem tűnik el, mert ha a Microsoftnak bejön ez a Ray-tracing vonal, akkor azt nagyon jól ki lehet helyezni ám külön GPU-kra. Effektíve ilyenkor a Ray-tracing effekt bekapcsolásáért veszel még két GPU-t és kész, mellette meg lehet ott a fő GPU a CPU mellett.
Még lehet itt leképező szintű változás is. Ha mondjuk áttérünk texel shadingre, akkor az is iszonyatosan kedvezne a több GPU-nak, és akkor a PCI Express jó szolgálatot tehetne, hiszen a shading fázisok jól elkülöníthetők lennének.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
TTomax
nagyúr
válasz keIdor #33756 üzenetére
Sajnos az AMD sem jobb mert hiába socket kompatibilitás ha az új ficsörök meg nem fognak menni,akkor hagyhatod a régebbi cput is benne nem igaz?Egyébként az is benne van a pakliban,hogy az alaplapgyártók is nagy ivben tesznek a dologra,ugyanis biost frissíteni simán lehet usbröl cpu nélkül is,de eddig csak az asus építette be,és csak a premium lapokba,ezt pedig alapból minden lapnak tudnia kellene.
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
namaste
tag
válasz keIdor #33731 üzenetére
Eltolódtak a kategóriák, de nem a kódnév számít, hanem a teljesítmény. Számít mit kínál a konkurencia, mindig egymáshoz igazodnak. Ha a GF104 felvette volna a versenyt a HD 5870-nel, akkor az lett volna a GTX 480.
Fermiből nem volt GF102, Maxwellből se volt GM202. Kepler, Pascal, Volta csúcs GPU-k nem jöttek ki játékosoknak, csak a pro felhasználóknak. (Igaz, nincs Volta játékos kártya.)
Ha már vs, az AMD csinálja jól, nem számozza a GPU-kat, hanem neveket ad és 1. vonalbeli GPU-t küld a 3. vonalbeli ellen.
(#33739) TTomax
A HPC és a gépi tanulás is vágott GPU-t kap, ráadásul prémium árat fizetnek érte. -
Abu85
HÁZIGAZDA
válasz keIdor #33792 üzenetére
Ez véleményes. Kérdés, hogy a Titan V-t hova számolod. Elvégre lehet rajta játszani.
A HBM-mel egyébként az a problémája az NV-nek, hogy kevés memória építhető a GPU mellé. Nekik nincs HBCC-jük, hogy ezt a problémát csak egy driverbe épített csúszkával kezeljék. Fizikailag kell a memória, és a GDDR6-ből így több használható. Ez a HBM-nek az összes előnyét felülírja a nézőpontjukból.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz keIdor #33798 üzenetére
Nem. Nincs különösebb baj a memóriával, a gond az, hogy iszonyatosan hiány van a többi memóriából, és a memóriagyártók nem a GDDR6-ot tartják prioritásnak, amikor a többi megrendelést is ki kell szolgálni. Szóval rendkívül torz most a piaci megjelenés ilyen szempontból. Még ha kész is az első ilyen hardver, akkor sem éri meg kiadni, annyira kevés a memória hozzá, ez pedig még az árat is felnyomja.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Dtomka
veterán
válasz keIdor #33829 üzenetére
"Cuccok
Asus Maximus VIII Formula - Intel Core i7-6700K @ 4600MHz 1,3V - 16GB G.Skill TridentZ 3200MHz CL15 - Asus Strix GeForce GTX-1080Ti "
Mondod Te a fenti konfiggal
De a 980Ti=1070 karcsú még a 4k hoz...sőt a 1080Ti is. De ezt Te is tudod, ha nem keresek olyan gémet ahol az -
Dandris
tag
-
huskydog17
addikt
válasz keIdor #33936 üzenetére
Egyet kell értsek Raymond-al, ugyanis jövőre 3 éves lesz a Polaris, 3 év után már illene kihozni egy új középkategóriás VGA-t és akkor a minimum, hogy 3 év után az előző felső kategóriás GPU teljesítményét hozza az aktuális középkategóriás. Ez korábban is így volt, csak sokkal gyorsabban zajlott minden.
Szóval szerintem is minimum elvárás lesz az RX580 utódjától, hogy legalább GTX1080 tempót hozzon, én is ezt várom tőle.Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Shing
őstag
válasz keIdor #34039 üzenetére
Ubi egy ideje már jó portokat csinál. a The Crew 2 elég szépen fest, ahhoz képest jól fut. 4k máshol is nehéz, de ahogy Crytek írta oda egyszerűen jobb hardver kell. A proci igény egyébként ezeknél a játékoknál is durva, kíváncsi vagyok hogy egy 11 éves Q6600 elbírná-e a naagy next-gen játékokat.
-
válasz keIdor #34152 üzenetére
Ez óvodás hozzáállás, hogy ha mások is csinálják, akkor nekik miért lehetne. Szerintem ne csináljon ilyet egyik cég sem. S igen, az Intel az még rosszabb az NV-nél, arról is van ilyen videó. Illetve itt most nem az AMD-ről van szó, hanem arról, hogy az NV közvetlenül velünk cseszik ki, lásd pl a G-Sync.
A törvényt meg felesleges felhozni. Ami törvényes, az nem biztos, hogy erkölcsös (lásd nürnbergi törvények). Persze legtöbb nagy cég erkölcstelen, lehetne sorolni, de itt nem az erkölcstelenség tényéről van szó, hanem annak mértékéről és a tettek mennyiségéről. Itt az Intel vezet, után picivel az NV. S ismétlem: ezek nagyrészt nem az AMD-t vagy az egyéb cégeket szivatják, hanem minket, potenciális vásárlókat. Ráadásul sokszor úgy, hogy nem is tudunk róla, mert marketing.
Anno amikor gyerekkoromban az első gépemre gyűjtöttem akkor Intel-t akartam venni, merthogy az a processzor, az AMD-vel szemben semmi bizalmam nem volt. Szerencsére egy akkori Gamestar újság felvilágosított, hogy Athlon XP-t kell venni, nem pedig fos Celeron-t, aminél még egy kis Duron is jobb. Viszont VGA-ból hülye voltam, és GeForce 4 MX 440-et vettem, mert hogy dzsíforszNÉGY!!!44! Hát, rendesen átvertek. Geforce3 vagy Radeon 8500 kellett volna.
[ Szerkesztve ]
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
zovifapp111
aktív tag
válasz keIdor #34162 üzenetére
A + felárért elvárható, hogy jobban működjön a g-sync, arról nem is beszélve, hogy az egyik hw-es a másik sw-es megoldás. És valóban, nem mindenhol(minden játékban) mutatja meg magát a freesync...sajnos Valószínűleg még több zöld barát lenne, ha a g-sync-es extra nem jelentene ekkora többletköltséget
Alig várom a tavaszi zöldelést!
-
#45997568
törölt tag
válasz keIdor #34169 üzenetére
Acer XF270HU, alom monitor, gyakorlatilag semmi kulonbseget nem vettem eszre jatek kozben egy Vega 64-el parositva mint amikor az Acer XB270HU-jat hasznaltam a 1080-al. Penzben viszon eleg marginalis a kulonbseg. Ki lehet fogni jo deal-eket is.
Mindket megoldas szerintem elegge rendben van jatekos szemmel, folyamatos elvezetes jatekmenet.
-
-
Abu85
HÁZIGAZDA
válasz keIdor #34177 üzenetére
De a notebookos G-Sync-ben sem. Nem azért van ez a hardver, mert annyira szükség van rá. A Pascal óta ki lehetne dobni a kukába, nincs szükség arra, hogy beszereljék, mert ami a Kepler/Maxwellből hiányzott, és szükségesség tette ezt az FPGA-t, az már ott van a Pascal GPU-kban.
Maga a VRR, gyakorlatilag az összes verziója egy faék egyszerű megoldás, ami a VBLANK-et (vertical blanking interval) manipulálja. Ez egy olyan paraméter, ami megadja, hogy mennyi idő telik el az előző képkocka utolsó és az új képkocka első pixelsorának monitorra való kirajzolása között. Minden esetben, minden implementáció ugyanazt csinálja, amíg nincs új képkocka, addig nem kezd bele új rajzolásba a kijelző. Erre van egy szoftver oldali implementáció, hogy a grafikus eszközillesztő kontrollálhassa ezt az értéket. Na most a Kepler ezt nem támogatta, ezért kellett a külső modul. A Maxwell támogatja, bár a működés nem változott, míg a Pascal esetében a HDR-es G-Sync már nem használja ezt a modult úgy, ahogy a korábbi hardverek, így itt már a feldolgozás végig a gépen belül marad (a'la Freesync, Adaptive-Sync, HDMI VRR). Ezért is tartott olyan sokáig kiadni a szoftvert rá, mert nem nagyon akart ez működni az FPGA-n, és az NV végül nem is erőltette, hanem inkább kizárta a munkából. Gyakorlatilag csak a licenc miatt veszi meg a kijelzőgyártó, mert HDR-es G-Sync esetében már nem működik, persze HDR nélkül G-Synchez még kell, de ehhez is lehetne írni egy olyan implementációt, ami inkább a GPU kijelzőmotorját használja. Hosszabb távon ez az ideális megvalósítás, mert számos előnnyel jár a monitorgyártók számára. Használható a GPU-ba épített képskálázás, egyedi OSD-t lehet alkalmazni, egyedi színfeldolgozással és egyedi bemeneti funkciókkal. Illetve az FPGA nélkül az NV is meg tudja csinálni azt, amit az AMD a FreeSync 2-vel. Szimplán kicserélhetik a Windows HDR pipeline-t, ami nem valami jó. Valószínűleg ez már megfordult a fejükben, amikor a HDR-es G-Sync alapjait letették.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz keIdor #34185 üzenetére
Az is elég lenne, ha csak 200 dollár lenne a felár. De manapság a kijelzőgyártók, na meg a kereskedelmi csatornák már igencsak dobálják az 400-700-1000 dollárt pluszt is rá. Nem igazán ez a hardver szabja meg már a végtermék árát, hanem az, hogy az R&D szempontjából a G-Sync a saját hasznát termeli ki. Tehát amíg az összes többi kijelző között egységesen oszlik el az azokba ölt R&D, addig a gyártók úgy döntöttek, hogy erről a G-Sync-et leválasztják. Ez számukra egy biztonsági tényező, okulva a 3D Vision halálából.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz keIdor #34205 üzenetére
Ez bizony nagy kérdés. De alapvetően azt is számításba kell venni, hogy ha a legózási lehetőséget elveszted, akkor az OEM is veszít a választható opciók közül. Lesz Intel CPU Intel GPU-val és AMD CPU AMD GPU-val. Tehát ebben a jövőképben nem csak a gyártók keverésének kiesése a probléma. Aztán a Microsoftnak is komoly szerepe lesz itt, hiszen ahhoz, hogy az NV megmaradjon itt, a Win32 API-t ki kell vezetniük, és a támogatást mondjuk át kell rakni az Azure-ba, így a legacy applikációk futtathatók maradnának a felhőben. Ezzel már lényegtelen lenne a CPU ISA-ja, jöhetnek a Qualcomm is, és az NV a saját ARM-os cuccával.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
félisten
válasz keIdor #35432 üzenetére
ebben nem vagyok biztos, hogy a GTX névnek vége, ha nem lesz RT mag akkor valószínűleg az RTX elnevezés is értelmetlen.Kíváncsi lennék a 107 RT nélküli teljesítményére.
Elméletileg a 2060 és a 2070 eltérő GPU számmal jön, de csak 5 Gb rammal. Papíron valamivel lassabb mint az 1070 és 25 % körül gyorsabb , mint az 1060 árban meg ?[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Worlde PANDA-61 Midi billentyűzet
- LG UltraWide UltraGear 49GR85DC-B 3 Év LG Grancia !!! 240 Hz
- DJI Avata 2 Fly More Combo (Three Batteries)
- -59% HP EliteBook x360 830 G7:i5 10310U,16GB,256GB,vil.MAGYAR bilI.,IR,13.3" Touch,100%sRGB,WWAN 4G
- Sony PS5 (1116A) + 2TB Samsung SSD bővítés a gyári 825GB mellett, két karral + venom töltőhub
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Alpha Laptopszerviz Kft.
Város: Pécs