Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
A GTA4 kapcsán drága GTA-fanboy barátom tudnám idézni: "Nem volt fos a GTA4 motorja, csak a játékosok nem értékelték, mert szarul működött."
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A pénz belepumpálása leginkább attól függ, hogy meddig igénylik a fejlesztők. Az első körben eleve úgy fejlesztették, hogy tudták kik lesznek benne (DICE, Oxide, Nixxes, Rebellion, CIG, PopCap, Bioware, Visceral, Stardock, Mohawk). Aztán szeptember óta volt már tagfelvétel, ki tudja kik kerültek még be. Épp most is zajlik egy újabb felvételi.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #35434496 #1815 üzenetére
Dollármilliárdos szintű pénz. De itt a büdzsé, amit a fejlesztésre szánnak fontosabb. Ha a grafikára vetítjük le az egészet, akkor az AMD és az NV költ a legtöbbet, míg az Intel kevesebbet. Ezen belül is a driver viszi a legtöbb pénzt. Viszont a Mantle ennek alig 1-2%-át teszi ki az API-val együtt is. Ami sokba kerülhetett az az R&D, de azt a PS4 és az X1 API-jávál együtt megcsinálták. Egyedül a validációs rendszer lehet extra költség. A driver oldalán pedig csak egy vékony felület kell, ami engedi a shadereket futni. Nincsenek hazardok, agresszív kötegelések/pufferelések, külön profilok vagy compute-grafika átlapolási rutinok. Gyakorlatilag a Mantle-re havi szinten költött összes pénz nem teszi ki a D3D driver havi szintű költségeinek 10%-át sem.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #35434496 #1817 üzenetére
Nehéz megmondani, mert erről sosem szoktak beszélni a cégek. A core funkciókat nem írják sokan sehol sem. Van egy D3D és egy OGL csapat, illetve ha több API-t támogatnak, akkor azokat is általában külön csoport végzi. A tesztelésen és a profilozáson dolgoznak viszonylag sokan. Ha a szinte minden feladatot beszámítunk, akkor leginkább 100 fő körül lehet a létszám. Ez általánosítható más cégre is. Egy prémium drivertámogatáshoz ennyi hardverrel mindenképp szükséges ennyi ember.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TechArtist #1839 üzenetére
Tavaszra is van még egy játék bónuszként
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Malibutomi #1841 üzenetére
Aki virágokkal zombikra akar lőni és fordítva.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TechArtist #1844 üzenetére
Technikailag mindegy. A Nixxes elmondta, hogy őket elsősorban az asszinkron compute és a kiszámítható shader újrafordítás érdekli. Nem valószínű, hogy olyan CPU-limitet okozna a Thief, hogy ebből sokat profitál a Mantle. De egyébként az API extra effektekre is használható, ami DX-ben esetleg nem megvalósítható.
(#1845) stratova: Elég sok TrueAudio hangeffekt elérhető lesz szimplán CPU-s számítással. Szóval valamennyire mindenképp beleszól majd a játékmenetbe. Ezért kérnek brutálizmos kétmagos CPU-t minimum, mert az átlag játékokhoz képest kétszer több procierőforrást használnak el a hangra. Ha nincs elég erős procid, és TrueAudio blokk sincs, akkor búgni meg sípolni fog a hang.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #35434496 #1856 üzenetére
A TressFX-re én sosem mondtam azt. Ha megnézed én voltam az egyetlen itthon, aki leírta, hogy szabványos effekt, pedig más fórumokon már ment a sírás.
A TressFX akkor lenne gondban NV-n, ha nem csak Lara hajára csinálták volna meg. Na az úgy már nem futna náluk, mert az már 4 UAV összesen. A játék más effekjei pedig elvisznek hatot, amivel rögtön 10 UAV van, de az NV 8-at támogat.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A PS4 (és az X1) a TressFX 2.0-t kapta meg. Annak a szimulációja jobb, mint az első verzió. Sokkal jobban kezeli az extrém gyorsulásokat, ezért hat másképp a mozgás. Nem olyan irreálisan nyúlik el a haj. Ezt egyébként át lehet menteni PC-re DX11-re. Nem tudom, hogy akarják-e, de technikai akadálya nincs.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #35434496 #1863 üzenetére
A 4,8 GHz. A Mantle jelenlegi implementációja erre a DX kódhoz képest nagyjából 4%-ot ha rápakol még maximum. Legalábbis egy 290X és 780 Ti kaliberű VGA-hoz ez az órajel és proci elég. A Mantle előnye ilyenkor csak az alacsonyabb késleltetésben nyilvánul meg, de az nem mérhető. Ha ezeket a kártyákat megduplázod, akkor már erősebb lesz a procilimit.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Komplikált kérdés. Leginkább jelenettől függ, illetve nem érdemes az AFR-es CF/SLI-t a Mantle megoldásával összehasonlítani. Óriási különbség van aközött, hogy a fejlesztő explicit hozzáférést kap az erőforrásokhoz kiváló QoS mellett, vagy csak kap egy AFR-t (CF/SLI), ami felett leginkább nincs kontrollja és közvetve lehet rá felépíteni egy esetlegesen működő rendszert igen gyenge minőségű QoS-sel.
A Mantle koncepciójával úgy lehet használni több GPU-s kiépítést, hogy az nem ad a működéshez extra késleltetést, és a programban direkten kezelhető minden probléma, ami rossz skálázást vagy mikroakadást okozhat. Olyan extrém gépek is építhetők, amelyekben nyolc GPU is van, és ezeket lineárisan lehetne skálázni, továbbá nem éreznéd a több GPU mellékhatásait az egy GPU-s rendszerhez képest.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az erőforrások explicit elérése megoldható bármilyen gyártón. A Mantle semmi extrát nem kér a hardver oldalán. Tisztán szoftveres technológiáról van szó. Akár beépülhet a DX-be, vagy az OGL-be is, csak egyelőre le se szarja az igényeket az MS és a Khronos. A hardverek egytől-egyig alkalmasak a jobb alapokra épített több GPU-s kezelésre.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Hogy legyen szakmai is kicsit kutattam a multi-GPU jobb kihasználása után. Na most nem olyan tragikus a helyzet, hogy ehhez Mantle kelljen. OpenGL-ben már van egy WGL_AMD_gpu_association kiterjesztés, ami a közvetlen elérést biztosítja a hardverekhez. Ha jól értelmezem, akkor ennél a Mantle csak annyiban több, hogy egy GPU partíció képes egy másik partíció memóriájába írni. Bár ez OpenGL-ben kicsit necces lehet, de az szerintem megoldható, hogy az egyik GPU a másik frame bufferébe írjon adatot.
Az Nv-nek is van egy WGL_NV_gpu_affinity kiterjesztése némileg eltérő működéssel. Sajnos csak Quadro kártyákra.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Casanova* #1902 üzenetére
A Mantle-t azért fejlesztik, mert a fejlesztők igényelték. Ezután addig fogják fejleszteni, amíg ez az igény megmarad. Alapvetően a Mantle állandó fejlesztése az AMD számára nem nagy költség. A grafikus üzletág szoftveres R&D-jének nagyjából 1-2%-a. Ahol a Mantle költséges az a fejlesztői oldal, mert ami eddig a driverben, illetve az API-ban volt annak most a programban kell lennie. Ebből a szempontból az a kérdés, hogy a nagy támogatók, mint a Frostbite Team azután, hogy az R&D-jük 70-80%-át is elköltik majd a Mantle-re úgy gondolják-e, hogy jobb a szabványos modern API, vagy inkább maradnak a Mantle mellett, vagy esetleg belefér mindkettő. Ettől a kérdéstől függ a Mantle további fejlesztése. Hacsak a Frostbite Team megmarad támogatónak, akkor az már megéri.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz daveoff #1907 üzenetére
Először is tudni kellene, hogy mit tud majd az új DX. De ha feltételezzük, hogy legalább képes arra, amire a base funkcionalitású Mantle, akkor szerintem a szabványos az előnyösebb (a szabvány miatt ). Az viszont nem kizárt, hogy páran maradnak a Mantle mellett. Legalábbis azok a fejlesztők nagy valószínűséggel nem hagyják el, akik saját idejükből részt vettek a fejlesztésében. Ők amolyan saját gyereknek tekintik ezt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Itt sosincs filozófiai felfogás. Legalábbis a tervezésnél biztos nincs, mert eleve a termékekkel piacokat célzol és nem filozófiai irányzatokat.
Az AMD és az NV között ma az a különbség, hogy pár éve egy válaszút elé kerültek. Az egyetlen dolog ami világos volt, hogy a PC-s VGA-piac nem viheti a hátán a termékportfóliót, mert szenvedni fog. A termékek eladhatók ide, de biztos bevételt kínáló és/vagy növekvő piac kell. Az utat mindketten kiválasztották. Az AMD berakta magát a konzolokba. Legalább 8 évig biztos bevétel ráadásul OEM konstrukcióban. Az NV kiszemelte magának az ultramobil boomot, ami nem olyan stabil bevétel, mert sok a konkurens, viszont masszívan növekvő piac.Ez itt tiszta üzlet. Az architektúra karakterisztikáján is látszik, hogy ultramobilba vagy konzolba tervezték.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz ricshard444 #1971 üzenetére
Én ma már nagyon leegyszerűsítem a kérdést. A következő tesztplatformban is ez lesz benne. Itt már egységesség nem lesz, mert alapjaiban különböznek az architektúrák. Amit nézni kell, hogy az extrák közül NVIDIA PhysX és TXAA a fontosabb, vagy az AMD TrueAudio és Mantle, vagy az Intel PixelSync.
Mindhárom cégnek meglesz a játékfejlesztői támogatása ezeknél a technológiáknál. A hardverek teljesítménye eléggé közel van egymáshoz azonos árszinten, így az extrák eldöntik a választást.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Igen. Mostantól még kevésbé lesz meg a best buy termék, mert rengeteg szubjektív tényező jön be. Én arra gondoltam a változások mellett, hogy az értékelés megmarad az objektív szempontok szerint, de a szubjektív tényezőket pár folyamatosan frissülő bejegyzéssel az olvasók elé tárjuk. Ennél jobb rendszer sajnos nincs.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ez nem értékrend. Az természetesen látszik, hogy az AMD elsők akar lenni az egyes API-k kihasználásában és támogatásában. Ezt évek óta teljesítik is. De ettől még ez nem értékrend, hanem a fejlődés elősegítése. Aki nem így tesz az fékezi a fejlődést. Szóval ez itt egy kötelesség az adott cégtől, hogy a piac ne egy helyben toporogjon, hanem fejlődjön. Aztán persze lehet magyarázni, hogy az csinálja jól, aki nem fejleszt, mert csak, de ettől még a szabványba az egyes funkciók akár követelményként, vagy akár opcionálisan nem véletlenül kerülnek be. Azokat megszavazzák a GAB/Khronos tagok, ráadásul legalább 4-5 évvel a bekerülés előtt, tehát meglepetés senkit sem ér.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Szerintem a PC-t fel kell segíteni olyan technikai színvonalra, amivel a két új generációs konzol rendelkezik. A fejlesztőknek első a konzol, és minden kutatást arra végeznek. Abból pedig átjön a cucc PC-re, de ha nincs meg a technológiai alap ehhez (low-level API, dedikált hangprocesszor, HSA-szerű integráció), akkor a PC maximum a mobilokhoz készített port grafikailag feljavított verzióját kapja meg.
Az persze igaz, hogy AMD jobban érvényesül, ha a PC megkapja a konzolos új generációs tartalmakat. Az NVIDIA eközben jobban érvényesül, ha inkább mobil portokat kap a PC GameWorks és GPU PhysX effektekkel kiegészítve. Ez a felfogás a két cég szoftveres fejlesztésein egészen világosan látszik.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A stabilitási gondok 95%-a arra vezethető vissza, hogy a fejlesztőnek szüksége van a sebességre és egyszerűen bevállal olyan optimalizálásokat, amelyeket meg lehet csinálni DX alatt például, de az MS határozottan nem ajánlja, mert nem garantálható az API stabilitása olyan körülmények között.
Amiket felsoroltál azok mind attól vannak, hogy az aktuális API-k még ma is úgy kezelik a VGA-kat, mintha TnT-k és Voodoo-k lennének. A driver pedig megpróbálja ezt a modellt olyan formába önteni, ahogy a mai hardverek valóban működnek.
Az új low-level API irányzatok lényegében csak azt teszik, hogy eldobják a régi kötöttségeket és úgy tekintenek a hardverekre, mint általános processzorok. Ennek értelmében egy modern API annyit tesz, hogy shadereket futtat a hardveren és kész.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem a stabilitás a fő probléma. A kiszámíthatatlanság, ami ma a fejlesztőket a low-level API felé tolja. Azért nagy az érdeklődés egy ilyen koncepció iránt, mert ma a DX-ben az a legnagyobb gond, hogy megjósolhatatlan a működése. Annyira segíteni akar, hogy árt a fejlesztéseknek.
Sokszor kapják a fejlesztők, hogy nem tudnak többszálú kódot írni, így nem tudják kihasználni a többmagos processzorokat. Ez szinte általános nézet a PC-ben, hogy erre a piac képtelen. Eközben konzolon baromira jól kihasználják az erőforrásokat. A tudás és a tapasztalat tehát megvan, csak nincs normális többszálú végrehajtása az API-knak, illetve a driverekre annyi munka a szakad, hogy rengeteg rejtett szál akadályozza a programszálakat.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Elég sok a bugreport, szóval van benne programhiba. Majd idővel javítják.
Amúgy túl sok értelme nincs a tesztnek, mert az Elementalban olyan effektek és eljárások vannak, amik már nem alapértelmezettek a motorban. Azóta ezeket újakkal cserélték. SVOCT-vel lett volna értelme, de azt kivették sajnos. Látható, hogy visszaesett a minőség az eredeti videóhoz képest.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Meglehet érteni őket. Azért az nem jó dolog, ha hirtelen összeomlik a rendszer és sötét lesz a játék. [link] - itt van a különbség. Sajnos nem stabil az effekt, és hát láthatod, hogy ha leáll, akkor az fáj a színekre nézve.
A Sony csinálta meg egyedül az Voxel Cone Tracinget stabilan, valós időben. Az tényleg jól működik, persze ők nem az Octree-re mentek rá, hanem eleve a PRT-re. PS4-en ez lesz a brutáleffekt az érkező exkluzívokban.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz szasanyi #2055 üzenetére
Azzal nem lesz gondjuk. Engem jobban izgat, hogy a PC-re mit találnak ki. Ha reálisan nézzük, akkor GI-ra két értékelhető alternatíva létezik ma.
Valszeg a legtöbb játék az Enlighten új verzióját fogja erőltetni. A mostani CPU-s számítás még többletterhelés és extra késleltetést jelent, de GPGPU-val is megoldható. Most, hogy az ARM megvette őket, biztos átrakják DC-re vagy OpenCL-re. Asszinkron compute mellett szuper sebessége lesz.
Jobb minőséget ad az LPV, de számításigényesebb is, viszont cserébe egyszerűsíti a volumetrikus fényszámítást.
Opció esetleg a VPL, de ez a jellemző leképzőkhöz nem ideális.
A SVOCT szerintem álom. Maximum az SVPRTCT mehet, de az nem minden architektúrán oldható meg jól. A 3D textúra mérete sem ideális.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Firestormhun #2056 üzenetére
Ez az eredeti demó, csak ennyire le kellett butítani a motort. Úgy nem adhatsz ki játékot, hogy bármelyik pillanatban elsötétülhet minden. Nagy ötlet volt az eredeti GI, jó volt a minősége, de ha nem stabil, akkor dobni kell. Helyére a Lightmass került, de a motor alapértelmezetten már Enlightent használ, csak az Elementálban ezt már nem cserélték be, felesleges is lenne.
Az Unreal Engine 4-be számos korábban tervezett effekt nem került bele. Egyszerűen vagy nem volt stabil, vagy kevés volt a 8 UAV/pipeline.
Ezt az Epic is megsínylette. Csúszott a fejlesztés és el is kellett adni a GoW jogokat az életben maradáshoz.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Valójában nem a hardverekkel volt a gond. Az API korlátozta a lehetőségeket. Később, ha elterjednek a modernebb API-k, akkor vissza lehet térni az eredeti koncepcióhoz. Esetleg next gen konzolokra meg lehetne csinálni az extrákat, de az UE4 fő terepe inkább az ultramobil piac lesz, tehát ennek rendelik alá a fejlesztéseket is. A licencelést is ennek megfelelően lőtték be.
Egyébként mindegyik nagy motorlicencelésre szakosodott cég a mobil irányba megy el. Egyszerűen a napnál is világosabb, hogy a nagy kiadók házon belül fejlesztik a motorokat. A megszokott területeken kvázi megszűnt a felvevőpiac.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A BF4 AFR módja nem elég jó. Egyedül Mantle alatt van mindig skálázódás, de DX alatt vannak helyzetek, ahol egyszerűen a kényszeres AFR által kínál QoS nem teszi lehetővé, hogy jó legyen. Se az SLI, se a CF nem skálázódik megfelelően.
Régóta téma már, hogy az API-ból kellene direkt elérést adni mindegyik GPU-ra, de ez egyelőre szabvány szinten még csak álom. Most kezdődött el valami OpenGL-en, mert az NV és az AMD összeállt, hogy elkészítsék a GLX_AMD_gpu_association kiterjesztés ARB változatát, de minimum lesz belőle egy EXT változat. Ez lesz az első szabványosítási kísérlet a jó QoS-es multi-GPU-ra.A BF4-ben láthatók a limitek. Még a direkt optimalizálás nélküli Mantle multi-GPU is veri a DX-es AFR-t.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem. Nem alkalmazták a PS4-re és az X1-re sem az aszinkron compute-ot, és még a DMA transzfert sem csinálták meg nemhogy shared memre, de még aszinkronra sem. Ez az egyelten next-gen játék, ami DMA transzfernél leállítja a futószalagot. Eredetileg valóban úgy tájékoztatták a Sony-t, hogy a PS4-re meglesz a 60 fps és az 1080p, csak akkor még úgy volt, hogy a kidolgozott optimalizálásokat beépítik. Ezek nélkül viszont a teljesítmény több mint a felével esik. Vagy csúszik még negyed-fél évet, vagy kiadják mindenre úgy, ahogy van. Esetleg év végére befejezik és jön egy patch.
A legtöbb eljárást láthatóan pre-gen konzolokra építették. Az X360 és a PS3 verzió alig néz ki rosszabbul, mint a többi, pedig ezek majd egy évtizedes hardverek.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Locutus #2095 üzenetére
Ezt még ma is félreérti mindenki. A fejlesztők igazából egy dolgot kértek nagyon, ami miatt az eredeti hardverkoncepciók mentek a kukába. Az egységes memória és a vele járó egyéb extrák, mint a C1x atomics. Egyszerűen fogalmazva kértek egy gyorsabb Cellt a Cell hátrányai nélkül.
Amit majd látni fogsz, hogy ami PC-re megjelenik az már biztos nem fog tartalmazni olyan dolgokat, amelyek a fenti fícsőröket kérik. Vagy esetleg butított lesz a port lásd Fifa 14.
Egyébként ezt már más leírta igen jól. Erről szól a next-gen. És az az architektúra, amit beleraktak olyan, ami pont ezeket teszi lehetővé. Hogy új szoftvereket kell írni? Persze, de az eredmény lenyűgöz majd mindenkit.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #17954112 #2099 üzenetére
A nyomós ok kimerült abban, hogy az AMD mellett az összes többi nevező azt mondta, hogy az a hardver, amit kérnek előtt kivitelezhetetlen. Az AMD azt mondta, hogy 2014-re összerakják. Mivel 2014-2015-re új konzolokat akart a Sony és az MS, így eldőlt a kérdés. Ha 2016 végére tervezték volna a startot simán nem az AMD nyeri meg a tendert, mert ARM vagy Power magok licencelésével sokkal olcsóbb üzleti konstrukciókra is lehetőség van, és úgy a Sony és az MS megveszi a dizájnt, majd megdobja a beszállítót 3-5 dolláros gépenkénti zsetonnal. Ezzel szemben az AMD-nél az x86 miatt csak OEM konstrukcióra van lehetőség, vagyis nem lehet megvenni a dizájnt. Ez gyakorlatilag azt jelenti, hogy gépenként 3-5 dollár helyett 20-30 dollárral többet rak zsebre a beszállító.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz the_mad #2111 üzenetére
Nekem az az érzésem, hogy a Titan Z-t még az NV sem tudja mire szánta. Olyan kísérlet lehet mint a sima Titan. Bedobták 3000-ért, hátha ezt is megveszik, csak arra nem gondoltak, hogy az AMD készít egy ugyanilyen koncepciót 1500-ért. Innentől kezdve pedig jön, nem jön, visszavonták, még drivert írnak. Az ASUS-nak annyira későn szóltak, hogy a sajtókat is kiküldték április végén. Most azon mehet a vita, hogy mivel járnak jobban ... ha megjelenik, vagy ha törlik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ha olcsón akartok top minőséget, akkor mindig attól a gyártótól vegyétek a kártyát, aki az OEM-eket szolgálja ki. Az NV esetében a PC Partner, azaz dobozos szinten a Zotac. Az AMD-nél a TUL, azaz dobozos szinten a PowerColor.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz the_mad #2116 üzenetére
Ezek amiket felsoroltál mindenen vannak. Sőt, most elmondom neked, hogy a PC Partnerhez BS-sel visszaküldött kártyák 99,98%-a hibátlan. Újracsomagolják, új sorozatszámot kap és eladják, mert a PC egy más komponense okozta a fekete képernyőt, csak a user nem lát túl a VGA-n.
Manapság egyébként teljesen normális (szintén PC Partner adat), hogy a garira (akármilyen hibával) visszaküldött termékek ~40%-át újra eladják, mert nem hibásak. Ez arra utal, hogy rengeteg a kompatibilitási probléma.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Locutus #2119 üzenetére
Ott, hogy ők fejlesztik a gépekre a tartalmat. Nekik vannak ötleteik, és szeretnének olyan hardvert, amin ezek az ötletek megvalósíthatók.
Az a gond a piaccal, hogy mindenki sír, hogy hol van a játékokból az innováció. Most mindenki azon sír, hogy miért olyan gépek jöttek, amik lehetővé teszik az innovációt.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Locutus #2122 üzenetére
Ez nem elmélet, csak nincs még általános fejlesztőkörnyezet. Az EA egyébként a sportjátékaihoz már használja a next-gen igazi extráit. Ők is úgy implementálták, hogy írtak egy saját fejlesztőkörnyezetet. Ha nem tudod megnézni, akkor hallgasd meg az bemutatókat a X1/PS4-es és a PC-s FIFA különbségeiről. Megdöbbentően életszerű a next-gen verzióban a játékosok mozgása. Azt mind a CPU és az IGP közös munkája számolja, pont úgy ahogy kérték a fejlesztők. Az AI-t is IGP számolja.
Mi PC-sek biztos kitörölhetjük majd, mert ide a valóban next-gen játékmeneti dolgok nem lesznek vissza portolva. Amelyik játékot nem butítják le azt ki sem adják PC-re.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Locutus #2124 üzenetére
Nincs elég számítási kapacitás egyetlen PC-s processzorban sem, hogy kiszámolja a mozgásszimulációt és az AI-t. Ha másképp le is programozzák, amit le lehet, akkor is hiányozni fognak a GFLOPS-ok. Esetleg a 24 magos szerverprocesszorokra meg tudnák oldani.
Broadwellre és Kaveri APU-ra meg tudnák csinálni, mert azok támogatják a megosztott virtuális memóriát. Ettől persze még az IGP számolna, csak meglenne a GFLOPS és a hatékonyság, ami kell a feladathoz.Hidd el egyébként az EA-nek sem akkora öröm két motort párhuzamosa fejleszteni és fenntartani. Ha megoldható lenne, hogy csak az újat használják, akkor már a jóval kisebb költségek miatt is átállnának rá.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz the_mad #2126 üzenetére
Jóval jobb tesztmegoldásaik vannak, mint bárkinek innen, vagy akár a sarki szervizből. Ha azok azt mondják, hogy jó a kártya, akkor az jó.
A BS hibák nagyon nagy többsége kompatibilitási gond, tehát a problémásnak hitt komponenst átrakva egy másik rendszerbe megjavul az egész. Ugyanezt tapasztalja minden gyártó a garizás során. Teljesen normális, hogy a szervizben is jól működik, mert más a konfig.
A BS-re vannak olyan tesztjavaslatok, amelyeket a szervizpartnerek megkapnak. A legfőbb javaslat, ha hardvert hoznak BS-sel, akkor rögtön kérjék be a teljes gépet, mert a csavarokat leszámítva bármitől lehet.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #2128 üzenetére
Azért mert még nem ütötted be a Google-be az NVIDIA (esetleg Intel) black screen keresését. Ott is milliós nagyságrendű találatot kapsz.
Egyébként nem feltétlen más komponens okozza, hanem két komponens közötti kompatibilitási probléma. Külön-külön lehet, hogy minden jó, de együtt ...[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Pontosan. Eleve a gyártók nem is tesztelik az ilyen hibákat kereskedelmi forgalomban kapható alaplappal. Van egy direkt erre kialakított tesztgépjük, amivel minden hardver összeférhetetlenségi gond kizárható, és csak arra koncentrálnak, hogy a VGA hibás-e. Egy mezei szerviznek ilyen berendezésre se pénze, se szakképzettsége.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #2133 üzenetére
Indulj ki ebből, de ettől a PC Partner adata erre vonatkozóan világos. Attól, hogy te ezt öncélúan kizárod és egy hatványozottan nagyobb statisztikai alapot nem fogadsz el nem változik meg a valóság.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Inkább úgy mondanám, hogy hasonló számban nincs jelen. Nagyon tipikus dolog lett önmagában már a fekete képernyő miatt is a GPU-t hibáztatni. Mi mástól lehetne, hiszen arra van kötve a monitor ... de nem?
A garanciára BS-sel visszaküldött kártyák zöme ebből a téves alapból születik meg, mert a szerviznél ugyan nem jön elő, de nyilván a user mondhatja, hogy rossz és ragaszkodik ahhoz, hogy ezt megvizsgálják. Ilyenkor megy a gyártóhoz. Sokáig tart, de teljesen normális és jogilag indokolt ügyintézés ez. A gyártó meg vagy visszaküldi, vagy utasítást ad, hogy cseréljék ki, és az amúgy jó kártyákra raknak egy új sorozatszámot és megy újra a piacra. Utóbbi szimplán kedvezőbb, mert egyszerűbb és olcsóbb nem visszaküldeni a terméket.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Dragbajnok #2159 üzenetére
Ja. Beépítették a state blokkokat optimalizálásnak +50% sebesség reményében. Olyan fasza lett az implementáció, hogy -50% lett az eredmény. De azért maradt a kód, me miért ne. Legalább nem mondhatják a játékra, hogy elavult a DX9 kódja is, mert nincs state blokk támogatás sem. Most már van.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Négy játék jött. [link] - no offense, csak a pontosság végett.
Az Asura motort az előző verzióhoz képest teljesen átírták. A Sniper Elite 3 már job rendszerű, vagyis nincs dedikált mag az egyes feladatokra. Ehhez még hozzájön, hogy a nyáron átírták a rendert is, hogy jobban illeszkedjen a low-level API-khoz, és kiműtötték belőle a korábban még problémás többletterhelést. Emiatt DX11-ben is gyorsult 10-20%-ot az új patch-csel.
Lehet vele olyat is, de az jóval nehezebb, és igényli azt, hogy a driver támogassa az aszinkron compute-ot. Ilyen driver még nincs a felhasználóknál. De azt mondta a Rebellion is, hogy képesek ingyenessé tenni az OF effektet a Mantle alatt.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nekem Q9550-en 30%-kal jobb Full HD-ben maxon a 270X. De most azért tesztelték nagy procival, mert ott is hoz a Mantle. Plusz a textúrákra vonatkozó javulás.
(#2193) Televan: Az egy szabványos effekt. Nem kötelező kikapcsolni, bár rendkívül fényes lesz tőle a bunda, és mivel a rejtett fényforrások megvilágítják, még este is csillogni fog. Ha Lara haja samponreklám volt, akkor itt óránként kondicionálják is a tisztaság érdekében. Ez sajnos még mindig tipikus probléma az efféle szimulációknál.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
De. Különösen szeretjük, amikor egy független stúdió komoly kiadói tőke nélkül tartja a lépést a nagyokkal. Sajnos alig van ilyen, de a Rebellion a példa, hogy meg lehet csinálni.
(#2200) FLATRONW: Kérdés, hogy milyen lesz a multi-GPU, mert nem AFR-t akarnak az Asura motorba építeni, ami ezt különösen érdekessé teszi. Erre én is befizetek, mert feladatfelosztásos modellt még nem láttunk.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #2206 üzenetére
Például a geometry shader fázisig az egyik hardver dolgozik, míg onnantól a másik. Mintha egy GPU lenne a kettő. Ez akár kombinálható AFR-rel. Vagy az IGP csinálja a geometriát, és a dedikált GPU a többi számítást. Vagy akár két dedikált GPU is megteheti ezt. Sok lehetőség van.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #2208 üzenetére
Nem igazán a low-level API a követelménye, hanem az érzékelt GPU-k fölötti teljes kontroll (QoS). Az API absztrakciós szintje nem sokat számít, bár a low-level valószínűleg segít nagyon egzotikus működési modellt tervezni.
A DX-ben azért nincs ilyen, mert az API egy erőforrást detektál, és a mai SLI/CF csak egy szimpla driverhack.
OpenGL-ben van erre egy specifikus megoldás: AMD_gpu_associationSenki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az SSAA számít, de nem ennyire, ráadásul eléggé speciális SSAA és TAA keveréket használ a játék.
Igazából ilyen eredményt több tényező együttállása okoz. Valószínűleg az Xbox One shadereit nem sok módosítással hozták át PC-re. Úgy sem tudják hogy működik a Maxwell/Kepler, szóval majd az NV lecseréli őket driverből, ha akarja. A CryEngine is eléggé compute irányba fejlődik. Ezt nyilatkozták is: "We are making heavy use of some DX11 features like Compute Shaders, which however, perform better on some hardware architectures than others, so there will be some noticeable performance gaps between different desktop GPUs." Nyilván a Maxwellnek nem segít, hogy DX11 compute shader mellett az elméleti teljesítményének a negyedét elveszíti, mert a negyedik blokkhoz nem tud 32 kB-os LDS-t rendelni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Smart Keyboard Folio for iPad Pro 11inch szép állapotban,
- ASUS ROG GTX 1060 OC 6GB Gaming (ROG STRIX-GTX1060-O6G-GAMING) - Garancia + Számla, BeszámítOK!
- Intel Core i5-8400 6-Core 2.80GHz LGA1151 Processzor- Számla + Gari, Ár alatt! BeszámítOK!
- Gamer PC , i7 8700 , RTX 3070 Ti kijelzővel , 32GB DDR4 , 512GB NVME , 1TB HDD
- Kitűnő állapotú Macbook Pro 14" M1 Pro 16/512, teljeskörű Apple Care védelemmel 2024.10.27-ig eladó!
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Ozeki Kft.
Város: Debrecen