- Betelik a pohár: nagy igény lenne a gyorshajtás-ellenes technológiára
- pfSense - Avagy az okosított házirouter
- Újabb államok perelik az Apple-t, mert sok pénzt szed ki a vevőkből
- AI-alapú, mobilos lopásgátlót tesztel a Google
- Nem szavazza meg Musk 56 milliárd dolláros csomagját a norvég állami vagyonalap
Új hozzászólás Aktív témák
-
-
Pug
veterán
A GPU szegmensben is nőttek...
Igy nez ki az utobbi 5 evben a Q4 graphics revenue:
FY NV AMD
2015 - $ 646 - $662 - 0.98x
2016 - $ 810 - $470 - 1.72x
2017 - $1348 - $600 - 2.25x
2018 - $1739 - $908 - 1.92x
2019 - $ 954 - $986 - 0.97x(#38867) Raggie:
Úgy hogy náluk a Gamer szegmensben hiány volt a bányász szezonban, ez a hiány felvette a beomló bányák keresletét.
Persze az én álláspontom is az, hogy az NV visszaesésének nem csak a bányaomlás az oka, hanem a valóban nem az eddig megszokott vehemenciával fogyó új széria is.
[ Szerkesztve ]
-
Petykemano
veterán
"Bestseller lesz"
Ezen gondolkodtam...
biztosan az lesz, ez nem kétséges, hogy a steamben fel fog jönni, mint a gejzír.
Ugyanakkor az előző "relative performance" ábrán az látszik, hogy pont ugyanúgy 30% difi van az 1060-hoz képest is. Tehát ez kiváló jóáras "1070", de ez a teljesítmény olyan kevéskének tűnik ahhoz, hogy valaki egy akár ennél valamivel olcsóbban vett 1060-at hanyatt-homlok rohanvást lecseréljen. Előrélépés, de nem visszautasíthatatlanul jó deal egy ~1060 tulajnak.
1050Ti lenne a következő (nem számolva most a cross-brand vásárlókkal). Itt az előrelépés már látványos, ugyanakkor ez egy más árkategória, mint az 1050ti volt. Persze van ilyen, zsébernárdó is úgy vált elégedetté az előrelépéssel, hogy többet áldozva magasabb kategóriába lépett.
Es valószínűleg ugyanez a helyzet a 1650 és 1050ti viszonylatában, hogy az árkategória stimmel, de azbelőrelépés nem jelentős.Nyilván persze egész máshogy fogják érzékelni ezt azok, akik a bányászláz közepén vásároltak, mondjuk 1060-at 125eFt körül.
Találgatunk, aztán majd úgyis kiderül..
-
TTomax
nagyúr
Konkurencia nélkül sajnos ez van,két gyártó van,ha az egyik nem, kompetens akkor a másik elnyomja a piacot...
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
zovifapp111
aktív tag
Szerintem Amd koppintás lesz Intel néven (miért is lenne más
) Arra semmi esélyt nem látok, hogy bármiben is jobb dvga-t csináljanak mint az nV. Árakban be fog ékelődni a két meglévő közé.Ha meg sikerül a lehetetlen (de nem fog), akkor meg az úr irgalmazzon
Alig várom a tavaszi zöldelést!
-
Petykemano
veterán
Az árazással kapcsolatban nem tudok véleményt mondani. Az intel belső kapacitásai szűkösek, tehát ha apukat és mainstream gpukat akarnak gyártani, annak ki kell termelnie az árát. De nyilván nem véletlenül ölnek milliárdokat mostanság a gyártósorokba.
A megítélésben lesz óriási különbség. Amikor az AMD kijön egy Radeon VII-tel, megy a fujjogás, hogy nem is túl erős, nem is olyan olcsó. Ha egy ilyet az intel betol, a press el lenne ájulva, hogy micsoda kegy az inteltől, hogy kaptunk egy ilyet.
Amikor az AMD kijön egy mainstream gpu-val - nem letaszítva a trónról az nvidia-t a felsőházban -, a press húzza a száját, hogy jójó, de akkor az AMD nem versenyez? Ennyire futja? Ha az intel tolna be apukat és mainstream gpukat a pályára (semmivel se olcsóbban), akkor a press az egekbe magasztalná, hogy végre itt van jézus második eljövetele. "Kicsit meleg, kicsit drága, de intel."Ezzel persze legkevésbé sem akarnék arra utalni, hogy meleg lesz mint a frissen pörkölt kávé. Valójában az AMD kártyái is elfogadhatóbb fogyasztással, normálisabb hőtermeléssel és olcsóbb VRM+hűtéssel olcsóbban lennének forgalomba hozhatók, ha végre lemondanának az utolso 5% teljesítményről és megoldanák a normális feszültséget. Ezt az intel valószínűleg meg fogja tenni és máris lesz létjogosultsága a vastagabban fogó ceruzának.
Az lehet még egy érdekes kérdés, hogy vajon az intel meg fogja-e kínálni valami extrával a vásárlóit. Ha nem kifejezetten az olcsóbb ár / jobb teljesítmény, akkor vajon milyen előnyöd származhat intel GPU vásárlásából?
Találgatunk, aztán majd úgyis kiderül..
-
pengwin
addikt
Sokkal valószinűbb a HBM.
Ha az eDRAM nem volt elég olcsó ahhoz, hogy az Intel széles körben építsen rá, akkor nem lehet olcsóbb a HBM-nél sem. És az Intel ilyen 128-256MB eDRAM-okat használt az aranyáron kínált APU-iba.(#39125) Venyera7
Az is jó lenne, bár én akkor biztos, hogy CPU-t veszek és nem APU-t.
Azért el tudnám képzelni a csúcs APU-t 6/12-es felállásban, de nem fog beleférni ennek a generációnak a felépítésébe.[ Szerkesztve ]
Üdv, pengwin
-
Abu85
HÁZIGAZDA
A jövőben ezek a gyártók nem tudnak mit kezdeni egymás hardvereivel. Megmarad ugyan a PCI Express, de ki lesz egészítve. Az AMD-nél PCI Express with CCIX lesz. A Rome platform már támogatja, és innen nyilván hozhatod asztaliba is, viszont marhára nem lehet mit kezdeni a CCIX képességével, ha nem CCIX hardvert raksz bele. Az Intel azért nem lépett be a CCIX-be, mert zárt kiegészítést hoznak a PCI Express-hez. Tehát amit veszel majd hardvert az Inteltől GPU-ban, az sokkal többet fog tudni, ha az Intel CPU-ja mellé rakod, mintha egy AMD GPU-t raknál a gépbe. Ezzel szemben az AMD GPU-ja sokkal többet fog tudni, ha AMD CPU mellé rakod, mert működni fog a CCIX képesség, szemben az Intel GPU-jával, ami saját UPI kiegészítést használ a memóriakoherencia problémájára.
Ha tehát egy cég vásárolni akart, az már nem tud, mert az AMD az IF és CCIX, az Intel a UPI, míg az NVIDIA az NVLINK protokollt dolgozta ki a memóriakoherencia kezelésére. És persze a PCI Express mint alap csatoló meglesz, de ha például egy CCIX-es hardvert nem CCIX-es PCI Express vezérlőhöz raksz, akkor a CCIX képesség nem fog működni. És ugyanez van más protokollokkal is. A hardver működni fog gyártói keveréssel, de a tudás egy részét bukod.
Annyira előrehaladottak már ezek a fejlesztések a gyártóknál, hogy ha hirtelen megvennék a másik divízióját, akkor négy évet buknának, mert át kellene tervezni a hardvereket. Vagy a CPU-kat vagy a GPU-kat.Egyébként a CCIX ugyan szabvány, tehát mindenki mehetne erre, de az Intel és az NVIDIA különcködik. Ők úgy érzik, hogy elég erősek ahhoz, hogy saját zárt rendszerrel arra kényszerítsék a vásárlóikat, hogy az Intelnél a CPU-khoz Intel GPU-t vegyél, míg az NVIDIA-nál a GPU-khoz, NVLINK-et támogató CPU-t vegyél.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
Nemrég jött ki a 2060, ami jó, persze vágott TU106, de most jött ki az 1660Ti is, rajtra kész a 1660, meg 1650 is. MEg megy a szóbeszéd valami 1180-ról is, de ez lehet, hogy csak kamu.
Gondolod, hogy ezeket csak fél évre tervezte az nvidia?
Szerintem Ha jön is 7nm az Nvidiától, az a 2080-at és 2080ti-t válthatja - mármint úgy hogy fölé, nem feltétlenül abban az értelemben, hogy a 2080(ti) kapna EOL-t. Tehát én inkább számítanék valami olyasmire, mint a volta volt ,hogy egy lapka, amit elsősorban méregdrágán adnak HPC-be HBM-mel, de kegyeskednek a GPU teljesítmény-koronát egy szinttel feljebb vinni egy $2000-3000-os Titan példánnyal is.
Ha ősszel tényleg jönne a most kiadott 1(5|6)60(ti)?-re ősszel 7nm-es mainstream (esetleg performance = 2070-2080) szintű kártya, akkor az azt jelenti, hogy az AMD-nek sikerült valami nagyon jót húznia. Ettől azonban én nem aggódnék. Tudjuk, hogy milyen a piaci/brand beágyazottság. Ha a Navi elképesztően jól sikerült is, akkor is csak 30-35%-ig emelkedne az AMD részesedés és meg se látszana a Steam survey statban. Ez ilyen tótum-faktum.
Találgatunk, aztán majd úgyis kiderül..
-
pengwin
addikt
Szerintem igazad van, meg ez is közrejátszhat:
Intel already has a heavy presence in the InfiniBand market through its line of products that come as the fruit of its $125 million acquisition of QLogic's IP back in 2012, while Mellanox is the only large-scale InfiniBand competitor.
Lehet az Intel csak nem akarta, hogy valaki verseny nélkül vehesse meg a konkurenciát. Így kicsit feljebb tolhatták az árat, amit más cégnek fizetnie kell, de nekik is tudniuk kell, hogy egy ilyen felvásárlás miatt csúnya nézéseket kaptak volna a hatóságoktól.
Üdv, pengwin
-
Abu85
HÁZIGAZDA
Az mindegy igazából. A gyártósorok átalakítása is ugyanolyan jó, csak mivel az EUV itt nem kizárható, így olyan gyárak kellenek, amelyek az EUV-s berendezések hőtermelésére készülnek. Ezért csinált a TSMC két 7 nm-es verziót. Mert az EUV-s opcióhoz nem jó mindegyik üzem, míg az EUV nélküli alapvetően a meglévő üzemeken belül is biztonsággal kiépíthető.
Trump bácsi támogatása csak annyit jelent, hogy nem lesz akkora veszteségük a 7 nm-es átálláson, de valójában sokkal többre mennének, ha 2022-ig lenne versenyképes node-juk. Marha sok idő van még a 7 nm-ig, mire azt normálisan beindítják simán 2023 végét fogunk írni. Addigra a TSMC és a Samsung GAAFET node-on lesz. Az Intel CEO-ja sajnos pénzügyes, így nem látja a hosszabb távú következményeket, de ha mondjuk lenne egy mérnök CEO, akkor most valószínűleg azon dolgozna, hogy licenceljék a Samsungtól az 5 vagy 3 nm-es node-ot. Azzal gyakorlatilag legalább arra a szintre hozhatják magukat, ahol az ipar áll, és akkor nem kellene a saját 7 nm-ükbe pénzt ölni, hanem mehetne a befektetés olyan területre, ahol vissza tudják szerezni a gyártástechnológiai előnyt. Azért érdemes már számolni azzal, hogy a 14 nm-t az Intel nagyon jóra ígérte, és alig indult be, a 10 nm-nél kevesebb problémát ígértek, és nem működött. A 7 nm most megint nagyon durva lesz, és... Amikor zsinórban elrontanak két node-ot általában érdemes elgondolkodni rajta, hogy nem-e érdemes lenne némi strukturális átalakítás. Csak ehhez tényleg egy vérbeli mérnök CEO kellene végre. Renduchintala ott volt most alternatívának, csak hát indiai születésű.
Pedig amióta ott van az Intelnél igen sok jó döntést hozott. Ha anno Perlmuttert választják CEO-nak, már rég előrébb lennének, csak ő meg izraeli volt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
Azt, hogy a kilengések nem túl nagyok, így érzésre jellemzően nem számítottak, de alacsony sebességnél eléggé észrevehetőek voltak.
A másik bejegyzés, hogy a játék 4K-ban 13 GB-ot kér max textúrák mellett, de nincs érezhető hátránya a 11 GB-os kártyáknak. 8 GB-ot kér WQHD-ben és 6 GB-ot Full HD-ben.
(#39188) huskydog17: A streaming rendszerű textúrázás miatt ugye pont az a lényeg, hogy a memória igazából sosem fogy ki amolyan hard jelleggel, hanem állandó töltögetés lesz. A TechReportos Scott Wasson nemrég csinált egy mérést a korábbi tesztrendszerével, hogy hol számít igazán, ha nincs elég memória: [link] ... lényegében a memóriatöltéseknél mindig 50 ms fölé csúszik a frame-time. Igaz ez itt a Far Cry 5, ahol ugye még a DX11-es meghajtó él, így még a driver menedzselte a memóriát, de az látszik, hogy ha átdobod a hagyományos VRAM modellt HBCC-re, vagy raksz még egy csomó memóriát a GPU mellé, mennyivel csökken a kilengések száma. Az átlag fps tekintetében viszont ez nem igazán látszik.
Ezért nem túl szerencsés egy normál menedzsmentet használó VGA-t a Division 2-ben a HBCC-s Vegákkal összemérni, mert a Vegán nem azt látod, hogy a GPU ennyivel jobb, hanem azt, hogy a HBCC kikapcsolhatatlan. A driver az ECM-mel csak az ICM-et váltja. Ha mondjuk rá lehetne kényszeríteni a Vegát, hogy működjön szimplán VRAM-ként az a 8 GB-nyi memória, akkor ugyanolyan kilengései lennének, mint a GeForce-oknak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Átlag szinten ~61 vs ~68 fps van. Minimumban ~31 vs ~50 fps. Azért nem kicsi ez a különbség a DX12 javára.
(#39202) sylex1: Szerintem ne hajszold a 144 Hz-et, a legtöbb multis játék eleve nem frissít a hálózaton keresztül ekkora frekvencián. Vegyél valami nagy frissítésű Freesync monitort, és akkor variálható a frissítési frekvencia, aztán nem gond, ha nincs meg a 144 Hz. Az NV oldalán van hitelesítési lista a FreeSync cuccok G-Sync kompatibilitásáról. A felbontás a kijelző méretétől függ. Azért 27 colon már ajánlott az 1440p. 4K leginkább 32 coltól optimális.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Pedig ettől lesz sokkal jobb a játékélmény.
Bár a DX11 mentségére legyen mondva, hogy az új Snowdrop struktúrája nem kedvez neki, de most már egyre inkább ez lesz norma. A DX12 a fókusz API, és a DX11 az alternatív. Persze Vulkan is lehet, igazából tényleg édesmindegy.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Yutani
nagyúr
Érzem a különbséget, persze. De ezek az új API-k már a kezdetektől fogva arról szóltak, hogy a CPU-t fogják optimálisabban használni, nem arról, hogy találnak 30-40% plusz FPS-t az egyébként is már kihajtott VGA-kban.
A javuló min FPS számomra az erőforrások jobb kihasználását jelenti, tehát hatékonyabb az új API, mint a régi[ Szerkesztve ]
#tarcsad
-
Yutani
nagyúr
Ezeket a köröket anno a Mantle megjelenésekor lefutottam, nem megyek bele megint. Száz szónak is egy avége: ha valaki csodát várt a DX12-től (csillió FPS a semmiből), akkor az az arcán csúszik azóta is. Viszont ha reálisan állunk a dologhoz, a Division 2 jó példa a DX12 alkalmazására.
Látom, közben szerkesztették. Abban biztosan egyetértünk, hogy még kevés játék használja úgy a DX12-t, hogy elengedi a DX11 kezét. Abu szerint ugyebár from scratch kell az engine-t Dx12-re tervezni, és az még hátra van.
[ Szerkesztve ]
#tarcsad
-
Yutani
nagyúr
Nem tudom, hogy a draw call növekedés hogy fordítódik FPS-re. Majd Abu elmagyarázza. Ugye, Abu?
Ez a draw call sosem hatott meg, engem mindig is a CPU utilization érdekelt az új API-kkal kapcsolatban.
Szerk; Nem kellett volna szívniuk, akkor nem mondtak volna ilyen hülyeségeket!
[ Szerkesztve ]
#tarcsad
-
gejala
őstag
DX12 előnye csak akkor fog kijönni, ha teljesen újraírják a motorokat olyanra, hogy a DX11 elhasaljon alatta. Shadow of the Tomb Raider már elmozdult erre, a városokban olyan a geometria, hogy a DX11 már nem bírja el.
De igazán látványos grafikai előrelépést már csak a ray tracing fog hozni, raszterben már nincs hova innoválni. Fotorealisztikus árnyékokat és tükröződéseket nem lehet csinálni raszterrel, csak rengeteg munka árán összetrükközni valamit.
Metro Exodusban a mostani nagyon kezdetleges ray tracing is nagyságrendekkel jobb minőségű árnyékolást ad, mint amit valaha összehoztak raszterből.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Ez csak HPC-only dolog. Nem tudnak otthoni szinten mit kezdeni. Otthon nem tényező az, hogy sok PC-t összekötsz tízezer dolláros komponensek használatával.
A CCIX ISA-tól független, tehát ha azt támogatják, akkor igazából van memóriakoherencia akármilyen ISA-val rendelkező processzorral. Azt nem tudom, hogy az Intel CXL-je hogyan van specifikálva. Ahhoz képes, hogy nyílt szabvány, olyan nagy titok, hogy még az NVLinkről is sokkal többet lehet tudni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
huskydog17
addikt
Egyet értek. Számomra eddig messze ez a legmeggyőzőbb és egyben legszebb Ray Tracing megoldás, amit játékmotorban láttam. Egy új Deus Ex-et simán el tudnék képzelni egy ilyen motorral.
Na persze tisztában vagyok azzal, hogy a Square Enix nem fogja lecserélni a saját Dawn motorját Cryengine-re.
Külön dicséretet érdemel a Crytek, amiért szabványos megoldást csináltak és nem csak RTX kártyákhoz kötik![ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
-
Abu85
HÁZIGAZDA
Leírtam neked korábban, hogy ez nem igaz. Se az octree, se a globális illumináció nem az NV-től jött. Ezeket már nagyon-nagyon régóta ismerjük.
Az SVOGI-t valójában az UE4 kezdte nyomatni, legelőször Sweeney, de hiába erőltette egyszerűen nem működött nyílt területeken, aztán az NV csinált egy másik implementációt, aminek VXGI volt a neve. A VXGI már sokkal jobb volt nyílt terepen, viszont nem szerette, ha megmozdult valami a jelenetben. Ezért nem mozgot semmi az NV-nek a holdra szállós demójában. Azóta ezt megoldották, de óriási a VXGI teljesítményigénye, tehát a production ready szinttől nagyon messze vannak még.
A Crytek az alapok tekintetében ugyanazokat elemezhette, amit az Epic és az NV, de tanulva a két cég hibáiból, egy új implementációt csináltak, amit SVOTI-nak neveznek. Ez volt az első SVOGI megoldást PC-re, amit egy játékban is bevetettek, és máig az egyetlen. Ez egyébként nagy előny a Cryteknek, mert amíg az SVOTI megoldásuk igen kevés erőforrást igényel, maximum 10%-ot vesz le a sebességből, addig a middleware-es UE4 VXGI, vagy a Unity SEGI inkább 60-90%-os mínusszal működik. És ez egyáltalán nem mindegy, mert hiába műtöd bele a motorokba ezt, a CryEngine integráltan tartalmazza a technikát, míg az UE és a Unity motorokat nem ezekre tervezték. Ezért rakott ebbe egy rakás pénzt a Crytek, mert egy integrált megoldás fényévekkel gyorsabban működik, mint a 3rd party cuccok, de rohadtul nem egyszerű ezt beépíteni tényleg működőre.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Sweeney megoldása soha az életben nem működött. Az egy dolog, hogy bejelentesz először valamit, hogy megcsinálod, de azt meg is kellene csinálni. Sweeney pedig nem csinálta meg, inkább hagyta az egészet.
Jelenleg az Unreal Engine main branch ezeket a megoldásokat támogatja:
- Lightmass (ez teljesen baked opció)
- DFAO (ez csak AO és nem GI)
- DFGI (ez már GI, de kísérleti fázisban van jó ideje, az újabb verziók szétfagynak, ha bekapcsolod)
- LPV (na ez működik valamennyire, de "ezer éve" kapott frissítést, szóval kb. halott)Szóval jelenleg az UE4-ben a main branch-ben nincs implementálva semmilyen SVOGI megoldás, de még olyan sem, ami minőségileg megközelítőleg hasonlót tud adni. Kb. a Lightmass az egyetlen, ami out-of-box használható, és az EPIC támogatja, vagy lehet licencelni az Enlightent.
A VXAO nem működik main branch-csel, vagyis ha ezt választod, akkor az EPIC nem ad terméktámogatást, ami elég baj, mert bug van bőven a motorban, aztán ezeket javíthatod kézileg. Ez olyan költség, amit egyszerűen senki sem vállal be, ezért nem látsz egyetlen VXAO-s játékot sem az UE4-re.
A CryEngine hatalmas előnye, hogy úgy kínál SVOGI-t, hogy egyrészt a megvalósításuk gyors, másrészt, ha bekapcsolod, akkor marad a terméktámogatás. Ez azért óriási különbség.
A Crytek az SVOTI működését nem részletezi pontosan, de amikor még bemutatták, akkor mondták, hogy nem is indultak el azokon az utakon, amelyeken az Epic és az NVIDIA elhasalt. Egy teljesen újszerű megközelítést alkalmaztak, ami a saját szabadalmazott technológiájuk lett.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nekik azért működik, mert előttük senki sem találta ki azt az ötletet, ami miatt működik.
Amit linkeltél az például eléggé mutatja, hogy mennyire más, amit a Crytek csinál, ugyanis köztudott a CryEngine-ről, hogy a voxelizációt a CPU-n hajtják végre. Az Epic és az NVIDIA is GPU-n voxelizált, amit a Crytek már az elején kizárt, mert az előbbi két cégnek nem működött. Publikálhatod, hogy dolgoztál egy ilyenen, csak végeredményben, a Crytek megoldása működik, míg a te publikált cuccod nem.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az alapötlet Sweeney-é. Ő vetette fel legelőször, hogy meg lehetne ezt csinálni. Csinált is egy tesztalkalmazást PC-re, illetve a Sony PS4 bemutatójára. Ez volt az Elemental demó. Aztán lelőtte az egészet, mert nem működött normálisan. De közben egy rakás cég elkezdte kutatni az SVOGI-t, nem csak az NVIDIA, viszont egyedül a Crytek jutott el addig, hogy PC-n ezt ténylegesen megvalósítsa. Az első működő SVOGI implementáció egyébként a Sony-é volt, de ők csak PS4-re csinálták meg azt.
Amit a gyártók csináltak, hogy elkezdték vizsgálni az SVOGI-t a feladatok GPU-ra helyezése szempontjából. Még az Intel és az AMD is dolgozott rajta, csak nagyon gyorsan lelőtték az egészet, mert úgy látták, hogy megvalósíthatatlan. Ezután az Intel a VPL-re, míg az AMD az LPV-re tért át a kutatás szempontjából. Egyedül az NV maradt meg az SVOGI kutatása mellett.
A vezető technológia egyébként az LPV lett, azt alkalmazza a legtöbb motor, mert volumetrikus megoldás, és nem igényel előfeldolgozást.Legelső SVOGI bemutató egyébként az Elemental demó volt, ugye Sweeney ezzel már az előző évtizedben szemezhetett, így sikerült összeraknia egy programot 2012-re. Csak hát nem elég demonstrálni valamit kísérleti szinten, meg is kell azt valósítani ténylegesen. Az egyébként jó, hogy erre az egyes cégek rácuppannak a kutatás szempontjából. Ez viszi előre az ipart, ebben vitathatatlan érdemei vannak az NV-nek is, de rajtuk kívül még egy rakás ember dolgozott ezeken. A legnagyobb érdemei egyébként a Sony-nak vannak, egészen pontosan James McLarennek, ő talált olyan megoldásokat a problémákra, amelyek elvezettek a működő megvalósításokhoz. Nem véletlen, hogy a Sony alkalmazta ezt először egy játékban.
Ha pedig mindenképpen az NV-től keresel embert, aki tényleg sokat tett a működő, és nem csak mutatóba csinált SVOGI-ért, akkor Alexey Pantaleev az.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Politika
- iPhone topik
- Betelik a pohár: nagy igény lenne a gyorshajtás-ellenes technológiára
- Hogy is néznek ki a gépeink?
- EAFC 24
- Konzolokról KULTURÁLT módon
- pfSense - Avagy az okosított házirouter
- Újabb államok perelik az Apple-t, mert sok pénzt szed ki a vevőkből
- Sorozatok
- További aktív témák...