-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Mans20
addikt
válasz ricshard444 #12494 üzenetére
Melyik?szerintem a lényeg hogy halk legyen és hűtsön,a 750 meg a PH verzió,biztos lesz jobb hűtővel.
-
Gainka
őstag
Ha minden igaz, ez egy 750 ti.
-
KAMELOT
titán
Nemsokára itt vannak a Maxwell kártyák 20nm-el! Kíváncsi leszek a CUDA számra és a teljesítményre.
V1200 - 18CORE - SUPRIMX
-
nagyúr
rendben, várjuk meg, amíg a tesztek dokumentációjaként minden második tesztoldal lehozza ezeket a slide-okat, és utána beszéljünk bullshitmarketingről
más. ha már a 480, akkor lemodelleztem, hogy ha Fermi architektúrán lenne ezekkel a paraméterekkel a 750Ti, akkor hol állna a 480-hoz képest. az jött ki, hogy a 480 26%-kal gyorsabb lenne - azaz amivel kisebb lesz a különbség, annyit hozott nyers, órajelenkénti teljesítményben a két architektúrális lépcső (Fermi->Kepler->Maxwell). nem tűnik soknak, inkább az órajelek emelhetősége a feltűnő eredmény.
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Loha
veterán
Remélem vmelyik partner csinál majd a 750 Ti-ből extrém tuningos változatot, rendesen megerősített feszültségellátó résszel és tuningos Samsung GDDR5-el.
gbors: Ezek nem a nagyközönségnek szánt slideok, nekünk nem is szabadna látnunk őket, amíg nincs a nagyközönségnek szánt reklámkampány, addig fölösleges bullshitmarketingről beszélni...
-
Erinb
csendes tag
Nemtudom árban melyik Radeon az ellenfél, de az új 60W-s maxwell szépen lebőgeti a 115W-os Radeon 260X-et;
még több teszt
-
nagyúr
no, az első slide rögtön meg is magyaráz mindent, tekintve, hogy a GTX480 nincs 3x gyorsabb, mint a GTS450 - ráadásul a slide-on nem is a 750Ti szerepel, hanem a 750. epic facepalm...
(#12482) ricshard444: mindenki, aki addig nem gondolkodott, amit leírtál. vagyis cca. 90%
(#12484) Mans20: marad a 660, gondolom.
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
ricshard444
veterán
De ki gondolta komolyan, hogy hozhatja azt a sebességet játék alatt?
A 128 bit olyan érvágást követ el a sávszélességen, hogy lehetetlenség behozni a 480-t.
Számomra nem volt kérdés, hogy nem fognak 7 Gbps memóriákat rádobni vagy 256 bitet alkotni.1000 MHz-n egy 384 biten daráló GDDR5 memória 192 GB/s-t nyom /ennyit mindegyik 480 visz/
Ez 1350MHz-n (alap) 128 bitel körülfonva kevesebb, mint 90 GB/s-t nyom, még ha 7 Gbps memória került volna rá, kvázi 1750 MHz, az is 112 GB/s, és még itt sem vagyunk sehol a 480 alap sávszélességéhez képest.720p-s vagy gyengébb 1080p-s játékra jó lehet, hiszen GPU erőben nem rossz egy ilyen kalibertől.
[ Szerkesztve ]
Vannak dolgok...
-
nagyúr
válasz Mans20 #12479 üzenetére
az a gond, hogy úgy tűnik, az nVidia is átvette a bullshitmarketinget az AMD-től. a 480 teljesítményét rebesgették, holott a fizikai paraméterek alapján lehet sejteni, hogy ahhoz igen vékony lesz. ettől még lehet, hogy jó termék lesz belőle, de ez a félrevezetősdi erősen F-O kategória...
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Crytek
nagyúr
válasz Mans20 #12479 üzenetére
Középkat VGA a jövőre nézve nekem nem kell ennyi és semmi több. (Ezért is írom mindig ,hogy lehet létezik pár ember akit ettől még érdekelhetnek ezek a szennyek)
Ha a csúcs VGA-knál is ilyen szinten lesz a fogyasztáscsökkenés akkor van értelme bármiről is beszélni.Next PC Upgrade: 2022
-
Locutus
veterán
NVIDIA GeForce 800 Series in Second Half of 2014
NVIDIA also confirmed during the conference that they are planning to introduce the GeForce 800 series which is fully based on the Maxwell architecture in second half of 2014. This means that we will see the proper high-performance GPUs such as the replacements for GeForce GTX 780, GeForce GTX 770 and GeForce GTX 760 in Q3 2014. We have already noted codenames of the high-end Maxwell chips which include GM200, GM204 and GM206, however NVIDIA didn’t mention what process they would be based on but early reports point out to 20nm.
The initial Maxwell lineup consists of two cores which include GM107 for the GeForce 750 series and the GM108 for entry level GeForce 800M SKUs such as the GeForce GT 840M.
wccftechKomplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
-
Gainka
őstag
Gainward megoldàsàra leszek kivàncsi, ha lesz olyan 2 ventis mint a boostnàl volt akkor én is meg fontolom a cserét.[ Szerkesztve ]
-
nagyúr
válasz Crytek #12470 üzenetére
szerintem midrange-ben a "hurka" kifejezés értelmezhetetlen. ha annyit fog tudni, mint a GTX660, akkor kb. annyit fog érni, mint a GTX660, esetleg kicsit többet a kisebb fogyasztás és a teljes értékű 2GB memória miatt. ha annyit fog tudni, mint a GTX650Ti Boost, akkor annyit fog érni. én meg fogom gondolni, hogy lecseréljem rá a 660-at, még akkor is, ha 10-15%-kal lassabb - persze az ár és a halk hűtés fontos tényező lesz.
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
-
nagyúr
válasz hokuszla #12465 üzenetére
azért ezt érdemes fenntartásokkal kezelni. ha lehet hinni a kiszivárgott fizikai paramétereknek, akkor a kártya a fő egységek tekintetében 2/3-a lesz a GTX660-nak (ami kb. a GTX480 sebessége), és bár core órajel terén 15%-kal előrébb van, a sávszélessége még ennél is kevesebb lesz. az simán lehet, hogy a számítási kapacitás terén be tudják hozni a különbözetet a hatékonyság növelésével, de a backendben nagy csodákat nehezen tudok elképzelni. szóval Crysis Warhead és Hitman Absolution tesztet a népnek!
[ Szerkesztve ]
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
hokuszla
senior tag
válasz Mans20 #12463 üzenetére
Ez megagiganagyon nagy előrelépés.
"GM107 will replace GK107 with a performance of GeForce GTX 480
You should find this particularly interesting. While GM107 utilizes 4 times less power than Fermi GF100, it will offer the same performance (actually even slightly better)."
10600k 16GB 1660s 5TB
-
westlake
félisten
Nagykerben már lehet kapni 750 Ti-t.
Play nice!
-
Mans20
addikt
válasz uzerto #12462 üzenetére
[Exclusive-nvidia-maxwell-gm107-architecture-unveiled]
Hát cudából kevesebbet kapnak elvileg,960 és 768 helyett, 640 és 512,így nem tudom hogy hogy akarják a 650ti boost helyére 128 biten,a 750 is kb a 7770 szint lehet,de majd kiderűl.
-
Mans20
addikt
Itt inkább most a fogyasztásba lesz jóság,ami nem nagy szám..
-
Mans20
addikt
[ Szerkesztve ]
-
nagyúr
válasz Mans20 #12454 üzenetére
szerintem ezekre a tesztekre nem lehet adni. ha kepler alapú GPU lenne, akkor a paraméterei alapján 15-20%-kal a 650Ti előtt kellene járnia, és vélelmezem, hogy a Maxwell hoz számos változást, ami csak nem csökkenti a teljesítményt
amúgy a 660-nal nem jársz rosszul
[ Szerkesztve ]
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Mans20
addikt
-
Crytek
nagyúr
Next PC Upgrade: 2022
-
TTomax
félisten
válasz TESCO-Zsömle #12445 üzenetére
Ha ölte volna valaki akkor "murdered"....
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
ST05
őstag
válasz TESCO-Zsömle #12445 üzenetére
ezt így mondja az angol "nyelv"
-
Sonja
nagyúr
Nem pont videókártyával kapcsolatos, de talán elfér itt.
[ Szerkesztve ]
Ha csalódni akarsz, bízz az emberekben!
-
Sonja
nagyúr
Ha csalódni akarsz, bízz az emberekben!
-
Dictator^
veterán
Üdv.
Igaz nem teljesen a témába kapcsolodik.
De egy GT 8800 több gépbe probálva, minden gépen azt produkálja, hogy bekapcsolás után kb. olyan képernyő fogad, mint régen a C64 töltő képernyői. Mi okozza ezt? Memória hiba, vagy mi?[ Szerkesztve ]
És különben is... ...megfogadtam, hogy többé nem fogadok!
-
Crytek
nagyúr
"Android fellendítése, hogy erre is érkezzenek az AAA-s alkotások"
Hát igen mondjuk ez már pár éve esedékes lenne,mert nem is értem a mobil ágat.
Fejlődik meg minden ,de hova amikor nincs kihasználva.Facebookhoz nem kell 8 mag meg 2gb ram1 kezemen meg tudom számolni hány értelmes game van ami még talán ki is néz valahogy.
És igen egy mobiltól szépet várok ,ha már orrba szájba egyre csak fejlődik.
Bár szegény droid is olyan mint a pc a warez miatt IOS élvez tetemesebb előny így nem csoda hogy csak oda jönnek a jobbfajta pc-ről portolt cuccok.Next PC Upgrade: 2022
-
Abu85
HÁZIGAZDA
válasz Crytek #12436 üzenetére
Ahogy folyamatosan utalt rá JHH az előadáson, a legfőbb cél az Android fellendítése, hogy erre is érkezzenek az AAA-s alkotások. Az Unreal Engine 4-et direkt Androidhoz tervezték.
A mobil az mellékes, meg hogy most hogyan állnak. Android lesz okostévékre, új konzolokra, lesznek AIO-k. Az NV szemében az Android az új Windows.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Crytek
nagyúr
Már nagyon várom milyen lesz. Kíváncsi vagyok mind a mobil mint a pc frontra mit alkotnak.Bár ahogy nézem nem olyan hüde menő az nv mobil fronton, pedig elvileg már az a fő csapásirány,de még nagyon nincs kibontakozóbán!
Lassan ott vagyunk hogy a gtx 460-amat egy integrált cucc is veri
BF4 esetében már most ez a helyzetNext PC Upgrade: 2022
-
Abu85
HÁZIGAZDA
-
Sonja
nagyúr
Ha csalódni akarsz, bízz az emberekben!
-
Sonja
nagyúr
Ha csalódni akarsz, bízz az emberekben!
-
Locutus
veterán
válasz regener #12430 üzenetére
Gondolom te is érzed, hogy a GT6 teljesen irreleváns a kérdés szempontjából. Se PC-re, se nextgenre nincs, ráadásul PS3-on egyáltalán nem tudja stabilan tartani a 60fps-t 1080p-ben, olyannyira nem, hogy szinte mindenki inkább visszaveszi 720p-re.
Ráadásul szerintem egyedül az autók néznek ki jól benne (vagy legalábbis realisztikusan), a többi minden rendesen el van nagyolva.Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
-
Abu85
HÁZIGAZDA
válasz Crytek #12427 üzenetére
Az biztos, hogy a szoftver nagy előny jelenleg a konzolon, de szerencsére már dolgoznak rajta a cégek, hogy ez a programozhatóság és funkcionalitás elérhető legyen PC-n is. Tehát nincs veszve minden, de az borítékolható, hogy lesz egy kisebb időszak, amikor a konzolok technikai minősége felülmúlja a PC-ét. Ha szerencsénk van, akkor 1-2 év alatt átáll a PC is az új programozási modellekre. Lényegében az API oldaláról már ott a Mantle, tehát egy probléma félig leküzdve. A másik problémára pedig ott lesz az OpenCL 2.0/C++AMP és ezek HSA-val turbósított verziói.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Locutus
veterán
-
Abu85
HÁZIGAZDA
válasz Crytek #12425 üzenetére
Ez a GameWorks SDK. Ez az NV válasza a konzolokra. Az a lényege, hogy van egy rakás saját fejlesztésű effekt, amit pár kattintással bele tudsz másolni a játékba.
Ezt már lassan egy éve elkezdték fejleszteni, mert nekik is ugyanúgy sírnak a fejlesztők, hogy nem tudnak mit tenni a DirectX korlátjaival és segítséget akarnak. Az NV viszont a DirectX lecserélése helyett ezt hozta létre. Ha van egy konzolos next-gen GI, SSAO, God Rays, vagy akármilyen effekt, ami a DirectX miatt nem portolható PC-re, akkor a GameWorks SDK tartalmazni fog rá egy alternatív effektet, ami elvben ugyanazt a célt szolgálja, csak működik PC-n is, noha más minőségben.
Ez is egy realista megközelítés, mert a konzolon valszeg sokan fognak SV-PRT-CT-t alkalmazni, mert tényleg új szintre tudja emelni a grafikát, de a DirectX-ben ez PC-n lehetetlen, mert nincs meg az API-ban a funkció erre. Sweeney akart SV-O-CT-t használni az Unreal Engine 4-hez, ami lehetséges DirectX alatt, de helyenként annyira magas az API késleltetése, hogy majdnem egy másodperces akadások is lehetségesek, amiket nem lehet szűrni egy játékban. Egy 3-4 perces jelenetsorra ráoptimalizálhatsz, de a valós futtatású játék nem ilyen. Ezzel Sweeney is inkább lelőtte a projektet, mert csak konzolon működött volna.Példával élve itt ez a játék: [link] - ez SV-PRT-CT-t használ a GI-ra, illetve részben ehhez kötődő fluid dinamikát a tűzre, stb. Ennek az összhatását a videó végén úgy 22:40-től jól meg is lehet nézni. Na most ezt portolni megfelelő API nélkül képtelenség PC-re. Éppen ezért a GameWorks SDK alternatívákat kínál. Ebben van GI Works az illuminációra és Flame works a tűzre. Messze nem ugyanaz a minőség persze, de ez lehetséges DirectX alatt.
Ha valaha is készül PC-s port ezekből a játékokból, akkor ahelyett, hogy új effekteket írnának a fejlesztők, használhatják a GameWorks SDK alternatíváit. Esetleg, ha bárki a PS4-es effekteket leportolja a Mantle-re, akkor a DirectX kódhoz szintén használhatja az NV megoldásait a gondokra.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Sonja
nagyúr
Egy érdekes cikket találtam.
Nvidia’s GameWorks program usurps power from developers, end-users, and AMD
Ha csalódni akarsz, bízz az emberekben!
-
őstag
Sziasztok.
Nagykerből azt az infót kaptam,hogy a 650 Ti boost-okat kiszórják, és jönni fog a 750 és 750Ti
Erről legutóbb még szeptemberben hallottam,azóta semmi.
Tud valaki valamit,ami ezt alátámasztja? -
Tombi
őstag
válasz Crytek #12409 üzenetére
Ha havok fizikát szeretnél nézni, érdemes megnézni a Saints Row 4 -böl videókat, abban van ugyanis olyan ragdoll mozgás hogy ihaj De amúgy egyet értek veled, én is hiányolom a fizikát+ pusztitható környezetet mint a Red Faction szériában.
Jelenleg elvagyok egy 5770-es sapphire kártyával, de érzem, hogy FullHD-ban már nagyon köhög, megvárom az Nvidia maxwellt, addigra talán kiderül mennyit is számít a Mantle API, ha csak 25%-ot hoz nvidiához képest, akkor maradok továbbra is AMD-s.
Azt olvastam, hogy a következő generációs AMD-s kártyák is ARM alapúak lesznek, ahogy az Nvidia maxwell szériája, ez azért érdekes, mert ezek szerint ez a jövő, amitől én idegenkedtem picit.
ABU egyre jobban kezd meggyőzni, hogy az ARM jó út lesz.
Minden kiderül hónapokon belül, már ami a következő DGPU kártyámat illeti[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Az egy jobb API-val lehetséges. Az OS-hez kapcsolódik a futtatott program, az API és a driver. Utóbbi kettő több OS stacken fut. Ezt mind durván kötelező a host processzoron végrehajtani. Rakhatsz ezer ARM magot is a GPU-ba, de arra nem tudsz átvinni OS-hez kapcsolódó folyamatott, mert nem host. De még, ha a program tartalmaz is user módú kiegészítést erre, ami megkerüli az egész modellt, akkor is sokkal lassabb lesz az adatok folyamatos másolgatása, mint a host processzor terhelése.
Az APU-k IGP-je sem drivert fog futtani, és nem is OS folyamatokat, vagy drivert, vagy API-t. Olyan feladatokat lehet rá átrakni, amelyek nagymértékben párhuzamosíthatók. Ezt teljesen a fejlesztő fogja kontrollálni felhasználói módból futtatva az egészet.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
Azért ez itt nem olyan egyszerű. A CUDA is egy olyan felület, ami igényli a host processzort. Azt amin fut az OS. Ilyen körülmények mellett az ARM magok egy GPU-ban lényegében csak szolgák lehetnek. Bizonyos feladatokra jók, de az adatmásolás problémáját nem oldják meg.
Ugyanígy a driver. Az sem rakhat csak úgy feladatot a szolgaként funkcionáló ARM magokra, mert nem azon fut az OS, ennek a driver stackje, és ennek megfelelően a komoly szinkronizációval járó driveres munkákra egyszerűen alkalmatlan egy ilyen koncepció.
Amit te felvázolsz, az akkor járható út, ha az NV ír hozzá egy megfelelő kihasználást biztosító operációs rendszert saját API-kkal, de erre szerintem kicsi az esély. Mondjuk nem lehetetlen. Elképzelhető, hogy ez az ultimate master plan a piac leigázására.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Loha
veterán
CUDA, PhysX sokat profitálhat belőle, és persze minden ami ezeket használja, vmint beépíthetnek olyan funkciókat a driverbe amiket eddig a túlzott CPU terhelés miatt nem tettek meg.
Ugyan az a funkciója mint az AMD APU-jának csak fordítva.
Nem a procihoz integrálnak egy GPU-t, hanem a GPU-hoz integrálnak egy procit.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
De ezzel mit nyernének? Tudod, hogy mennyi erőforrást vesz el a processzortól a driver? Szinte semennyit.
A modernebb API ahhoz szükséges, hogy jobban használd a hardvereket. A DirectX az sokéves technológiára épül, és már nem úgy működnek a hardverek ahogy ez az API. Ezt nem lehet hardverrel megoldani, mert ez egy szoftveres probléma.
Az egyetlen dolog, amit el tudok képzelni, hogy a hardvert nem készítik fel az API-k parancsaihoz. Ilyenkor jelentősen egyszerűsödik a driver és a parancsok lefordítását az ARM magok elvégezhetik. Ezzel viszont az a gond, hogy ez inkább sebességvesztést okoz, noha kétségtelen, hogy a driver sokkal egyszerűbb lesz, tehát ezt nem lehetetlen, hogy meglépik, de döntéshozásnál nem mindegy, hogy mekkora sebességet kell beáldozni.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Loha
veterán
dGPU-k vezérlését a VGA driver végzi, aminek csak egy részének kell x86-os CPU-n futnia a kommunikáció végett, az összes beépített funkció futhat az ARM procin. Nem kell semmilyen SDK, mert a fejlesztőknek nem kell írnia semmit az ARM procira, az ARM procin futó programkódokat az NV írja és a driverbe kerülnek be. Ettől függetlenül persze lehet lesz hozzá SDK is.
A driver ma azért bonyolult, mert a kiadott feladatokat megpróbálják átlapolni igen speciális rutinokkal. Ezeken egy processzormag a GPU-ban nem segít. Ide modernebb API kell.
Vagy egy CPU a dGPU-ba, és akkor nem kell feltétlenül a modernebb API.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Nem a logikával van bajom, hanem, hogy mire lehetne használni?
Például arra amit te leírtál pont nem jó. Egy GPU nem hosztol másik GPU-t. Ezek vezérlését csak a központi processzor végezheti. Ez maximum akkor működhetne, ha specifikusan lenne erre egy SDK és erre írnának alkalmazást a fejlesztők. A miért azonban még mindig kérdés, mert mit nyersz vele? Igazából semmit. A központi processzor számára nem terhelés, amit a frame pacing jelent. A rendelkezésre álló erőforrás töredékének a töredékét igényli ennek a rendszernek a működtetése.
A driver ma azért bonyolult, mert a kiadott feladatokat megpróbálják átlapolni igen speciális rutinokkal. Ezeken egy processzormag a GPU-ban nem segít. Ide modernebb API kell. Az kétséges, hogy a mainál bonyolultabbat szeretnénk. Inkább egyszerűbb kellene.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Loha
veterán
SZVSZ sokkal több benne a logika NV számára, mint az x86-os CPU-t kiválni egy saját ARM-ossal, aztán kiszolgáltatottan várni a játékfejlesztőkre.
Nincs semmilyen leírás, utalások voltak csak.
Pl. SLI esetén az ARM proci cégezhetné a feladatmegosztást a dGPU-k között és a képkockák megfelelő időzítését, amit most az x86-os CPU-n futó driver végez.
Elég bonyolult manapság egy VGA driver, és ha nem vesz el erőforrást az x86-os CPU-tól, akkor lehet még bonyolultabb is.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Mit futtat rajtuk? Vagy ezt mégis hogyan képzelik el? Engem is érdekelne, hogy ezt ki találta ki, vagy van-e valami leírás, mert teljesen értelmetlen az egész, ahogy ezt bemutatják. Persze lehet, hogy én nem értem és valamit kihagytam, de nem látom, hogy mitől lenne jó CPU-magokat a GPU-ba rakni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Loha
veterán
válasz Crytek #12400 üzenetére
Ahogy már korábban is írtam, szerintem a dGPU-ba fognak integrálni ARM procimagokat, amiket nem a PC x86-os CPU-jának kiváltására fognak használni, hanem a VGA driver egy része futhat majd rajtuk, tehermentesítve ezzel a x86-os CPU-t. Az ARM CPU egységes címteret fog használni a dGPU-val.
[ Szerkesztve ]
-
Crytek
nagyúr
Sosem értettem ezeket a fizikai engine-eket,mert videókban egy adott helyszínen ahol adott textúrán mutatják be a hatását,mindenki megjegyzi ez igen ez jó.
De a játékokban mit látunk ebből --> Nagy nullát. Hihetetlen 2014-lesz lassan és ott tartunk hogy a játékokban kb 0 fizika van de fullosan 0.
Értem én hogy nem kevés idő de könyörgök legalább 1 db olyan játék készüljön már amiben, ha felrobbantok egy hordót vagy bármi robbanósat egy fa ajtó/doboz vagy bármi mellett akkor történjen már valami fizikai reakció.
PL most is AC4-ben voltam egy barlangban egy fa ajtó mögött volt egy felvehető tárgy ,de az ajtó (deszkázott) nem nyílt. Pont volt tőle nem messze egy puskaporos hordó. Már kezdtem örülni na most berobbantom HÁT NEM nem történt semmi.Ez a véres valóság sajnos.
A játékipar kezd nagyon a mobil iparra hajazni ott is már jönnek a 8 magos szarok de aksi meg nem fejlödik szart se bírnak.PC/konzol meg kb csak grafika javítás fizikát leszarja mindenki.Next PC Upgrade: 2022
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz -Solt- #12404 üzenetére
Az egyik oldalon GPU PhysX lesz, míg a másikon Mantle. Ez a jövőben sem változik meg, tehát aszerint kell vásárolni, hogy melyik a fontosabb.
Illetve a GPU PhysX annyiban jó lesz, hogy most sokan mondják, hogy nem éri meg, mert igazából nem tud maradandót alkotni. A CPU-s Havok jobb minőséget csinál, ami sajnos igaz. Na most ez nem a PhysX hibája, hanem a GPU-s gyorsításé. A PhysX-nek készül a nagyon kigyúrt verziója a Parker SoC-ra, illetve alapvetően az NV integrációjára. Na az már tényleg jó lesz.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Crytek #12402 üzenetére
Az ARM-ra portolás nem nagy meló. A jövőben a játékok 64 bitesek lesznek, és azért van esély rá, hogy a többségük még 32 bites portot is tartalmaz. Az x86 és az AMD64 két külön ISA, tehát ezekre már úgy kell írni a játékot, hogy a lehető legjobban kerüld a specifikus dolgokat. Ide az ARMv8 nagyon egyszerűen becsatlakozhat, hiszen épeszű fejlesztő már két ISA kiszolgálásánál is gondol arra, hogy ezzel minél kevesebb munka legyen. Szóval az ARMv8 kód fordítása viszonylag kevés munkával jár. Az biztos, hogy sokkal kevesebbel, mint Mantle kódot írni.
A SIMD ISA kapcsán lehetnek gondok, de tekintve, hogy a fejlesztők inkább a GPGPU-t tartják reálisnak ez is tökéletes az ARM-os jövőkép számára.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Crytek
nagyúr
Igen ám ez mind szép és jó lehet ,de szerintem fejlesztői szemmel inkább húz mindenki az amdhez a mantle miatt, mint hogy az arm miatti portolással szüttyögjenek. De ez csak KŐKEMÉNYEN szerintem ,mert én nem értek hozzá ,hogy egy ilyen port mennyi időbe fáj és nehéz-e stb.
Ezt majd az idő eldönti ,de ha nem lesznek partnerek akkor az nvidia nem kicsit mehet a levesbe ,mert akkor kb a semmiből kéne felépíteni egy új rendszert és ez mérhetetlen hátrány lenne nekik.
[ Szerkesztve ]
Next PC Upgrade: 2022
-
Abu85
HÁZIGAZDA
válasz Crytek #12400 üzenetére
A Parker SoC+Maxwell dGPU lényegében ugyanazokkal a funkciókkal bír, mint egy Kaveri APU+GCN dGPU. Szóval a stratégia az elég világos, így első lépésként a hardveres platform funkcionalitását a konzolokhoz kell igazítani. Az is az NV kezére játszik, hogy a legtöbb kiadó/fejlesztő, legalábbis akikkel ők dolgoznak az Androidot a Windows elé helyezték fontossági sorrendben. A többire ott a felhő.
Aztán a sötét ló a SteamOS. Abból igazából bármi lehet. Mivel kezdődő dolog, így bőven elképzelhető, hogy az NV nyomására számos ARMv8 port is felkerül. A Valve számára ez nem lenne teher.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest