Új hozzászólás Aktív témák
-
-Solt-
veterán
A Microsoft valószínűleg azért döntött az apróbb szigorítás mellett, hogy a gyártókat az AMD GCN architektúrája hasonló hardverek kifejlesztésére sarkallja, annak érdekében, hogy a fejlesztők egyre több grafikai és compute futószalagot futtathassanak párhuzamosan.
Nem értek egyet a cikk címével... szerintem ez jó irány!
www.smart-bus.hu
-
Riddick77
tag
Rossz a cím. A Microsoft csak szigorítson az új AMD APU-k javára,mert így akkor az XONE is jobban tud gyorsulni. Ha,meg valamit fejleszteni akarunk,akkor csak a jobb felé haladjunk,ne a butább felé.
KL
-
Tigerclaw
nagyúr
Szerintem mire jön a DX12, meg az azt támogató játékok, ez már nem lesz akkora probléma, mert cserélik a játékosok a vasat pár évente. Én mondjuk nem de amivel játszok talán még mindig csak a DX9-et támogatja. Hiába jött/jön a DX10-11-12, ha sok fejlesztő nem tud vagy nem akar arra átállni. Ráadásul a sok playert vonzó MMO-k esetén nagyon ritkán cserélnek motort...amik gyakran a múltban ragadnak a technológiát tekintve.
Az a baj a világgal, hogy a hülyék mindenben holtbiztosak, az okosak meg tele vannak kételyekkel.
-
Petyyyyy
addikt
Innen kicsit úgy tűnik, hogy valahányszor DX12-vel kapcsolatos hír lát napvilágot, annyiszor csapnak az nVidia fájának törzsébe egyet a fejszével és tesznek fel egy díszt az AMD fájára.
Nem fáj a dolog, sőt kifejezetten megnyugtató, hogy hw csere nélkül megkapunk szinte minden fícsört, csak már kezd kényelmetlenné válni a kiegyenlítetlenség.[ Szerkesztve ]
Szemed az úton, pedál a padlón || Whatever, Im the star
-
Abu85
HÁZIGAZDA
Mert igazából a módosítással csak annyi történt, hogy pár eddig jó hardvert kizártak. Előnye viszont igazából nincs. A GCN a korábbi modellben is stateless volt. Ugyanazt meg lehetett csinálni vele, mint amit most meg lehet. Effektíve csak becsukták az ajtót pár architektúra előtt. Persze lehet, hogy ezekre eleve nem jött volna támogatás, de az ajtó nyitva volt.
A másik gond, hogy könnyen lehet azt mondani, hogy másolják le a GCN-t a konkurensek. Csak a konkurensek nem azért élnek együtt a limitációkkal, mert az olyan jó dolog, hanem azért, mert olyan hardvert csinálni, mint a GCN piszok nehéz. Ebbe a szoftveres emberek nem gondolnak bele.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Hiftu
senior tag
A vásárlóknak részéről rossz irány -> új hardvert kell venni.
Az nVidia régi és az Intel összes termékének rossz -> még gyengébb hatásfokkal sem supportálhatnak egy funkciót. Ha szeretnék akkor sem.A szoftverfejlesztőknek jó, mert várhatóan kicsit homogenizálja a piacon lévő hardverek tudását.
Tessék mondani, lehet itt hazudni? - Kaszt: Decker, Faj: Troll, Működési Terület: Prohardver
-
Abu85
HÁZIGAZDA
Ez meg a másik. A stateless tempóban előny, tehát ha valaki komolyan gondolja, akkor úgyis elmegy ebbe az irányba. És ez az eredeti koncepcióval is pont úgy jó, mint a mostanival.
Amúgy tudni kellene, hogy mi volt a háttérben, hogy az NV és az Intel mennyire tervezte az aszinkron compute támogatását. Az Intel a GDC-n azt mondta, hogy semennyire, mert bár technikailag működik, de a többi architektúrával ellentétben a Gen8 lassul tőle. Az NV gondolom a Maxwell V2-re tervezte. Elképzelhető, hogy a többire már nem, tehát effektíve az sem kizárt, hogy egy olyan ajtót csukott be az MS, amin eleve nem léptek volna be az említett architektúrák.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Riddick77
tag
Olyan hardvert is nehéz gyártani,mint az INTEL új CPU-i,mégsem érdekelt senkit,hogy a konkurencia nem ér fel hozzá. Mindig a jobb terméket érdemes venni,márka függetlenül. Igen,meglehet,hogy a mostani generációs GPU-k közül pár nem fogja normálisan támogatni az új DX 12 minden újítását,de akkor majd tervezzenek olyat,ami fogja! Mint a konzolokon,mikor nem tudja normálisan futtatni az előző generáció játékait. Ha,ez az ára,hogy hosszú távon jobb legyen a végeredmény,akkor simán megéri.
KL
-
lenox
veterán
amik gyakran a múltban ragadnak a technológiát tekintve.
Nem a multban, hanem a valosagban. A valosagban sok regi hardware van a usereknel, azon kell futnia a szoftvereknek. Jo lesz biztos a DX12, de minel tobb dologgal szurik a user baset, annal lassabban fog terjedni. Persze az uj hw vasarlasat meg gyorsitja.
-
CybonTom
tag
Igen, nem könnyű ilyet csinálni az biztos, viszont ennek egy szabványos api-nál nem feltétlenül kell meghatározó érvnek lennie, főleg úgy, ha te magad is azt mondod, hogy a stateless felé tolja a piac a fejlesztőket amúgy is... szóval én ebben nem érzem a nagy gondot, inkább azt, hogy a kivételesen az MS megpróbált a piacra hangolódva csinálni egy limitációt és nem annyira óvatosan hátsóba billenteni a fejlesztőket abba az irányba amerre elvárják tőle. Egyébként, ha még az is benne van a pakliban amit írtál, hogy az NV és az Intel amúgysem támogatta volna ezt a részt azokkal a hw-kkel, akkor meg még csak gond sincs belőle a részükről.
-
Tigerclaw
nagyúr
Az Intel-t tekintve ez szerintem nem oszt nem szoroz, mert nincs senki aki azt várná el, hogy majd DX12-es címekkel játszik majd Intel APU-n.
Az a baj a világgal, hogy a hülyék mindenben holtbiztosak, az okosak meg tele vannak kételyekkel.
-
nagyúr
Nekem olybá tűnik, hogy a DX12 is olyan lesz, mint anno pl. a PS2.0 megjelenése. Tök jó dolog, de mivel a hardverek egy jelentős részét kizárja a használata, így a programozóknak vagy kell külön támogatnia a régi és az új eljárásokat (így extra munkát jelentve), vagy inkább lemondanak az új technológia használatáról, cserébe a régi hardverek támogatásáért...
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
nagyúr
válasz Tigerclaw #14 üzenetére
azért elindulhatni még elindulhatna. aztán majd én eldöntöm, megfelel-e az a minőség, amit nyújtani képes.
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
eight
senior tag
Pár hete még és is össze-vissza klikkelgettem a DirectX Caps Viewerben, de aztán kezdett ez a egész dx12 mizéria fárasztóvá válni a számomra. Az MS-nek az az érdeke hogy az xbox, PC-n meg a win10 és a dx12 legyen sikeres, az AMD-nek meg az hogy a GCN meg az APUi, szóval összefogtak és ezt az egészet meg megint mi PC-sek fogjuk megszívni, mert a procik IPC-je még annyira sem fog számítani mint eddig. Egyrészt mert majdnem minden játékot konzolokra is fejleszteni fognak, és már a Jaguár magok is elegek lesznek hozzájuk bőven, másrészt meg az új API is csökkenteni fogja a CPU terhelését. Szóval szvsz értelmetlen azon izgulni mi lesz majd támogatva és mi nem, mert ha valamit esetleg nem tud hardverből a (pl.) a Kepler vagy a Maxwell-1(stb.) - mert az MS úgy döntött, - akkor azt majd az Nvidia megcsinálja szépen driverből vagy shaderből. A procinak úgyis lesz elég "szabad" ideje, és ezek a "feature level" driver dolgok igazán nem kívánnak sokat, pláne akkor nem, ha majd minden még inkább GPU limitáltabb lesz mint eddig, azaz totálisan.
Hát ez lett volna az én két centem a témához
-
nagyúr
-
-
nagyúr
No, ez egy jó nagy marhaság. Amúgy sem lesz könnyű szülés a DX12, és a rohadt sok draw callon túl amúgy sem egyértelműek az előnyök felhasználói szemmel - most egy csomó kártyától elveszik a kevés maradék valódi előny egyikét. Zseniális.
Persze, az MS leszarja, hogy a Kepler / GM107 tulajok váltanak-e Win10-re[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Duck663
őstag
Csökken a CPU-k terhelése valóban, de meg nem szűnik,
Itt egy teszt a 3DMark új tesztjéről. [link] Több CPU és több GPU-val, és elég jól látható, hogy kell bizony a CPU is. Az előny csak az lesz, hogy 8-10-12 vagy akár sokkal több mag és/vagy szál is kihasználható lesz. Ebben meg nem azért, de megint mintha az Intel lenne kicsit előbbre.
Az nv-nek meg talán idejében el kellett volna kezdenie fejleszteni!
[ Szerkesztve ]
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
eight
senior tag
Egyrészt az egy api overhead(!) teszt, másrészt meg szintetikus (ráadásul szvsz buggos is, legalább is minimum kérdéses mikor mekkora framebufferrel dolgozik) (elnézést hogy nem tudom mindennek a magyar megfelelőjét, kicsit szégyellem mert nagyon szeretem a nyelvünket, de nem szoktam lefordítgatni ezeket, és talán nem is szükséges egy szakmai oldalon).
Ha tippelnem kéne, akkor a dx12 kb. olyasmi lesz játékokban mint a bf4+mantle volt (persze azért jobb/erősebb hatású mivel a fejlesztői technikák is fejlődnek meg már eleve úgy fogják felépíteni), azaz APUknál meg Xbone szintű PC-knél segíteni fog sokat, de amint felmész "high"-ba vagy "ultra"-ba (és ugyebár a PC-t szerető embereknek nem kell elmagyaráznom miért is szeretjük mi aztatot olyan nagyon ) ott már kb. csak az fog számítani hogy mit bír a GPU.
[ Szerkesztve ]
-
v_peter2012
csendes tag
Nyugi gyerekek, ismét hatalmas ferdítés van a dologban. A microsoft semmi ilyesmit nem mondott, Abu egy mai AMD marketing nyilatkozatot tálalt félrevezető módon.
Illetve Abu tudod linkelni a microsoft-os forrást?
[ Szerkesztve ]
A GCN processzor, mégsem professzor? Várja a kisegítő iskola padja, a Maxwell pedig röhög rajta.
-
Abu85
HÁZIGAZDA
válasz v_peter2012 #27 üzenetére
Az AMD-nek az NDA-s anyagához ennek semmi köze. Az egy külön cikket kapott. [link]
Ez a módosítás a development logból származik, ahogy például ezt a módosítást is onnan vettem. [link]Ha szerzel developer hozzáférést a Microsoftnál, akkor eléred a development logot. Ott megtalálod az early specifikációkat, annak a későbbi provisional specifikációkhoz meghirdetett részeit, illetve a módosításokat.
(#29) v_peter2012: Minden DX12-ről szóló cikkben benne volt, hogy ezek nem végleges specifikációk, és a Microsoft fenntartja a jogot, hogy módosítással éljen, ezekről a módosításokról írtam a legutóbb két hírt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
v_peter2012
csendes tag
Szóval semmi hivatalos, csak találgatás. Lesz cikk akkor is, ha mégse így lesz, vagy maradjon csak meg az emberek fejében hogy rossz, csúnya nvidia.
A heti fizetett hirdetést láttuk akkor csak. Oké.
[ Szerkesztve ]
A GCN processzor, mégsem professzor? Várja a kisegítő iskola padja, a Maxwell pedig röhög rajta.
-
stratova
veterán
Itt tényleg "legfeljebb" a felhasználók faraghatnak rá, mivel mindhárom gyártó készül aszinkron compute képességű GPU-val (ha nem is feltétlenül a teljes termékpalettát lefedve):
AMD - GCN
Intel - Gen9 - Skylake-U / Skylake-S (15-65 W) elvileg 2015 Q3
Nvidia - Maxwell v2 GM206, GM204, GM200v_peter2012: megértem, ha zavar Abu látásmódja, de ebben a cikkben egészen pontosan, hol került előtérbe, hogy csúnya Nvidia? Mindhárom gyártónál vannak GPU-k amik kiesnek ebből a körből:
AMD: Llano/Trinity/Richland APU-k
Nvidia: Pre-Maxwell v2 GPU-k
Intel: Gen9 előtti GPU-k (Hasswell, Broadwell, Braswell és régebbiek)Ez a cikk nem az Nvidiát állítja, be "szemétnek", hanem a Microsoftot, ha a te megközelítésedet nézzük.
[ Szerkesztve ]
-
Duck663
őstag
Igen ez egy API Overhead teszt, de nem ez a lényeg, hanem a tesztben 6 CPU-t használnak, igen eltérőeket, és láthatod, hogy igenis számít és számítani fog a CPU teljesítménye. Jó ok, ez egy szintetikus teszt, de ott lehet legjobban kimutatni ezt.
A felhasználok nagy százaléka még a felbontást sem állítja be.
Az hogy felmész ultrára manapság csak annyit jelent, hogy kifekszik a GPU-d, de általában már egy közepes beállítás mellett is elérhető közel az a vizuális élmény, egyszerűen azért, mert mesterségesen vannak feltornázva a gépigények. Ráadásul a felhasználók vagy 2/3-a nem lát különbséget a PS4-es és a PC-s ultra között... nem csoda hogy a felhasználók elfordulnak a PC-től.
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
titán
Nem. Azt látod, hogy az API overheadje egy jobb CPU-nak kisebb. Csakhogy ha a rajzolási parancsok száma a GPU egyéb terhelése miatt amúgy sem éri el a limitet, akkor nem kevés az adott CPU. Márpedig az óriási overheades DX11-ben eddig is általában GPU limit volt, tehát belefért a kért rajzolások száma a limitbe. Most, hogy a limit az égbe emelkedett, nem történik semmi csak még kevesebb CPU fog limiten futni. Ennyi. Nem kell ebbe túl sokat belelátni. Nem fognak a DX12 játékok hirtelen 4-8-16x nagyobb fps-t produkálni egy csapásra. Aki ilyenekkel álmodik, annak kellemetlen lesz az ébredés.
[ Szerkesztve ]
evDirect villanyautós töltőhálózat
-
Tyrel
őstag
válasz v_peter2012 #29 üzenetére
Ha valami egyértelműen korszerűbb és gyorsabb, és ezt Abu le meri írni akkor miért ő a fizetett reklám ember? Nem egy rossz dolgot próbál jóként eladni. Hosszú-hosszú évek óta folyamatosan, minden DirectX generációváltásnál ez ment: az nVidia nem volt hajlandó kellően korszerű GPU architektúrákkal előállni, aminek köszönhetően az új DirectX feature-ök csak évekkel később kezdtek megjelenni a játékokban, ha egyáltalán valaha is megjelentek...
nVidia most is ennek a stratégiájának köszönheti a helyzetét és ha végre egyszer ők fogják megszívni miatta, nem mi játékosok, azt bizony megérdemlik... ha már mindenképp akasztunk valakit, az ne a hírhozó legyen.
[ Szerkesztve ]
Turenkarn
-
Duck663
őstag
Igen ám, de épp az aszinkron compute miatt nehezebb lesz elérni a GPU limitet is.
Ismét egy teszt, BF Hardline: [link] ahogy folyamatosan növelik a CPU órajelét úgy nő folyamatosan a GPU teljesítménye, tehát korántsem beszélhetünk csak GPU limitről.
Ez az egész arról szól, hogy a lehető legtöbb limitáló tényezőt próbálják kiiktatni. A több magos processzorok mindegyik magját játékok alatt munkára fogni, a GPU-kban rejlő tartalékokat kiaknázni.
Nem várom én, hogy sokszoros legyen a teljesítményt, inkább kiegyensúlyozottságot várok...
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
eight
senior tag
schawo fórumtárs már elmondta mit értettél félre (amit köszönök szépen), szóval nem fogom én is leírni még egyszer.
Az ultra vs medium vitára meg csak annyit mondanék, hogy én sem ma kezdtem és emlékszem még azokra az időkre, amikor a 640x480-as felbontástól meg a 16k színtől eldobtunk a hajunkat, szóval megy az a különbség észrevétel " a felhasználok nagy százalékának" is, csak esetleg egy kicsit később mint a lelkes (enthusiast) közönségnekszerk.: de a linkelt tesztben az i3 108fps az i7 meg 115
[ Szerkesztve ]
-
titán
Ugye megvan, hogy egy Titan X tesztjét látod. Majd ha Titan X méretű problémám lesz, akkor nem fogok a GPU limiten aggódni. De a tesztben a Titan X-szel sikerült GPU limiten táncolni még sima fullhádén is, hiszen a 4 magos Haswell 2,5GHz és 4,5GHz között (80%-kal emelt órajelen) nyert 6 kemény százalékot.
Az FX nem ér, az nem CPU, az egy vicc. Az persze, hogy limites, de azért 4GHz-től már képes kihajtani a Titan X-et is.
A Titan X sem árban, sem sem teljesítményben nem egy kategória az FX-szel. Nem normál párosítás, ilyet senki emberfia nem hoz össze éles rendszeren, csak a vicces tesztek kedvéért.
[ Szerkesztve ]
evDirect villanyautós töltőhálózat
-
Tyrel
őstag
A lényeg pont az a DX12 esetén hogy a linkelt teszten látott TitanX eredményei csak egy bizonyos értelemben GPU limitesek. A DX11 renderelő futószalagjával nem tud ennél több feldogozást végezni azon a GPU-n, de ettől még egy csomó erőforrása marad kihasználatlan, mert nem tud nekik munkát adni - többnyire azért, mert az egyes képkockákon elvégzendő feladatok egymás függőségei így lehetetlenné válik a párhuzamos feldolgozás.
Kicsit úgy képzeld el mint ha lenne egy festőd aki először ceruzával megrajzolja a körvonalat, aztán szépen körbefesti, aztán kiszíneszi a végleges képet, meg egy másik a Marsról akinek 3 keze van meg 6 szeme és full egyszerre csinálja meg ugyan ezt a 3 műveletet, így harmad annyi idő alatt végez.
Ez a fajta, feladat-párhuzamosítás lehetetlenségéből eredő GPU limit egy TitanX-nél gyengébb videokártyán nyilván sokkal korábban előjön, így fontosabb is a feloldása. Dióhélyban erre való a DirectX 12.
[ Szerkesztve ]
Turenkarn
-
kila25
csendes tag
Nem vagyok szaki úgyhogy ne kövezzetek meg ha nem így van...
Szerintem a vitátok pusztán csak elméleti, mert mire ebből a gyakorlatban is lesz (kész játékra gondolok) valami, addigra, aki rendesen játszik pc-n már rendelezni fog olyan vassal ami támogatja ezeket a funkciókat, csak a koca játékosok szívják meg esetleg a dolgot, akik úgy vannak vele, hogy nem baj ha kissebb a felbontás, meg közepes a grafika, de fut... Vagy mégsem, mert a cpu limit pont ott jön elő...
Amúgy meg ez csak a kis hazánkban, vagy hasonló helyen élőknek probláma, tőlunk nyugatra nem hiszem, hogy gond lenne kiperkálni évente kb. 400 jóféle jurót, vagy dolcsit, vagy mit egy új vasért..
A másik meg, hogy gondolom (ez pusztán feltevés) az nvidia nem, hülye dx váltáskor mindig le voltak maradva egy lépéssel, és sajnálkoztak, hogy hát ez van de a következő szériát gond nélkül megoldották. Az nvidia fan meg mit csinált??? Megvette a dx váltás előtti szériát, majd mivel ő is akarta az új dolgokat, megvette a következő generációt is... Na ki járt jól? Az AMD meg a -mi szeretjük a gémereket- hozzáállásával már úgy adta ki a kártyáit, hogy dx váltáskor nem kellet a user-nek váltani, de mire mentek vele elestek az eladásoktól + a piaci részesedésük sem nyomta le az nvidiát. Szerintem a zöldek végig röhögtek a markukba
Ha az AMD viszont elkezdi megszüntetni a gpu limitet is, akkor kivágja maga alatt a GCN-el és konzolokkal maga alá ültetett fát rendesen, mert a procijai el fognak vérezni az intelekkel szemben. Legalább is szerintem mert játékok alatt csak a gpu limit miatt tartották eddig is a lépést.
lásd [link]
-
titán
Én tökéletesen értem, miről szól, még ha nem is ilyen egyszerű, és főleg nem ilyen hatékony. Ugyanis amit te felvázoltál, az nem más mint egy buta szintetikus teszt működése, mint pl. a 3dmark overhead tesztje. Csakhogy a GPU ezer másik műveletet is végez, a kirajzoláson kívül, ami leköti a kezeit. Ha nincs kikevert festék, akkor mindegy, hogy hány kézzel nem rajzol éppen.
evDirect villanyautós töltőhálózat
-
nagyúr
Szerintem egy kicsit gondold át a tények szintjén is, amit leírtál, ne csak retorikában. Már a sokadik ember vagy, aki ezt a zöldséget szajkózza, hogy az nVidia fogja vissza a fejlődést - alá is tudjátok ezt valamivel támasztani? Az meg, hogy az nVidia architektúrája nem korszerű... inkább nem is mondok semmit.
Emellett a cikkben leírtakkal pont az nVidia nem jár rosszul - a 2-3 éves kártyák lecserélésére tudnak mondani egy újabb érvet. Bennem már az is felmerült, hogy az ő ötletük volt
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
rocket
nagyúr
"Emellett a cikkben leírtakkal pont az nVidia nem jár rosszul - a 2-3 éves kártyák lecserélésére tudnak mondani egy újabb érvet."
Pontosan, ezzel megint az NV jar jol.
A felhasznalok nagy resze nem Radeonra fog valtani, mert a brand erteke a markanak a beka hatsoja alatt van.Nagyon unalmasak mar ezek az API hirek, lassan minden heten 5 ilyen nesze semmi fogd meg jol cikk van, amiben kiderul a GCN mekkora ultragigacsaszar lesz DX12 alatt, meg az AMD a megvaltoja a PC-s jatektarsadalomnak.
Elmeleti sikon folynak ezek a hirek allandoan, jo lenne mar egyszer latni, hogy az AMD profital valamit a szines grafikonon megalmodtakbol.
Fogadnom kene akkor nagy valoszinuseggel a tortenelem ismetli onmagat, es a konkurencia leaartja a baberokat, sot az se biztos, hogy lesz meg addigra AMD mar formajaban, mert nem gigantikus termekeket fejlesztenek, mint ahogy az egyik PHBlikk cikk cime sugalta nehany napja, gigantikus szot az AMD eseteben a negyedeves uzleti jelenteseknel kell kereni, a veszteseg kategorianal.[ Szerkesztve ]
"A lower resolution generally means that there can be more quality per pixel."
-
sayinpety
tag
Teljesen mindegy van-e fine-grain async task scheduling 2nd gen Kepler es 1st gen Maxwell IPn. 2nd gen Maxwell IPn csak 10%ot nyerek. Ugyanaz a kod R9-290Xen 40%ot gyorsul. Pascal IPt tervezik fine-grain async task schedulingre.
[ Szerkesztve ]
-
kila25
csendes tag
Hát pedig bizony többet tett az AMD mint bárki. Az nvidia-nak az a lényeg meg legyen a profitja oszt csá, csak ülnek a megszerzett hírnév tetején... A microsoft-ot nem árdekli a pc-s játék neki ott a box... az intel meg nincs mivel beleszóljon.
Nem mellesleg semmi különbség az nvidia és a radeonok között játék alatt... Nekem senki ne mondja hogy a pár fps különbségtől bármelyik gamer falnak rohan, bár melyik gyrtó oldalán legyen is az.
-
Reggie0
félisten
Miert szerinted AMD-nek mi a lenyeg? Ugyan ugy a profit. Csak annyi a kulonbseg, hogy ok "technologiailag" akartak elhuzni az nvidia mellett, csak eppen a jatekok es a piac nem mentek utanuk a nagy Nvidia tabor miatt, igy az utobbi tudasanak a korlatai lettek meghatarozoak a szoftverek fejlesztesekor es az AMD kartyak kepessegeinek folenyebol nem ervenyesult semmi. Erre fel az Nvidia a piacon levo szoftverek igenyeihez finomhangolta a kartyait, ugy hogy az AMD egy pazarlo kazannak minosult mellette. Nyilvan az optimalizaciot sok ember eszre sem veszi es nem tekinti komoly munkanak, pedig nagyon is az.
Az Nvidia pont annyit tett le technologiailag, mint az AMD, csak a celok voltak a masok. Uzletileg pedig talan most sikerul az AMD-nek bekuzdeni magat a ringbe.[ Szerkesztve ]
-
rocket
nagyúr
Nem az a kerdes, hogy tobbet tett vagy nem, hanem, hogy mit profitalt ebbol?
A Vulcan vilagmegvaltasa se egyertelmu, mert az NV alelnoke a Khronos Group elnoke.Ertem en ido kell az AMD-nek, de fogynak a lehetosegek, nem a jovot kene ilyen melyen fejlesztgetni, hanem profitot szerezni, 28nm-es tobb eves gyartastechnologian keszulo refresh GPU-kkal vannak jelenleg ~6.5 honap hatranyban az NV-hez kepest.
Nagy vilagmegvaltasok mindig elszoktak maradni, mert vannak cegek akik uzleti befolyasolassal eltudjak erni, hogy AAA cimet 2016-ban DX11-re fejlesszenek.
Ezen kivul van a jozan paraszti esz, amikor majd kiderul a Win10-rol, hogy nem terjed ugy ahogy kene, akkor visszafognak nyulni a jatekfejlesztok akik esetleg nem akartak es nem fizettek meg oket ezert a DX11-hez, mert profitot szeretnenek termelni a PC verzioval.
Kulfoldi hardver forumokon ahol van nehany nem kispalyas emberke kozelbe nincs ez a hype az uj API-k irant, mint ami itt megy, tenyleg mar csak mosolyogni lehet ezeken a cikkeken
"Nem mellesleg semmi különbség az nvidia és a radeonok között játék alatt... Nekem senki ne mondja hogy a pár fps különbségtől bármelyik gamer falnak rohan, bár melyik gyrtó oldalán legyen is az."
Errol kerdezzel meg par AMD usert mit gondol, de az is eleg ha ranezel a piaci reszsedesre, ami ugye 2014Q4-ben 76-24 volt.
Jo esetben 3 havonta szulnek egy drivert, sok jateknal hetekig sehol sincsenek teljesitmenyben.
A kozelmultbol sajat peldambol a Dying Light-ot tudom kiemelni, 3 hetbe telt amig a fejlesztok csinaltak nemi optimalizaciot (ami ugye az AMD dolga lett volna, hogy megjelenesre megadja a megfelelo supportot a jatekhoz) es azota se lett olyan, mint a konkurens kartyakon a megjelenes napjatol.[ Szerkesztve ]
"A lower resolution generally means that there can be more quality per pixel."
-
Duck663
őstag
Pontosan tudom, hogy mi az amit látok.
A lényeg, hogy mind a GPU-nál mind a CPU-nál keletkeznek limitációk, nem jelenthetjük ki egyértelműen, hogy ez vagy az limites! Csak akkor ha az órajel emelés már nem hoz több mérhető sebességnövekedést.
"Csakhogy ha a rajzolási parancsok száma a GPU egyéb terhelése miatt amúgy sem éri el a limitet" Most nézz meg egy AC játékot! AC3, AC4, Unity
Mi az hogy az FX nem ér? Már miért nem érne? DX 12 alatt azért nem is így fog muzsikálni majd. Itt jön elő az, amire a DX12 részben van, nem csak az egy szálas teljesítmény lesz a döntő, hanem az összteljesítmény is számítani fog és a 8 mag is kihasználásra kerül. Tudtommal nincs olyan DX11-es játék amely 8 magot használna. Az Intelnél a SMT-t is érdemesebb kikapcsolni, mert a legtöbb esetben játékok alatt az sem hoz teljesítményjavulást, de DX12 alatt fog.
(#37) RECSKA: Örülök, hogy eljutottál az i7-4770K-ig, de azért lejjebb is görgethettél volna.
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
Új hozzászólás Aktív témák
- 4070 Ti Aorus Master //KERESEM!!//
- Sziasztok! Eladó az alábbi videokártya, nagyobbra váltás miatt: - Zotac márka - nVidia GeForce RTX
- eMag GARANCIA! ZOTAC Trinity RTX 3080 10GB OC GDDR6X Videokártya! BeszámítOK
- GARANCIÁLIS! ASUS TuF RTX 3090 24GB DDR6X OC Videokártya! BeszámítOK
- GARANCIÁLIS! MSI SUPRIM RTX 3080 Ti 12GB GDDR6X Videokártya! BeszámítOK