- Akciófigyelő: Humble Games Bundle - Nightdive FPS Remasters
- Call of Duty: Modern Warfare III - Új szezon, újabb ingyenes hétvége jön
- Hunt: Showdown - Jön az engine csere, befutnak az újgenerációs verziók
- Steamre tart a Crime Boss: Rockay City
- The Witcher - Befutott a TV sorozat folytatásának első rövid kedvcsinálója
Új hozzászólás Aktív témák
-
MiklosSaS
nagyúr
Kb olyanokat olvastam hogy a 980 olyan 320-340 fontra esik majd 440-rol. A 970 pedig a mostani 260-280 fontrol olyan 210-230 korul fogjak beloni.
A 390 az kb 370-420 font lesz, a 390X pedig 500 korul.
Ez nem kezenfoghato arazas, csak olvastam valamelyik angol forumon.
~~~~~~ Privatban NINCS szakmai tanacs! ~~~~~~
-
HSM
félisten
Egyáltalán nem lenne logikus a kukába dobniuk a GCN-es technológia előnyüket, amire a komplett elmúlt kb. 3 évet építették, úgy mindennel együtt, ami ráadásul most kezdene valódi előnnyé válni a DX12-vel.
Számtalan módja van a perf/watt arány növelésének, csak az egyik közülük a hardver belső struktúrájának egyszerűsítése és a szívószál szélességű memóriabusz alkalmazása. -
HSM
félisten
Pl. a csip szügségleteit jobban figyelmbe vevő áramellátás, takarékosabb memória-alrendszer, jobb órajelkapuzás, jobb csip-vezetékezés/elrendezés, jobban belőtt üzemi órajel/feszültség, csak hogy a műszakilag kivitelezhetőeket említsem.
Amiket említsz félrement paramétereket, az nem a Bulldozer koncepciójának bukása, hanem a béna gyártástechnológiájáé, és a rosszul megtervezett órajelosztó hálózaté volt. Nézd meg, mennyit javítottak a Vishera-nál.
-
HSM
félisten
"lehetnek takarékosabban az ALU-k is"
No, ez az, amit technikailag nem igazán látok kivitelezhetőnek a jelenlegi architektúra felrúgása nélkül, tehát ezt nem találom jó útnak. Viszont a Tongánál bevezetett "fél pontosságú" műveletek kicsit máshonnan megközelítve, de éppen ezt szolgálják, és akár hasznosak is lehetnek.Azt saját tapasztalatból mondom, hogy akár a Tahiti, akár a Hawaii csipek óriási ráhagyással dolgoztak üzemi feszültség terén. Nálam a 290-em 900Mhz-en ment, -20mv-on, de nem azért, mert nem hajthattam volna 950-en, csak 950-en túlfeszelte magát a szükségeshez képest elég csúnyán, nagyobb alulfeszelést meg nem bírt el, mivel az üresjáratban úgy már nem volt stabil. Ez a kis mókolás -50W-ot jelentett fogyasztás terén. Ez kb. megfelel a Maxwell-Hawaii perf/watt különbségének legalább a felének önmagában.
Ami a Vishera-t illeti, lesd meg ezt, szerintem szépen megy: [link].
A fogyasztást én továbbra is a béna gyártástechnológia és magas órajelek számlájára írnám (nagyon rossz kombináció!), ezenkívül az FX cache szervezése sem épp a legjobb ebből a szempontból. A Sandy Bridge fogyasztásban egy kisebb csoda, a notimban is olyan dolgokat művel, hogy csak lesek. -
Ghoula
senior tag
Én más okot is el tudok képzelni.
Ha az alacsony szivárgású chip-eket túlfeszeled, akkor csökkented a szórást a kártyák között.
Egységesebb lesz a hőtermelés,fogyasztás, azonos ventivezérléssel nem lesz akkora difi a 2 véglet között.
És mivel így az egész széria tdp-jét emelted, az alsó minőségi régióból több chip fogja megütni a limitet, jobb a kihozatal. A legszarabb chipeket nem érdemes szétfeszelni, nagyon meg tudnak lódulni, ha az áramfelvételüket nézzük. Szerintem inkább azokon tiltanak shadert (hogy úgy beleférjen a tdp keretekbe), és mehet X nélküli kártyának.Bios editor nagyon kéne már, sajnos Stilt ott megállt, hogy bányászatra editált bios-okat, illetve láttam xtremesystems-en, bohóckodik a firegl konverzióval, de nem úgy tűnik, hogy ebből lesz valaha is editorunk.
Project Cars témához: Még nem tudták AMD-ék driverből kiszűrni a pálya alatti tengert
[ Szerkesztve ]
-
Ghoula
senior tag
Abban az esetben lehet, hogy ha el akarod fedni a rosszabb példányokat, mert túl nagy a szórás szivárgásban és a bottom X%-ot nem LE és egyéb variánsként akarod értékesíteni.
Te onnan nézed, hogy adott órajelet a szükséges fesszel érjük el, a legrosszabb esethez viszonyítva, hogy TDP-ből ne lógjunk ki, én pedig onnan, hogy szivárgás alapján bin-eljük a chipeket egy bizonyos órajelkeretbe, TDP ami fix.
És mondjuk ez esetben az asic quality-t úgy adom meg, hogy az alap órajelet a TDP hány százalékán érte el, ha túllépi, akkor csökkentett órajel, shader vágással mehet másik variánsnak.
Ha túl jó, kap egy kis extra feszt, hogy mondjuk min a tdp 80%-a meglegyen, így minden chip közel azonos TDP-re van belőve,2 féle konfigurációban. -
rocket
nagyúr
"Es ist davon auszugehen, dass der Verursacher dieses Verhalten in der DirectX-11-API zu suchen ist, genauer gesagt im API-Overhead, der durch zu viele Zeichenaufrufe entsteht. Dann arbeitet die CPU zwar am Limit, kann die Grafikkarten aber dennoch nicht richtig auslasten. Nvidia trickst diesbezüglich bereits seit längerer Zeit im Treiber und hilft so entsprechend kritischen DirectX-11-Spielen auf die Sprünge. AMD tut dies jedoch nicht, sodass Radeon-Karten bei für die DirectX-11-API zu vielen Drawcalls in Schwierigkeiten geraten. Die Vermutung stützt sich durch die Benchmark in höheren Auflösungen. Dort kommen die Radeon-Produkte deutlich näher an die Konkurrenz heran, da die GPU durch die zusätzlichen Pixel besser ausgelastet wird und die Anzahl an Drawcalls nicht ansteigt.
Wer nun als Schuldiger anzusehen ist, ist nicht so einfach geklärt. Auf der einen Seite muss sich AMD Kritik gefallen lassen, da der Catalyst-Treiber anders als das GeForce-Pendant bei zu vielen Drawcalls nicht eingreifen kann. Auf der anderen Seite hat der Entwickler die Limitierungen von DirectX 11 offensichtlich völlig ignoriert und wenig Wert auf eine gute Radeon-Performance gelegt. Beides darf eigentlich nicht passieren."
"A lower resolution generally means that there can be more quality per pixel."
-
veterán
Innen van az idézet: ComputerBase.de
A Project Cars proci limites AMD jobban mint NV-n, valszeg a sok rajzolási parancs miatt.
Extra olvasni való, hogy miért van ez:
AMD Radeon Catalyst Drivers: High DX11 CPU overhead, very low performance.HSM: Nem az Nv driver vár többet, hanem az NV már egy ideje megkerüli a DX11 rajzolási parancs limitációit (337.50-es driver óta).
[ Szerkesztve ]
-
HSM
félisten
Hát ezaz... És mint láthatod, még így is a pincébe lehetett (volna) őket is alulfeszelni, ha nem esnek össze az offsetes mód korlátai miatt hamarabb 2D-ben....
(#5430) Loha: Az utolsó linkeden a formának nem sok fogalma volt a CPU-limit fogalmáról és természetéről.
Nagyon szép dolog az az összehasonlítás, hogy a 750Ti-t hasonlítanak egy másfélszer erősebb 260X-el egy i3 majd egy i7 mellett, és az "AMD driver szar", hogy többet veszít az FPS-ből CPU-limittel, hülyék ezek?
Miért nem nézik meg inkább, mennyivel marad el a 750Ti-től? Ja, hogy szinte semennyivel, CPU limit mellett? Jajj....Az API Overhead tesztben persze, jól mutat, hogy 1,9-2,2M draw call helyett DX11-ben csak 1,1M-t tudnak az AMD driverei, de ennek a valós alkalmazásokban nem sok hátránya látszott eddig. Talán csak a BF4 DX módja, de ot meg az is nyilván közrejátszik, hogy AMD-n alapból a Mantle az ajánlott mód, nyilván nem foglalkoznak annyira a DX-es résszel se a fejlesztők, se az AMD.
-
Abu85
HÁZIGAZDA
Nyilván 2013-ban látták, hogy miképp fut. Volt mondjuk 10 fps. Megkérdezték az NV-t, hogy 2014-re lesz-e ebből 30. Mondjuk azt mondták igen. Ilyen esetben a fejlesztő csak abban hibás, hogy elhitték, amit mondanak. Ez is valahol egy hiba a fejlesztőknél, csak itt az a gond, hogy nagyrészt meg volt kötve a kezük, tehát még ha akarták sem tudták volna megoldani a problémákat.
Konkrétan ezért menekül az EA az összes zárt környezet elől. Nem rajtuk műlik a problémamegoldás, ami több területen hazavághat egy nagy projektet. A Havokot is csak akkor hajlandók továbbvinni, ha kapnak egy olyan licencet, amivel szabadon átírhatják a forráskódot, ha nem, akkor el fognak menni a Bulletre. Költséges? Az, de a saját kezükben lesz a sorsuk.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Hogy minek? Hát ők írták volna meg az erőforrás-igényes effektek 80%-át a játékba. Azt kell kérdezni, aki megírja, mert ők ismerik a forráskódot és azt, hogy mennyit tudnak rajta gyorsítani x időtartamon belül.
Gondolom nem úgy lett 2013-ban bemutatva az a videó, hogy ezeknek az effekteknek a többségét nem tudjuk megcsinálni, de kell a hype, így rámondták, hogy meglesz. 2013-ban még mindenki kőkeményen hitt benne, hogy ez működni fog.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#85552128
törölt tag
Vagy inkább mivel nincs új gen így azzal kell alkotni ami van és az kapja a maximális supportot ami van...
Az meg mellékes, hogy a HD7 és az R200 is nagyrészt ugyanazokat a GPU-kat tartalmazza meg várhatóan a következő szériában is több átnevezés lesz így az lenne a csoda ha ugyanaz a GPU másképp teljesítene...Az nV két teljesen eltérő architektúrát támogat jelenleg (Kepler, Maxwell), míg az AMD egyet (GCN) egyáltalán nem meglepő, hogy a régebbi nem kap már annyi figyelmet.
Ugyanez volt a HD4000-rel is amikor kijöttek a DX11-es kártyák, 4 évvel a megjelenés után meg a teljes support megszűnt...[ Szerkesztve ]
-
#85552128
törölt tag
"A GCN 1.2 és 1.0 között azért van számos különbség"
nV-nél is volt Maxwell1 a 750/Ti-vel, de óriási különbségek nem hinném hogy vannak támogatás szempontjából főleg nem annyi mint egy Kepler -> Maxwellnél...
"Mindettől függetlenül, én nem tartom elfogadhatónak, hogy a last gen erősen csökkentet supportot kapjon"
Csökkentettnek nem mondanám mivel továbbra sem eget rengetőek a különbségek inkább a Radeon gyorsult ami mivel aktuális termék egyáltalán nem meglepő.
Ebből leginkább az látszik, hogy AMD-nél 2 év kell, mire kapunk olyan drivert ami már maximálisan vagy ahhoz közelien kihasználja a hardvert, miközben a konkurencia már a kezdetektől gyorsabb és utána sem marad el jelentősen...
Érdekes lesz majd látni, hogyan lesz DX12-vel ha ugye a driveres optimalizációk lényegében megszűnnek...[ Szerkesztve ]
-
HSM
félisten
Legjobb tudomásom szerint megvan az oka az AMD-nek arra, hogy ezt használja. Jobb procikon az Nv megoldása szerencsésebb, gyengébb procikon viszont elméletileg az AMD-é, mivel nem kell a szinkronizációval plusszmunkát generálni a CPU-nak.
Szerintem, ha a VGA.k teljesítményét hasonlítjuk össze, akkor sokkal relevánsabb egy ROP-limites program, mint egy CPU/driver/API-limites.
De igen, egyetértek amúgy a második bekezdéssel, bár én inkább csak a számtani átlagot venném, a mértanit nem keverném ide. Inkább frametime elemzéseket vennék alapul. -
HSM
félisten
Igen, nem véletlen fordítottak ekkora energiát a szoftveres oldalba az elmúlt években és a HBM-be.
Ennek is köszönhető szvsz, hogy jelenleg olyan helyzetben vannak, amilyenben. Érdekes lesz a folytatás, remélem bejönnek a számításaik. Egy HBM-es APU mondjuk nagyon nagyot durranhatna. -
veterán
az egyik tesztben a 980Ti azonos órajel és kevesebb unit mellett gyorsabb, mint a T-X. Vagy fake a teszt, vagy jóval magasabbra boostol a tesztben a kisebbik kártya, vagy power / temp limitbe fut a T-X.
Nem hihetetlen, ha azonos a 980 Ti power limitje a TX-el, akkor a -6GB VRAM, vmint a pár letiltott shader miatt magasabb órajelre boostolhat mielőtt belefut a power limitbe, aztán ha a refnél vmi jobb hűtő van a kártyán, akkor temp limitbe sem fog belefutni, ami szintén magasabb boost órajelet eredményez.
TTomax: A maxwell nem csonkítható máshogy a felépítéseból adódóan
Szerintem ez nem igaz, az SMM-ek tiltása független a backendtől, amit a 970-nél csináltak az egy ötletes megoldás volt arra, hogy a backend sérült GM204-es GPU-kat ne kelljen 3GB-os 192 bitesként eladni.
Hamarosan úgy is kiderül, hogy mi az igazság... -
HSM
félisten
Az 5830 az egy limitált szériás termék volt, a kiszórásra ítélt "selejtes" csipeknek pimasz olcsón.
Ne az ilyen termékből induljunk ki. "Elsővonalas" termékeknél nem volt ilyen. 3850/3870, 4850/4870, 5850/5870, 6850/6870, 6950/6970, 7970/7950, 290/290X....
Az NV találta ki ezt a marhaságot a memóriabusszal, még talán a 660Ti-vel 192 bites buszra 2GB ram.
Mert ugye nem az a gáz, mint amit elsütöttek a GTX580/570-nél, hogy volt a fullos cucc 1,5GB rammal, a kistesó meg 1,2GB rammal, mivel ott a memóriabusz is ehhez igazodott. Itt az a gáz, hogy idióta a szervezése az össze nem passzoló memmóriaméreteknek és adatutaknak. Ettől még lehet a termék gyors, de elég súlyos, nem determinisztikus performance gondokat okozhat.... Ahogy láthattuk a 660TI-nél és a GTX970-nél is. -
igen, utanna a 3.5GBt nagyon ugy nez ki megprobaltak driverbol orvosolni (plusz kb osszes erintett jatek kapott patchet, ami utan parszaz megaval lejjebb esett a terheles), szoval elvileg normalizalodott a helyzet jelenleg. ha kijon a kov utanna ez meg szerintem lehet gond, de addigra mar ugyse fogjak birni a kartyak a leghuzosabb effekteket, szoval talan ebbol se lesz baj.
---
ami a fo para volt a 970el, hogy nezd meg az osszes tesztet szept-oktoberbol, a 970 SLI a 2x145W TDPvel egy vallalhato aru, vallalhato teljesitmenyu surround/4K megoldasnak tunt (foleg, hogy a masodik kartyaval ki is lehetett varni ha az ember kompromisszumkepes volt). a 980 SLI ugye lenyegesen dragabb volt (es igazabol az a +20-25% nem annyira kritikus), a 290x CFnek meg hiaba nyestek le az arat, levizezessel egyutt az is 980 SLI arban (es teljesitmenyben) volt. legen a 290CF nekem kiesett.
ismerosi korben ketten kuldtuk vissza a 970eket (neki mar megvolt az SLI, en az akciot vartam mert felment a G1ek ara kb 25%al ahhoz kepest ahogy vettem), mindketten aktivan multimonitorozunk. viszont a tobbi kb 6-7 ember mind megtartotta es orul neki.
---
980 ti egy teljesen jo megoldas lehet ha esszel nyesik meg a dolgokat.
HSM: 970nel se volt jellemzoen annyira gaz a helyzet gyakorlatban. fHDben szinte lehetetlen belefutni a hibaiba, szoval a tobbsegnek meg mindig jo.
[ Szerkesztve ]
Don't dream it, be it. // Lagom amount.
-
HSM
félisten
Egyáltalán nem felesleges ezt figyelembe venni. A nagy mennyiségben szórt csipeknek nem volt megpiszkálva olyan részük, ami gázos lett volna, és ez nagyon nem mindegy. Oké, volt az 5830, ami kicsit gázos lett, de kis mennyiségben és nagyon olcsón szórt termékről volt szó, ott szerintem ez belefér. Ezzel szemben a 970 Maxwell a széria legnagyobb számban terített terméke....
A 970-el is éppen ez a gond, 4GB-ot reportol magáról, amikor épkézláb módon csak 3,5GB kezelhető. Sok játék/beállítás mellett nem is enged a driver 3,5GB-nál többet belepakolni, így nem jön elő a hiba, de ez csak tűzoltás, nem megoldás.
A 660 Ti is legjobb tudomásom szerint itt okozott gondot, hogyha több, mint 1,5GB volt belepakolva, akkor kezdett kiszámíthatatlanná válni a sebessége. De nyilván ezzel jobban képben vagy tulajként, mint én. Másfelől a 660Ti esetén nem annyira gázos a szituáció mint a 970 szervezésénél.
[ Szerkesztve ]
-
HSM
félisten
Teljesen korrekt 3,5GB-os kártyád LEHET belőle, ha figyel a driver.
-Ugyankkor szivacs van, ha valamiért nem megy a driver (értsd ki vagy szolgáltatva elég keményen a termék supportnak, és azt is tudjuk, az Nv milyen kegyesen bánik a régi szériákkal)
-Nagy kérdés, fog-e működni DX12/Vulcan alatt az ilyen driveres magic, mert a fejlesztők nem biztos, hogy erre kellőképpen oda fognak figyelni maguktól.Szerintem itt műszakilag egyáltalán nem állnak szépen a dolgok. Nem műszakilag persze, le lehet tudni annyival, hogy jelenleg csak keveseket érint, és jelenleg van működő workaround, és különben is kit érdekel, mi lesz holnap, úgysem tudjuk. De egy 100 000 forintos kártyánál ekkora ordító műszaki disznóságot, vagy lesz belőle gond, vagy nem? Háááát....
[ Szerkesztve ]
-
HSM
félisten
Igen, csak a Vulcan/DX12 alatt nagy kérdés, mit fog majd jelenteni a driver. Ha 3,5GB-ot jelent, akkor az Nv-t kb. lehet perelni a 4GB-os kártyákkal, ha 4GB-ot, akkor pedig a programot speckón fel kell készíteni, hogy ez a 4GB-os kártya mégsem egészen 4GB-os, és ez eléggé szöges ellentétebn van minden normális VGA működésétől.
Ez az eshetőség viszont csak a GTX970 és barátaira áll fenn. Ugyanis ha a 980-on lejelenti a játéknak a 4GB-ot, és a játék elkezdi használni, nyugodtan teleírhatja. A GTX970-en lejelenti 4GB-nak, a játék elkezdi használni és hopp, szivacs van 3,5GB felett...
Én nem azt mondom, hogy ez biztos hatalmas probléma lesz, én azt mondom, potenciálisan ebben benne van egy elég kemény szopóroller ezeknek a kártyáknak. Lehet paranoia, de ez a véleményem a kártyáról.
A maga idején a Titanicot is elsüllyeszthetetlennek tartották, megnézheted hol van most.Ami a 970-est illeti, nem a GTX970-et rühellem, szó se róla, az csak egy termék. Azt rühellem, ahogyan eladták (4GB, 256bit, 224GB/s), és hogy ugyanígy adják el a mai napig. Ez viszont nem kicsit nyitogatja a bicskát a zsebemben, ezt aláírom.
(#5805) gbors: Én ugyanezt gondolom rólad. Respect!
[ Szerkesztve ]
-
HSM
félisten
Elég csúnya lenne, ha így működne a direkt memóriaelérés, hogy a driver "csak úgy" beleír...
Jelenleg még a "kapcsolható" GPU-s notik esetében is fejvakarás van, hogy kerül majd low-level API mellett az egyik kártya framebuffere a másik kártyába. Pedig ez aztán nem nagy matek....Ha pedig a játék csak 3,5GB tartományt kap, akkor ugyanott tartunk, mint írtam, hogy látszani fog a turpisság elég rendesen.... (Vissza fogja jelezni a játék.)
-
persze, ismerosi korben legalabb ket 970 lett az ajanlasommal azutan, hogy en mar legariztattam a sajatomat es levizeztem a 290xet.
tanulsag... passz, ne vegyel megjelenesen beluli hat honapban videokartyat? soha ne vegyel olyan videokartyat aminel nem adnak meg gyari TDPt? segit, ha tisztaban vagyok par computer science alappal? megis inkabb
pekvizvezetekszerelo?Don't dream it, be it. // Lagom amount.
-
Abu85
HÁZIGAZDA
A low-level API-nál azt is figyelembe kell venni, hogy mit csinál a program. WDDM 2.0 alatt nem szükséges tudnia, hogy mennyi VRAM van a kártyán, mert ott a virtuális memóriára vonatkozó GPUMMU mód. Ha a program mindenképpen fizikai címzésre akarja kényszeríteni magát, akkor kell tudnia a hardver VRAM kapacitását. Ez lehetséges, főleg akkor, ha nem akarják, hogy az alkalmazás csak Windows 10-en fusson. De többen mondták már, hogy 2016 végére inkább bevállalják a Windows 10 only dolgot, mert a WDDM 2.0 túl sok előnyt kínál a GPUMMU-val és az IOMMU-val.
(#5814) Szaby59: A low-level API igazából mindegy. A WDDM 2.0 kínál olyan előnyöket, amelyekkel a VRAM használata a mainál lényegesen hatékonyabb lehet, és igazából lesz is. Mindegy, hogy DX12, Vulkan vagy Mantle, mindegyik rendszerből kihasználható a WDDM 2.0 extrája. A GPUMMU rendkívül hasznos, mert igazából a VRAM működése sokkal jobban fog hasonlítani a rendszermemória működéséhez. Az IOMMU pedig még egy lépés előre, mert igazából az adatnak nem is kell a VRAM-ban lennie, egyszerűen olvashatja és írhatja azt a hardver a rendszermemóriában is. A különböző linkelési lehetőségek is nagyon jók. Például egy GPU-val minden különösebb probléma nélkül olvashatod egy másik GPU memóriáját, sőt írhatsz is abba. Ezek a mai limitált modellhez képest nagyságrendi előrelépések. Elsődlegesen ott fog ez érződni, hogy jóval több szabad VRAM-od marad, amit persze elhasználhatsz másra. Tehát önmagában a mai pazarló rendszer ki lesz ütve.
(#5826) gbors: Hagyományos fizikai címzéssel a fejlesztő is képes beleírni az alkalmazásába, hogy a GTX 970 esetében 3,5 GB gyors memória van és 0,5 GB lassú. Tehát ez egyedi szinten lekezelhető. GPUMMU mellett nem lehet kezelni, mert ott az OS jelzi a rendszernek a VRAM méretét. A user-mode driver csak arról dönt, hogy az allokációhoz 4 kB-os vagy 64 kB-os lapméret legyen használva.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A WDDM 2.0 alatt megmarad a régi WDDM szegmentált fizikai címzése. Ez egy legacy funkció lesz, de maga a low-level API meg fogja engedni, hogy a fejlesztő megírja az implementációt a programban a szegmentált fizikai címzés működéséhez. A kezdetekben valszeg ilyen motorok fognak születni, mert túl kevés lesz a Windows 10 felhasználó WDDM 2.0 only játékokhoz. Ilyen esetben a fejlesztőknek lényegében ugyanolyan lehetőségei vannak a VRAM vezérlésére, mint ma a kernek drivernek, persze a közvetlenebb elérés miatt a WDDM ellenőrzésre vonatkozó funkcióit el lehet felejteni, tehát a sebesség jobb lesz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Igen, ezért írtam hagyományosat. Bár lehet, hogy ez így tényleg félreérthető volt.
(#5832) mlinus: Várható volt. Folyamatos regiszterhiánnyal küzd a Kepler, amire azért illik hozni egy fordított.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A Microsoft már magára vállalta a felelősséget. Amikor bemutatták a DirectX 12-t, akkor elmondták, hogy DX11-ben használt modell egy totális tévút, és mindenkit lebeszélnek azóta róla. A probléma egyébként jelentős. Minden évben azt tapasztalták a fejlesztők, hogy jönnek az új processzorok, és eközben csökken az elérhető processzoridő. Ez nem jó irány sehogy sem.
Ha olvastad, amit írok, akkor az Intel drivere ebből a szempontból a legjobb. Az AMD a két végpont között lavírozik.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
Azért ez rendesen ki van csavarva.
Nagyon finoman fogalmazol, és most nagyon finoman fogalmaztam...
Értelmezzük kicsit ezt a 2 mondatot Abu85-től:
A mai multiplatform címek szándékosan rendkívül butítottak a játékmenet szempontjából, hogy maga a szimuláció kevés processzoridőt igényeljen, és az NV driverének is legyen elég szabad erőforrás.
Tehát a fejlesztők lebutítják a fő bevételi forrásuknak számító Xbox Oneos és PS4-es a játékaikat, hogy az NV-s PC-k is elbírják a konzolokénál többször erősebb procival a szimulációt.
A Halo 3 azért nem jött PC-re, mert nem volt elég processzoridő a driver szálak mellett.
Tehát PS3-ra és PS4-re is az NV-s driver szálak miatt nem jött a Halo 3, ahogyan a legújabb Tomb Raider is csak ezért lett Xbox exkluzív, mert az NV-s driver szálak keresztbe tettek a PC-nek és PS4-nek is.
-
Abu85
HÁZIGAZDA
Nem szerintem, hanem a Microsoft szerint.
Szerintem az egész rendszer úgy ahogy van rossz, ha a gyártók nem képesek betartani a szabályait. Gondolom ezért veszi el a kernel drivert a Microsoft a DirectX 12-ben, hogy a gyökerénél tűnjön el az alapprobléma. Ezzel az a gond is eltűnik, hogy a kevés valós processzoridő miatt nem lehet komoly AI-val konzolra tervezett játékokat PC-re portolni.Az is fontos, hogy az első dolog, ami fejlődni fog a DX12-vel az az AI. Megvannak az algoritmusok. Nem állt le a fejlesztés, csak nincs meg a számítási kapacitást hozzá PC-n, de nem a hardver, hanem a grafikus driverek miatt.
Kevin Floyer-Lea low-level leírásában is ott van ez: "Ability to increase the CPU budget for other systems like AI".[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
bunygyi
tag
Szia!
Ennek fényébe kivárom a 16nm vga-kat.
Szeretnék egy átmeneti VGA kártyát!
Kis veszteséggel átlag játék felhasználásra!
Most a 980ti vagy a fiji volt tervbe véve, de így
kivárom az év végét!
Szóval mit tudnál ajánlani? kis veszteséggel!
Nincs most semmilyen kártyám és wot-ra kell csak! -
-Solt-
veterán
Itt nem az a kérdés, hogy melyik gyártó mászik rá a másikra
Pedig szerintem ez lényeges kérdés, mert nem mindegy, hogy 1 év múlva mire mész azzal a kártyával amiért most vagyonokat adtál... idáig bátran lehetett vásárolni, mert szinte semmi lényeges változás nem történt már jó ideje... én is elvoltam 2 évig a 780-l és korrekt árcsökkenés mellett (2 év alatt kb érték feleződés) el tudtam adni. Ha az új API-k alatt a Hawaii jobban szerepel mint a Maxwell, akkor kinéz a utóbbinak egy az átlagosnál nagyobb értékcsökkenés, aminek nem hiszem, hogy a tulajok örülni fognak... főleg a 980 felett.
Ez szerintem független attól, hogy nagy lépés lesz a gyártástechnológiában... ahogy jön majd a W10 és a DX12 tesztek, átrendeződhet az erősorrend, és ezzel az árak is, de itt is sok múlik majd azon, mennyi és milyen játék érkezik az új APIk-ra. Persze mint írtam ez mind feltételezés, bőven benne van a forgatókönyvben az is amit te írsz.
Meglátjuk... mindenesetre érdekes lesz mondjuk egy év múlva elővenni, hogy ki mit ötletelt!
[ Szerkesztve ]
www.smart-bus.hu
-
Milka 78
nagyúr
Na ja csak a bukás szinte borítékolt.Persze lehet itt piacot/euro árfolyamot nézni,eladni a generáció váltás előtt és alaplapi ratyi karival ellenni ideiglenesen,de kinek van erre ideje.Én Majd 1.5-éve vagyok Hawai tulaj,bukok rajta egy valag pénzt,de ez van,bele volt kalkulálva.Ha a vadi új kocsit megveszed és kijössz a szalonból az -xxx ezer ft .
Spanom is eladta a 290-et kis bukóval,majd a 970 kis bukóval,majd most a 980-at is eladja kis bukóval (már ott tart lassan mint amit én egyszerre buktam) és most várja a csodát 2 hónapig az alapalapi karival amíg én vígan játszok.
Erre mondják,hogy ilyen szakma a popszakma. -
Abu85
HÁZIGAZDA
Sok más oka nincs annak, amiért megéri szívatni a fejlesztőket. Az innováció a PC-n nem szolgálja az NV érdekeit. Ezért minden olyan effekt, amit átadnak a fejlesztőknek zárt, hogy bármennyire okos és tehetős egy partner ne tudja úgy módosítani, hogy szebb és gyorsabb legyen az adott effekt, mint ahogy azt az NV elgondolta.
Cégen belül tök jó példa az AndroidWorks. Nemrég mutatták be. Abban a GameWorks for OpenGL nyílt forráskódú és szabadon módosítható, annak érdekében, hogy a fejlesztő lehetősége meglegyen az innovációra, ami Androidon már érdeke az NV-nek.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Módját vagy hiányát? Mert ez az, amit a fejlesztők a legjobban kritizálnak, hogy nem tudják optimalizálni a zárt middleware-eket. Mi sem láthatjuk azt, hogy ezek jól optimalizált, jó minőséget kínáló rendszerek lennének. Ha azt látnánk semmi gond nem lenne, de helyette azt látjuk, hogy szimpla felhasználói hack minőségvesztés nélkül a kétszeresére gyorsítja a HairWorksöt. Milyen optimalizáció ez, amikor ilyet meg lehet tenni? Miért kellene ezt titkolni? Az iskolában kellene oktatni, hogy ezt ne csináld.
A másik dolog, hogy ezt mennyire célszerű megcsinálni, hogy közben tudod, hogy az iparág nagyágyúit elveszted ezzel a stratégiával? Ők nem akarnak feketedobozokat. Évek óta ezek ellen küzdenek, mert csak megakadályozzák őket abban, hogy jó minőségű programot szállítsanak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#85552128
törölt tag
A vízen is 64x van pedig az állítható .ini-ből is...
A másik dolog a middlewarek önmagukban nem hibáztathatóak a piac alakulásáért, azért teljesen más dolgok (is) felelősek voltak az egyik/másik cég oldalán...
Sőt ha azt vesszük az nVidia is csak a fejlesztői igényeket elégít ki
Mert eszerint van rá[ Szerkesztve ]
-
sayinpety
tag
Nehez megallapitani, am nem tunik jonak az LDS usage. Optimalizalatalan kodjaim jobbak.
Velemenyem szerint senki nem erti mi baja Nvidianak. Harom ev mulva az Intel nem kinal tobb cserelheto CPUt. 2018ra 6-7 TFLOPS IGP, 32-64GB HBM, 1-1,5TB/s chip jon PCIExpress nelkul, 200-250 watt a TDP budget. AMD maganak tervez PCIExpresst, am tul pici a piac. 2020ra feladjak ok is. Nvidianak ket eve van megmutatni, hogy a GRID cloud gaming uj PC Gaming. A GameWorks ennek resze, ahogy a dokumentaciok hianya. Fusson rosszul az application, az a jo. Nem ertek egyet vele, am nem tehetnek mast. Meglatasom szerint az Intel nem gondolja meg magat. Tobbszor beszelgettem veluk. Nem akarjak az Nvidiat. A Federal Trade Commission egyezmeny decembertol nem kotelezi oket, hogy biztositsanak 16x PCIExpresst.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Miért vezet mindenki úgy, mint egy állat?
- Touroll J1 - amikor az átlagos is elég
- Samsung Galaxy Watch5 Pro - kerek, de nem tekerek
- Windows 10
- Mesterséges intelligencia topik
- Samsung Galaxy A52s 5G - jó S-tehetség
- Dacia topic
- Trollok komolyan
- Konteó topic
- Telekom mobilszolgáltatások
- További aktív témák...
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Alpha Laptopszerviz Kft.
Város: Pécs