-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
veterán
válasz janos666 #7547 üzenetére
Gondolom akkor megszűnik a 7970 gyártása, és én meg használt piacról nem szívesen veszek kártyát főleg, úgy hogy nettoban tudok vásárolni. A 300 dolláros ár meg nagyon barátinak tűnik.
Nyilván ha lesz rá keret engem is a Hawai érdekel, de nem fogok fölös 10-k-kat adni plusz 20% teljesítményért.Addig gyorsítottuk a világot míg mi magunk maradtunk le...
-
válasz FollowTheORI #7549 üzenetére
Nem, 1080p kikelzőn nézek 1080p anyagokat (Blu-Ray filmek és ennyiben renderelt játékok, ahol élerhető hivatalos, ott HR textúracsomaggal), ehhez optimális nézési távolságból. Ebben nincs pixeltenger.
Az egész csak abból pattant ki, hogy valaki azt mondta ő azért akar 4k-s TV-t, hogy az 1080p és 720p forrásanyagok jobban nézzenek ki rajta. Én ezen akadtam ki, és innentől leginkább csak elméleti objektív tényeket védtem, míg ti a szubjektív tényezőkkel ostromoltátok azokat.
Eszembe sem jut nearest neighbourhood nagyítással nézni DVD filmeket a FullHD TV-n. Ellenkezőleg, ilyenkor megizzasztom a GPU-mat egy többlépcsős Jinc algoritmussal. De véletlenül sem állok sorba a 4k-s TV-kért olyan indokkal, hogy felnagyíthassam az 1080p forrásokat és gyönyörködhessek a resample algoritmus generálta hamis részletekben.
Amúgy szívesen vennék én 4k-s OLED TV-t, ha kapnék ehhez optimalizált felbontású textúracsomaggal érkező játékot és/vagy 4k-s filmeket (amiket így mastereltek, nem gyárilag nagyítottak fel).
De 4k-s LCD-t például megint csak nem vennék, mert nem érne annyit az a statikus felbontásnövelés, hogy PDP-ről LCD-re váltsak, mert így arányaiban közel sem nőne akkorát a mozgóképfelbontás, nagyságrendileg romlana a kontraszt, és rosszabb lenne a retinal persistence, mert a duty cycle magasabb BFC-vel is, mint a pulzáló PDP-vel.Szóval, ha lesznek megfizethető 4k OLED-ek >=50" méretben, és megjelentek az új konzolok, jönnek a hozzájuk tartozó játékok, és/vagy szivárognak a 4k-s filmek, akkor ott leszek a vásárlók közt. De addig eszembe sem jut. Mai formájában, a mai forrásokkal jobb élményt nyújt az 1k-s PDP, mint a 4k-s LCD.
Az OLED majd remélhetőleg elfenekeli a PDP-t, és mire lemegy az ára, addigra remélhetőleg lesznek megfelelő, 4k-s megjelenítőhöz való tartalmak.
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
veterán
válasz Malibutomi #7553 üzenetére
Jóó, de úgy értem, hogy a 7970 megszűnik, azaz bemész a boltba és nem lesz kapható, hanem lesz helyette 280x
Addig gyorsítottuk a világot míg mi magunk maradtunk le...
-
válasz adamssss #7554 üzenetére
Akkor szerintem le kell csapni az utolsó darabokra a régi dobozolásból.
Nekem nincs bajom a használttal, ha ahhoz van mérve az ára (a válság óta ez ritkán realizálható, amiben bűnösek mind a zsugorivá vált használt-piaci eladók, és az új termékek piacát kialakító gyártók is, ami előbbire is visszahat).
Viszont, ha már drága cuccot veszek, akkor legyen tényleg új. Ne újracsomagolt régi, kegyesen némi árengedménnyel (vagy nem, csak látszólagosan a drágábban bedobott újdonság mellett, mert manapság ez szokott történni).TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
nagyúr
válasz janos666 #7552 üzenetére
Érdekes álláspont... szerintem ellentmondásos is.
Szóval ha lesz majd 4k TV-d és monitorod, akkor nem fogod ezt csinálni alacsonyabb felbontású tartalomnál (mondjuk FullHD)?
"Eszembe sem jut nearest neighbourhood nagyítással nézni DVD filmeket a FullHD TV-n. Ellenkezőleg, ilyenkor megizzasztom a GPU-mat egy többlépcsős Jinc algoritmussal."
Mellesleg ez számomra beismerése tőled is hogy így jobban néz ki az anyag, mint eredetijében...
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
HSM
félisten
válasz FollowTheORI #7556 üzenetére
"Mellesleg ez számomra beismerése tőled is hogy így jobban néz ki az anyag, mint eredetijében..."
Ha következő mondatot is elolvastad volna...
-
nagyúr
-
aAron_
őstag
válasz FollowTheORI #7550 üzenetére
persze, a csúcskategória mindig feláros, de nagyságrendileg még mindig ennyinek tippelem.
a CF-el kapcsolatban igazad van, csak fura, hogy a mostani csúcskártya teljesítményének megfelelő új kártya 2x-ese lesz az új csúcskártya ára.
What is your ikigai?
-
nagyúr
-
válasz FollowTheORI #7556 üzenetére
Ha lesz 4k-s megjelenítőm, az azért lesz, hogy élvezhessem a valódi 4k-s tartalmakat. Az ezután nem előny, hanem elkerülhetetlen lesz, hogy valahogy fel kell nagyítani az 1k-s tartalmakat. De igen, ha már valahogy kötelezően fel kell nagyítani (nem azért, mert szeretném, hanem mert rá vagyok kényszerülve, hogy csináljak valamit, 1:1 már nem mehet értelmesen), akkor minél kellemesebb resample a algoritmussal fogom ezt megtenni.
Ugyan úgy nem tartanám meg az 1k-s PDP-t a 4k-s OLED mellett az 1k-s forrásokhoz, ahogy ma sem tartok itt az 1k-s PDP mellett egy 0.5k-s CRT-t csak azért, mert néha kedvem lenne elővenni egy régi filmet, amit nem lehet HD formátumban beszerezni. Egyrészt, mert hely és költség pazarló, kelletlen (nem lenne praktikus cserélgetni őket az asztalon). Másrészt mert ha ugyan ilyen technológiával készítettek volna egy 0.5k-s PDP-t, mint ezt az 1k-s PDP-t, az leverné a régi analóg CRT-t a geometriai pontossága és a paraméterezhető digitálisan színkezelése miatt miatt.
Ugyan ez lesz igaz egy 4k-s OLED-re. Kellemetlen lenne cserélgetni az asztalon az 1k-s PDP-vel mikor régi 1k-S Blu-Ray és nem 4k-s forrásanyagot nézek. És remélhetőleg az is igaz lesz, hogy egy ugyan olyan technológiával készült 1k-s OLED minden paraméterében, nem csak felbontásában veri majd le a régi 1k-s PDP-met, szóval a felbontások illesztésének előnye eltörpül az összesített előnyök mellett.De itt van az is, amit már mondtam, hogy nem cserélném 4k-s LCD-re az 1k-s PDP-met mert, mert ott a felbontásbeli előny törpülne el a képminőség egyéb paramétereiben történő visszalépésben (kontrasztarány, mozgóképkezelés, kijelzőhomogenitás, színhelyesség, stb -> és mikor mindkettőn mozgókép lenne, akkor a PDP még mindig 1k-s felbontás adna vissza, az LCD pedig visszaesne kb. a felére a blur miatt, szóval mozgóképen csökkenne a felbontásbeli előny is, márpedig többnyire mozgóképet akarok élvezni).
Ez szerintem messze áll attól, hogy szeretek resample algoritmusokkal nagyított képeket nézni. Ha lenne elfekvőben egy nagyon pöpec (a maga korában high-end és azóta nem széthajtott) CRT-m, amit nem tudnék pénzzé tenni, de elférne a szobában és egy robot pakolászná helyette az asztalon, akkor azon nézném a régi DVD-imet, amiken olyan anyag van, ami sohasem jelent meg Blu-Ray-en.
Én egy ideje már minden problémára a lehető leginkább költséghatékony, és azután legkényelmesebb megoldásokat keresem, nem pedig az aktuális marketingmaszlagot hajkurászom, hogy nekem már 1k-s forrásokhoz is 4k-s megjelenítő kelljen, mikor az 1k-s anyagokhoz vehetnék még jobb minőségű 1k-s megjelenítőt is, amik 1k-s forrással lekörözik a 4k-sakat (kontrasztban és mozgáskezelésben siralmas a méregdrága 4k-s LCD is egy megfizethető 1k-s PDP mellett).
Az, hogy a 0.5k-s anyagot hogy nézem 1k-s megjelenítőn, az már csak optimalizálás. Sohasem volt cél az 1k-s megjelenítő vásárlásakor, hogy majd élvezhetem az alising és ringing artifact-eket az újramintavételezett képen. Sőt, pontosan arra törekszem a resample algoritmus megválasztásakor, hogy ezt minimalizáljam, a lehető legközelebb kerüljek ahhoz, mint ha 0.5k-s megjelenítőn néznék 0.5k-s anyagot.
Ezért használok Lanczos helyett Jinc algoritmust. Nem olyan szintetikusan túlélesített a kép, kevesebb az alising s ringin. És még erre is ráküldöm a de-ringing szűrőt, mert nekem nem kellenek a hamis kontúrkiemelések!
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
válasz omikron23 #7563 üzenetére
Nem, mert nem érdekem, hogy magánbeszélgetést folytassak róla és egy ember megmásíthatatlan véleményét próbáljam megváltoztatni, csak az zavarna, ha valótlan állítás maradna meg a publikum hasábjain végszóként, legyen az akár témába vágó vagy sem. (Nem azért, mert engem hazudtol meg, hanem mert félrevezető minden olvasó számára.) És messziről határterület a megjelenítés, mert anélkül nincs digitális grafika.
De elnézést kérek az offolásért.
Én is sokkal szívesebben olvasnék vagy akár elmélkednék az új generációs VGA-król és a játékfejlesztői vonatkozásokról ebben a topickban.[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
ricshard444
veterán
válasz omikron23 #7563 üzenetére
Yep, ezt olvasom már második napja, ne haragudjatok, de kétlem, hogy rajtatok kívül ez olyan sok embert érdekel így 2013-ban, majd ha tapasztalatból fogtok a 4K-s filnézésről beszélni akkor nyomjátok a monitor topikjába, de ez már rettentően unalmas, mikor köze nincs a topik témájához
[ Szerkesztve ]
Vannak dolgok...
-
Malibutomi
nagyúr
[ Szerkesztve ]
-
energy4ever
addikt
Ha jonnek majd az uj VGA-k, akkor mennyi lesz hasznaltan a 7970-es karik ara kb?
Erdemes mar most eladjam a 6970-es karijaimat, vagy azok nagyjabol fogjak tartani az arukat, miutan kijottek az uj R7/R9-es VGA-k? -
aAron_
őstag
What is your ikigai?
-
omikron23
senior tag
válasz energy4ever #7568 üzenetére
Szerintem az árak a megjelenés előtt esnek már, mert többen szeretnének váltani az next. gen. kártyákra. Én már kb. 3 hete eladtam a kártyám, nem akartam az utolsó pillanatra hagyni, és nem szerettem volna sokat bukni az árán. Azt, hogy jól döntöttem-e, majd kiderül, egyenlőre reménykedem, hogy nem aranyáron jönnek az új VGA-k...
ASUS Maximus XI Hero (Wi-Fi) :: Intel i7-8086K :: G.SKILL TridentZ 32GB DDR4 4000 MHz :: Asus TUF RTX 3070 TI
-
radi8tor
MODERÁTOR
Ennek a videónak több értelme lenne itt: HANDS-ON the AMD Radeon R9 290X & Ultimate Fangirl Moment at #GPU14 Event Vlog Part 2
⭐ Stella
-
CsonkaImo
addikt
Sziasztok!
PCI E 2.0 csatlakozó már hátrány lesz az új kártyáknál? Kihasználják majd a 3.0 előnyeit? Mert a jelen generációnál nincs nagy különbség ha jól tudom.
-
nagyúr
válasz CsonkaImo #7572 üzenetére
Egy kártyás rendszereknél biztos hogy nem probléma.
2 vagy többnél már lehet némi előny a 3.0 alatt, mert a 8x (amikor 2 káryád van felezi a legtöbb lap) annyi mint a 16x volt 2.0 alatt sávszélességben.[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
CsonkaImo
addikt
válasz FollowTheORI #7573 üzenetére
Köszi a választ!
-
Látom sokan elolvadnak a Mantle hallatán. Ezzel én is így lennék, ha a közepesen távoli múlt nem azt bizonyítaná, hogy az ilyesmik bizonyos szempontból halva születnek. (Aki emlékszik, nemrég offoltam egy csomót a Creative féle EAX-ról és az OpenAL-től, amik nemrég haltak ki méltó utód nélkül.)
Kétségesnek érzem, hogy ha az AMD-n kívül más nagy piaci szereplő készít hozzá drivert, akkor vajon használja-e majd bármely játékfejlesztő, aki épp nincs az AMD-vel közös marketing-hadműveletben. Márpedig akkor sokkal nagyobb a füstje, mint a lángja. Gyakorlatilag talán már a Frostbite-al bezáródik a kör, és az arra épülő játékokból sem lesz mindben elérhető. (Én pl. két Frostbite alapú játékot várok a BF4-en kívül, a Bioware-től, és részemről ennyi. Amíg utóbbi kettőről nem is tesznek említést a Mantle kapcsán, addig ez engem nem szögez le az AMD mellett.)
Másik kérdőjel számomra, hogy miért hiszik, hogy az nVidia egyszerűen tudna saját Mantle drivert írni a kártyáihoz? Az AMD sokkal jobban ismeri a saját alkotását, mégsem készít drivert csak a GCN architechtúrás megoldásokhoz. Melyik hasonlít jobban az ~ Island AMD chipekhez: a Cypress vagy a Kepler? Melyik lenne egyszerűbb: az AMD-nek támogatni a Cypress-t, vagy az nV-nek a Kepler-t?
Mondjuk mostanában kicsit le vagyok maradva, hogy melyik GPU hogy épül fel, azzal pedig még mindenki, hogy pontosan mit is tud/kér a Mantle (v1.0), de valahogy biztos vagyok benne, hogy hacsak nem kezdi el használni kazalnyi játék, akkor rá sem néz az nVidia.Nameg... Itt van ugye ezer éve az OpenGL. Ha nagyon akarta volna, akkor bármely komoly játékfejlesztő és/vagy GPU gyártó megpróbálhat beleszólni. Ha mindkét oldal akar valamit, akkor biztos megszülethetett volna egy olyan 5.0 kiadás, ami mindenkinek jó, tehát minden gyártónak és a programozóknak is. De nem így nézett ki a közelmúlt. Talán egyedül Carmack szórakozott vele, de már ő is használt DirectX-et is.
És ha már Carmack, akkor ő szórakozott a CUDA-val is, mint potenciális játékmotor alap. Nyilván nem láttunk végül belőle semmi (talán egy másik csapat használta egyszer a CUDA-t élsimításra egy RTS-ben + talán pár techdemó hasonló apróságra).
És ebben már nagyon nem vagyok biztos, de mint ha elvileg a CUDA-t is épp úgy támogathatná az AMD, mint ahogy az nVidia a Mantle-t. Mégsem tették, pedig a PhysX miatt érdekes lehetett volna, illetve mára már kiforrottnak mondható a CUDA. Perszer, hogy nem tették, de ugyan így nem akarja majd az nV sem az AMD cuccát, ha nincs rákényszerítve.
Persze jön még az érv, hogy mindkét új konzol GCN-es GPU-kra épül, és hogy azokon is lesz Mantle. Igen, és ugyan úgy lesz saját konzolspecifikus low level API, mint eddig. A játékfejlesztők pedig mást sem mutattak az utóbbi években, mint hogy szándékosan gyenge hatékonysággal futó PC portokat akarnak kiadni. Ahelyett, hogy optimalizálnának, még az automata compiler optimalizációkat is direkt kikapcsolják, és eszükbe sincs a 4+ magos CPU-k idejében a minimálisan szükségestől több magot használni (hogy egy megjelenéskor aktuális erős CPU-n legyen minimum ~30fps, mind konzolon, még csak nem is 60, amennyinek illene).
Miért szeretnének akkor most ezek a játékfejlesztők hirtelen egy turbó gombot nyomni a PC portok teljesítményén? Most se teszik meg, mert néha szó szerint ott van előttük a "turbo gomb", hogy kapcsoljuk be, vagyis inkább ne kapcsoljuk ki az automata compiler optimalizációkat, és esetleg próbáljuk már ott szétszedni több CPU szálra a dolgot, ahol akár már a compiler is automatikusan szétrántja nekünk, ha megkérjük mutasson rá és csak ellenőrizni kell, hogy menni fog-e.
Szóval, mit hagyok ki a képből, amitől a Mantle az új hardware generáció aktív marketingidőszakán túl is sikeres lesz? Legalább annyi kéne, hogy higgyek benne, hogy az AMD legyen elszánt és mondja, hogy ha kell, akkor egyenesen erőltetni fogják, és nem állnak le ezzel 1-2 éven belül, leghamarabb a következő konzolgeneráció söpri el (ha lesz olyan, és főleg ha már tisztán szoftver rendererrel operál majd).
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Z10N
veterán
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Én még így is azt kívánom, hogy haljon ki végre a CF/SLI.
Volt már több GPU a gépemben (egy és több nyákon is), mindig megbántam.
De amúgy is, ne próbáljanak engem belehajszolni abba, hogy két (több) kártyát kelljen vennem.
Főleg, hogy a Mantle is gyorsítana, ha minden igaz.Az is érdekes, hogy régen voltak alaplapok CF módban is teljes sávszélességű PCI-E portokkal, de mióta beköltözött a PCI-E vezérlő a CPU-kba, azóta szűkültek a lehetőségek. (Persze elvileg lehetne a CPU-nak is sok-sok PCI-E csatornája, de nem ez a jellemző). Mégis most térnek vissza ide. (Azt hiszem régebben is ment vagy a CF, vagy az SLI is ilyesmi üzemmódban, híd nélkül, csak picit lassabban.)
Azért érdekes, hogy a DisplayPort-on évek óta kimegy 10 bit/channel, ha támogatja a monitor (és szintén évek óta sok, főleg Dell IPS és drágább NEC, EIZO, stb monitorok támogatják is), a DVI-on viszont nem, látszólag mégis azt javasolják, hogy először köss be minden (n>1, n<=3 darabszámú) monitort DVI-ra, és csak utána kezd el használni a DisplayPort elosztót (bár igaz, hogy nem tudom hogy ilyen elosztóval is működik-e a 10 bit/channel, még nem próbáltam, de a DP 1.2-nek jó nagy a sávszélessége...).
Persze ebből semmit nem vesz észre, aki nem kalibrálja a monitort VGA LUT-al (de ha egymás mellett van 3, akkor nagyon nem árt, ha egyformára vannak belőve), agy használ specifikusan 10-bites renderert. (Sőt, hétköznapi körülmények közt talán még akkor sem, csak tesztábrákkal.) De ettől függetlenül, szerintem alapvetően az elméletileg legjobb megoldást illik javasolni, még akkor is, ha a következő verzió sem okoz feltűnő hátrányt. Ugyan úgy, ahogy nem D-sub-al kötünk be egy monitort, amin van DVI, HDMI vagy DP, még akkor sem, ha ránézésre épp fel sem tűnik (bár az általában fel szokott, mert nagyobb a difi, de a lényeg, hogy van, ott is és itt is...).
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Z10N
veterán
válasz janos666 #7578 üzenetére
Azt viszont elfelejted, hogy manapsag egy GPU-t nem csak jatekra lehet hasznalni. Van aki kimondottan ilyen tobbkartyas rendszert epit ki GPGPU/OpenCL muveletekre. Eyefinityhez hozzaszolva, igazad van valamelyest. Ettol fuggetlenul nekem az eyefinity3 kivaloan mukodik DVI+HDMI+mDP-n keresztul. Engem inkabb az erdekel, hogy vegre ezeknek az MST HUB-oknak az ara csokkeni fog-e.
[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Z10N
veterán
Errol lenne szo:
AMD MST HUB
Club3D MST HUB Product Info
Club3D MST HUB News
Guru3D: Club3D MST HUB
OC3D: Club3D MST HUB
UKHW: Club3D MST HUB
TomHW: Club3D MST HUB
HWHV: Club3D MST HUB
Mivel 100GBP egy kicsit sok erte.[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
veterán
válasz janos666 #7578 üzenetére
1. Nem tudom téged miért bánt. Nem építesz és kész.
2. Nem csak játszanak a világon, létezik professzionális felhasználás is.
3. Még az ilyen kis cégek mint az Apple is építenek többkártyás rendszereket, mert igenis van rá igény.[ Szerkesztve ]
Addig gyorsítottuk a világot míg mi magunk maradtunk le...
-
HSM
félisten
válasz janos666 #7575 üzenetére
A Mantle-ről.... Annak idején a Glide is azért terjedte el, mert többet lehetett vele nyújtani az aktuális API-knál, amik le voltak maradva a hardver képességeitől. Pontosan a mai helyzet vs GCN. Ez egy szükséges rossz, hogy továbblépjen az API és a konkurencia, és ha utol lesz érve aMantle API, ugyanúgy ki fog halni, mint az elődei. De én nem vagyok emiat szomorú. Ilyen a világ.
(#7578) janos666: A CF szerintem is egy borzalom, mégis sokan szeretik. Engem nem zavarnak vele, tehát nem izgat a dolog. Mivel nem tetszik, nem építek magamnak.
Ami az alaplapokat illeti... Akár AMD akár Intel platformon ott vannak a fullos 16/16 lapok. Sokkal mélyebbre kell nyúlni a pénztárcában, mint egy 8/8-as lapért, főleg Intelnél, de nem mondhatod, hogy nincs erre megoldás.
-
TESCO-Zsömle
félisten
Ugyanakkor fontos megjegyezni, hogy alig mérhető különbség egy 8-as és egy 16-os portban levő videókártya közt, mert a fejlesztők a késleltetése miatt minimalizálják a PCIe használatát.
Sub-Dungeoneer lvl -57
-
HSM
félisten
válasz TESCO-Zsömle #7583 üzenetére
Nemcsak ezen múlik, játékfüggő is a dolog. Mondjuk nekem 3.0-s slotban nem volt mérhető difi a 8X-és 16X-os mód között, mikor két 7900-asom volt azokkal a játékokkal, amikkel próbáltam. Ugyanakkor, többen számoltak be jelentősebb lassulásról 2.0-ás 16-os portból 8X-ra történő váltásnál ilyen karikkal a topicjában.
-
HSM
félisten
válasz Malibutomi #7585 üzenetére
Pontosan. Viszont ezekszerint a 2.0 16x is elég neki, míg a 2.0 8x itt-ott már nem ideális a helyzet. Szerintem jó hír ez a régebbi rendszert használóknak, hogy 16-os slottal nem maradnak le semmiről.
-
nagyúr
A Glide azért terjedt el, mert nem volt más... anno a 3DFX egyeduralkodó volt szinte ezért amikor 3D gyorsításról volt szó csakis Glide volt.
Ha jól emlékszem a DX 1 vagy 2 évvel később jelent meg.
Az első időszakban még DOS alól is simán volt 3D gyorsítás Glide használatával 1-2 programban.
A Glide akkor kezdett kihalni mikor a DX megjelent és vele a nVidia, mint konkurens.
Az első Riva kártyákkal... majd a TNT korszaktól kezdve szépen bedarálta az ellenfelét.
Szerencsére közben az AMD is megjelent épkézláb használható megoldással.
Ebben az időszakban eleinte még volt játék ahol választhattál a két API között ha volt 3DFX kártyád, és általában picit jobb volt a Glide, vagy valami plussz tudás vagy sebesség miatt. De ez 1-2 év alatt eltűnt az API-val együtt.Nagy kérdés van e az AMD annyira erős hogy kellően el tudja terjeszteni ezt a dolgot a fejlesztők között.
Sokszor volt már technológiai előnyük, amit szoftver oldalon sose tudtak kamatoztatni vagy átverni időben, csak akkor amikor már a többiek is tudták azt, sőt általában már jobban.Lásd TrueForm, Tesszeláció esete, DX verziók.
Egy gyors pillantás a steam hw surveyre azt sugallja... nem lesz most sem egyszerű ez.
Én drukkolok nekik... sőt imádnám ha az MS-t kiütnék grafikus API szinten a játékból 1-2 éven belül.
Ha lenne egy 3rd party API ami működik minden OS-en és fejlett az maga lenne az álom.
Ehhez sajnos szövetkezni kellene az nVidiával... meg az Intellel is.[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
TESCO-Zsömle
félisten
válasz FollowTheORI #7588 üzenetére
Nekem az a gyanúm, hogy a Mantle elsődleges húzófunkciója a next-gen multiplatform játékok közel konzol-szinten történő PC-re portolása. A bibi ugyanaz vele, mint a Glide-al vagy a CUDA-val. Nem független, így a konkurensek nem fognak beállni a sorba...
Sub-Dungeoneer lvl -57
-
aAron_
őstag
válasz FollowTheORI #7588 üzenetére
"Ha lenne egy 3rd party API ami működik minden OS-en és fejlett az maga lenne az álom"
opencl az nem az? én csak ezt nem értem, miért nem inkább azt fejlesztették már eddig is, ha a dx olyan elmaradott
[ Szerkesztve ]
What is your ikigai?
-
WayneGace
őstag
válasz TESCO-Zsömle #7589 üzenetére
Elvileg beállhatnak, mert nyitott, csak kell egy gcn-hez hasonló architektúra. Maxwellel ez az nvidianak is meglesz elvileg.
BestSecret invitációt privátban adok.
-
Z10N
veterán
-
radi8tor
MODERÁTOR
Ennek a második mondata felettébb vicces:
"Few days ago LegitReviews claimed that the bundle will be available in a very limited number of 8,000 units. What is even more surprising is that the specifications and the price would not be disclosed before taking an order."
[ Szerkesztve ]
⭐ Stella
-
nagyúr
tehát akkor a 280X épp egy hangyaf***nyit lassabb lesz, mint a 7970 GHz? érdekes, én a helyükben egy kicsivel gyorsabbra hangoltam volna. lehet, hogy olcsóbb így a memória miatt.
a második meg no komment (ha igaz). mondjuk teljesen összhangban van a bejelentős eventen mutatott fejetlenséggel.
@radi8tor1: a launch eventből is kiderült, hogy ez a terv - sajátos.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
HSM
félisten
válasz radi8tor #7596 üzenetére
Most az, hogy 5500-on megy a RAM, vagy 6000-en... Szvsz édesmindegy ~1Ghz GPU környékén.
Tuningnál meg megint mindegy, mert nyilván abban is lesz kis tartalék... Viszont kis csalódás, hogy a sima Tahiti XT GPU megy csak rá, úgy tűnik semmiféle refresh nem lesz. Végülis, legalább jobban megmarad a két 70-esem értéke.[ Szerkesztve ]
-
Crytek
veterán
Egyelőre lelőtték a Shadow of the Ethernals-ot
AMD-nek elfogyott a zsetonNext PC Upgrade: 2022
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Újszerű - POWERCOLOR Radeon RX 5500 XT 8GB GDDR6 VGA videókártya
- ELADÓ 32 DB Nvidia RTX 3060 Ti és 8 DB Zotac Gaming Geforce RTX 3080 Trinity / KOMPLETT BÁNYAGÉP
- Eladó ASUS GeForce GTX 1660 Super 6GB Phoenix videokártya (PH-GTX1660S-6G)
- PCX Garancia! MSI RTX 3080 Ti 12GB GDDR6X Gaming X TRIO Videokártya! BeszámítOK
- Hibátlan - PALIT GTX 1650 StormX 4GB GDDR5 VGA videókártya - tápcsatlakozó nélküli !!!
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen