Hirdetés
-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Petykemano
veterán
Te is írtál már a Qualcomm AI gyorsítóról.
Ez egy AT cikk részlet:
"The chip consists of 16 “AI Cores” or AICs, collectively achieving up to 400TOPs of INT8 inference MAC throughput. The chip’s memory subsystem is backed by 4 64-bit LPDDR4X memory controllers running at 2100MHz (LPDDR4X-4200), each of the controllers running 4x 16-bit channels, which would amount to a total system bandwidth of 134GB/s.For those familiar with the current AI accelerator designs, this bandwidth figure sounds extremely anaemic when put into context against competing design capabilities such as that of the A100 or the Goya accelerator which sport HBM2 memory and bandwidth capabilities of up to 1-1.6TB/s. What Qualcomm does to balance this out is to employ a massive 144MB of on-chip SRAM cache to keep as much memory traffic as possible on-chip."
[link]A lapkaméretet itt ugyan nem tudjuk, de a fogyasztás impozáns.
Ez alapján a szóbanforgó megoldás - az AMD-től - nem volna egyedi.[ Szerkesztve ]
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Ami azt illeti, azt gondolnám, hogy ugyanezt a technológiát beveti az AMD a CDNA sorozat valamelyikénél is. "Data locality is everything" jeligével.
mármint ha a Qualcomm így okoskodja ki az AI gyorsítónál és működik, akkor az instinct sorozatba készülő CDNA-nál is működhet. És ha már használnak ilyen technológiát a CDNA-ban, akkor már csak egy lépésTalálgatunk, aztán majd úgyis kiderül..
-
Jack@l
veterán
Ez is megy az aranyköpések listába Poor 3090
Évekig hypolt HBCC hogy van? Most, hogy lassan meg is villanthatná a tudását 8gb-os kártyákkal, amd elkezdi a 16-32-es kártyákat árulni?[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
-
TESCO-Zsömle
félisten
Ezzel most nem értek egyet. Ha valaki a kártya fogyasztására kíváncsi, annak tarkóncsapás a rendszer teljes fogyasztása, mert vagy olyan alaplapja van vagy nem, vagy olyan procija, vagy nem, vagy olyan beállításokon, vagy nem...
Szerintem ha valaki számolni akar, akkor fontos, hogy a komponensekről külön-külön álljon rendelkezésre mért fogyasztási érték, mert annak az esélye ,hogy találj egy tesztet, amiben pont olyan alaplappal, pont olyan CPU-val, pont olyan memóriákkal és pont olyan VGA-val pont olyan beállítások mellett végeznek teszteket, gyakorlatilag elhanyagolható. Főleg ,ha 1-2 komponensből nem az abszolút csúcsot célzod meg, amit a legtöbb teszt-állomáson szokás, hogy elimináljanak minden bottleneck-et.Sub-Dungeoneer lvl -57
-
TESCO-Zsömle
félisten
Dehogynem tudsz, mert ha a hoszt processzor fogyasztása érdekel, akkor nem az érdekel, hogy a VGA maximális terhelésénél mennyi, hanem hogy a processzor maximális terhelése mennyi a VGA nélkül. Aztán összeadogatod a maximumokat és akkora tápot kell venned. Ez ilyen egyszerű.
Persze ez megint csak a magamfajta agybajosokat érdekli, a többiek fogják a TDP-ket, összeadogatják, megtolják még 20-50%-al és akkorát vesznek, ökölszabályra, a tényleges fogyasztást meg letojják.Sub-Dungeoneer lvl -57
-
Jack@l
veterán
Például fizikai szimulációkban.
Morgyi: nem tensorra gondoltam, azt tudom mire való. Használom is.
Petykemano: nem olvastam végig a hsz-ed... inkább amire válaszoltál, válaszoltam. :S
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Jack@l
veterán
VK_KHR_RAY_TRACING_EXTENSION van a mostaniban. Amit meg én néztem 5 éve, az sima opengl + cuda volt. (és futott is az 1070-emen, bár nem volt egy vízfolyás)
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Jack@l
veterán
Tehát csítelnek a raszterizálássl is, nem foglalkoznak 8-10 pixel kirajzolásával, az egy pixel eredmlnye és színe lesz...
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
#09256960
törölt tag
Én azt nem értem a dologban hogy nagyon szemléltető ez a két rajz,
akkor meg is van mi benne a dual , két külön poligonpájplájn de az ilyen pixel méretű poligonokat amikor kiszámol miért nem tárolja el valahol ? mondjuk egy saját memóriacímbe ami lehetne egy kess is és akkor nem kellene ujra számolni. (ha nem dinamikusak a fények ) A távolban lévő poligonokat eleve nem kellene 144-szer kiszámítani másodpercenként, ha egy vonat ablakából látom a mátrai erőművet bámulom akkor az kb 2 percig pont ugyanúgy néz ki és mégis másodpercenkét 144-szer kiszámolódik, miért nem csak azt számolják hogy kerül e elé egy fa és akkor viszont kell számolni.
Tehát amíg NV halottam pontosan hogyan működnek ilyen előjósló algoritmusok itt nem hallunk ilyenről.
Mondjuk én ezzel se értek egyet hogy majd a pc 4 generáció alatt éri el a konzolt, hát miért nincs egy közös fejlesztési terv és lenne AMDé egy konzolkártya.
Petykemanó: Hol a régi lázadó szellemed megfilmesítette a retroshock ? régen ilyenre haraptál ABUtól hogy:
"a nagyobb Navit és arra koncentrálnak, hogy az új generációs konzolok dizájnjaiból minél több képességet átmentsenek PC-re."
Ilyenkor már széjjel rúgtad a találgatós karámajtót hogy a szemi kasztöm nem teljesen el van választva jogilag az AMDtől hát hogy lehet kukucskálniuk ?
Devid_81: Van egy jó hírem az időgépemmel Okt 08-ra hoztalak ma van a nagy ZENdülés
Bár ugyan sokmindent tudunk már róla
Mert a kess az fontos ... De azért nézzük már meg az a 3 csipp hogy van összedrótozva .[ Szerkesztve ]
-
félisten
ez a 670$ honnan van mer Igor pont azt mondta hogy Nvidia a 50-60% körüli marzst szeretné az Fe-n kb 40 % körül van. egy YT videóban azt mondtákhogy 352 $ körül van a haszna Nvidiának egy FE 3080 karin. ha csak 40 % akkor ez magyarázná a 3090 1500 dolláros árazását, ami ellensúlyozná valamelyest a kiesést az extrém magas árával.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
PitLee
őstag
Az FE hűtő az nem valami "présöntvény" , legalább is úgy néz ki, a AIB kártyákon a rézcsőre huzigált lemezek lehet, hogy olcsóbbak .
-
paprobert
senior tag
Földig lealkudott Samsung node + formavezérelt dizájnú PCB (pár 10 dollár extra) és hűtő (pár 10 dollár extra) nem lesz végül 670 dollár. Soha, sehol.
A forrásod vagy sz*pat téged, vagy csak tüzet old az általános MSRP vs. valódi ár miatt felháborodás okán egy ilyen indokkal.
[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
-
GeryFlash
veterán
Hogy mi van? Abu te ezt most komolyan be akarod nekünk adni? Hogy az anyagköltseg fele a memória? Hogy a kártya előállítási költsége az msrp 95%-a? Jézusom hagyjuk már ezt, semmilyen belsős infó nem kell ahhoz hogy tudjad hogy ez óriási kamu. Igen valószínűleg 10GB VRAMért 300 dodót fizetnek
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
Petykemano
veterán
Sokan úgy vélik, hogy azért nincs ellátás 3080 és 3090 kártyákból, mert a SS8N csak átmeneti megoldás az nvidiánál és a már készülőben levő GA103-mal fogja majd kiszolgálni tömegesen az igényeket.
Akkor azt mondod , hogy ezzel nincs összefüggésben, hanem a GDDR6X kínálat kicsi és/vagy drága és azt várjuk, hogy legyen több/olcsóbb?
[ Szerkesztve ]
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Jó, de a Samsung soha nem gyártott még ekkora lapkákat, nem? Nem tudom, hogy a lapkaméret számít-e azon kívül, hogy általában mennyi a defect density és hogy ha kellően nagy, akkor nagy lapkából túl sok hibás. De van valami maximum reticle size is, amit szoktak emlegetni.
A GA103 amúgy miért jön? Ha a TSMC-re jött volna, azt gondolnám, hogy annyival jobb(an sikerült), hogy egy kisebb (értsd kevesebb tranzisztor) lapkával is tudják hozni a GA102 teljesítményét. De ha az is Samsung, akkor hasonlóan jó lehet, mint a GA102 - feltéve persze ,hogy a GA103 és GA104 nem tekinthető már egy második generációnak abban az értelemben, hogy mennyire ismerik a samsung node-ját.
Persze értem, hogy nagy a gap a 3070 és a 3080 között, de a 103-as elnevezés azért szokatlan.
Egyébként miért kéne az nvidiának most elkezdeni áttervezni a lapkát a TSMC-hez? miért ne kezdhettek volna bele ebbe a munkába 1 évvel ezelőtt, amikor már biztosan látták, hogy a SS 8N gatya?De valószínűleg igazad van, mert ha az lenne, hogy a GA103 a megmentő a TSMC gyártósorairól és már csak hetek-hónapok kérdése és megérkezik, akkor megint felesleges lett volna húzni a kártyákat. Tehát a GA102-re épülő termékeket ki lehetett volna pakolni -50-100W fogyasztással szoksásos hűtővel -4-5% teljesítménnnyel. Ha jön közben a navi, ami amiatt pár százalékkal beelőz? Semmi gond, már húzzuk is rá a GA103-at, ami visszaveszi az elsőséget.
Tehát: a GA103 valószínűleg nem megmentő
Találgatunk, aztán majd úgyis kiderül..
-
GeryFlash
veterán
Mikor láthatunk az AMD-től és az NV-től az első 5nm-es (akár professzionális, pipe cleaner célra) kiadott VGA-t? 2021 H2 vagy csak 2022? AMD marad vélhetően a TSMC-nél mint kiemelt partner a CPU megrendeléseinek hála, míg az NV Samu 5nm? Vagy ezután Jensen kétszer is meggondolja hogy a Samu alulárazásával se éri meg a potenciális szopást? A Qualcomm 875-ből fognak esetleg következtetéseket levonni a Samu 5nm-réről vagy irreleváns nekik?
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
GeryFlash
veterán
Koszi! Persze azt ertem hogy keson mentek ra a 10 alatti csikszelessegre, de itt en inkabb nem is az idot latom problemanak (bar hasonlo a ketto) hanem azt hogy nem volt pipe cleaner. Ezert kerdeztem hogy mennyire jo taktika kulon valasztani az AI-t a gamigntol, amikor elobbi szolgalhatna pipe cleanerkent az adott nodeon, es akkor a nagyobb volumenu de kisebb darabszam/mardzs aranyu gamingnel mar lenne tapasztalat.
Vagy pipecleanerknek nem feltetlen kell meg is jelenniuk? Ahhoz mondjuk kcisit draganak gondolnam
Meg azert szerintem sokat szamit tovabbra is hogy adott node milyen, en ertem hogy ez a 8nm egy half node, de ha megnezem az Exynos vs Qualcomm procikat 7nm-en (TSMC vs Samsung) ott is kijon hogy melyik 7nm a jobb... Nyilvan 5nm-en ez valtozhat, de szerintem ez a mostani generacio jo pelda ra hogy az Nvidia nem feltetlen engedheti mar meg, hogy rosszabb node-on gyartson mint az AMD.Illetve Abu arra valaszolj, amit sokan pedzegettek, hogy hogy a francba van hogy az AMD evekig szopott hogy nem vette kulon a prof es gamignet, mig az Nvidia igen, most pedig csereltek, bejott a CDNA es RDNA kulon valasztas mig az Nvidia pont hogy ,,egybeolvasztotta" a kettot, es annak rendje is modja szerint AMD eloretort Nvidia meg beszopta es oda az oriasi elonyuk.
Persze megtippelni se tudnam mekkora szerepet jatszik ez valojaban, de mi lehet a hatter emogott? Nvidia sporolni akart, AMD meg ugy volt hogy inkabb legyen koltsegesebb de szeparaljuk a kettot es legyenek jobbak? Azt ertem hogy az AMD miert valtott strategiat de az Nvidiat mi vihette erre ra?[ Szerkesztve ]
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
Laja333
őstag
És ezekből mikorra várható a végfelhasználók szempontjából működő termék?.
Olyanokra gondolok mint NVnél a DLSS, Noise cancellation meg a Video conference AI -
félisten
milyen hülyeség ez már megint .Hisz bárki kipróbálhatja és letesztelték ezer odlal már ezt hogy a DLSS 2.0 jól bevált jó eredményeket hoz .Nem láttam hogy hozott volna bárhol rossz eredményeket csak a te kommentjeidben.
A hozott példád is DLSS 1.0 volta múltkor mint utólag kiderült.
Életedben semmit nem fogsz elirmerni egy cégtől sem, azon kívül amit az AMD tesz le az asztalra.
Az AMD de jól csinálja hogy nem ad erre semmit mert ők a minőségre adnak... hát neked marketingesnek kellett volna menned vagy már el is mentél úgy néz ki pár éve.Malibutomi : az image shaprpening az a sharpeing filter az nvidiánál.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
nem lehet megcsinálni akkor a dLSS 2.0 micsoda és azt azt letesztelő értékelések és a játékosok véleménye erről? Fogamam sincs miről írkálsz ilyen kommenteket mikor mindneki látja a végeredményt a valóságban hogy jó és látványos FPS növekedést hoz. Tesztek vannak erre és én is átom bárki láthatja hogy amit írsz az nonszensz hülyeség, mosdatás, sározás mindegy melyik oldalról nézem.
Ergo bemeséled itt a fanoknak hogy jobb ha nem hoz AMD erre választ mert amúgy nagyon szarul működik a DLSS 2.0.( aka raytracing) ne nevetess már, ezt még az itt agymosottnak titulált AMD fanok sem veszik be tőled mert nem hülyék.
Elhiszem hogy jó lenne egy általánosan működő megoldás, tervben/ pletykálva van Nvidától hogy ami TAA-t használ az automatikusan fogja használnia DLSS 3.0-át. vagy bármi lesz a neve,de addg nincs más, nincs jobb és úgy néz ki ez jól teszia dolgát addig.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
huskydog17
addikt
Van arról információ, hogy a Dunia Engine kap-e végre explicit API leképzőt? Ubinál most már csak ez a motor maradt, ami még nem kapott. (Na jó az Ubiart Framework-nek nem is kell, annak még a DX9 is elegendő ) Dunia-t DX12 vagy Vulkan irányba viszik majd el? Ha már AMD szponzorált cím, akkor feltételezem nem DX11 lesz az alapértelmezett, hanem valamelyik új explicit API.
Abban is reménykedem, hogy a fizika is visszatér, mert az 5. részben megint csak kiherélték, úgy, mint anno a 3. résznél. Ezen felül jó volna újra szép Wind és egyéb időjárási effekteket is látni, mint mondjuk a 4. részben. Valahogy az Ubi a Far Cry sorozatnál mindig a páros részekbe rakta a jó technikai dolgokat, remélem a 6. rész se lesz kivétel. Bár mondjuk az 5. részben a face animation nagyon brutál szép volt.Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
félisten
most komolyan hozod példának a Horizon-t egy AMD featured cím? [link] milyen meglepő hogy nincs benne DLSS 2.0 igaz? és azt gondolod azért nincs benne DLSS 2.0 mert annyira bonyolult,de cserébe a cyberpunk és a metro exodus megkapta/ megkapja mert az annyira gagyi? Ne csináld már, ez nem bizonyíték, hogy a Horizonba nem tették be. Milyen érvelés ez?
mMrt melyik nem általános technológiához nem kell pénz és fejlesztés valamint idő?
Úgy beszélsz erről mintha minden technológia csak úgy beugrana a játékokba és nem kellene a fejlesztőnek semmit csinálnia vele. Amíg Nvidia pénzeli és zponzorálja addig pont mindegy annak aki egy RTX 2060 karival tolja a Fornitet 4 k.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Petykemano
veterán
A Van Gogh elviekben 8, a Rembrandt 12CU-s lesz, RDNA2.
Azt gondolnám, hogy a cache rendszer felturbózásának épp az APUk szintjén kéne legnagyobb hatásnak lennie. Ha 80CU-t elvisz 512GB/s (256b, 16gbps) akkor a 8CU-hoz a LPDDR4X/5 által kínált ~50GB/s a korábbi sávszélhiányos állapothoz képest bőséges és ezen a Rembrandt 12CU-ja sem változtat érdemben, amennyiben az már valóban DDR5-tel jön.
Az AMD korábbi - általad is gyakran hangoztatott - álláspontja az volt, hogy növelni-növelni az IGP-t és az volt a félelem, hogy fel fogja zabálni a dGPU-k alsó szegmenseit. Aztán ez végülis nem igazán következett be eddig. Azok a nagyon topa videokártyák tűnhettek csak el, amit korábban csak képadásra használtak.
Igen, igen, tudom, hogy az intel igp 70%, de a várakozás/félelem az volt, hogy a képadáson túli alsóbb, mainstream szegmenseket is megeszik az apuk és az nvidia kiszorul a piacról.Lassan eljutunk oda, hogy 1080p-t magasabb részletességgel is el fogják vinni az ilyen rembrandt féle apuk.
Viszont most hogy az intel is dgpu-t fejleszt és az AMD is versenyképes a dGPU-k piacán, mit látsz, továbbra is fennáll az a szándék, hogy az apuk elvigyék az olcsóbb dGPU-k piacát, vagy most már mindkét cég inkább piaci lehetőséget lát benne? Tehát minimál APU-k és külön értékesített belépőszintő kártya, amin 1 tile/chiplet van.
A másik kérdésem pedig arra vonatkozik, hogy ... nagy a láz az új gpu-k körül, de ezek azért egyre drágábbak. Nekem gyakran jutott eszembe, miközben röpködtek itt az $500-1500 árak, hogy valaki győzzön már meg arról, hogy inkább ezt vegyem meg és ne valamit cloud gaming szolgáltatásra fizessek elő havi $5-10-t.
Ezt se teljesen értem. Az 1080p-t lassan elviszi egy apu is. Nekem az az álláspontom, hogy ha valaki keveset játszik, a játék grafikájával kapcsolatban kompromisszumkész. Szerintem az a ritkább álláspont, hogy én évente csak pár napot játszok, de akkor legyen brutálszép. Biztos van ilyen is, de szerintem ez a kivétel.
Szóval egy apu lassan elviszi az 1080p-t. Ha nekem 4K tévém van és azon szeretnék játszani, akkor arra van élvezhető cloud ajánlat?Nyilván apuval a 4K-t nem lehet elvinni, de az 1080p-t igen. Feltehetőleg azért van az, hogy sok esetben a 1080p cloud gaming ingyenes. De ha a saját apum elviszi, akkor mi vinne oda? Legfeljebb az ingyenes játékkínálat.
(Valami biztos lesz az ingyenesben, nagyon szar minőség, vagy reklámok, amivel igyekeznek majd átterelni a tagokata fizetősre)
Ha jobb minőségre vágyom, 4K-ra, mi vinne rá saját $1000-os videokártya vásárlására, amikor ebből minimum 5 évre elő tudok fizetni cloud gamingre és ott 2-3-4 év múlva is a legjobb hardvert fogom kapni?Értem persze, hogy vannak olyan fps játékok, ahol számítanak a milliszekundumok, de azon kívül.
Találgatunk, aztán majd úgyis kiderül..
-
félisten
de ki mondta hogy otthon meg akarom csinálni vagy bármi egyebet? mi reflektáltál vagy mikről beszélsz nekem miért keverd ide ezeket a dolgokat? Azt kondtam hogy az nvidia maxine is hasonló elven működik.leszarom a googlet, azt sem tudom hogy keverted ide.
jah hát a többit meg gondoltam hogy számodra ez is szar meg az üzemeltetőknek is szar.de figyelj ez is igaz lehet, de ez sem érdekel nem volt benne mondandómban hogy ezt mekkora über dolgonak gondolom. Jó lenne ha néha a kisebbség ( Nvidiát kedvelők de nem AMD haterek pártjára gondolok, aminek alapító tagja vagyok ) mi is kommentelhetnénk szabadon.
A te véleményed egy elmondása szerint független ,de nem pártatlan újságíró véleménye, nem a piacé.
Ráadásul engem az sem érdekel ez a maxine sikeres lesz e vagy sem , egy párhuzam volt a video minőség feljavításával, ahol a H264 tizedre való tömörítéséből állítanak elő jobb végeredményt mint az eredeti. Ha telekommunikáció nem használja hasznos lehet a netflixnek és társainak ha az sem megy a süllyesztőbe akkor ott a helye de nem tudsz se te se én nyilatkozni semmilyen üzemeltető nevében, mert nem vagy az.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Callisto
őstag
Shaderekkel ha jól tudom vagy netán azt mondod, hogy meggondolták magukat és lesz plusz hardver a GPU-ban az RT számításra? Akárhogy is nézzük, amíg nem lesz még 1.1 RT-ben is le lesz maradva szerintem, de lehet kitaláltak valamit ami megoldja máshonnan hiányzó shaderek problémáját. Talán a titokzatos cache.
Az pedig, amit Te az elmúlt években "tudtál" eddig nem nagyon jött be.
[ Szerkesztve ]
"A wise man can learn more from a foolish question than a fool can learn from a wise answer." - Bruce Lee
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: Ozeki Kft
Város: Debrecen