-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
hahakocka
senior tag
Az jó mert 7900xt T nèztem ki de megvárom az Amd 8000 és S Geforce 5000 es VGA kat.
is.Akkor kb itthon is majd 280-290e Ft lehet hamarosan? Azèrt a 20 GB Vram vs 12 nagy előny 4K N. Rt is maga megeszik 2 GB vramot. Azèrt azt is nèzzük sokszor 30-40fps el vannak Rt N medimon highon 1440p-4K N... Itt aztàn mindegy kb a difi. Cyberben meg jól megy Amd pedig totâl sponsor NV s game raszterben legalábbis. Cyberben a Max RT a 4090 én is kifog kb. Rt ben is UE5 gameknèl Fortnite UE5 nèl egy, de volt hogy jobb RT Ben is. Kíváncsi leszek tènyleg ennyire szeretik majd adok UE5 engine Lumenes RT -t. Alan Wake 2 bennem azt írtàtok, hogy a friss driverrel 20-25% őt javultak RT vel ? Akkor mègse eleget. Mondjuk az is full NV game sose fogjâk utolèrni ott őket tehát Rt be. Hardveres gyorsítás sokat èr.
Azèrt ez (5700 vs superek után )a 2. alkalom, hogy NV kikènyszerül adni egy árkategóriára kèt kàrtyàt mert jól fogytak S teljesítettek a Radeonok a sima túlárazott 4070-4080 ellenèben.. Vègèn jönnek az 50 es vègű kártyâk is vàlaszul? Nem hinnèm. 8000 esekre kèszülnek èv vègère. Amúgy az RT majd a kövi 2 fejben erősödhet sokat most sok famenèl 30-40 FPS el megy csak S 3 gamen kívül sokat nem ad hozzà sokak szerint. Pl Max Payne RTX et nèztem most nem àjultam el.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Ezért írtam, hogy a VRAM terhelését nagymértékben meghatározzák a döntések, amiket a fejlesztésnél meghozol. Gyakorlatilag az explicit API-k működése miatt akármikor jöhet egy olyan játék, ami bezabál 20 GB-ot, akár úgy is, hogy nem néz ki jól.
Egyébként én a Microsoft és a Khronos helyében mindenkire finoman kényszeríteném a D3D12MA-t és a VMA-t. Pokolian jól működik a Starfieldben. Sőt, egyszerűen beolvasztanám az API-k mellé frameworkként. Az esetek többségében nem ír jobbat a fejlesztő.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Alogonomus
őstag
Az elbukott koncepció példatermékeként sokkal inkább a 4080 hozható fel a maga 10 eladott példányával. Persze a 7700 XT is valóban rosszul teljesít.
Az Nvidia kártyák közül egyedül a 4060 Ti eladásai hozzák az elvárhatót, de az is valójában 2 kártyatípus összevont eredménye.
A 7600 nem bukta, csak helyette az akciózott 6600 és 6750 XT közötti előző generációt veszik amíg azok még kaphatóak. -
-
Alogonomus
őstag
Annyira szerintem nem régen. Az RTX 20 korszak első évében valószínűleg a GTX 1060-70-80 kártyák dominálták az eladásokat, mivel abban az időben még versenyképes kártyáknak számítottak.
Vagyis az RDNA2 2020 végi megjelenéséig nagyjából a Pascal kártyák lehettek ebben a helyzetben, valamint a Turing "gyengített" GTX 16-os változatai. Mármint persze kizárva a vizsgálatból a teljesen felborult előző generációt, amikor jelentősebb számban bontatlan GTX 970-ek és talán még RX 290-ek is megjelentek a boltokban.
[ Szerkesztve ]
-
Raymond
félisten
Ez sok eve igy van hogy az AMD meg honapokig arulja az elozo generaciot nyomott arakon, de ilyen durva helyzet mint most meg talan soha nem volt. Az NV-nel mindig szorosabb volt a keszlet kontroll. Az iden borult ki a bili igazan csak amikor a 4060 es 4060Ti megjelent mert meg volt sok 3060 es 3060Ti raktaron, en nem gondoltam volna hogy kiadjak mielott megcsappan a keszlet de kiadtak. Ez hozta aztan azt a helyzetet nyar vege fele hogy 300-330EUR-ert volt 3060 12GB es 3060Ti is. Az utobbi fogyott el osszel, ekkor ugortak fel a 4060Ti eladasok, a 3060 pedig tavaly ev vegere fogyott el jelentosen, mar szinte nincs semmi raktaron most se.
Privat velemeny - keretik nem megkovezni...
-
Abu85
HÁZIGAZDA
RT-re memória kell és memória-sávszélesség. Az egyik legnagyobb baj, hogy például az olyan motorok, mint az UE5 elég szarul kezelik a DXR-t. Egyszerűen egy nagyobb részletességű jelenet csak az RT effektek VRAM-igényét önállóan 10 GB-ra lőheti. És akkor még nincs semmi más a VRAM-ban. Ez egy extrém erős limitáció. Nem véletlen, hogy az Ubisoft azzal a poligonszámmal nem is erőltette a bedrótozott bejárást. Lenne vagy 10-15 GB csak az RT memóriaigénye. Amíg ez nem változik meg, vagyis nem válik programozható, addig ez tranzisztorpazarlás, mert le kell butítani a geometriai részletességet, hogy ne zabálja két pofára az RT a VRAM-ot.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az Avatar programozható bejárást használ. Az egy szoftveres RT, a DXR 1.1-et csak arra használja, hogy a mintát gyorsítva vegye, de a bejárás teljesen szoftveres, mert amúgy nem futna azzal a részletességgel a DXR-es hardvereken. Programozhatóság nélkül nem tudsz alkalmazni LOD-ot, vagyis el kell kezdeni mindent a legnagyobb részletességgel betölteni, és tulajdonképpen ez megeszi a VRAM-ot. Ezért nem használja az Ubisoft a DXR-nek a bejárását.
Nagyon hasonló az Avatar megoldása a Brixelizerhez. Csak az egy licencelhető rendszer, míg az Avataré az Ubisoft tulajdona.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
PC-n is ez van. Azért működik így. Azért nem kötelező hozzá a DXR. Ha a DXR-re támaszkodnának, akkor nem futna az RT a DXR-t nem támogató hardvereken, például GTX 1000-en vagy Radeon 5000-en, stb. De ugyanúgy shaderből oldják meg, ahogy konzolon, ezért fut, mert az igény csak a compute shader. Tehát fut az RT az említett VGA-kon is. Ezért engedhette meg magának az Ubisoft, hogy kikapcsolhatatlan legyen a sugárkövetés. Ha DXR-en menne, kiírná a startkor, hogy nincs DXR hardvered szóval irány a bolt.
A konzolos megoldás annyiban lehet más, hogy ott ki tudják használni az egységes memóriát, míg PC-n erre azért nehéz építeni, de a koncepció ugyanaz, csak más ALU dolgozik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
hahakocka
senior tag
Igen a hardveres. Nvidia Rt magok miatt (Amd -n nincs ugye csak szoftveres) nem számít ilyen szempontból hogy mennyi Vram van köztük jelenleg , de attól mèg sok teszten látható volt hogy 1.5-2gb vramot az RT megeszik. ( Pár gameben 14-16gb közt ekkor màr most 1440-4K Rt on esetèn,) S 1450p-4K ban ez egy plusz Vram költsèg mèg főleg majd 1-2 èven belül lesz fâjó akàr S mehet a csere gyorsan.
[ Szerkesztve ]
-
hahakocka
senior tag
Az lehet de UE5 folyamat fejlődik s egyre gépigényesebb lesz. Pl Stalker 2, Witcher 4 teljesen más lesz mint az idei UE5!
7000 eseknél akkor lehet félrenéztem valamit a 6000 eseknél még tuti nem sok vagy egyáltalán nem volt. Mindenesetre NV nél sokkal kevesebb és nem fókuszált rá. Nem igazán összehasonlítható nem? 2 totál más metódus.
https://yt3.ggpht.com/0JBgeUIlyPXuXIgdmiuXzhyAeKDRYFWMPQzjxFQ6SpzTDmEfLs20izAT3zmuI20XCHEvfBAGbANN=s640-nd-v1
480 dollár már a 7800xt! Gigabyte gaming. Bár gigabyte hűtése nekem sose tetszett.[ Szerkesztve ]
-
szmörlock007
aktív tag
"Szinte minden egyes funkciónál ki van emelve, hogy optimalizálni fognak."
Mondjuk ez üdvözlendő, néha optimalizálni se árt
[ Szerkesztve ]
-
hokuszpk
nagyúr
"hokuszpk: Attól, hogy programozható, maguk a konkrét számítások fix funkciós egységeken futnak, mert sokkal gyorsabbak azon. RDNA2-ben nincs AI gyorsító hardver (ala NVIDIA Tensor), RDNA3-ban meg van."
ennek mi köze az RT Acceleratorhoz ? RT != AI
Első AMD-m - a 65-ös - a seregben volt...
-
hahakocka
senior tag
Szerintem az még fog változni láttunk már ilyet, főleg hogy az a gépigény még az UE4 es időszakból van sajna. Azóta se változtatták ha jól emlékszem. Utána váltottak UE5 re. S nem feledem milyen optimalizálatlan volt az 1. rész. Reméljük a 2. jobb lesz e téren is. Amúgy nagy klasszis az 1. rész. A kiegek nekem nem annyira jöttek be.
-
nagyúr
Pedig logikus lépés, tekintve, hogy az RDNA4 egy átmeneti megoldás, és nem a teljes piacot akarják lefedni vele. Ha tényleg mindössze két GPU lesz, akkor felesleges a chiplet design-al küzdeni, pláne, hogy az AI design nem épül rá (ie.: AI gyorsítás terén ez a család nem játszik).
Szóval egy csak két GPU-t tartalmazó családért nem hiszem, hogy megéri a chiplet design-t választani.Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
Alogonomus
őstag
Én is visszalépésnek érzem a gaming kártyák esetén a chiplet design szüneteltetését, de a chiplet kialakítás biztosan megdobja a költséget, és ha ez az ára annak, hogy az eddigre összegyűlt tudásukkal már 500 dollárért is XT és XTX között teljesítő kártyát tudjanak gyártani, akkor logikus lépés lehet.
Az AMD pedig nem engedi el a chiplet design koncepcióját, hiszen az MI 300 is nagyon jól profitál belőle, de amíg ami egy 20 ezer dolláros termék árába bőven belefér a bonyolultabb chiplet kialakítás plusz költsége, addig az egy 500 dolláros termék árát már jelentősen megemelné.
Az RDNA 2 kártyák eladásai jól példáz(t)ák, hogy egy kártya ár/érték mutatója a legfontosabb szempont, és abban egy 500 dolláros 7900 XT és 4080 közötti kártya még annál is sokkal erősebb ajánlatot képviselne, mint amit most a 7800 XT jelent. -
S_x96x_S
őstag
> Persze logikus, de a felhasználók egy része biztosan azt fogja
> mondani, amit én és ez az AMD-nek arcvesztés.túlságosan aggódsz az AMD-ért , hogy rosszul döntenek ...
amúgy az számít, hogy mit fognak venni ..
és a piaci részesedést sikerül-e feljebb nyomniA jelenlegi high-end RDNA3 -ből ki tudnak hozni bármikor
egy refresh/átnevezett terméket .. Amolyan RDNA3-SUPER-tszerintem:
Extrém nagy a piaci verseny és nem érnek rá még fél évig reszelgetni a multi chipes megoldást .. ( és a verseny jó )
- a low/middle részt lefedik a mobil dolgokkal együtt
- jön az Windows AI .. kell olcsó GPU - ami AI képes
- és gondolom a Sony/PS6- felől is van nyomás.Vagyis a Lokális Optimumot számonkérni (~ "arcvesztés" )
.. a Globális optimum helyett (market share, PS6, .. )
nem vezet semmi jóra.El kell fogadni, hogy az AMD management - sokkal több információból dolgozik az optimális stratégia megalkotásáért,
és nem hülyék ..
Az viszont lehet, hogy most nem akarják felfedni a döntés mögötti okokat .. Az miért baj ?> hogy tényleg dobják-e a chipletet
De miért dobnák?
Gőzerővel dolgoznak az RDNA skálázásán,
csak az nem megy annyira könnyen.
És akkor az MI300-hoz hasonló
multi-architektúrás APU-k várhatóak ( CDNA helyett RDNA )
consumer szinten is.Az "arcvesztést" pedig egyszerűen el tudják kerülni,
pl. amikor bejelentik az RDNA4 -et,
akkor demózzák a következő generációt is.[ Szerkesztve ]
Mottó: "A verseny jó!"
-
S_x96x_S
őstag
> Akkor nem jobb lenne az NVIDIA startégiáját követni,
> hogy addig nem chipleteznek, amíg nem teljesen 100%-os?Az AMD láthatólag a mély integráció felé megy,
és ebből néha-néha lecsorog valami a gaming-nek is.> Ugyanis elmondásuk alapján nekik is van.
Hozzátenném,
hogy az AMD-nek is van RTX4090 rivális kártyájuk.
(az elmondásuk alapján )
persze nem dobták a piacra.> A játékosokat és köztük engem is, teljesen hidegen hagy az MI300.
megint az a lokális optimum ...
Amúgy a játékosokat az ár/érték érdekli ...
és teljesen hidegen hagyja őket a chiplet-monolit vita ..
Ezért nem is értem, hogy mi a problémádEDIT:
> Ne a játékosokkal és a játékra szánt kártyákon kísérletezzék ki
> az AI gyorsítók chipletezését.Az nVidia pont ezt tette,
a GPU-ból kisérletezte ki a az AI gyorsítókat.
Persze azután jól visszavágta a consumer kártyákat - Ai/ML szempontjából ..[ Szerkesztve ]
Mottó: "A verseny jó!"
-
Alogonomus
őstag
Az is elképzelhető, hogy az RDNA 3 kapcsán AMD-nél tudták, hogy az Nvidia úgyis megpróbálja majd a 3000-es széria árazását továbbvinni, és a végül 1600 dolláros 4090 meg 1200 dolláros 4080 mellett az AMD is árazhatta úgy a kártyáit kicsit olcsóbban, hogy még bőven belefért a chiplet kialakítás extra költsége is, és tapasztalatot gyűjtenek vele.
A mostani generációban eladott kártyák megoszlása viszont egyértelműen jelezte, hogy a vásárlók 300-400 dollár közötti középkategóriát, 600 dollár alatti felső középkategóriát, valamint 1000 dollár alatti felsőkategóriát szeretnének. Abba pedig már nem fért bele a chipletezés, főleg nem a csúcs RDNA 4 3x3-as GCD-vel és ahhoz igazodó szélességű - mondjuk 512 bites - memóriabusszal az állítólag GDDR 7-es MCD-k oldaláról. Az Nvidia persze kiadhat egy 5090-est csillagászati áron, amire biztosan lesz is valamekkora kereslet, mert mindig van, aki lényegében bármennyit hajlandó fizetni a legerősebb termékért. -
S_x96x_S
őstag
> Az, hogy a chiplet miatt fizetünk felárat
de miért is?
Szerinted az RDNA4 olcsóbb lesz mint az RDNA3?
Ez még nem biztos, de te mintha biztosra vennéd ..Amúgy nem értem közgazdaságilag.
szerintem inkább a piac és a versenytársak szabályozzák az árakat.
Vagyis ebből a nézőpontból
az nVidiát és az Intel-t is kellene hibáztatnod,
hogy nincs rendes verseny.
És azért, hogy az általad drágának tartott RDNA3-ra nagy a kereslet ..
mert szerinted még nagyobb is lehetne ..Amúgy technológia-menedzsment és technológia-evolució szempontjából teljesen természetes ami most történik.
Nincs nyílegyenes út .. max csak a követő stratégiát követőknek.És az is természetes, hogy az early-adopterek többet fizetnek.
peace és xanax ..
[ Szerkesztve ]
Mottó: "A verseny jó!"
-
nagyúr
Önmagában a chiplet design nem előny a felhasználónak. A gyártónak jó, mert rugalmasabban tud eltérő piaci szegmenseket kiszolgálni azonos épitőkockákból. Jó példa a Zen4, ahol az egységes CCD-kből tud olcsó (7600) és drágább (7950) desktop procit, HDET procit (Threadripper) és szerver procit (Epyc) gyártani. Csak a tokozás még az IOD az eltérés, illetve az X3D CCD-knél van egy csavar. Itt előnyös ez a megoldás.
Az RDNA3 esetén is ez ment. Hogy előnyös volt-e, abban itt nem lennék biztos.
Egy mindössze 2 GPU-s családnál viszont egyértelműen jobban járnak a monolitikus felépítéssel...
Hogy a marketing mit hazudik arra meg ne épits várakat...
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
S_x96x_S
őstag
mindenesetre nem kell még temetni az AMD-t.
Vagy másképp : túl korai még pálcát törni az RDNA4 felett.(vad találgatás) az is lehet, hogy az nvidia éberségét akarják elaltatni,
és az RDNA4 után fél évvel jön az RDNA5 ...-----
A chiplet a skálázásnál segít igazából ..
pl. GPU-nál (Geometry Engine) teljesen másképp megy a legózás mint a CPU-nál.
( via )Mottó: "A verseny jó!"
-
PuMbA
titán
7800XT-k közül is csak a 2 ventis Sapphire Pulse és az Asus Dual a két szimpatikus számomra. A többi alá tehetném a VGA tartót. Ráérek gondolkozni, mert úgy is tavaszi árcsökkentés után mérlegelem újra a dolgokat.
Pkc83: Úgy középkategória, hogy 4070 szinten van és a fölött van még 4080 és 4090. Ne feledjük, hogy az AMD-nél kimaradt a csúcskategória, mert a 7900XTX nem az. Remélem az RDNA4-ből már lesz sok pici VGA, mert akkor az RDNA3 nálam kimarad.
[ Szerkesztve ]
-
Pkc83
őstag
Az 50%-os felár csak feltételes módban lenne annyi mivel jelenleg közel a duplájába kerül egy 4090 az XTX-hez képest ami minden csak nem korrekt. Egyébként az idő múlása és a frissítések pont az AMD-nek szoktak kedvezni és nem az NV-nek. Mondom ezt úgy ,hogy én is jó ideje NV-t használok.
-
Raymond
félisten
"Épp jövő héten jön egyébként az 1440p monitorom, mert a mai 1080p képminőséget már nem bírtam tovább."
Akkor lehet lassan nezelodhetsz uj kartya utan is Nalam is addig volt jo anno a GTX1070 amig meg nem leptem a 1920x1080 -> 3440x1440 valtast
Privat velemeny - keretik nem megkovezni...
-
Abu85
HÁZIGAZDA
Ez az AI miatt fontos, mert már csipogott nemrég a ChatGPT vezetője, hogy szar az AI hatékonysága az NV chipeknek. És ez sose lesz jó, amíg ki nem műtik belőle a felesleges dolgokat.
#63735 PuMbA : A konzol az egy nehezebb piac, mert annyira érték lett a visszafelé kompatibilitás, hogy itt nagyon be van bástyázva a gyártó már. Ugye csak az adott gyártó tud biztosítani megfelel kompatibilitást, mert egy új gyártó nem tudja felhúzni rá az optimális ISA-t. Ez kevésbé fajsúlyos dolog, mert valójában csak a Nintendo tartható meg, új cég nem szerezhető hozzá. Hacsak nem jön valaki negyediknek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
hahakocka
senior tag
5700;5700xt sikeres esete is mutatta hogyjó àrazással teljesítménnyel csak 2 VGA T is jól el lehet adni ezèrt jöttek a superek is kènyszerből, de azokat is leelőzte amúgy driverrel kèsőbb. Igaz kèsőbb jött a nyesett 5500-5600xt is.
Ha igaz apketKa az Xtx-4080 super erejű 200W os 220e Ft -os àrú 8800xt ről meg van mire vâltok èv vègèn. Kèrdès mennyi Vram lesz rajta de tippre 20.[ Szerkesztve ]
-
Alogonomus
őstag
Igen kikövetkeztethettük, hogy orbitális méretű fogyasztással járt volna az AD102-es GPU "maradék" nagyjából 10 százalékának engedélyezése. Az RTX 4090-hez az Nvidia valószínűleg a feldolgozóegységek legkevésbé "szivárgó" 90 százalékát engedélyezi az RTX 4090-ben, hogy szigorúan raszteres játékban a 400 wattot, sugárkövetéssel bonyolított játékban pedig a 450 wattot ne nagyon lépje túl a fogyasztása.
Az Nvidia "bekészítette" a TITAN Ada kártyát arra az esetre, ha az RTX 4090 nem lenne elég, de a TITAN Ada minden valószínűség szerint még az RTX 3090 Ti fogyasztására is rátett volna egy nagy lapáttal, de ahogy az már sokszor elhangzott, Jensen nem szeret veszíteni, és ha arra egy akár 650 wattos kártya lett volna az egyetlen megoldás, akkor azt is meglépte volna.
-
huskydog17
addikt
Egy újabb kiváló videó tőlük.
Ahogy Alex is mondja, kinek ez, kinek az, ezért is jó az, ha a TAA opcionális. Nekem például inkább áldás, mint átok, mert gyűlölöm a shimmeringet, én inkább bevállalom a kicsit mosottabb képet, számomra az a kevésbé rossz. A magas felbontás valóban kompenzálja a képminőséget TAA esetén, ezt én is észrevettem, ma már szinte minden modern játékot 1620p vagy 1440p felbontáson játszok, ott már nincs semmilyen képminőség probléma a TAA-val, nyilván feltéve, ha jó az implementáció és ghostingol durván. Pont tegnap kezdtem el a Ghost Recon Wildlands-et, ahol a TAA még 1620p rendering felbontáson is láthatóan ghostingol itt-ott, de ez még nekem mindig sokkal jobb (kevésbé rossz), mint a brutál shimmering TAA nélkül.
A játékban hiába van két féle post process AA (FXAA, SMAA), azok a shimmering-gel nem tudnak mit csinálni, ez Alex videójában is tökéletesen látszik.
Az egyik legjobb kombináció ha a játékban nem túl jó a TAA, de támogatja a DLSS-t, akkor a DLDSR+DLSS kombó messze a legjobb. Minden játékban, ahol van DLSS? ott ezt a kombinációt használom.Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
félisten
amúgy ott is bevezethetnének moduláris felépítést. Így is van perf. és quality mód, nem lenne nehéz beletenni még egy vagy két lépcsőt. Mindenki a saját pénztárcája szerint bővíthetne / választhatna.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
huskydog17
addikt
LOL
Csak a szokásos AMD quality. Amúgy igen, aki azt hiszi/hitte, hogy majd a dev-ek többsége át fogja írni a forráskódot, az finoman fogalmazva is naiv.
#63796 FLATRONW: Az indie dev-ek túlnyomó többsége nem fog foglalkozni a forráskóddal (sőt szerintem még a nagy stúdiók többsége sem). Ha működik out of the box, akkor maradhat, ha nem, akkor kiszedik ozt kész. Az indie fejlesztők többségének pont a DLSS és XeSS az ideális, mert azok out the box jól működnek. (Mondjuk a nagyoknak meg azért, mert azok jobb minőségűek, mint az FSR)
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
S_x96x_S
őstag
> Egyáltalán nincs odaírva, hogy a fejlesztők használják
- akkor nem ajánlanák
- Lehetne még valami affiliate megállapodás, de annak kicsi a valószínűsége egy tisztességes cégnél - mert akkor feltüntetnék.> és kapsz egy körülbelüli (approximately) eredményt.
> Semmiféle olyat nem írnak, hogy
> ez bármiféle konkrét előrejelzést ad neked.Szerinted mi a különbség
- "a körülbelüli"
- és "a benchmark konkrét előrejelzése" között?mert szerintem ugyanaz a fogalom.
[ Szerkesztve ]
Mottó: "A verseny jó!"
-
félisten
Ha jól tudom a következő genrációban AMD is rágyúr a tensor core szerű egységekre, gondolom az AI miatt,de lehet tévedek, valami iíylesmit olvastam anno. Lehet az egy lépcső lehet majd a felskálázás minőségének növeléséhez.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Xbox Series X|S
- Formula-1
- Xbox tulajok OFF topicja
- Folyószámla, bankszámla, bankváltás, külföldi kártyahasználat
- Azonnali alaplapos kérdések órája
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- iPad topik
- Perelnek a vallásos kripto-piramisjáték miatt
- Ukrajnai háború
- Apple iPhone 14 Pro Max - sziget fesztivál
- További aktív témák...
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen