Hirdetés
Új hozzászólás Aktív témák
-
félisten
válasz paprobert #39952 üzenetére
Azert nem rossz.Idén Aktivaltak az adaptive syncet,feloldottak az RT t a GTX sorozaton, nyitottabba tettek a GPUkhoz valo hozzaferest,most a CXL,CCIX,...tenyleg oregszik a bőrjakós
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
DudeHUN
senior tag
válasz paprobert #40201 üzenetére
Ez minden(!) gen váltásnál előjön. Ez nem így megy. Ha így gondolkodnának sosem indulna be az új generáció. Negyedévente egy 1,5-2 milliós eladást produkálnia kell a gépnek különben nem lesz sikeres. Ha meg nem lesz meg egy év alatt az 5 millió kb. az a platform bukott. Egyik cég sem akar dollár milliárdokat bukni. Az MS és a Sony is egyszer vállalta ezt csak be. Sony majdnem belerokkant.
A PS4 jelenleg 3 milliós negyedéveket hoz folyamatosan. Karácsonykor meg 6-8 milliókat. Xbox kb. fele.Gamer for Life
-
-
félisten
válasz paprobert #40438 üzenetére
Mondjuk azért a Switch kb annyi eladást produkált az Nvidiának fele annyi idő alatt,mint az Xbox One az összes verziójával az mellett elkelt jó pár millió shield is.
smerve Nvidiát még azt is elképzelhetőnek tartom hogy pénzt is jóval többet kerestek rajt, mint AMD.
De nem a hardver határozza meg továbbra sem szerintem egy konzol életképességét.
Ráadásul egy meg sem jelent konzolgenerációt magasztalunk rengeteg ismeretlennel ,aminek a kijöveteléig valószínűleg Nvidia a piacra dobja az Ampere generáció és ha tartják a szokásukat akkor a 3060 kb 2080 erősségű kártya lesz.....Mondjuk akkor azért kíváncsi lennék mi lenne ha az Orin soc visszaköszönne az Új Nintendo asztali konzolban
Kolbi_30 :
2080 is van a cikkben nem csak a 2080 Ti.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
wjbhbdux
veterán
válasz paprobert #40438 üzenetére
Olyan jólét van most (mondhatni Magyarországon is), hogy se egy drága PC se egy drága konzol nem kiadás. Csak azt nézik hogy kinek mi a kényelmes, mivel játszanak a haverok. A PC úgy lendült fel az utóbbi években, hogy rekord drága volt sok alkatrész, DDR4 lehúzás, GPU bányászláz, Intel "készlethiány", senkit se zavart.
Ez a garasoskodás hogy most a konzol olcsóbban kijön max akkor lesz ütőérv ha lesz egy újabb gazdasági válság és nem töltik majd talicskával a pénzt az emberekre egy ideig./s
-
félisten
válasz paprobert #40597 üzenetére
Nálam is ezen okból ment a levesbe a Navi, elegem van a driver tesztelő szerepből.
Az eladása meg kész kabaré volt, megérne egy logout bejegyzést.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz paprobert #40745 üzenetére
azt értem de a több és részletesebb objektum elsődleges feltétele a gyorsabb központi számolóegység, nem a Vram mennyisége. Egy RX 580 16 GB rammal sem lesz 5700 XT. Maga a Vram ha eddig korlátja volt bárminek az a textúrák felbontása szerintem amit nem nevezhetünk forradalmi opciónak.
Attól hogy lesz 20 GB ram egy PS4 pro vagy egy 5700/ 2070 nem lehetne jobban terhelhető számításokkal, max a textúra felbontását lehetne kitolni és kb ennyi. Lásd Radeon 7.
Nekem ez egy kicsit vissza fele gondolkodásnak tűnik.
Ettől függetlenül lehet, hogy igaz.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
do3om
addikt
válasz paprobert #40752 üzenetére
Az a baj hogy a hardver gyorsulása nincs arányban a kapott képi minőséggel. Pl. pc-n ott a mindig felhozott crysis, amikor kijött azóta hányszor gyorsabbak is a hardverek? A minőség arányos ehhez képest?
Akár mennyi erőforrást képesek a fejlesztők elpocsékolni, úgy hogy azt gondolt mindent kihasznál (maxon pörgő vga, cpu, le nullázott ram), pedig jobb megfogalmazás rá hogy feléli, de nem hasznosan.
Ha érdekel valami szerelési anyag írj privátot. Eladó Schneider Mágneskapcsoló 18,5kW/38A
-
Petykemano
veterán
válasz paprobert #41194 üzenetére
Hogy a különbség miből fakadhat egész pontosan, azt nem tudom, de az utoljára kijött Renoir is 65Mtr/mm2 értékkel rendelkezik. Tudtommal az sem EUV
Abu elmondása szerint a navik N7P, a matisse CCD viszont N7 eljáráson készültek. Utóbbi vmi 52Mtr /mm2
Találgatunk, aztán majd úgyis kiderül..
-
-
do3om
addikt
válasz paprobert #41498 üzenetére
Ne túlozz. De ha 10% lesz az előny az akkor is előny, és a kapható leggyorsabb kártyát jelenti, bármelyik oldalnak.
Inkább fontosabb hogy árban ne drasztikus legyen a lépcsőfok.Ha érdekel valami szerelési anyag írj privátot. Eladó Schneider Mágneskapcsoló 18,5kW/38A
-
Pug
veterán
válasz paprobert #41820 üzenetére
En 250 watt folott nem erzem magam annyira kenyelmesen, ha barmelyik komponens fogyaszt... mondom ezt ugy, hogy 8 eve egy kazan CPU-t es VGA-t nyuzok, es mindketto OC es full load mellett 250 folott eszik...
Engem a mostani nV paletta fogyasztasa se zavar... csak annyira tipikus, hogy azok a fanboyok, akik frocsogtek erre az elmult evekben, ugy hallgatnak mint a sir.... (nem akarok neveket mondani, de annyira azert nem lepet meg, hogy pl Egon nem veri az asztalt a 3080/3090-es topikban... )
-
#09256960
törölt tag
válasz paprobert #41836 üzenetére
"Az hogy fordulhat elő, hogy az Intelnek megéri egy kb. ~300 dolláros kártyát egyből a TSMC 6nm-es gyártósorára vinni, míg az Nvidia-nak és az AMD-nek ugyanez a node túl drága jóval drágább"
Úgy fordulhat elő hogy Mikor NV odament hogy Helló kellene 7nm nekem jó sok, van kedvezmény?
Akkor azt mondták neki hogy Helló 2 éve megy a 7nm ezt nem lehet csak úgy elkezdeni amikor akarod.
Intel odament amikor tervezték a 6nm-ert neki van.
A chipletnek pont ez a rohadt nagy előnye, csinálsz egy ilyen Tilet , csempe mozaik, nagyon hülyén hangzanak magyarul, de ez sokszorosítható ameddig akarod és megvan a portfólió.
Ők kiadtak egy ilyen zsebsárkányt 1 Tilevel fél éve, de nem kereskedelmi forgalomba hanem megtanulnak rajta drivert írni, és mikor megy akkor beindul a nagyüzem. A chiplet állítólag teljesítménybummot hoz 2-3 szoros teljesítmények lesznek RDNA 3 is már erre épül.
Hogy hol éri meg úgy hogy ilyet csinál belőle, és a mérete ellenére nagyon kicsi a Vafer veszteség!
Na ez már GPU Ha meg elromlik jó hólapátnak is[ Szerkesztve ]
-
Petykemano
veterán
-
-
FLATRONW
őstag
válasz paprobert #42802 üzenetére
Igazából ez csak Low end CPU-knál jelent problémát, alacsonyabb felbontás és minőség mellett. Úgy tűnik, hogy egy i3 10100 az 2600x teljesítményét hozza. Kíváncsi lettem volna arra is, hogy ilyen beállítások mellett egy 6/12-es Intel milyen teljesítményt hozna ki az NV GPU-kból. Lehet, hogy csak a AMD CPU mellet ilyen nagy a különbség.
-
huskydog17
addikt
válasz paprobert #42802 üzenetére
Ez az első HW Unboxed teszt, ami az én szememben eléggé sántít, ugyanis AMD oldalon csak 6 magos CPU-kat tesztelt Steve, míg Inteltől egy darab 4 magosat, ez így eléggé fail. Ahogy FLATRONW is mondta a 4 magos Intel CPU jobb teljesítményt hozott, mint az első két genes Ryzen, ami nem meglepő, hisz tény, hogy a Ryzenek első két generációja jóval gyengébb IPC-ben a Comet Lake-nél. Úgy lett volna fair, ha egy Core i5-10400F is benne van a tesztben, ez a CPU ráadásul még olcsóbb is, mint a tesztben szereplő Ryzen 2600X.
Elkezdtem nézni a videót, de amint megláttam, hogy a 6 magos Ryzeneket a 4 magos Comet Lake ellen küldte, kikapcsoltam.
Értem én, hogy AMD-nél jobb volt a tempó, na de mi van ha egy 10400F mellett teljesen eltűnik az NV "hátránya"?Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Laja333
őstag
válasz paprobert #42802 üzenetére
Mondjuk egy 3080/3090-nél talán ebből nem lesz probléma, mert oda illik egy erős CPU-t rakni. Viszont 3060/3070-nél már nem biztos, hogy mindenki alárakja a top CPU-t (az i5 kihajcsaje?). Egy gyengébb CPU-val az emberek lehet jobban járnak a 3070 helyett egy... 5700XT-vel.
Egyébként én is kíváncsi voltam erre és pár hónapja futtattam egy API Overhead tesztet a 6800XT-vel meg a 3080-al ugyan abban a configban, ezek lettek:
[ Szerkesztve ]
-
félisten
válasz paprobert #42802 üzenetére
Megfordítva a lassú CPU-k és a nem optimalizált játékok jobban fojtják az Ampere kártyákat.
Még az 5600 X is belefuthat ebbe a tesztek szerint,
De érdekes merések voltak, nem volt egészen nekem kerek minden, főleg az I3 vs 2600 X összevetésben...[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz paprobert #42815 üzenetére
Vega vs Pascal idejében is magasabb volt ez már, kb 0- 10 % körüli értékben az új API-k alatt.
De ebből nekem az jön le amit Abu írt, hogy a szoftveres optimalizáció hiányzik, nem driveres gond,. maga a következtetés a driverre levonatkoztatva hibás a tesztben szerintem.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz paprobert #42984 üzenetére
hát a radeon 7 az kb 2080 super majdnem 3060 Ti szint. Ha arra ráhúz még egy kis órajelet akkor azért a 3070 vagy fölötte lehet. Azt azért szintén Raja alatt adták ki pár éve, elavultabb gyártáson- Én nem tartom elképzelhetetlennek a 3070 körüli szintet, néhol akár fölötte is.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
nagyúr
-
HSM
félisten
válasz paprobert #43053 üzenetére
Attól, hogy ketten is beleugranak a kútba, attól még nem biztos, hogy ez volt a jó döntés...
Elképzelhetőnek tartom, hogy idővel ez lesz a jó irány, de azért sokmindenen elbukhatnak ezek a koncepciók. Pl. az Alder esetén a kis magok eltérő utasításkészlete pl. határozottan nem tűnik jó rajtnak.
-
Petykemano
veterán
válasz paprobert #43053 üzenetére
Hát ez olyan kérdés, hogy mindig vannak trade-offok.
Én azt gondolom, hogy a működtethetősége két dologtól függ:
- mennyi magra skálázódnaka programok.
Elvileg itt már 2022.végétől talán jöhet mageső, 24 magos zen4, stb. Bár mindig ott lebeg az egymásra várás (nem skálázzuk a programot,.mert úgysincs hardver, ami kihasználná, nem adunk több magot, mert...), ez szerintem mindig inkább hardver-driven lesz. Mármint előbb látom eladhatónak a több magos CPU-t, amit egy ideig még kevés szoftver használ ki, mint a több magra skálázódó szoftvert,.akihez nincs' elég mag.
- a skálázódás során mennyi az alacsony lésleltetésű clusterbe szervezhető magok számának minimuma.
Ugye a zen2->zen3 esetén láttuk, hogy ennek azért volt jótékony hatása. Most ez a 8mag/L3$ optimálisnak tűnik.Tehát akkor.tud működni a big.LITTLe (little = efficiency core), ha skálázódás magas, de a cluster minimum kicsi. Mondjuk 8/32
Szerintem.Találgatunk, aztán majd úgyis kiderül..
-
félisten
válasz paprobert #43122 üzenetére
Szerintem nincs lemaradásban. ha igaz amit írnak akkor a 6800 3070 Ti körül teljesít. persze a 6800xt-6900- 3080 -3090 nincs meg de ezt nem nevezném lemaradásnak , max a felső kategóriás GPu hiányának. legtöbb embernek még a 2080 Ti szint nincs meg mert ugye az új generációk az átlag pénztárcájú emberekhez nem értek el még. Szerintem ez év végére 16 GB rammal vonzóbbá teheti, mint az nvidia Ampere szériát , főleg ha alááraznak. Mondjuk $399 egy 3070 teljesítményért.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
HSM
félisten
válasz paprobert #43208 üzenetére
"natívnál kisebb render soha nem lesz a monitoromon!"
Személy szerint én maradok a natívnál, eddig bevált.Ezeknek a technológiáknak a létjogosultságát két esetben látom:
- Nincs elég harapós VGA a gépben a natív felbontáshoz, és még ez ront a legkevesebbet a képen
- Túl nagy a monitor felbontása a méretéhez képest, és úgysem látjuk a különbséget (pl. 4K 28") -
HSM
félisten
válasz paprobert #43273 üzenetére
Egyébként úgy tudom nem az AMD/Nvidia hajtotta fel az árakat, ők elvileg nem emeltek árat a partnereik felé, ha vaalkinek van erről biztos információja, jelezze.
Természetesen nekik így is pokoli jó most, hogy kb. mindent eladnak, amit le tudtak gyártani. De azért vegyük észre azt is, hogy nemrég még az AMD pl. a csőd szélén állt. És lehet, pár év múlva ismét nem lesz olyan fényes a helyzetük, nyilván az Intel, az Nv és most már az Apple sem nézi tétlenül a történéseket és az egyéb, RISC alapú versenytársak is erősödnek. Tehát most nagyon is fontos profitot termelni, és a jövőbeli termékek fejlesztésére fordítani, hogy megmaradjon a versenyképességük. A lapka fejlesztési költségeiről pedig manapság fontosabb beszélni, mint valaha, mert pokoli drága lett egy lapkát piacra vinni. Lásd pl. [link] .
És még arról sem árt filozofálgatni, hogy mi fog történni, ha mondjuk negyed- fél év múlva komolyabban alább hagy az idei nagy bányász idény, és a korábbiakhoz hasonlóan ellepi az aprót a használt VGA dömping... Az AMD egyszer már megütötte ezzel a bokáját az R9 390-es lapkával, alig győzték kisöpörni őket a raktárból, pedig előtte mekkora üzletnek tűnt, hogy mindent elvittek míg szezon volt.....
[ Szerkesztve ]
-
HSM
félisten
válasz paprobert #43275 üzenetére
A céges racionalitás ha tetszik, ha nem az, hogy a cég működőképes és profitábilis legyen, amihez az kell, hogy tartósan versenyképes maradjon.
Én azt látom, hogy a 2021Q1 nem mutat jelentős eltérést az "árrobanás" előtti 2020Q4-es számokhoz képest [link] . Az is szépen látszik, hogy az összes bevétel 54%-a volt a termékek önköltsége, ami nagyon nagyon nem 5%, mint amit említettél (főleg, hogy egy VGA esetén még költség a PCB, hűtés, VRM és egyebek is, az AMD úgy tudom csak a GPU-t és a ramokat hozzá biztosítja a partnereknek). Ha az egyéb költségeket is hozzáveszed, mint pl. R&D, marketing, akkor úgy látom, a végén a 3445 millió USD árbevételből keletkezett 662 millió dollár tiszta profit. Azért az szvsz nem feltétlen az "úszunk a pénzben" esete egy ekkora cégnél.
"Visszatérnek a teljesen normális, büszkeségre okot adó profitrátához, ami 25 évig elég volt."
Arra gondolsz, amikor egyik veszteséges negyedév követte a másikat?Ha már vs. topik érdekes lehet összevetni a konkurencia beszámolójával [link] . Úgy látom, náluk azért valamivel vastagabban fogott azért a ceruza.
[ Szerkesztve ]
-
HSM
félisten
válasz paprobert #43277 üzenetére
"Ha ma több folyik be, abból leginkább bónusz és osztalék lesz."
Ennek ellentmond a pénzügyi beszámoló, mindkét cég jelentősen többet költött R&D-re, mint egy évvel ezelőtt ugyanebben a negyedévben. Persze azzal nyilván egyetértek, hogy a sok pénz önmagában nem garancia a következő jó termékekre."két betűvel is tudom érzékeltetni hogy mi volt a gond"
Pont erről beszéltem, hogy extrém "kockázatos" befektetés egy ilyen cég, elég volt egy picit rosszul időzíteni egy terméket (a szoftverek még nem álltak készen ilyen sok szálat hatékonyan használni) és még némi gyártástechnológiai pech (az órajel se jött össze) és már akkora volt a baj, hogy majdnem magával vitte az egész céget."Előbbi esetben a cégek a helyzet elszenvedői, és csak úsznak az árral, míg utóbbi esetben az okozói."
Nyilvánvalóan van/volt ráhatásuk. De a usernek is van ám ráhatása elég komolyan a pénztárcájával. Megveszi-e, kifizeti-e, avagy szépen megvárja, míg a számára megfelelő árszintre nem süllyed a termék. Ez a szabad piac, nem igaz? -
HSM
félisten
válasz paprobert #43279 üzenetére
A szabadságnak is megvan az ára, nemigaz?
"nincs modern gaming $350 alatt"
Az RTX3060 amúgy szerintem annyira nem rossz belépő holmi a 330 dolláros MSRP-jén, azzal némi kompromisszummal azért meg lehet próbálkozni mai címekkel is. Majdnem olyan fürge, mint egy régi 1080 Ti, azért az nem olyan rossz. Főleg, hogy egy éve 280 dollár volt egy 5600XT is. Házon belül is sokkal barátságosabb vétel, mint annak idején 350 dollárért a sima 6GB-os 2060 volt.[ Szerkesztve ]
-
Busterftw
nagyúr
válasz paprobert #43279 üzenetére
Azt is vedd figyelembe, hogy mondjuk 2016-ban 300 dollar iden mar 340 dollar. Plusz az emberek fizetese is no.
Szoval oke, hogy kell egy budget kartya, de hany evig legyen a budget 250 dollar? Amig 250 dollar egy doboz gyufa lesz?
Hasonlo pelda a 60 dollaros jatek, hany evtizede 60 dollar az AAA?
Most hogy 20 ev utan novelnek 70-80 dollarra, mindenki kiakadt. -
GeryFlash
veterán
válasz paprobert #43445 üzenetére
Egyebkent meglepo de az M1-es gepeken tenyleg nagyon visszafogott profit lehet, meg ha K+F-et nem is nezem ami az M1-es chip es a hozzatartozo oriasi szoftveres utanahuzas kovetelt meg.
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
félisten
válasz paprobert #44939 üzenetére
Ez 3 nm vagy alatta varhato.5 es 4 nm mar a TSMC nel lesz,ez biztos.Abban meg intel varhatóan jó lesz már.
Nem vagyok benne biztos amugy, hogy ez nem valamifele hatterben megbujo egyeb megallapodast takar.Nvidia odalapatolja a gyartasert a penzt aztan gyartason kivul lesz masrol is megallapodas.Eleg erdekes mar most is az Intel Nvidia osszeborulasa DLSS XeSS nel .Ezet irtam hogy a vegen lesz licensz x86 hoz...[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Busterftw
nagyúr
válasz paprobert #45254 üzenetére
Plusz itt arra is kell gondolni, hogy az Apple egy zart okoszisztemaval indul.
Naluk van a szoftver es a hardver is, sokkal egyszerubb a platformot osszegyurni annak minden elonyevel (es hatranyaval).Ha az AMD/Intel kiadna valami hasonlo kaliberu ARM cuccot, a Windowson pl eleg sokat bukna a dolog. Ezzel szemben az Apple ugy tudta fejleszteni a sajat OS-t, hogy az megfeleloen mukodjon az erkezo ARM designnal es forditva.
Szerintem is mindkettonek megvan a maga piaca, szerintem nem egyertelmu ez a "kreativ" dolog. Haverom is "kreativ" szakmaban dolgozik, de Ryzen+Nvidia gpu-val dolgozik, ahogy naluk mindenki a cegnel.
-
Petykemano
veterán
válasz paprobert #45254 üzenetére
Jó a leírásod, de picit azért vitatkoznék vele.
Ha a kérdést nem úgy tesszük fel, hogy Apple vs Intel/AMD, hanem hogy Apple vs Arm akkor egyrészt kiszűrtük az architektúra és a "más fókusz" tényezőket is.
A hagyományos Arm architektúrák (X1-X3) miközben ugyanúgy nem lőnek magas órajelre (abunak valószínűleg igaza lehet abban, hogy ehhez speckó/saját library kell), ugyanúgy hiányzik onnan az Apple által elért IPC, mint az x86 esetén.Széles körben ismert, hogy a magas IPC-t eredményező széles architektúra sok tranzisztort igényel. Az Apple nyilván pénz nem számít alapon tud olyan méretű lapkát készíteni, ami az igényeknek megfelel, és akár kétszer drágább is lehet. Viszont a magas frekvencia elérése sincs ingyen, ahhoz is tranyókat kell áldozni, meg kisebb tranzisztorsűrűséget lehet csak.elérni,.stb.
A semianalysis.cikke.szerint az M2-ben egy P magra ~5.3mm2 jut. Ha ezt felszorzod 8-cal, akkor kisebb lapkát kapnál, mint a zen4 CCD. (72mm2)
Valamit az Apple nagyon megtalált, vagy eltalált.
Ez lehet a széles architektúra - az Intel és az arm is próbál szélesíteni, de még nem tartanak ott. Valószínűbb, hogy az alacsony késleltetésű és Nagy L1$ és L2$ az igazi Nagy durranás. (A széles architektúra és a nagy cache persze feltételezik egymást)
Azért gondolom ezt, mert Abu is és a ChipsandCheese is méltatta az AMD-t, hogy milyen remek a L3$-ük. Tehát az tényleg létező dolog a CPU tervezés terén, hogy egy jó SRAM cache designnál előnyre lehet szert tenni.
(Valamit persze közben az AMD is alkotott, mert kb ugyanakkora lapkaterületre külön gyártva kb kétszer akkora cache kapacitást hoztak ki a 3dcache-hez.)Szóval az eltérő fókusz magyarázhat a különbségből valamennyit, de szerintem mindenképpen van ott tudás, amit még az arm sem hozott, pedig ugyanaz a fókusz.
Nem mellesleg szerintem az AMD és Intel fókusza a szerverpiac, ahol szintén jobban járnának, hogy magas órajel helyett inkább kisebb lapkákkal és/vagy magasabb frekvencia helyett magasabb IPC-vel tudnánnak dolgozni.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz paprobert #45257 üzenetére
"Szerintem legnagyobb különbséget az adja, hogy az Apple egy konkrét node-ot, konkrét célokkal, konkrét irányszámokkal, jó mérnökökkel vesz kezelésbe, és van erőforrása eltérni az ARM univerzálisan-univerzális döntéseitől."
én úgy tudom, hogy az arm designok esetén is mindig megvan a target node. Attól persze el lehet térni, de a számokat az arm úgy mutatja be. Azt gondolnám, hogy ha nagymértékben számítana.az, hogy az arm mag könnyen portolhatóan különböző gyártástechnológiákra, akkor ha az arm nem is, pl a qualcomm biztos elkészítene egy olyan változatot amit egy specifikus node-ra optimalizálva learathatja az előnyöket. De az utóbbi időben a qualcomm is felhagyott a módosított arm magok tervezésével. Vagy legalábbis nagyon kicsi a különbség.És így belegondolva az Apple esetén sem teljesen igaz, az, hogy szuperfókuszált célok mentén készült volna az architektúra.
Az igaz, hogy az arm univerzális magokat készít. De azért a fókusz alapvetően a mobil és kis fogyasztás volt mindig is. Nem is lehet gyári arm magból versenyképes asztali processzort csinálni.
Az is igaz, hogy az intel és az AMD a szerver szegmensre fókuszál és onnan származtat más piacokra.
De az se igaz, hogy az Apple processzora csupán egy piacot célozna - hiszen ugyanaz az architektúra fedi le az iphone és a sokmagos bigmac piacot is.Azt lehetne újra felvetni, hogy jójójó, de a szerverpiac abban különbözik az eszközpiactól, hogy ott ki kell szolgálni egymástól független programszálak gyors futását. Emiatt nagyobb hangsúlyt kap a privát cache, míg a jellemzően csak egy (vagy néhány kevés erőforrást igénylő) foreground processz kiszolgálásához megengedhető, sőt hasznos az erőforrásmegosztás. De ez csak az L2$ esetében állja meg a helyét.
"A magasabb IPC nem jelent automatikus perf/watt előrelépést, sőt."
Persze hogy nem. Az jelenthet perf/w előrelépést, ha alacsonyabb órajelen, leginkább ha alacsonyabb feszültségen működik a processzor.
A magas órajel elérése sincs ingyen', mármint ahhoz is kell tranzisztor - abu ezt szokta mondani.
Nekem az a gyanúm, hogy a magasabb teljesítmény elérésehez mindig több tranyó / nagyobb lapkaterület és több fogyasztás szükséges. Ha IPC-ből hozod össze, akkor jellemzően inkább a tranzisztor és lapkaterület költsége lesz nagyobb, ha frekvenciából, akkor pedig a fogyasztás.
Az nem mindegy, hogy ki milyen korlátokba ütközik és milyen költséget tud áthárítani. Nekem az a gyanúm, hogy az AMD és az intel is képes lenne olyan architektúrát lerakni az asztalra, mint az Apple. Csakhogy az apple saját piacának kiszolgálása érdekében nem ütközik sem kapacitás, sem árérzékenységi korlátba. Tehát bevállalhat másfélszer akkora lapkát is, mert a TSMC le fogja tudni szállítani a szükséges mennyiséget és a vásárlók meg fogják fizetni kerüljön bármibe.
Az AMD és az intelt nagyobb és árérzékenyebb piacot szolgál ki. Ha spórolni tudnak a lapkaméreten, akkor azzal nem csak eladásszámaikat tudják növelni az alacsonyabb ár miatt, hanem mert szűkös kapacitásaikkal több terméket tudnak előállítani. A teljesítménybeli előrelépést a lapkaterületen spórolva inkább magasabb frekvenciávak oldják meg - annak költségét így a vevőre átterhelve.Ebben az elméletben csak egy szépséghiba van
Konkrét számaim nincsenek, de az látványos, hogy N7-en az Apple és más arm designok megközelítették a névleges tranzisztorsűrűséget, addig az AMD jócskán elmaradt. (50-70%)
Tehát ha azt feltételezzük, hogy a gyengébb tranzisztorsűrűséget csupán a magas frekvenciára célzás okozza, akkor jogos lenne felvetni, hogy nem lehetne-e vajon ugyanazt a teljesítményt ugyannakora lapkaterületből több, sűrűbben elhelyezett, de alacsonyabb frekvencián működő tramzisztorból kihozni úgy, hogy az IPC magasabb.
Na és itt mondom azt, hogy az Apple eltalálhatott Valamit, mert egyszerűen nem látok más magyarázatot egy ilyen design megszületésenek elmaradására,.minthogy tényleg nem tudja megcsinálni az Intel és az AMD.
Vagy mert nem nőne olyan mértékben a tranzisztorsűrűség, vagy mert nem rendelkeznek azzal a tudással, hogy kéne magasabb IPC-t elérni. (Cserébe persze lehet, hogy az arm/Apple sem tudna 5-6GHz-es procit ledobni csak úgy, alapos újratervezés nélkül)Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz paprobert #45261 üzenetére
"Szóval ugyanakkora lapkát, ugyanakkora teljesítménnyel, de teljesen áttervezve? Az egy helyben járás esete lenne, és pénzbe kerül."
Nem, mert elvileg alacsonyabb a fogyasztása.
De ez majd kiderül, ha a N5-ön készülő Zen4-et lehet hasonlítani a szintén N5-ön készült M1-gyel, vagy az N4-en készülő mobil lapkát az M2-vel.Illetve hát 1-2 éven belől talán megjelenik a Nuvia szerver chip is, amit feltételezem, hogy a Qualcomm fog akarni kipörgetni mobil lapkákba is.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz paprobert #45556 üzenetére
> Mindegy, lesz honnan engedniük az árból.
Gondolod, hogy ez a 329 már nem önmagában önköltségi ár?Ha ezen még mindig van némi nyereség is, akkor az elég brutál árrést jelent a hasonló teljesístménnyel bíró és hasonló áron adott, de feleakkora Navi23 esetén.
És elég brutál árrést fog jelenteni a mondjuk 3080-ra lövő Navi33 esetén, ami még a navi23-nál is kisebb, viszont Abu szerint $400-500* magasságban kívánják értékesíteni.* Nem kizárt, hogy ez a $400-500 alapvetően a bánya korszak csúcsán létrejött elképzelés volt, amikor az anyagárak és csúcson voltak, amit a bányaomlás, a használt kártya piacon megjelenő áruk és persze a energiaárak által átszabott költségvetések alapvetően fognak megváltoztatni
Ugyanakkor ez a 400-500 dollár alapvetően irányban van az Nvidia most bejelentett árazásával.Találgatunk, aztán majd úgyis kiderül..
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
Állásajánlatok
Cég: Axon Labs Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest