Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Loha #10094 üzenetére

    Ilyen árak mellett nem gyárt senki sem veszteséggel, de itt arról is szó van, hogy a fejlesztések költségesek. Ezeket a költségeket ki kell termelni. Jellemzően ezt a VGA-piac a 100 dollár alatti szintből termelte. Nem ezeken volt a legtöbb haszon egy-egy eladott terméket nézve, de annyival több olcsó VGA megy el a drágábbak mellett, hogy összességében a legtöbb nyereség innen származik. Ezért veszélyes az IGP. Mindenki mondja, hogy nem veszélyes, mert nem lesz egy IGP olyan gyors, mint egy csúcs-VGA. Nem is lesz, de arra bőven elég, hogy kiüsse az igényt a VGA-piac 75%-ára, vagyis a 100 dollár alatti rétegre ... és ez jelenti a nagy problémát. Attól senki sem fél, még a gyártók közül sem, hogy a következő kör IGP-i befogják a 680-at, vagy a 7970-et, attól rettegnek, hogy a 100 dollár alatti szint teljesítményét masszívan hozzák. És a Trinity hozza is. Itt előjön a fejlesztés megkérdőjelezése is. Lásd most is a GT 620-640-es GeForce-okat, melyek a másfél évvel korábbi termékek átnevezései, vagyis sebességben semmivel sem többek. Nyilván van két lehetőség. Törődjünk bele, hogy az IGP-ra nincs gyógymód, vagy fejlesszünk ide egy új terméket, mely gyorsabb lesz ugyan, de kérdés, hogy megéri-e ezt a gyártóknak implementálni. Ha nem, akkor ez a termék kidobott pénz. Ezért áll hozzá most az NV óvatosan ehhez a fejlesztéshez, mert nem látják biztosítottnak, hogy az új IGP-k mellett megveszik a gyártók az új terméküket. Nyilván ilyen esetben az átnevezés egy nagyon gazdaságos szempont, mert anyagilag minimális teher, így az sem baj, ha nincs rá igény. Alig került pénzbe a "fejlesztés". Ezzel persze óhatatlanul erősödik az IGP-k helyzete, mert a másfél éves termékeket nem nehéz verni.
    Nyilván bele fog kerülni, amire szükség van. Ezt nem is vitatom, csak felhívtam a figyelmet, hogy ez nem csak a dGPU-król szól, hanem mindenről, ami "gémer".
    Biztos fel tudod, csupán megállapítottam, hogy ez egy nehéz helyzet. Én is rajongok a VGA-kért, mert ez érdekelt régebben is a legjobban. De a tényeket nem lehet figyelmen kívül hagyni.
    Az APU-kért nem rajongok, de kétségtelen tény, hogy skálázási lehetőség ezeken van. Nem akarnának itt a cégek, és a programozók sem APU-kat, ha a processzor oldaláról való skálázás megoldható lenne. A homogén többmagos processzorok bevezetése is kényszer volt. Az hozta elő a helyzetet, hogy egy régóta működő szabály (Dennard Scaling) kezdett megfenekleni. Ezért nem lett végül GHz verseny, pedig elméletben az lenne a legjobb, ha 30 GHz-es egymagos procikkal nyomulnánk ma. A gyakorlat azonban a fizika törvényeitől függ, így meg kellett lépni a skálázódás érdekében a több processzormagot. Ezzel elvoltunk addig, amíg Dennard Scaling teljesen megfeneklett. Most tartunk ott, hogy a lapka teljesítményét már nem lehet úgy növelni, hogy azt az új gyártástechnológia megoldja. Az egyetlen mód erre a pJ/FLOP arány csökkentése maradt. Erre két mód van. Az egyik a Pollack-féle szabály alkalmazása, ami annyiból áll, hogy egyre több egyszerűbb magot helyezel a lapkába. Ezzel a processzor egy szálon mért teljesítménye nagyon csökken, de a több szálú nagy nő. A másik mód a heterogén többmagos processzorokban rejlik. Ezzel a processzormagok teljesítményéhez nem, vagy csak picit kell hozzányúlni, míg a skálázást az IGP-k biztosítják, melyeket fel kell készíteni az általános számításra. Egyelőre úgy néz ki, hogy minden cég az utóbbi utat választotta. Nyilván érthető, hogy senki sem tartja szerencsésnek az egy szálú teljesítményt Atom szintre butítani.

    Az új konzol generáció inkább ártani fog a VGA-knak. TESCO-Zsömle jól mondja, hogy a legtöbb probléma az API-ból ered. Itt vesztik a PC-n a programok a legtöbb teljesítményt. Erre már reflektált Richard Huddy (akkor még az AMD-nél dolgozott, most már az Intelnél) [link], és John Carmack is beszélt erről [link]. Ez nagyon beszédes: "A Rage-et a PC-n elsősorban a textúrák frissítése hátráltatja. Konzolon a hardver és a memória direktebb kezelése következtében egyszerűen lehet frissíteni egy adott pixelt, de a PC-n masszív rutinokat kell bevetni, hogy a frissítés végbemenjen, és mindez – Carmack szerint – több mint tízezerszer hosszabb időbe kerül, ami természetesen nagyon lassítja a feldolgozást." Ezek azok, ahol a probléma keletkezik. Erre a megoldás a virtuális ISA bevezetése, vagy az API-k esetében az opció a hardverhez közelibb programozásra. Igazából mindkettőt jó lenne erőltetni, mert több lehetőség nem árt egy problémára.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák