Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Polllen #5 üzenetére

    Dehogynem. Az AMD azt fogja mondani, hogy oké megcsináljuk, de akkor 250 dollár/APU, ugyanis a Microsoft és a Sony nem tud máshoz nyúlni. És akkor megint mehet a gépek veszteség melletti árusítása. Az, hogy az AMD mit akar egy dolog, nyilván nem azért akarják a gyors frissítést, mert az a konzolbiznisz egészének jó, hanem azért, mert automatikusan nyernek, és le lehet húzni az MS-t és a Sony-t nagyjából úgy 10 milliárd dollárral.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz flashpointer #13 üzenetére

    Nyilván nem az a része megoldhatatlan a dolognak, hogy az X gépnél erősebb lenne az új Y gép. A grafika nagymértékben skálázható, tehát gyakorlatilag minimális befektetéssel megoldható lenne, hogy ugyanaz a program X és Y gépen is fusson.
    A probléma itt az lenne, hogy Y gép pályáztatás nélkül születne meg. Ez csak annak a cégnek kedvező, aki a gépbe szállítja a rendszerchipet. A Sony és az MS nem azért nem csinálta ezt eddig meg, mert nem lenne megoldható. Gyakorlatilag bőven az, de ilyenkor a beszállító olyan árat szab meg, amilyet akar, és akár nagy veszteségek árán is ki kellene fizetni, mert túl sok pénz van az X gép szoftverében. Emiatt az Y gépek sosem születnek meg, mert nem jön ki pozitívra a mérleg. Sosem termelné vissza a befektetést.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Whysperer #17 üzenetére

    Akkor is 99%, hogy egyik cég sem fogja megrendelni a frissítést. Az a baj ezzel, hogy nem fogja visszatermelni a befektetett pénzt. Sosem. Úgy meg minek vele vesződni...

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #52815360 #22 üzenetére

    Az se jó, mert az AMD-n kívül a másik reális pályázó az Imagination. A többi cég egyszerűen vagy nem érdekelt ebbe a konzolbizniszben, vagy nem dokumentálja elég jól az architektúrákat, anélkül pedig nem lehet optimalizálni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Cathulhu #49 üzenetére

    Ez nem olyan egyszer, hogy több mag. Az a baj, hogy a PC-s optimalizálásból indultok ki, ahol például olyan tényezőket nem vesznek figyelembe, hogy az L2 gyorsítótárnak mekkora a késleltetése. Egyszerűen úgyis hardverfüggő lesz. A PS4 és az Xbox One esetében is két klaszterre van osztva a 8 mag, vagyis van 4+4 magod. Ebből az OS elvesz két magot, és úgy, hogy végeredményben 4+2 magja van a programnak. Ez persze hat magként látszik, de a fejlesztők tudják, hogy az L2 cache különálló, hiszen egy megosztás csak 4 maghoz tartozik, és ha az egyik klaszter a másik klaszter gyorsítótárából kéri az adatot, akkor annak a késleltetése 190 ciklus. Emiatt célszerű úgy optimalizálni, hogy a klasztereken belül maradjon a munka, mert így csak 25 ciklus a késleltetés. Az egy dolog, hogy ilyen koncepciót még csak a programok töredéke követ, de ez egy fontos optimalizálási stratégia lesz egy-két éven belül, ahogy a régi motorokat leváltják az újak. Innentől kezdve, ha hozzáadnak a lapkákhoz klasztereket, akkor az baj lesz, mert az egész optimalizálás bukik.
    Az IGP szintén nem egyszerű. A konzolon az exkluzív programoknál nagyon kedvelt az IGP statikus particionálása. Ezt azért tudják egyszerűen megtenni, mert fix mindegyik gép konfigurációja, így kitesztelik, hogy mi az ideális, és felosztják az IGP-t két részre. Ez a particionálási stratégia a CU-k számának növelésével teljesen megbukik, mert az eredetileg kitesztelt felosztás nem fog működni.

    A konzolok legsarkalatosabb pontja, hogy az egész rendszer specifikációja a kiadáskor be lesz betonozva. Az az életciklus alatt nem változik. Még az erratákat is viszik tovább, akkor is, ha azok javíthatók és készül is új stepping. Ezeknek a döntéseknek az az oka, hogy dollármilliós nagyságrendű (nyilván nem egy cégre lebontva, hanem a piac összességét tekintve nézik a gyártók, és összességében simán dollármilliós pénz áll már most a mostani generáció kutatásában) kutatásokat/optimalizálásokat tehet tönkre akár a legkisebb változás is, ami végeredményben pont, hogy ellentétes hatást vált majd ki a programfuttatásnál. Ergo annak ellenére, hogy több mag van a lapkában, és/vagy több CU, a változó kialakítás miatt a program lassulni fog.

    Ha lesz fejlesztett verzió a konzolokból, akkor az nem lesz kompatibilis az előző generációval, tehát a programokat mindenképp portolni kell majd. Egyébként ez nem megoldhatatlan, ha a két generáció elég közel van egymáshoz, és akkor a fejlesztők minimális befektetéssel is képesek lesznek kiszolgálni a gépeket. Viszont ezekre nem fognak célirányosan optimalizálni, amíg el nem éri a generáció a megfelelő eladásokat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák