Keresés

Új hozzászólás Aktív témák

  • Bici

    félisten

    válasz Abu85 #16 üzenetére

    De az alacsonyabb sebesség miatt sem kell kiszedni egy-egy effektet?
    (tudtommal kevesebb számoló lesz a Kaveriben)

    [ Szerkesztve ]

    Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

  • Bici

    félisten

    válasz Abu85 #16 üzenetére

    Értem, de a Kaverivel hogy fog működni a modernebb port, ha kevesebb számoló lesz benne, mint a konzolokban? Vagy eleinte nem lesz kihasználva a konzolok teljes GPU kapacitása?

    [ Szerkesztve ]

    Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

  • Fiery

    veterán

    válasz Abu85 #35 üzenetére

    Tehat lenyegeben ugyanugy 2 szintu forditas lesz, hiszen elso korben a nyers C-szeru kodot le kell forditani HSAIL-re, majd azt a GPU drivere forditja at a GPU nativ gepi kodjara. A vicc az, hogy most is ugyanez van pl. OpenCL-en, es ha ott bugos es sz*rul mukodik, akkor nem vilagos szamomra, hogy a HSA-nal ez miert mukodne jobban.

    A direkt programozas temajaban erdemes megnezni, John Carmack milyen velemenyen van. En inkabb neki hiszek, mint annak az AMD-nek, aki a 5 evnyi tokoles es milliardos (USD) koltsegek utan egy ilyen Bulldozert rakott ossze...

  • Fiery

    veterán

    válasz Abu85 #53 üzenetére

    Pont az altalad idezett interjuban ecseteli Carmack azt, hogy direkt(ebb)en kellene a GPU-t programozni, es hogy az Intel-fele irany me'g aka'r mukodhet is, mert direktebb hozzaferest nyujt. Meg mintha arrol is szo lenne ott, hogy mennyire megerosodtek az x86-os CPU-k, es hogy mennyivel kellemesebb x86-ra fejleszteni, mint OpenCL-re:

    " If it’s a choice of... now that we have these awesome multi-core x86 CPUs where we can get 24 threads in commodity boxes... it’s true that one GPU card can do more ray tracing than one 24 thread x86 box, but it’s not multiples more and if it’s just a matter of buying more $2000 boxes, it makes the development, maintenance, and upkeep much better. While everyone in high performance computing is all “rah-rah” GPUs right now, I’ve come full circle back around to saying the fact that we can get massive amounts of x86 cores and threads... it wont win on FLOPS/watt or FLOPS/volume, but in terms of results per developer hour it is much, much better."

    Es ez egy 2 eves interju, amikor me'g a Sandy Bridge es az AVX volt a csucs. Abban totalisan igaza van, hogy sokkal kenyelmesebb, egyszerubb, megszokottabb fejleszteni x86-ra, mint mondjuk OpenCL-re.

    >A GPU-k tervezése nem olyan egyszerű, mint azt sokan gondolják. Sokkal nehezebb összerakni egy ilyen rendszert, mint egy CPU-t.

    En ezzel baromira nem ertek egyet, de teny, hogy egyiket sem csinaltam. Kivancsi lennék azonban arra, ha az nVIDIA-nak vagy az onallo ATI-nak kellene _nullarol_ egy CPU architekturat osszeraknia (tehat nem ARM, nem x86, nem IA-64, nem-akarmi-mar-letezo architekura alapjaira), elsore olyan frankon sikerulne-e, mint a Larrabee. Ha visszanezunk a multba, elsore az Intelnek sem szoktak osszejonni a dolgok, akarmilyen nagy es eros ceg is. Sot, nem egyszer elofordult, hogy parhuzamosan futtattak kulonbozo architekturakat, es az egyik kerult ki gyoztesen, a masik ment a levesbe (pl. Netburst vs. Banias/Dothan/Yonah). Siman lehet, hogy a MIC/Larrabee/LRBNI vonal is megy a levesbe, es AVX-512 lesz helyettuk. Vagy me'g az is lehet, hogy egy harmadik megoldas lesz a nyero, majd kiderul.

    >A Larrabee ma a MIC. Annak hatékony kihasználásához van a vector intrinsics, de ez olyan mintha assemblyben programoznál. Nem fogom elhinni a programozókról, hogy ez számukra kedvezőbb, mint a C++. Szóval én ezt a direkt programozást kapásból kilövöm, senki sem szeretne Assembly szint közelében data parrallel kódot írni, még az Intel kedvéért sem.

    Ha intrinsics-ekkel hatekonyabban lehet programozni, mint az OpenCL compileres baromsagaival meg overheadjevel, akkor hidd el, azt fogja hasznalni a programozo. Csak jelenleg me'g rendes Windows tamogatas sincs a MIC-hez, es maga a vas is brutal draga es rettento ritka egy mainstream fejleszteshez. Egyebkent mindket nyelv C/C++ lenyegeben, csak az OpenCL ugy le van butitva, mint az allat. Ha van idod, bongeszd at az OpenCL teljes specifikaciojat, olyan "erdekes" shortcutok vannak benne, amitol egy C/C++ fejlesztonek a hatan felall a szor. Pl. csinalsz valamit, amit ugymond "nem illik", es "not guaranteed", hogy mi fog tortenni. Annyira faek az egesz, hogy az valami botrany, de persze hasznalhato, csak ne hasonlitsuk egy C/C++-bol x86 kodot fordito rendes compileres/linkeres megoldashoz.

  • Fiery

    veterán

    válasz Abu85 #54 üzenetére

    >Itt elértünk oda, ahol a Larrabee életképtelen volt, és az egész AVX is az lesz

    Ez egy eros kijelentes :) Az SSE-re is kopkodtek anno, amikor a vektorizalt adat kezeles me'g idegennek hatott, aztan latjuk, hogy hova jutott a dolog. Vagy arra gondolsz, hogy az AVX eletkeptelen a GPU-knal? Ez megint furcsa kijelentes, hiszen maga az utasitaskeszlet nem hatarozza meg a hw architekturat. Lasd P5 vs. P6 vs. Netburst vs. Banias vs. Silvermont vs. Larrabee vs. Bulldozer vs. Jaguar vs. Isaiah, mind-mind x86-os architekturak, de baromira nem azonos hardveres implementaciok. Az AVX utasitasokat szamtalan modon vegre lehet hajtani, az OpenCL es tarsai pedig mar most is kezelnek 16 szeles vektorokat, tehat a GPU-fejlesztoknek baromira nem idegen az ilyen szeles vektorok kezelese.

    >Tök esélytelen ez az egész MIC és AVX irány. Nem véletlen, hogy minden legalább egy maréknyi GPU-s tervezési tapasztalattal rendelkező cég elveti.

    Marmint ugy erted, hogy a VIA es az AMD veti el, mert a tobbi cegnek nincs x86 licence eleve, tehat naluk a MIC es az AVX baromira nem opcio semmilyen szempontbol.

    >Túl sok vele a programozói probléma

    Mire gondolsz? Mikor hallottal _programozot_ arrol karogni, hogy milyen sz*r az x86? Foleg ugy, hogy a legtobb PC programozo eleve az ido nagytobbsegeben C/C++-ban nyomul, aminel nem igazan szamit az, hogy x86 van "alatta" vagy sem.

    >és a skálázhatóság megszűnésével az egész átcsap masszív tranzisztorpazarlásba, mert direkt programozás mellett nem tudod lecserélni az ISA-t

    Az ISA nem limitalja annyira a fejlodest, mint ahogy probalod beallitani. Az x86 sem rekedt meg soha az elmult 30 evben, erdekes modon. Egy flexibilis, x86 alapu GPU architektura ugyanugy tudna alkalmazkodni a piac valtozasahoz, mint ahogy az x86 alapu CPU-k.

Új hozzászólás Aktív témák