Új hozzászólás Aktív témák

  • tombar

    senior tag

    válasz Loha #10148 üzenetére

    ha jól tudom közép és felső kategória az eladások (kb.) 30%át teszik ki és a jó részét akis nyomi alsókatos kártyák. azt elhiszem h kínában nagy lehet a vásárlói piac, de gondolom ott sem a felsőházat veszi mindenki. ezért jó a gk, mert franyán skálázható. másrészt ha a világtrend az integrálás felé viszi a piacot, akkor egy idő után a kínai piac is oda fog fordulni. mondjuk ehhez kellene tudni a potenciális piac erejét. mondjuk jó lenne ha lenne formáló hatása és akkor talán a dgpuknak is komolyabb szerepe lenne az apuk mellet.

    Everybody knows, you dance like you fuck. So let me see you dance!

  • Abu85

    HÁZIGAZDA

    válasz Loha #10148 üzenetére

    Teljesen mindegy, hogy mire veszi, ha a piac 70%-ának max. 100 dollárja van egy VGA-ra. Ez a réteg adja a piac legnagyobb nyereségét. Nyilvánvaló, hogy egy-egy olcsó kártya eladásán kevesebb a haszon, mint egy-egy csúcskártyáén, de az eladási volumen különbsége óriási, és ha ezt beleszámolod, akkor összességében az olcsó termékekből lesz több nyereség. Ahogy esik ki ez a nagy volumen úgy fog nőni generációról-generációra a VGA-k árazása, mert az üzletágon belül a kicsikből kieső nyereséget a még eladható termékeken kell kompenzálni. Ez persze oda vezet, hogy még kevesebb VGA kerül eladásra, ami további áremelkedést is hoz. Természetesen az IGP ki tudja váltani ezt a részt, de az NV-nek pont az a problémája, hogy nincs IGP-je, amivel a piac nagy részébe nevezni tudnának. Ez majd megváltozik, mert tervezik a saját processzorukat, és arra építik a Maxwellt.
    Ennek az egész platformosításnak lesz majd egy jó hozománya is, ami a VGA-k árában meg fog látszani. A VGA-piac továbbra is alacsony hasznot termel majd, de azzal, hogy platformként tekintenek a cégek a fejlesztésekre előtérbe kerül a nagy haszonnal kecsegtető APU eladása is. Az aktuális tervek is erről szólnak. Az NV célja, hogy GeForce mellé NV APU-t vegyél, az AMD-é pedig, hogy Radeon mellé AMD APU-t. Ezt direkt termékkapcsolással nem tehetik meg, mert az törvénytelen, illetve az alapvetően nem baj, ha Intel holmi mellé is veszel VGA-t. Ellenben a cél egyértelműen a platform erősítése, éppen ezért ha platformot raksz össze NV APU+GeForce vagy AMD APU+Radeon, akkor extrákat kapsz. Például olyat, hogy AMD mellett teljes lesz a HSA, míg GeForce mellett a PTX funkcionalítás. Az NV-nek még ott a PhysX is. Egyszerűen nem tart semeddig platformhoz kötni. Csak akkor lesz elérhető, ha teljesen NV-s a rendszered. Ugyanezt már láthatod az AMD-nél, ahol teljesen AMD-s géppel más vezérlőpultot kapsz. Ugyan itt még csak a Steady Video az extra és a CPU paraméterezése, de ezek a jövőben sokkal szigorúbbak lesznek. Ezzel a VGA-k ára csökkenhet, mert teljes funkcionalításhoz úgyis platform kell, vagyis nem baj, ha alacsony rajtuk a nyeres, a platformon már összességében magas lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10150 üzenetére

    Először is kezdjük ott, hogy a GK110 tömeggyártása 2012Q4-ben kezdődik meg. Addig a kihozatalról semmit sem tudunk. A másik az, hogy két darab GK104-nél semmi esetre sem gyorsabb, ellenben a gyártása drágább lenne. Lehet csinálni a GK104-nél nagyobb GPU-val GeForce-ot, de biztos nem a GK110 lesz az, mert annak semmi értelme.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Bici

    félisten

    válasz tombar #10151 üzenetére

    A dGPU-k szerintem egészen biztosan megmaradnak, csak jelentősen leszűkül a számuk.
    Gondolom, a középkategóriás GPU-k belekerülnek majd a prociba, vagy annak szerves részévé válnak, kicsit később a felső kategória alja is. Marad az erős felső és csúcs kategória. Egy ilyen fórumon valószínűleg a tagok jelentős részének ugyanúgy lesz dVGA-ja, viszont az irodai gépekből, notikból, és a boltban kapható normális árú játékos PC-kből valószínűleg teljesen ki fog kopni a dVGA.
    Az egy ilyen extra felszerelés lesz, amit a vérbeli játékosok beletsznek, ha telik rá. Gondolom a sokkal kisebb eldaott példányszám miatt jó drágák lesznek.

    Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

  • tombar

    senior tag

    válasz Bici #10154 üzenetére

    elvileg a dgpu-k, ahogy Abu is írta, a platformositás részei lesznek, gondolom prostprocess meg hasonlók. én nagyon remélem h ha nem gyártóspecifikus gépet rak össze az ember, akkor is megmarad a dgpu-k előnye, illetve csak speckó esetekben lesz hátrány a gyártómixelés :)
    ha tényleg meg akarják tartani a dgpuk iránti keresletet, akkor valszeg az apuk igpje nem fog betörni a középkategóriába.

    Everybody knows, you dance like you fuck. So let me see you dance!

  • Loha

    veterán

    válasz Abu85 #10152 üzenetére

    Ez a piac amiről beszélsz ez nem a gamer piac, ezek az irodai gépek, ahova csak azért kellett dGPU mert az IGP-k szánalmasak voltak. A gamereknek nem csak 100$-ja van VGA.

    NV APU-ja ARM procival kezdetben nem sok vizet fog zavarni a windosos PC-ken az biztos ;], és szerintem lesz belőle szokásos játékos dGPU is ugyan úgy.

    Az egész APU-s platformosítás, az AMD-nek ideális ezért is nyomatják, mivel a procijaik önmagukban nem tudnak versenyezni az Intel megoldásaival, az NV-nek meg nincs x86-os procija és nem is lesz, viszont GPU terén sokkal előrébb járnak az Intelnél, ezért egy gyenge proci + jó GPU páros már sokkal versenyképesebb mint a gyenge procijuk önmagában, tehát az AMD-nél létkérdés, hogy az erős GPU-juk segítségével adják el a többi terméküket is. Az Intelnek és az NV-nek ennyire nem fontos ez, csak fel kell venniük a kesztyűt, de azt látni kell, hogy az APU-t nem a piaci igények hívták életre elsősorban, hanem az AMD.

    #10153

    Most hogy mikorra van kitűzve a GK110 tömeggyártása, abból nem következik az, hogy eredetileg is ez volt a terv, ez az új infók birtokában lett így alakítva.

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz Loha #10156 üzenetére

    Nem csak hardcore gamer van, hanem casual is. Sőt, a casual többet ér, mert sokkal többen vannak. Irodába senki sem vesz már dGPU-t.

    Az architektúra csak egy eleme a rendszernek. Win RT lesz ARM-ra. Nyilván mire itt a Maxwell már lesz új Win is, vagy ha nem is új, akkor egy jobban kigyúrt. Nem marad a Win RT örökké a kezdeti szinten. Az biztos, hogy az NVIDIA-nak nincs x86/AMD64 licence, vagyis csak olyan cGPU-t képes készíteni, ami az ARM-hoz köthető architekturálisan, erre van licencük.

    Az APU-t nagyon rosszul látod. A skálázhatóság hívta életre a koncepciót, mert semmi esélyed skálázni a homogén többmagos rendszert, csak ha kiheréled az egy szálú teljesítményt. Ha csak az AMD érdeke lenne ez az egész, akkor az Intel nem állt volna elő az Ivy Bridge-dzsel és az NV sem tervezne APU-t. A valóság az, hogy a heterogén többmagos rendszerekben az összes cég hisz, és nem csak az AMD. Hozzájuk csak azért kötik az APU-kat, mert az AMD látta meg először a skálázhatóság problémáját, és elsőként is reagáltak rá.

    Hihetsz elméletekben, hogy az NV eredetileg így meg úgy tervezte, de ebben az esetben megvalósíthatatlan dolgokban hiszel. Nincs értelme egy ekkora lapkát lehozni erre a piacra, mert tranzisztorok milliárdjai állnának benne kihasználatlanul a gyártás pedig vinné a pénzt. Jobban megéri tervezni ide egy másik lapkát, mert a GK110 alkalmatlan a versenyre. Ezt a HPC-re tervezték és ennyi. Többet nem is akarnak, mert a mérnökök látják, hogy az extrák a GeForce piacán korlátokat is jelentenek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Loha

    veterán

    válasz Abu85 #10157 üzenetére

    A casual gamerek nagy része, már konzolon játszik, az egész konzolosdi rájuk épít, a 100$ alatti VGA-k meg teljesen alkalmatlanok játékra. Az új irodai gépek jelentős része, nem a legújabb architektúrára épül, sőt szerintem még mindig sok C2D-s gépet adnak el, ezeknél még bőven van értelme egy GT 520 -nak pl.

    ARMos Windowson nem fognak futni az x86-os progik, tehát a Windowsra írt programok legnagyobb része nem fog futni, ezzel pedig a játékos és az irodai PC-k piacán teljesen esélytelen a Maxwell, ha nincs mellette x86-os proci.

    Ivy Bridge csak egy kötelező kör, nem akarnak lemaradni az AMD-től ilyen téren, főleg a laptopok területén, az a Intel látott volna ebben fantáziát, akkor nem az AMD után kullogna, hanem már sokkal előbb rágyúrtak volna az IGP-re is.
    NV-nek meg nincs más választása, proci híján mindig másra kell támaszkodnia, amit egyszer már nagyon megszívott (Intel-FSB), gondolom tanultak belőle, vmint ha ki akarják túrni az Intelt a HPC fronton, ahhoz egy proci sem árt.

    Ez nem hit kérdése, voltak kémfotók meg kiszivárgott adatok, amiből egyértelműen látszott, hogy nem a GK104-et tervezték az egy GPU-s Geforceok csúcsának, és erre lehet következtetni korábbi NV-s nyilatkozatokból is. AMD-s szemszögből biztos nem is lenne értelme, de ha az elsőség a cél, akkor az NV-nél nagyon sok mindenre képesek, mert tudják, hogy ha a termék anyagilag nem is sikeres, óriási marketing értéke van az elsőségnek, erre volt már példa több is.

    Nincs értelme egy ekkora lapkát lehozni erre a piacra, mert tranzisztorok milliárdjai állnának benne kihasználatlanul
    Ott van pl. a 560 TI 448 ugyan akkora lapkával, mint a GTX580 vagy kb. mint a GK110, jelentős része letiltva, és akkor lehozzák a középkategória tetejére, tehát még nem is presztízstermék, hanem ténylegesen keresnek rajta, ha nem lenne értelme nem csinálnák.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10158 üzenetére

    Ez egyáltalán nem így van. Pont, hogy fordítva mondják a gyártók. Egyre több a Casual gamer PC-n, és ezt hivatott alátámasztani, hogy egyre több a budget kategóriába szánt játék is. Pont, hogy a hardcore réteg kezd kikopni.

    Valóban nem, de valahol el kell kezdeni. Ha itt az ARM, akkor az új programokat arra is lefordítják. Ezzel nem mondanám teljesen esélytelennek. Az NVIDIA mindent meg fog tenni ezért, mert a jövőjük függ ettől a rendszertől. A Microsoftra biztos számíthatnak.

    Az Intel az arról híres, hogy az AMD-t szokta követni. :)) Nem, itt senki nem követ senkit. A cél, hogy a gyártástechnológia problémák mellett is megőrizzék a gyártók a lapkák skálázhatóságát. Erre van a heterogén módon programozható lapkák koncepciója. Ezt nem az AMD találta ki, ez egy logikus evolúciós lépcső. Olyan amilyen a többmagos processzorok lépcsője volt pár éve.
    Szerinted a Larrabee projektbe beleölt dollármilliárdok mire szolgáltak? Az Intel sem gondolta az elején, hogy két implementációból kettő a kukában végzi. Nem olyan egyszerű egy GPU-t összerakni, azért haladnak lassan.
    Az NV-nek rengeteg választása van/volt, de akarják a PC-s piacot, így ők is integrálnak. Ez egyébként logikus. És ez nem a HPC-piacnak szól, hanem a konzumer szintnek is.

    A pletykákra ne építs, mert az gyártók mindig is azt mondták, hogy a GK104 lesz a GeForce csúcslapkája. Márciusban még nem számoltunk be róla, de az NV elmondta nekünk, hogy lesz ennél nagyobb lapka a Teslába, de nem GeForce-ba. A GK110 GeForce-ban hit kérdése. A valóságban az NVIDIA nem fog egy ilyen hibát elkövetni elég volt nekik a GF100/110.

    A GTX 560 Ti 448 eleve egy limitált sorozat volt. Csak azért született meg, mert volt pár lapka, amit meg kellett venni, de nem volt eladható GTX 570-be és 580-ba. Ezzel vagy kiadják egy termékbe és eladják, vagy kidobják őket a kukába, világos, hogy ha már benne áll a pénz, akkor legalább egy részét hozzák vissza. Emellett érdekes infó, ami nincs megerősítve, de állítólag 40 nm-en a GF100/GF110 kihozatala sosem lépte át a 30%-ot. Nyilván nem véletlenül ragaszkodott az NV a jó lapkánkénti fizetéshez, miközben a 40 nm 2011-ben már elég olcsó volt, és jó kihozatal mellett olcsóbb lett volna a waferenkénti fizetés. A 28 nm teljesen más. Más a fizetési modell, és más a gyártástechnológia. Minden egyes tranyó számít, amit meg lehet spórolni a tervezéssel. Mint mondtam lehet a GK104-nél nagyobb lapkát csinálni, de pont a GK110-et kiadni nagy hiba, mert abban rengeteg felesleges dolog van. Emellett a Teslába nagyjából 600 MHz-es lesz a termék. GeForce-ban 300 wattban tudnának hozni egy 750 MHz-et. Ezzel kb. gyorsabb lenne a GK104-nél úgy 25-30%-kal. Egyszerűen nem éri meg, nincs egy üzleti szempont sem a kiadás mellett, ellenben a kiadás elleni szempontokat lehetne sorolni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • fatallerror

    addikt

    válasz Abu85 #10147 üzenetére

    tehát akármilyen is lesz a konkurenciához képest akkor is kötelező lépés és végül is nem bukhatnak, legrosszabb esetben tanulság lesz és tapasztalat. kíváncsi vagyok vajon képesek e elsőre jót alkotni bár gondolom van még annyira messze ez a 2014 h felhasználják a konkurencia botlásait ill erősségeit

    don't tell me what i can't do!

  • gbors

    nagyúr

    válasz Abu85 #10159 üzenetére

    ne vedd kötekedésnek, és nem is a korábbi eszmecserét akarom folytatni, de arra felhívnám a figyelmet, hogy nagyon erős dolgokat állítasz, anélkül, hogy megfelelően megtámasztanád. az elméletek szép dolgok, de a "nem éri meg" kérdéskörben édeskevesek, ott a számok visznek mindent. két dologra gondolok kiváltképp:

    A GK110 GeForce-ban hit kérdése. A valóságban az NVIDIA nem fog egy ilyen hibát elkövetni elég volt nekik a GF100/110.

    a GT200-nál is az volt, hogy túl nagy, meg a GF100-nál is. mégis lett, és a leggyorsabb volt. sőt, mindegyikből lett dual kártya is (utóbbiból csak ráncfelvarrás után, de akkor is 3Mrd tranyóval). nem látom, miért lenne más ez a generáció.

    Egyszerűen nem éri meg, nincs egy üzleti szempont sem a kiadás mellett, ellenben a kiadás elleni szempontokat lehetne sorolni.

    a kiadás mellett egy jó business case tud szólni, semmi más. a 8800 Ultra emlékeim szerint 800 USD magasságában nyitott, úgyhogy egy 700-750 dolláros kártyára biztosan lehet értelmes case-t gyártani. annyiért meg akár GK110-zel is lehet szerelni. ettől még lehet másik chip helyette, meg az is lehet, hogy semmi nem lesz (ha a 680-ért el lehet kérni 500 USD-t, akkor tényleg lehet, hogy érdemesebb GK104-eket gyártani), de a keretszámok ismerete nélkül nem megalapozott az az állítás, hogy "nincs üzleti szempont a kiadás mellett".

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • Abu85

    HÁZIGAZDA

    válasz gbors #10161 üzenetére

    Nem veszek kötekedésnek, de nézd meg a waferárakat helyzetét. A 28 nm teljesen más kategória. [link]
    Emellett ez még egy fontos grafikon. [link] - Moore törvénye láthatóan él, de a többi szempont szerint megállt a skálázódás. Igaz, ez az Intelre van levetítve, de a fizika törvényei egységesek.
    Ezeket az NVIDIA is látja, sőt mindenki. Egyszerűen már nem lehet úgy tervezni egy lapkát, hogy majd az új gyártástechnológia meghozza a skálázást. Ennek a kényelmes helyzetnek vége, és a Dennard Scaling ami ezt biztosította megfeneklett. Ezek azért elég komoly érvek szerintem.
    A GT200 és a GF100 pedig nem volt nagy durranás ... egyáltalán nem hozták azt, amire a méretükből számítani lehetett. Zömében a második linkelt kép ennek az oka, csak akkor még ez nem volt annyira jelentős probléma, mint 28 nm-en. Ne feledd azt sem, hogy a GK110 ~600 MHz-en fog működni (a Tesla K20 esetében erre vannak utalások, és mínusz két SMX blokk, ha ez az órajel marad ... természetesen több SMX mellett a magórajel csökkenni fog). Nem fogadnék arra, hogy minden esetben gyorsabb, mint a GK104 egy játékban. HPC-ben tuti. Arra fogadnék, de a játék az más.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Löncsi

    őstag

    válasz Abu85 #10162 üzenetére

    Ezen a grafikonon csak az órajel skálázódás van. Szvsz évek óta tudja mindenki, hogy procimagok számával skálázódik a teljesítmény... Dual-Itanium 2 ? Ez nagyon régi grafikon lehet.

    Amúgy nem pont az Ivy "3D-s" tranyóelhelyezéssel próbálja megoldani a wafer problémát?

    [ Szerkesztve ]

    Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28

  • gbors

    nagyúr

    válasz Abu85 #10162 üzenetére

    pár tucat hsz-szel ezelőtt már megnéztük a waferárakat, azóta nem változott a véleményem :)

    a cpu-scaling grafikon nagyon jó, de az a single core skálázódásról szól. a power-határt nem tudjuk (mert 1 éve láttuk, hogy a 300W-ra magasról sz**ik mindkét gyártó, ha a helyzet úgy hozza), ezért a további tranzisztorok további core-okként meg tudnak jelenni. nincs itt hiba.

    a GT200 szerintem is egy elég gyenge eresztés volt, de ettől még arra épült a leggyorsabb VGA. a GF100-tól pedig nem tudom, ki mit várt, teljesítmény terén az egy teljesen jó GPU.
    a Tesla órajelek csak mérsékelten relevánsak, Te szoktad írni, hogy ott 225W a power budget, VGA-ban ugye láttunk már 365W-ot is. miután a GK110 a pletyi szerint a GK104 duplája, első durva becslésként a fogyasztás azonos órajel mellett 400W magasságában lenne - meglepne, ha 800MHz-re leejtve nem szorulna normális keretek közé.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • BeLucZ

    addikt

    válasz gbors #10164 üzenetére

    és ugy rohadt erős lenne! én azért kiadnám az abszolút felsőkategóriába az nv helyében, hogy na azért mégiscsak megmutassuk mi is hogy tudunk erős gamer kártyát hozni ami még computeban is odabasz!

    nem kell nagy példányszámba kihozni, de hihetetlen presztizsértéke lenne

    és mint tudjuk sokat számít az hogy "kinek a nagyobb"..... sok user ez alapján választ terméket, nagyon jó reklám tud lenni és mivel nem lenne szó hatalmas példányszámról, az esetleges gyártási minuszt behozhatná bőven az általa generált pozitiv hatások armadája...

    [ Szerkesztve ]

  • oliba

    őstag

    válasz BeLucZ #10165 üzenetére

    Várj még vele. Ha AMD tényleg kijön a Tahiti frissítésével, akkor NV-nek is lépnie kell valamit

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10163 üzenetére

    Nem, ezen a grafikonon négy adat van. Tranyók, órajel, energiafelvétel és IPC. Azt mutatja, hogy Moore trövénye és a Dennard Scaling hogyan változik. Moore törvénye láthatóan él, de a többi az erős skálázhatósága megfeneklett. Ez napjaink legnagyobb problémája, hogy azok a szabályok már nem használhatók, amelyekre a 2000-es évek elején, illetve azelőtt a chipek tervezése épült. Ez hozta el a többmagos processzorokat is, de minél közelebb kerülünk a CMOS határaihoz, annál erősebbek a fizika törvényeiből eredő limitációk. Pontosan ezért megy mindenki a heterogén többmagos fejlesztések irányába. Most, hogy a Dennard Scaling ennyire lapos grafikont mutat új elvek szükségesek a chiptervezésben. A teljesítmény növelésének egyetlen módja az maradt, ha a lapka átlagos pJ/FLOP aránya egyre kisebb.

    Olyan nincs, hogy 3D-s tranyóelhelyezés. Már a planáris tranzisztorok is 3D-sek. Ez csak egy marketingszöveg. Ennek a neve valójában FinFET. Az Intel azért vezette be, mert el akarják kerülni a SOI használatát. Idővel persze elkerülhetetlen lesz, de egyelőre jóval több cég készít bulk wafert, így addig kell húzni ezt, ameddig lehet. A fenti problémát nem oldja meg a FinFET sem, sőt még az FD-SOI melletti FinFET sem fogja. Az egyetlen út az adott lapka pJ/FLOP arányának a csökkentése. Ezt jelenleg két módon lehet. Követni Pollack szabályát, ami a jóval egyszerűbb processzormagokra való tervezést próbálja előtérbe helyezni. Ilyenkor az adott processzormag kisebb lesz, így több fér bele egy adott tranyóbudgetbe, és azzal, hogy a különböző bonyolult feldolgozó logikákat (pl.: out-of-order helyett in-order rendszer) egyszerűsítik csökken a pJ/FLOP érték. Ezzel a teljes lapka throughput teljesítménye növelhető, cserébe viszont drasztikusan esik az egy szálon elérhető teljesítmény. A másik opció a heterogén többmagos felépítés, vagyis a lapkában két célirányos megközelítés lesz a magokra, azaz LOC és TOC dizájn. Az előbbi magok a hagyományos értelemben vett processzormagok, vagyis továbbra is a késleltetésre érzékeny feldolgozás az elsődleges feladatuk, így alapvetően gyúrnak az egyszálú teljesítményre, míg az utóbbi magok lényegében megfelelnek a lapka IGP részének, vagyis kifejezetten a throughput terhelést igényeit tartják szem előtt. Ezzel a módszerrel a processzormagok pJ/FLOP értéke nem csökken jelentősen, de az IGP ezt kompenzálja, így az átlagolt érték már csökken, ezenkívül megmarad a magas egyszálú teljesítmény is. A hátrányok a LOC és TOC dizájnnal ott keletkeznek, hogy eléggé meg kell változtatni a programozási szokásokat, illetve úgy kell tervezni az IGP-t, hogy az a rendszer szerves része legyen, és ne csak egy kiegészítője. Ez az oka annak, hogy az AMD a GCN-t már úgy tervezte, hogy ugyanazokat a 64 bites pointereket kezelje, amelyeket az AMD64-es processzormagok. Ugyanez lesz a Larrabee integrálásával is, illetve az NV Maxwell is erre tart, csak nyilván ARM alapokra építkezve.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10164 üzenetére

    Én értem, hogy a véleményed megvan, de ugyanerről van véleménye a gyártóknak is. Az övéké pedig fontosabb, mert ők fizetik ki a waferek árát.

    Arról is. Valójában azonban inkább arról szól, hogy kezdenek elhatalmasodni a CMOS fizikai korlátai. Ezek a gyártástechnológiai váltásokkal egyre rosszabbak lesznek.

    Nem így van. A 300 wattot elsőként és máig egyedül a GeForce GTX 590 szarta le. A HD 6990-et úgy tervezte az AMD, hogy az OEM-ek alkalmazhatták hozzá a -20%-os PowerTune beállítást, hogy szabványos legyen a termék. A GeForce GTX 590 startjakor az elfüstölt teszttermékekből pedig látszik, hogy miért fontos ez a szempont. 300 wattot megfelelően védett hardveren lehet csak túllépni (pl.: PowerTune vagy hasonló nagy hatásfokú hardveres rendszer mellett). A GTX 590 nem volt ilyen. A megjelenés után a driverben korrigáltak az eredeti paramétereken, hogy biztonságos legyen használni. Ezzel elő is állt az, hogy ha tuningoltad a GTX 590-et, akkor nem gyorsult, hanem lassult. A 300 watt pedig állandóan figyelve lesz. Ha a dobozos termékekben nem is, de az OEM-eknek készítenek olyan BIOS-t, mely 300 wattra limitál.

    A Tesla órajelek eléggé fontosak, mert ezek kapják a legjobb lapkákat, amelyek csak léteznek. Itt 225 watt a határ, ezért ide csak a legjobb chipekkel lehet beférni.
    Rosszul elemzed a helyzetet. Nem a GK104-hez kell hasonlítani a GK110-et, hanem két GK104-hez. Utóbbi konfigurációval mindig gazdaságosabb lesz a megcélzott piac, így ez a GK110-et teljesen lényegtelenné teszi egy GeForce-ban. 300 wattban a legjobb esetben fér bele 700 MHz-es órajellel a GK110. Ha nem butítanak rajta semmit, akkor nagyjából 10-30%-kal lehet gyorsabb a GeForce GTX 680-nál. Ezzel kapsz egy olyan terméket, melyet drágább gyártani, mint a GeForce GTX 690-et és jóval lassabb is. Üzletileg semmi sem indokolja ezt. Akkor inkább egy új lapka, amit az aktuális architektúra birtokában egy év alatt össze lehet rakni. Persze ott is figyelembe kell venni, hogy a dual-GPU-s koncepciónál ez sem lesz hatékonyabb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • P.H.

    senior tag

    válasz Abu85 #10167 üzenetére

    Azon túl sok adat van, és túl 'elavult'. Ezen SZVSZ sokkal jobban látszik a trend és hogy min nem lehet túllépni a CPU-knál.

    Arguing on the Internet is like running in the Special Olympics. Even if you win, you are still ... ˙˙˙ Real Eyes Realize Real Lies ˙˙˙

  • gbors

    nagyúr

    válasz Abu85 #10168 üzenetére

    ez mind szép, de nem fair a saját véleményedet úgy tálalni, mintha az nVidiától jönne. vagy esetleg titokban Jensennel sörözgetsz? :D

    a 300W-os szekciót nem értem, hogy jön ide. tudom a problémákat, és arról is elég jó elképzelésem van, hogy mehet egy 6990 -20%-os powertune-nal. de ettől még van precedens a 300W+-os kártyára, és nyilván az nVidia is tanult a hibákból.

    Nem a GK104-hez kell hasonlítani a GK110-et, hanem két GK104-hez.

    ez mondjuk jogos. az valóban különbség a korábbi generációkhoz képest, hogy a második számú chipből kettőt gyártani határozottan olcsóbb, mint az első számúból egyet. ami itt a GK110 mellett szól, az a multiGPU-s kártyák továbbra sem problémamentes volta. a piacon azért ennek van értéke.

    azt pedig, hogy hogyan nézne ki a GK110 fogyasztási görbéje, nem ártana megtámasztani legalább valami távolról releváns méréssel. kiindulásnak meg lehetne mérni, mit eszik egy GTX680 alulfeszelve 700, 800 és 900 MHz-en - ez valamilyen szinten indikatív lenne arra nézve, hogy milyen görbét futna a GK110 a feszültséggel és az órajellel. ha lenne 680-am, akkor már az eredményeket postolnám, de sajna nincs, így marad a tippelés. sztem simán menne 800MHz-et 300W alatt. prove me wrong, please ;)

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • fatallerror

    addikt

    válasz korcsi #10171 üzenetére

    szerintem kamu, ha nem akkor szívás mert 350 dolcsi rengeteg, az 100 ezer fölötti vga lenne megint csak :/

    don't tell me what i can't do!

  • tombar

    senior tag

    válasz korcsi #10171 üzenetére

    az az érdekes h a 660ti a selejt 104esekre fog épülni 250 dodóért a gk106os 660 nonti meg 350 della. sztem vmit elírhattak, mert elvileg ti nem lesz.
    (#10172) fatallerror: abban már benne van az áfa, ami ha jól emlékszem nagyobb, mint itthon. btw a 870es ellen jön ki.

    [ Szerkesztve ]

    Everybody knows, you dance like you fuck. So let me see you dance!

  • fatallerror

    addikt

    válasz tombar #10173 üzenetére

    áfástól nyilván, de már leesett h a 660 a 7870nek és a 7850nek a 660 ti és így rendben is van a dolog csak a ti asszem nem 2 gb-os lesz :/

    don't tell me what i can't do!

  • tombar

    senior tag

    válasz fatallerror #10174 üzenetére

    mondjuk fura h most felcserélték a jelölést. nagyon remélem h június végén megjönnek és talán 1 hónap alatt azért beáll az áruk.

    Everybody knows, you dance like you fuck. So let me see you dance!

  • fatallerror

    addikt

    válasz tombar #10175 üzenetére

    a jelölés még mind1, lehet nem így lesz a lényeg h akkor elméletileg jönnek a 7850/70nek szánt nv kártyák

    don't tell me what i can't do!

  • Abu85

    HÁZIGAZDA

    válasz gbors #10170 üzenetére

    A saját véleményem más. Szerintem jöhetne a GK110, mert a GCN architektúra nagyon elhúzott a compute-ban. Amit mondok az csak az NV-nek az üzleti szempontjai. A cég számára mindig a profit lesz az első.

    A 300+ wattos kártyából egy precedens van. Az is csak azért, mert képtelenség volt megcsinálni 300 watt alá. Emellett az a termék megmutatta, hogy miért is ragaszkodnak az OEM-ek a szabványokhoz. Biztos emlékszel arra, hogy hány teszttermék pusztult meg. A Lab501 még alapórajelen is megölt egyet.

    Egy-két játék nem jelent értéket a piacon. Ha azoknak problémás a Multi-GPU, akkor az lesz és kész. A többi játékon meg lesz az átlagos előny. A többi probléma meg a velejárója a multi-GPU-nak. Van opció egy GPU-t venni.

    Teljesen mindegy a GK104 fogyasztása, mert a GK110-ben más az SMX szervezése és a globális ütemezés is sokkal bonyolultabb. Abból a legjobb kiindulni, hogy a 225 wattos Teslára az NV utalása szerint ~600 MHz és 13 darab SMX lesz, vagy ~560 MHz 14 darab SMX-szel. Ezt lehet 300 wattra felszámolni. Mivel ezek a legjobb lapkák, így talán számoljunk 12 darab SMX-szel, hogy magasabb lehessen a magórajel. Nagyjából úgy hozható lenne egy ~750 MHz-es magórajel 300 wattal. Ezzel ~15-25% lenne az az előny, amit fel tudna mutatni a GTX 680-hoz képest. Ez abszolút nem éri meg. Sokkal jobban megéri a GTX 680-at gyári OC-zni. 800 MHz nagyjából aktív 10-11 SMX-szel lenne meg. Így sem lenne sokkal másabb a helyzet. Anyagilag nincs alátámasztva ennek a terméknek a létjogosultsága. Arról nem is beszélve, hogy a VGA-piac 300 dollár felett a teljes eladás ~2-3%-át adja. Már három GeForce van ebben a szegmensben. Többre nincs szükség, mert pici a vásárlóbázis. Ahol szükség lenne kepleres GeForce-ra az a 100-200 dolláros réteg. Ott 15-20%-os a vásárlóbázis a VGA-piac egészét nézve. Az NVIDIA-nak most már ide kell koncentrálnia, különben a Radeonok elviszik az OEM-es megrendeléseket.
    Szintén fontos, hogy mire lehetne GK110-es GeForce már 2013-at írunk, amikorra lehet felújított GK104.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • TTomax

    nagyúr

    válasz Abu85 #10177 üzenetére

    A korai GTX590-ek nem a fogyasztásuk miatt haltak meg ...akkor meghalt volna ha csak 250W-ot fogyaszt...

    ★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"

  • Abu85

    HÁZIGAZDA

    válasz TTomax #10178 üzenetére

    Mindegyik GTX 590 ugyanolyan. Nem volt korai meg új verzió. Annyi történt, hogy az NVIDIA kiadott egy drivert, ami megváltoztatta a specifikációkat. Az alapfeszültség 938 mV-ra csökkent, és a driverben lett egy határ, ami megszabta a túlterhelésvédelem életbe lépését. Ezt annyira szigorúvá tették, hogy a termék a feszültség emelésére vesztett a sebességéből. [link]
    Ennyi történt. A túlterhelés elleni védelem volt egy nagyon lassan reagáló megoldás. Ez nyilván 300 wattig lehet, hogy jól működött a GTX 580-on, de +60-70 watt már más. Oda szigorúbb szabályok kellettek.
    Valószínű, hogy a következő körben az NV is végre megfontolja a teljesen hardveres védelmet. Igazából máig nem értem, hogy miért ragaszkodnak ehhez a félig szoftveres megoldáshoz. Tény, hogy hardver szintjén ez a legolcsóbb, de több száz ms-os késleltetése van. Ha igazán ráfeküdnek, akkor csinálnak egy PowerTune szerű, stream processzorok szintjén is működő megoldást, de elég az is, ha a HD 5000-es Radeonok hardveres túlterhelés elleni védelmét lemásolják. Az is gyorsabban működik a szoftveres kiértékelésnél. Bár ez ellen az anyagiak szólnak, mert ez a legdrágább megoldást mind közül.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • TTomax

    nagyúr

    válasz Abu85 #10179 üzenetére

    Ne csúsztass,lényegtelen legyen korai stádium.Nem kell fél oldalt írni ahhoz,amit mindenki tud.. a GTX 590 fogyasztásának semmi köze nem volt ahhoz hogy elfüstölt.Nem lassan működött túlterhelés védelem, hanem rosszul!Az,hogy az nV driverböl védi a kártyáit,és elfuserálták a meghatót,nem jelenti azt,hogy nem lehet 300W feletti kártyát építeni... a 6990 is be tudja kajálni 300W felett... az hogy nem tul szerencsés az már más kérdés...
    Egyébként is, a múltkor leosztottál én vagyok a hülye,mert a "zero core" meseszépen megy radeonon,akkor tessék neked elsökézböl,nem nem megy normálisan,alvó állapotból visszatérve a 7970-em fele fps-t produkál BF3-ban,amióta kikapcsoltam a csodálatos cuccot nincs ilyen gondom,megint egy frankó újítás ami elcsuszik a driveres banánhéjon..ref OC karim van, whql driver,és semmivel nem tuningolok... csak azért írom le mert ezek lennének a következő dolgok amiket felhoznál...egy tesztből ez nem derül ki... csak a mindennapi használatban...

    [ Szerkesztve ]

    ★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"

  • Abu85

    HÁZIGAZDA

    válasz TTomax #10180 üzenetére

    A túlterhelés elleni védelem ugyanaz, ami van a GTX 580-ban. Egyszerűen ez a megoldás félig szoftveres. Az adatokat nem a hardver, hanem a driver értékeli ki, és ad engedélyt a beavatkozásra. Ez kapásból 500-700 ms-os késleltetés, vagyis a hardver a problémákra ennyivel később tud reagálni, mert ennyi idő, amíg a driver választ ad. Ez az amitől megdöglöttek a teszten a GTX 590-ek. Alapvetően nem működött rosszul a védelem, csak mire választ adott a szoftver, addigra köszönte szépen a hardver és megadta magát. Az új meghajtó ezen nem változtatott, csak a feszültséget vette vissza. A válasz ugyan továbbra is lassú volt, de nagyobb volt az esélye, hogy nem ég le, mire megérkezik, mert a feszültség kisebbre volt szabva, így a terhelés is alacsonyabb volt.
    Félreértesz, lehet 300 wattnál többet zabáló kártyát csinálni, de teljesen hardveres védelem nélkül nem életbiztosítás. A Radeon HD 6990 azért tartja magát ennyire jól tuning mellett is, mert a PowerTune pár ns-os késleltetéssel reagál, és ha kell, akkor az órajelet is valós időben csökkenti. A PowerTune előtt még az AMD sem mert 300 watt fölé menni. A HD 5000-es sorozat védelme is 50 ns-os késleltetésű volt, vagyis sokkal gyorsabb, mint bármelyik szoftveres megoldás, de ez csak a teljes lapkára vonatkozott, vagyis nem volt képes a shaderek szintjén beavatkozni, és az órajelet dinamikusan csökkenteni. Két opciója volt: lefagyasztja a terméket, ezzel megelőzve a károsodást, vagy kiad egy pihenj parancsot, ami a GPU-n egy teljes ciklust kihagy. Előbbi a fagyás miatt kellemetlen, utóbbi pedig nagy terhelés mellett szinte időszerű kihagyás, szóval egyik sem jó egy 300 wattot túllépő termékre. Ide olyan védelem kell, amilyen a PowerTune, mert az előbbi szintek mellé bekerült a terhelésszabályzás, az órajel állításával. Ha kell, akkor a PowerTune leveszi az órajelet a biztonságos szintre, emellett az OEM-ek is örülhetnek, mert volt BIOS, amivel 300 wattra volt limitálva a HD 6990.
    Most a GTX 690-nel is 300 watton maradt az NVIDIA. Egyszerűen nem éri meg megkockáztatni félig szoftveres védelemmel a nagyobb fogyasztást. Ráadásul így megvannak az OEM megrendelések is.
    Mi is első kézből gyűjtjük a tapasztalatokat számos Radeonnal a tesztben. Ha láttad, akkor mindig csinálunk Zero Core mérést. Ha valami nem stimmel, akkor azt észrevettük volna. Egyedül a gyári OC-s termékeket nem néztük. Ilyet még nem kaptunk.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • gbors

    nagyúr

    válasz Abu85 #10177 üzenetére

    na, akkor jó, mert az nVidia szerint is. ezt mondták a TechReportnak a GTC-n:
    "The Nvidia executives we talked with raised the possibility of a GK110-based GeForce being released this year only if necessary to counter some move by rival AMD."

    és igen, a cégek számára mindig a profit az első, de nem mindig a közvetlen profit. érdemes utánanézni az internyeten, hogy a világ legerősebb brandjei milyen pénzben kifejezett értékkel bírnak - márpedig a legnagyobb farok leggyorsabb GPU igenis növeli a brandértéket.

    ne mondd már, hogy mindegy a GK104 fogyasztása. nyilván nem lehet egy képlettel az egyik fogyasztásból elővarázsolni a másikat, de abban biztos vagyok, hogy a feszültség-órajel/fogyasztás görbe a két chipben drasztikusan nem tér el egymástól. és azt ugye tudjuk, hogy a 800MHz, ill. az 1GHz között GPU-k esetén elég nagy is lehet a differencia.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • Abu85

    HÁZIGAZDA

    válasz gbors #10182 üzenetére

    Ezen a piacon a presztízs másodlagos lett. A profit az első, mert évről-évre kevesebb lesz az eladás. Már a Samsung is ki akarja tenni a valagát, mert veszteséges a GDDR5-ös lapkák gyártása. Egyszerűen nincs meg az a rendelési volumen, ami régebben megvolt.

    Az NV jól mondja, csak akkor szabad ezt a terméket bevetni, ha az AMD elővarázsol valamit, amire nagyon kell a válasz. De mivel az AMD is ugyanúgy értéktelennek tekinti a hagyományos VGA-s fejlesztéseket, így nincs sok esély rá, hogy hirtelen jön egy lapka, ami 30-40%-kal gyorsabb lesz a GK104-nél. Mire ez megtörténik, addigra 2013-at írunk, amikorra már meg lesz a GK104 utód is. Szóval a GK110 mellett egyetlen szempont sincs. Persze ebbe a HSA és az integrációs tervek beleszólhatnak, de ez ellen az NVIDIA úgy sem tud választ, mert nincs még platformjuk. Az Intellel pedig nem tudnak szövetkezni, mert x86/AMD64 licenc nélkül csak az ARM-ra építhetik a GPU-k tudását. Ez előny is meg hátrány is. Előny, mert az NV-nek nem kell azzal törődni, hogy a GPU kezelje ugyanazokat a 64 bites pointereket, amiket a CPU használ. Ugye az AMD már így tervezte a GCN-t, és ezért a compute irány is. Abból a szempontból viszont hátrányos az NV-nek ez az egész, hogy az AMD már ennyire előretört a platformtervekben. Ennek rövidtávon csak annyi a hatása, hogy az AMD procik/APU-k mellé Radeont érdemes venni, de mivel az OEM-gyártók eddig sem rajongtak az AMD+GeForce kombóban, így ez annyira nem lényeges. Hosszútávon viszont nagy gáz, hogy a fejlesztésekre az AMD-nek lesz először olyan komplett rendszere, ami szoros platformintegrációt valósít meg. Ráadásul, mindezt legalább egy-két évvel a konkurensek előtt. Feltételezve, hogy az AMD Kaveri itt lesz 2013 közepén, míg az NV első ARM processzoros APU-ja, a Maxwell 2014-ben befut. Gondolom az Intel tartja majd a 2015-ös terveit a Skylake-kel, bár az Larrabee-re épít, szóval ott bármi megtörténhet, ami nem kedvező.

    Ami viszonylag sokat fogyaszt az az ütemezés. A GK110 esetében ez eléggé kigyúrt lett. Ezért nem akarja az NV lehozni GeForce-ba, mert semmi értelme nem lenne a dupla GK104 mellett, az extra funkcióknak pedig a CUDA-n kívül semmi sem veszi majd hasznát. Ami esetleg tényező lehet még az a dupla pontosság ugyanis a DX11.1 ezt már pixel shaderre is engedi, de kizártnak tartom, hogy ezzel valaki élni fog. Maximum technikai demók formájában.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • gbors

    nagyúr

    válasz Abu85 #10183 üzenetére

    "Ezen a piacon a presztízs másodlagos lett."
    vs
    "Az NV jól mondja, csak akkor szabad ezt a terméket bevetni, ha az AMD elővarázsol valamit, amire nagyon kell a válasz."

    ez így eléggé ellentmondás, nem?
    szerintem tök egyértelmű a helyzet, ott van B tervnek a GK110 alapú Gef (btw. minek lennének textúrázók meg ROP-ok meg tesszelátor benne különben?), és ha úgy alakul, akkor bedobják. nem feltétlen azért, mert hatalmasat söpörnek vele, hanem mert kell az első hely. ennyi.

    a kigyúrt ütemező meg nem mindig hátrány - kockázatos, amit a GK104-nél csináltak. bár egyelőre úgy tűnik, bejött.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • Abu85

    HÁZIGAZDA

    válasz gbors #10184 üzenetére

    Az NV mondhat bármit. Azt mondta JHH, hogy nincs gond a kihozatallal mégis a GK107 helyett Fermiket szállítanak a notebookokba. Az NV mindig azt mondja, amit az adott közönség hallani akar. Ezt az elmúlt évek során már meg lehetett tanulni.

    Quadroba kellenek. De a textúrázókat használják Teslában is.
    Az első hely megvan a GTX 690-nel is. Ha ezt esetleg az AMD legyűri egy HD 7990-nel, akkor is biztos, hogy két GK104-gyel gyorsabbat lehet csinálni, mint egy GK110-zel.

    Nem kockázatos az a GK104. A Tegrába ez kell. Nincs hely a felesleges tranyóknak. Szvsz most ez a legjobban skálázható modern dizájn lefelé.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Löncsi

    őstag

    Nem szorosan ide kapcsolódik, Max Payne 3 elemézés:

    [link]

    Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28

  • fatallerror

    addikt

    válasz Löncsi #10186 üzenetére

    hmmm, eszerint van rá esély h mediumon tudjak játszani tökjó :))

    don't tell me what i can't do!

  • Löncsi

    őstag

    válasz fatallerror #10187 üzenetére

    GTX 670/680 topikban már megy az anyázás, meg a konzolport szöveg. :DDD

    [ Szerkesztve ]

    Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28

  • Crytek

    veterán

    válasz Löncsi #10188 üzenetére

    Pedig mocskos jó port lett olyan szinten optimalizált hogy a GTA 4 sírva süllyedhet egy vödör .zarba!

    Next PC Upgrade: 2022

  • fatallerror

    addikt

    válasz Löncsi #10188 üzenetére

    menjenek ki az utcára lövöldözni ha élethű grafikát akarnak meg magas fps-t : P

    #10191) Löncsi : a legtöbb utcadrog alkalmas rá ;]

    [ Szerkesztve ]

    don't tell me what i can't do!

  • Löncsi

    őstag

    válasz fatallerror #10190 üzenetére

    Jaja, kérdés, hogy a bullet-timeot hogyan imitálja majd az ember? :DDD

    Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28

  • gbors

    nagyúr

    válasz Löncsi #10191 üzenetére

    megkérsz mindenkit, hogy mozogjanak nagyon lassan :DDD

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • tombar

    senior tag

    válasz Löncsi #10191 üzenetére

    vagy benyomulsz, mint Cartman lassítottban :D

    [ Szerkesztve ]

    Everybody knows, you dance like you fuck. So let me see you dance!

  • Löncsi

    őstag

    OC like a boss:
    [link]

    Akár full képernyős 3D alkalmazás alatt is lehet birizgálni a kártyát.

    Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28

  • Löncsi

    őstag

    Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28

  • Löncsi

    őstag

    Tud erről valaki valamit ? Hónap végén jön elvileg.

    [link]

    Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28

  • fatallerror

    addikt

    jól látom h minden lett a computexen csak gtx 660?

    don't tell me what i can't do!

  • fatallerror

    addikt

    válasz KillerKollar #10199 üzenetére

    az rendben de az nv konferenciája ma volt tehát mondták volna ha lesz mostanában nem?

    don't tell me what i can't do!

Új hozzászólás Aktív témák