Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Oliverda #2538 üzenetére

    Erre nem akarok válaszolni, mert benne van a jó megfejtés. :DDD

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz DemonDani #2574 üzenetére

    Ja mindig a szegény kiskert ütjük, mert ők közel vannak. ;]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    [link] - A PowerColor beszél a Caymanről.

    Aki esetleg nem érti (ilyen akcentussal nem is csoda :) no de nem bántani akarom, én sem vagyok jobb :D ): Lényegében azt mondja, hogy a HD 6970 30-50%-kal lesz gyorsabb a HD 6870-nél. Azt is mondja, hogy jön a HD 6990 is, ami ellen senkinek semmi esélye.

    Nem marketingnyelven, az AMD ugyanazt csinálja, mint a HD 5000-nél. Egy sokkal kisebb lapkával szeretne lépést tartani a csúcs-GeForce-szal. Valószínűleg az árazás is úgy alakul, ahogy az előző generációnál.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Atom_Anti #2590 üzenetére

    375 watt PCI-SIG értékre átszámolva 450 watt azzal semmit. Az OEM-ek le sem tesztelik, de már mutatják az ajtót (mondjuk picivel 300 watt fölött is nagyon győzködni kell). :) Esetleg megfelezik a lapkák teljesítményét, akkor beleférhet 350-be, ami elviselhető. Ezt tették a dupla GF100-zal is, csak szart sem ért, ami miatt nem jelent meg a termék. A dupla GF110-zel nem érdemes foglalkozni. A fizika törvényi miatt lehetetlen megcsinálni komoly butítások nélkül. Ugyanezzel a problémával küzd az AMD is, csak ők bevezetnek valami újat a Caymanben, ami többé kevésbé ezt megoldja.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Atom_Anti #2592 üzenetére

    A fogyasztási problémák miatt vezetnek be a Caymanben egy technológiát, amit arra találtak ki, hogy maximalizáljak a teljesítményt egy adott TDP kereten belül.

    (#2593) rocket: Az gáz ha nem érdekli őket az OEM eladás, mert a csúcskártyák nagyon nagy része itt kerül eladásra. Ergó vagy tartják a 300 wattot, vagy lényegtelen a terméket kiadni, mert nem lesz meg a megfelelő eladás. Ezért jelennek meg a 300 wattnál többet fogyasztó kártyák limitált szériásként. Csak luxusárazással hozza vissza a fejlesztési pénzt.

    (#2596) A.tessz: Mivel a GF110-nél ilyen nem vezettek be, így a fizika megakadályozza a 300 wattos limit tartásán két lapka mellett. Egy GF110 is 300 wattot fogyaszt amit három vezérlő limitálásával tartanak. Számolj utána, hogy a maradék 0 wattba hány chip fér még bele. Két GF110-hez a lapkák minimum 40%-át le kell tiltani. A fizika mindenki számára ugyanaz, mivel a 300 wattos limitet nagyon komolyan veszik az OEM-ek, a csúcskategóriában az az architektúra nyer, amelyik egységnyi fogyasztás mellett magasabb teljesítményre képes. Ezért nem lett semmi a dual GF100-ból, és a dual GF104-ből. Még a Zotac és a Galaxy is eldobta a saját dual GF100 tervezetét. Az Asus megoldása már a tervezőasztalon meghalt. A Galaxy terméke eljutott a prototípus szintjére de sosem lehetett működés közben megtekinteni, mert az ATX szabványban leírt kialakítás a házakra nem elég jó, így a termék a legtöbb otthoni körülmény között instabil lett volna (sőt sérülésveszélyes, senki sem akar olyan számítógépet, ami elsőfokú égési sérülést okoz, ha működés közben hozzáérsz a ház oldalához). Ilyen figyelmeztetés található már a 300 wattot fogyasztó csúcskártyák dobozában, de addig nincs gond, amíg a kártyát nem fogdosod működés közben. Ez nem is életszerű, de amikor már a ház oldalára kell ezt ragasztani, hogy ne érj hozzá, akkor az már megfontolandó dolog, az OEM-ek részéről. Éppen ezért a 300 wattos limitet a PCI-SIG addig fogja megtartani, amíg a házakra nem jön egy jobb hőelvezetést előíró tervezet.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rocket #2613 üzenetére

    A TUL-tól kapunk kimutatásokat. Náluk HD 5970-es termékek 78%-a OEM szinten ment el. Ezt abból lehet látni, hogy az eladások 78%-a TUL, és csak 22%-a PowerColor. :) Ez egyébként általánosan jellemző mutató. Ezért nincs a csúcskártyákból gyártók által tervezett verzió, mert az eladások nagyon nagy része az OEM piacra megy, oda pedig úgyis a referencia az elfogadott. :)

    (#2614) rocket: Az a limit nem véletlenül jött létre. Van négy kártya, ami ezt túllépi, de mindegyik csak limitált szériás 1000 darabos mennyiségig. A limitálás a magas árazás miatt van, mert az OEM gyártók úgy sem fogják rendelni, így kell a luxusár, hogy a fejlesztési költség visszajöjjön. Azon pedig nem érdemes csodálkozni, hogy az OEM-ek tartják magukat a limithez. A 300 watt is problémát okoz, de a ház szellőzésének jó tervezésével megoldható, hogy ne okozzon a felhasználónak égési sérüléseket, ha meg fogja a ház oldalát. Alapvetően az ATX szabvány a probléma. Nincs lehetőség több hőmennyiséget elvezetni a kialakítás problémái miatt.

    (#2618) rocket: Pedig voltak dual prototípusok. Csak mindet elkaszálták, még a gyártói megoldások is halva születtek. Valamelyiknek nem lehetett megoldani a hűtését, míg a dual GF104-es modelleket a HD 5970 teljesítménye végezte ki. De ezt már mondtam, hogy 300 wattos limiten belül az a kártya nem fogható. Esetleg akkor fogható, ha valamelyik gyártó egy teljesen dinamikus órajelszabályzást vezet be, persze akkor sem kell 20-30%-nál nagyobb gyorsulásra számítani, a fizika törvényei lehetetlenné teszik.
    A PCI-SIG egy külön mérést alkalmaz, amivel megállapítják a fogyasztást. Az egyik probléma ezzel kapcsolatban, hogy rá lehet tervezni a terméket, amit láthatunk a GF100 és a GF110 esetében. A játékokban a csúcs-GeForce-ok még mindig többet fogyasztanak a HD 5970-nél, csupán azért vannak benne a 300 wattban, mert megfelelően teljesítik a PCI-SIG mérését. A jövőben ez változik, mert a szervezet több mérést alkalmaz majd, és mindenhol meg kell felelni a limitnek. Ez azt fogja eredményezni, hogy nehezebben lehet belőni a PCI-SIG tesztjére a terméket.

    (#2617) Bici: Igen a StarCraft 2 képes megközelíteni a Furmark terhelését. Azt hozni nem lehet, mert arra a játék körülményei alkalmatlanok, hiszen biztos lesz egynél több objektum a jelenetben, de megközelíteni már nem probléma. Erre lett bevezetve a hardveres túlterhelés védelem a HD 5000-nél, mert a szimulációk azt mutatták, hogy lehetséges a Furmark szintű terhelés, ami problémát jelenthet a jövőben. Hasonló védelmet az NV is bevezetett a GTX 580-nál, csak az félig szoftveres vezérlésű, vagyis meg van a módja a kikapcsolásnak. Itt majd valószínűleg az NV átírja a drivert, hogy a GPZ-Z trükkje ne éljen. Utána jön az új megoldás a GPU-Z-től, és így folytatódik a macskaegér játék, amíg az NV elő nem áll egy teljesen hardveres védelemmel.

    (#2620) csatahajós: Cuki ez a GDDR5. Van benne kraft, de a stabil memóriavezérlőt nem könnyű hozzá összehozni. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rocket #2624 üzenetére

    Szerinted odaadhatom a TUL kimutatását bárkinek? :) Kérd el a cégtől. Az pedig, hogy nem hiszed el, nem változtat semmin. Múltkor azt mondtad, hogy nem lesz MLAA a HD 5000-ben, mikor én mondtam, hogy lesz. Nyilván akkor is én tévedtem mi? :))
    Az a gondod rocket, hogy túl sok dolog jött be nekem. És te ez ellen nem tudsz mit kezdeni. Kezdjük ott, hogy szerinted mit nem csinál jól az AMD? Jelentősen kisebb lapkával hozzák az NV-s megoldások teljesítményét. Első helyen vannak a VGA-piac eladási statisztikái alapján és lehagyták az NV-t a GPU-piacon. Integrálják a CPU-ba a GPU-t, vagyis képesek olyan notebook platformot kínálni, amivel lehetőség lesz versenyezni az Intel ellen. Komplett fejlesztőkörnyezetekkel támogatják az összes gyártófüggetlen piaci szabványt. Nem zárnak le semmit a konkurensek elől így biztosítva, hogy a felhasználók érdekei ne sérüljenek. Erre jó példa a PhysX és a Mafia 2 esete. Ha valakinek nem jó, hogy a GPU-s cloth modul a CPU-n fut, azok a GeForce tulajok, akik jóhiszeműen megvették a terméket, mondván, hogy tudják majd használni a PhysX gyorsítást. Hát nem, mert akkor tudják használni, ha vesznek mellé egy dedikált GeForce gyorsítót, így a sebesség élvezhető lesz. Ez annyira a júzer érdeke, hogy már sírnom kell.

    Tények nélküli? Mutass egy olyan OEM gépet, amiben van Asus Ares, vagy ehhez hasonló rendszer. Ha nem megy, akkor húzom az újabb strigulát miss dobozodba. Az MLAA után nem gondoltam volna, hogy ilyen rövid időn belül megy a másik. ;]

    Hát, ha szerinted a lehetséges égési sérülés ennyire nem probléma, akkor miért nem látunk 300 watt felett fogyasztó VGA-t? :)) Magyarázat jöhet, hiszen nyilvánvaló, hogy hatalmas a tapasztalatod az OEM-es igények területén.

    Vagy csak nem tudsz rá már mit mondani. A tények makacs dolgok. ;)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rocket #2627 üzenetére

    Mert érdeklődök ezek után. Ha észrevetted, mi vagyunk az elsők, akik lehozták, hogy a PowerColor vagyis a TUL retail brandje Fusion alaplapokat fog gyártani. Senki más nem jelentette be. Ez azért van, mert én tartom velük a kapcsolatot.

    Leírtad már párszor, hogy a fejlesztőkkel van gond az AMD-nél, de ez is megdőlt már, mert nagyságrendekkel több a Gaming Evolved cím a DX11-es játékoknál. Az NV TWIMTBP címe a HAWX 2, a Metro 2033 és a Lost Planet 2. Az összes többi DX11-es játék az AMD termékeivel és segédletével készült.

    Szerintem se keverjük ide az első helyet a VGA-piacon, hiszen az mutatja, hogy növelik a részesedésüket. :D Tényleg ennyire szelektíven akarod beállítani az álláspontodat? :(

    A VGA-piacban már annyiszor írtam, hogy nincs sok pénz, ez az AMD-re is vonatkozik. Attól függ a nyereség, hogy a mobil megoldások mennyire kelendőek. A nagy zseton az IGP, mert azon lehet a legtöbbet termelni. Egyébként meg az, hogy nem látszik a HD 5000 árazása nem igaz, mert ebben az évben jelentős pluszban áll az AMD a VGA-ból befolyt nyereség esetében, mint az elmúlt két évben. És ami bizonyítja az olcsón gyártható lapkák jelentőségét, azok a gyártópartnerek. Az NVIDIA az elmúlt hónapokban két első számú partnert is elfogyasztott. Persze gondolom ezt se keverjük ide, mert rossz fényt vett az állításaidra. :DDD

    Az Asus Ares egy olyan kártya, ami 300 wattnál többet fogyaszt. Mivel ilyen kártya nincs az OEM-ek gépében, így ez azt mutatja, hogy a 300 wattnál többet fogyasztó kártyákat alapból nem alkalmazzák. Ezt hiába nem fogadod el, ettől még tény marad. Ennek az egyik oka, hogy nem lehet jól hűteni, vagyis a ház oldala annyira felfórosodhat, hogy megsütheti a felhasználót. A másik ok a stabilitás, ami csak meglehetősen hangos hűtés mellet biztosítható.

    Szerinted a 10.10e az mi, ha nem egy hivatalosan kiadott driver? Az egyetlen ami nincs az WHQL aláírással rendelkező Catalyst, de a hotfix megoldások ugyanolyan hivatalos driverek, mint a havonta megjelenők. A béta driverek az AMD-nél sosem kerülnek fel a support oldalra. Persze a fórumokon kiszivárognak.

    Azt természetesen jól írtad. Én is csak annyit írtam rá, hogy ezt nehéz elhinni, és nem tartom valószínűnek. Eleve a legnagyobb bárgyártóról van szó, akik ugyan bakizták a 40 nm-ert, de sosem volt olyanra példa a történelemben, hogy egy node-ot törölnek.
    Az pedig igaz, hogy a Barts azért lett 40 nm-es, mert a 32 nm-ert törölték. Ha minden a terveknek megfelelően alakul a 32 nm körül, akkor aligha döntenek a 40 nm mellett. Ezt a linkelt post is bizonyítja, hogy eldöntötték a 40 nm-ert. Nyilvánvaló, hogy nem egyik napról a másikra törölték a 32 nm-ert, hanem volt annak előjele is, ami alapján mérlegelték a kérdést az AMD-nél.
    Ez egyébként abszolút nem probléma az AMD-nek, sőt előny, mert az NV nem tud váltani, és nekik sokkal nagyobb szükségük van egy új gyártástechnológiára, hiszen a GF110 messze nem fejlődött annyit a GF100-hoz képest, mint amennyit fog a Cayman a Cypresshez képest, vagy emennyit a Barts fejlődött, hiszen jelentősen redukálták a méretét amellett, hogy alig vesztett a teljesítményből, szintén a Cypresshez viszonyítva. Ilyenre az NV nem volt képes a GF110 esetében, még a memóriavezérlő problémáját sem sikerült megoldani, mert továbbra is 4 GHz a stabil órajel GDDR5 mellett. Az AMD 4,8-at tud, míg a Caymannél majd meglátjuk ez mennyire emelkedik. Egyelőre a mintákon 6 Gbps-os lapkák vannak.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #2634 üzenetére

    Lehet, hogy viccesnek tűnik, de nagyon nem az. Az OEM gyártók mindent a szabvány szerint készítenek, mert azért vannak ezek kitalálva, hogy a működés az egyes részegységek között biztosítva legyen. Az ATX szabvány jelenleg kötött hőelvezetési mutatókkal rendelkezik, vagyis egy szabványnak megfelelő házban 300 watt az a hőmennyiség, amit el lehet vezetni. Az SLI az más tészta, mert a hő nem egy pontból keletkezik, de az NV be is vezetett egy SLI matricát a házakra, amit nem sok termék kap meg. A CM-nek és a TT-nek van ilyen háza. [link] - írtunk is a gyártók véleményéről. Egyelőre ez a szélcsatornás dolog tűnik értékelhetőnek, és a tesztprotokoll 40 fokos környezeti hője mellett nem fagy az SLI. Az OEM gyártók, is hasonló körülmények között tesztelnek, mert nem az a cél, hogy az otthoni körülményeket szimulálják, hanem azoknál durvább kell. Ha ott átmegy a rendszer, akkor nagyon nagy eséllyel otthon sem lesz baj, hiszen szelídebbek a körülmények.
    Ilyen hőmérsékleti viszonyok között egyébként minden csúcskártya megbukik CF/SLI kiszerelésben. Nem erre találták ki az normál ATX házakat. Mind a keletkező hő veszélyes a felhasználóra, továbbá a stabil működés sincs meg.

    Én ezt gyökeresen másképp hallom, sőt látszik is. Egyszerűen az AMD semmit nem költ a fejlesztői projektekre és hardvereket, valamint fejlesztőket adnak. Az NV inkább költ, és effekteket vásárol a játékba. A DX11-es címek arányából látszik, hogy melyik a kedvezőbb stratégia. Mind anyagilag, mind a támogatott játékok tekintetében. A legjobb dolog pedig, hogy nincsenek a felhasználók hülyének nézve, mint a Mafia 2 cloth moduljánál. De nyilván az NV-nek ezért kell költenie ezekre, mert épeszű fejlesztő csak úgy nem rak a programba limitációkat.
    De, hogy számszerűen is itt legyen: eddig 10:3 az arány az AMD javára a megjelent DX11-es címekben. Idén még elvileg jön a Kylin MMO, de azt nem számoltam bele. Meg a jövő év elején a Deus Ex HR sincs benne. Ezenkívül még van 4 cím az első félévben, amit szintén AMD hardveren fejlesztenek a Gaming Evolved programon belül. Azok is kiderülnek később. Pletyka szinten tudom mondani, hogy köztük van a Duke Nukem Forever.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rocket #2636 üzenetére

    Az AMD nyilván nem szúrna ki magával szándékosan, de ha a memóriavezérlő egy bizonyos órajel fölött nem stabil, akkor az nem stabil. Ezen nem lehet már a fejlesztés ezen időszakában változtatni. Ha lehetne, akkor az NV sem 4 GHz-en tökörészne a 6-7 Gbps-os lapkák korában. Függetlenül attól, hogy a képen sok jel mutat a hamisítás felé, az benne van a pakliban, hogy a memóriavezérlő nem képes a tervezett órajelre.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Tirexi #2642 üzenetére

    Attól függ, hogy hogyan alkalmazzák. Effektekre, karakterekre van értelme, másra nincs, mert vannak problémák az API-ban és a raszterizálás hatásfokát is ki lehet ütni. Bár eddig csak egy játék van, ahol feláldozták a rasztert a tesszellálásért. Mondjuk ott fel is lehet, mert csak egy repülő van a képen és egy heightmapel generált táj. Gyerekjáték minden GPU-nak.
    A Heaven például egy FPS-hez közelebb áll. Ott láthatod, hogy nincs olyan GPU, ami nem menne be 25 FPS alá, ha a raszterizálás hatásfoka 90% alatt van.

    (#2643) gbors: Az újonnan kijövő alatt mit értesz? Mert nem szokott mostanában probléma lenni az új játékok teljesítményével. Azonnal hozzák azt a szintet, amit kell. Esetlegesen lehet javítani rajta 3- maximum 10%-ot, de ez ritka már. A szolgáltatásokat sem értem, nézhetjük mondjuk az NFS: HP-t, aminél egyelőre csak az AMD kártyáin lehet engedélyezni az MSAA-t. Nyilván a GeForce-on is lehetne, csak még nem készült hozzá driver.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #2645 üzenetére

    Így már végképp nem értem. Mit mihez hasonlítunk? Mert általánosan kijelenteni, hogy gyorsabb a gém, nem szerencsés. Nyilván a GeForce GTX 580 gyorsabb a Radeon HD 5870-nél, de a HD 5970-nél már nem. Így a gyorsabb fogalom csak a viszonyítás kérdése. :) Itt nem értem, hogy mihez viszonyítunk mit. Lapkaméret szerint? Fogyasztás szerint? Ár szerint?

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #2648 üzenetére

    A mai játékok elejéről szinte teljesen eltűnt a vendor ID ellenőrzés. Legutóbb a Batman: AA-ban volt, hogy az ATI ki legyenek zárva a szabványos élsimítás lehetőségéből. Most már van GOTY változata a játéknak, ami ugyanazt az algoritmust tartalmazza, csak nincs vendor ID check, így az ATI-n is működik.

    Igazából ez az elgondolás manapság már nem alkalmazható, mert a játékosok szívják meg, és lényegében ők azok akik fizetnek. Esetleg, akkor, ha a megrendelő dollármilliókat tesz le az asztalra. Ez a stratégia pedig azért problémás, mert semmi nem garantálja, hogy a játékos a csalódás után marad a PC mellett szopni, vagy esetleg elmegy a konzol felé.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Tirexi #2651 üzenetére

    Használhatsz [link]. Ez a hack hozzá.
    A jövő még ködös, mert a GeForce-ot gyártó cégek már előterjesztették, hogy szeretnék, ha a PhysX hack nélkül is alkalmazható lenne hibrid konfigban. Egyelőre erre az ATI nem ad támogatást. Lényegében megmondták az NV-nek, hogy vegyék meg a hardvereket és teszteljék ki maguk a szolgáltatást. Azóta áll a dolog. Igor Stanek azt mondta erről, hogy az NV-nek túlzott erőforrás lenne az AMD segítsége nélkül a hibrid fizika tesztelése, a gyártók pedig nem vállalják fel ezt. Egyelőre tehát marad a hack. Azt mondta még, hogy komoly védelmet nem vezetnek be, tehát nem fogják GenL munkáját nehezíteni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Tirexi #2654 üzenetére

    A GTA4 támogatja a multi-GPU-t, de mind a két GPU-nak megvan a saját fedélzeti memóriája. Ez mindenhol így működik.

    A számokra nem mondhatok semmit. :)

    A HDMI majd a DVI átalakításával lesz meg. A 3 DP kell a hatmonitoros Eyefinityhez.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Úristen, most erős késztetést érzek, hogy kacsintsak. :DDD Végül legyőztem. :DD

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #2673 üzenetére

    Írtam fentebb, hogy ha a memóriavezérlő nem tud többet x GHz-nél, akkor az összességében hátrányos a kártyára. A mintákon 6 Gbps-os lapkák vannak.
    Kezdjük ott, hogy a tervezés szakaszában a Cayman nem a GF110 ellenfele. Az ellen az Antillest tervezték. A GF114 lesz hasonló lapkaméretű, mint a Cayman. Persze, ha a Cayman elégé megközelíti a GF110-et, akkor ugyanazt kell játszani, mint a HD 5000 sorozatnál. Ott sem a Hemlock ment a GF100 ellen, ami az eredeti terv volt, mert sokkal gyorsabb volt, így drágábban is eladható.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #2679 üzenetére

    A GF104-et limitálná, ezért nincs teljes értékű lapkára tervezett kártya. A GTX 460 elmegy, enyhén limitálja az biztos, mert sokat esik a teljesítmény Full HD felett. Valószínű, hogy 150-160 GB/s alatt a Cayman is limites, de ez nagyon függ a GPU teljesítményétől. Így nem lehet ezt megmondani, de tekintve, hogy 6 Gbps-os lapka van a kártyán a cél az 5 GHz fölötti órajel mindenképpen. Ha az 5 GHz lenne, akkor jó lenne az 5 Gbps-os chip is.

    Mivel még nincs cetli a HD 6900-on, így nehéz ez alapján következtetni. Eppen ezért írtam a tervezett pozíciót, aztán, hogy az mennyire tér majd el a valóságban, az a termék teljesítményétől függ.
    Az AMD érzi a memóriavezérlője előnyét. Nekik ez a fontos. Nem is terveznek 384 bites buszt, mert képesek alkalmazni 4 GHz-nél magasabb memória-órajelet. A gyártás során ez jelentős előny, mert a lapka tokozása kisebb, és a NYÁK bonyolultsága is visszafogottabb. Ezek azok az apró dolgok, amik azt eredményezték, hogy az AMD első számú partnerei életben maradtak. Az NV kettőt is elveszített. Itt jön az, hogy hosszútávon neked is számít, hogy mekkora a lapkaméret, vagy mennyire hatékony egy architektúra. Ezt mint felhasználó nyilván lényegtelen tényezőként jegyzed, de a gyártók nem neked akarnak jót, hanem elsősorban maguknak. Ha nekik nem jó, akkor úgy intézik, hogy maguknak jó legyen pl. XFX, vagy esetleg belerokkannak a veszteségekbe pl. BFG.

    Miért húztam volna le a GF104-et? Több hírben is megemlítettem, hogy a legjobb a GeForce GTX 460 ár/érték aránya. [link] - Itt még túlzásokba is estem, a képaláírásnál.
    A GF104 pedig teljes értékű lapkaként nyilván limites, így az NV nem is készített belőle 384 SP-s verziót, hiszen nem lett volna elég. A GF114 a pletykák szerint más lesz. Valószínű, hogy 320 vagy 384 bites lesz a memóriabusz.
    A memórialapka sebessége még nem jelenti azt, hogy a chi ki is használja. A GeForce GTX 580-on is 5 Gbps-os lapkák vannak, de csak 4 Gbps-os módban működnek a 4 GHz-es órajel miatt.

    (#2680) gbors: Pontosan. A ROP hatékonysága nőtt egyes eljárásoknál ... azoknál, amiket az AMD fontosnak tartott.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #2697 üzenetére

    Ezt írtam én is. A GTX 460 elmegy, enyhén limitálja az biztos, mert sokat esik a teljesítmény Full HD felett.
    A teljes értékű GF104-re mondtam, hogy limitálná. De nyilván ezért nincs ilyen termék.

    (#2698) TTomax: Azért lesz rajta 2 GB, mert 1 GB kevés, viszont ezzel a felépítéssel 2 GB a következő lépcső.

    (#2696) Hakuoro: Ebben az a szép, hogy szapulják az AMD-t az utóbbi két driverben kikapcsolható FP16 demotion miatt, amikor az optimalizáció, vagy nevezzük úgy, ahogy az NV hívja CSALÁS a GeForce driverekben ki sem kapcsolható. :DDD Egy publikusan nem elérhető fájlt szokott az NV küldeni, amit le kell futtatni a deaktiváláshoz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #2703 üzenetére

    A HD 5970 2x1 GB volt.
    Igazából senki sem csal, de eléggé gáz, ha egy cég annyira szelektíven gondolkodik, mint az NV. Mindketten csinálják az FP16 demotiont, de ez csak akkor baj, ha az AMD alkalmazza. Valójában az Nv-nek az a baja, hogy az AMD jobban oldotta meg, és többet gyorsulnak a Radeonok. Ezt a problémát úgy lehetne rendezni, ha a GeForce driverben is kikapcsolható lenne az optimalizáció, és megkérné az NV a weboldalakat, hogy kikapcsolt optimalizációval teszteljenek. (mi szó nélkül megtennénk) Erre az AMD is azt mondta, hogy neki megfelel. Az nem felel meg az AMD-nek, hogy a Catalystben kikapcsolod az optimalizáció, míg az NV-ben ottmarad.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz DemonDani #2707 üzenetére

    Nem. Az arra jó, hogy információkat tároljon el a rendszer a következő képkockához. Minkét tesszellátornak van saját tárolója. A komolyan tesszellált felületeket lemented, és később nem kell felbontani, csak beilleszteni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz DemonDani #2709 üzenetére

    Eléggé. A modellek meglehetősen méretesek, de csak a modell szelete kell. Persze ettől a tesszellálás még nem lesz gyors. Továbbra is rengeteg felesleges munkát végez a rasztermotor. Ha jól tudom, akkor a Cayman is 2x2 grides feldolgozást használ. Egy kis háromszögnél a négyből három pixelt feleslegesen tesztelsz.

    A HAWX 2 nem probléma, mert a driverben lecserélik a tesszellálási algoritmust egy hatékonyabbra. Túlzottan luxus, hogy a raszterizálás hatékonysága 50% alatt legyen. 90% az a minimum, ami elfogadott, akkor kevés erőforrás megy veszendőbe. Ezzel a játék jelentősen gyorsabban is futhat, hiszen a raszteres kalkulációk felét nem kell eldobni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Tirexi #2714 üzenetére

    Nem mivel nem tudod kikapcsolni. :D Nem hasonlítsuk ezt a szolgáltatást a GF110 TDP limiterjéhez. Teljesen másról van szó. Az AMD TDP limitert már a HD 5000-nél is alkalmazott, ráadásul teljesen hardveres védelmet. Az NV egy félig hardveres védelmet használ, amit természetesen ki lehet ütni, amíg nem érkezik egy új driver.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Atom_Anti #2739 üzenetére

    Nem igazán várta be. A Barts ellen hiába megy az NV egy Cayman méretű lapkával. A technikai előny ott van, csak elkérik a pénzt a sebességért. Ez 2011-ben különösen számottevő lesz, mert egyelőre senki sem tudja megjósolni az integráció hatását a belépőszintű VGA-kra nézve, de biztos, ami biztos, mindenki aki forgalmaz Radeont forgalmazhat Fusiont is. Ezt a gyártók ki is használják. Ennél akár tovább is lehet menni. A Sapphire például Inteles alaplapokat is akar, amire lesz is engedély a kiemelt státusz elvesztése nélkül. Hasonló a helyzet az XFX-nél, ők is fojtathatják az Inteles alaplapok gyártását. Nyilván az AMD-nek nem gáz, ha VGA helyett APU-t vesz a nép, de ez a partnereknek szívás, mert az APU-ból nincs pénzük. Valószínű lesznek új koncepciók is a külső VGA-k személyében.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Oliverda #2741 üzenetére

    A Sapphire az egy külön cég a Zotactól. Mindkettő anyavállalata a PC partner, de ettől ők külön büdzsével dolgoznak. Nem mellesleg a Sapphire brand nagyobb értékkel bír (ez teljesen normális, hiszen régebbi a brand történelme, többen hallottak már róluk), és bevételben is többet termelnek. A Zotac multimédiás irányba mozdul.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Atom_Anti #2746 üzenetére

    Szerinted a leggyorsabb GPU presztízsértéke nagyobb, mint e leggyorsabb VGA-é? Ha így lenne nem lett volna GTX 295, ami mint tudjuk veszteséges projekt volt, és le is állt a forgalmazása három hónapig a start után.
    A vásárlókat nem érdekli, de a gyártópartnereket igen. Ez a stratégia kevésbé vonzó része. A BFG tönkre is ment benne, míg az XFX inkább átállt. Jövőre még "jobb" a helyzet, mert bizonytalan mindenki az integráció miatt. Az meg nyilván közvetve a vásárlónak sem kedvező, hogy a partnerek kihullanak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Atom_Anti #2748 üzenetére

    A fontos cím a leggyorsabb VGA. A leggyorsabb GPU, az olyan, mint ha arra verné egy processzorgyártó, hogy nekem van a leggyorsabb egymagosom. :) Ha elég lenne stratégiailag a leggyorsabb GPU cím, akkor nem jelent volna meg a GTX 295, ami eléggé fájt anyagilag.

    (#2751) Atom_Anti: A Bartsra nehéz válaszolni. Majdnem a GF106 mérete egyezik meg vele (bár a memóriabusz és a tokozás kétségtelenül olcsóbb a GeForce GTS 450-en). Az meg nem cél, hogy egy Cayman méretű lapkát bedobjanak ellene, hiszen sokkal költségesebb megoldás. Ez ideiglenesen jó lehet, mert versenyezni kell, de hosszútávon gondolni kell a partnerekre.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Atom_Anti #2755 üzenetére

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TomiLi #2764 üzenetére

    A vészforgatókönyv annyiban állt, hogy 32 nm-ről 40 nm-re váltottak. Az AMD múlt év nyarán már láthatta, hogy mennyire acélos a TSMC 32 nm-je, így el lehetett dönteni, hogy mit választanak.
    A 4-5 hónap nagyon karcsú. Egy komplett új architektúrára, gyártással 4-5 évet érdemes mondani. A Cayman újításait látva valószínűleg 3-4 év alatt rakták össze a teljes projekt szintjén.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #2776 üzenetére

    A GPU sosem lesz így megvalósítva. A dupla GPU azért lett így kialakítva, mert így a csúcsmodell fejlesztése olcsó, és nem mellesleg kegyetlenül gyors lesz a termék. Jelen pillalatban csak ilyennel lehet a leggyorsabb VGA címét hozni. Aztán persze lehet jönni a leggyorsabb GPU, a legkisebb fogyasztás, a legjobb teljesítmény egységnyi fogyasztás mellett, a legnagyobb órajel, a legkisebb idle fogyasztás mondókákkal. Nyilván van ezeknek is értéke, de az abszolút leggyorsabbhoz egyik sem ér fel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #2784 üzenetére

    Két GPU-val nem lehet probléma. 3 vagy négy GPU-nál már nem jó az AFR. Ugyanakkor az AFR előnyöket is kreál. A külön képkockás feldolgozás a setup limitjekor kifejezetten előnyös.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #2806 üzenetére

    Ha megkaptam volna 40-ért a két HD 5770-et azt vettem volna. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #2808 üzenetére

    Sajna nem, mert csak ez az egy HD 5850 volt a választék. :))

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz hugo chávez #2841 üzenetére

    Nem számít milyen gyorsan tesszellál a rendszer, amíg a raszterizálás 2x2 grid-es pixeltömbre történik. Ez ahogy a Heavenben látod egyenlő a szaggatós jelenetekkel. Kártyafüggetlen a dolog. Mindegyik termék meghal.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MPowerPH #2848 üzenetére

    Nem. Ez nem igaz. Amíg nincs megoldva a raszterizálás problémája, addig csak tranzisztorpazarlás a tesszellátor teljesítményére költeni. A fejlesztők is ép ésszel gondolkodnak. Ha leviszed a háromszög méretét 16 pixel alá, akkor kapásból 50% alá kerül a raszterizálás hatásfoka. Ez a jelenség az overshading. Innentől kezdve a kártyát nagyságrendekkel jobban terheli a raszterizálás vagyis a képminőség gyakorlatban látható változása nélkül elveszted a sebesség 20-30%-át. Minél kisebb a háromszög annál több felesleges munkát végez a raszter.
    Ezt jelenleg egy megoldással lehet kivédeni. El kell dobni a renderelés 2x2 grides megvalósítását, és át kell állni egy pixeles raszterre. Ez persze szintén probléma, mert a 2x2 grides feldolgozás sokkal hatékonyabb, csak akkor még nem gondolt senki a tesszellálásra.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MPowerPH #2850 üzenetére

    Ugyanígy. Az is 2x2 gridet renderel. Ezért gáz a Heaven benchmark a Fermin is, maxon nincs meg a 25 FPS, ha sok az overshade.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #2865 üzenetére

    A switchable graphics szolgáltatáshoz van driver csak nem az Intel processzorhoz. Azokat az AMD nem támogatja. Ez érthető lépés. Nem akarják, hogy Intel procis notit vegyél.

    A flashgyorsításnál az Adobe választotta ki a támogatott termékeket. Az AMD pedig a driverből ezekhez engedélyezte a flashgyorsítást. Addig persze minden termékhez élt a gyorsítást, amíg nem volt végleges a Flash Player 10.1. A végleges kiadás után csak azok a termékek maradtak, amelyek átmentek az Adobe tesztjein.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #2867 üzenetére

    Persze mennek, mert a szolgáltatás megvan, de a támogatást az AMD nem biztosítja. A gyártóknak elérhető a driver minden WHQL-es megjelenés után. A notebook gyártójának kell engedélyezni a szolgáltatást. Ezt természetesen nem kötelező megtenni, mert az AMD a gyári drivertámogatást csak akkor biztosítja, ha nincs aktiválva a Switchable Graphics. Ez le is van írva a driver noteszében. Ha aktív a Switchable Graphics, akkor nem tudod telepíteni. illetve telepítheted, csak a szolgáltatás nem fog működni.
    Az Optimus is egy megoldás, csak nem olcsó.

    Régebben nem is volt gyári támogatás az AMD-től. Alig 7 hónapja érhető el a mobil Catalyst. Ezelőtt a notebook gyártója felelt minden funkcióért. A gyártó továbbra is támogathatja a saját drivereivel azokat a funkciókat, amiket eddig támogatott. Minden notebookgyártónak joga van átírni a gyári drivert.

    A béta szolgáltatás továbbra is él a régi termékekhez. A végleges szolgáltatás a végleges Flash Player 10.1-gyel a jól működő GPU-khoz maradt meg. Természetesen visszakapcsolhatják a régi GPU-khoz is, csak azokra hibát jelzet az Adobe. Ezért csak beta támogatás van beta flash playerrel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #2870 üzenetére

    Az AMD most is támogatja a gyártókat. Ez azóta sem változott, az aktuális WHQL-es drivert mindenki lekérheti, és átírhatja. Ami változott, hogy az AMD nyújt gyári támogatást is. Ettől persze a Lenovo vagy más cég továbbra is kiadhat egy friss drivert az egyik WHQL alapjain. Ez a cégek egyéni döntése.

    Persze. Amint az Adobe visszajelezte a termékek eredményét, azóta az AMD csak a hibátlanul működő GPU-kre engedi a flasht. A régebbi driverekben viszont megmaradt a beta support. Ennél több csak akkor lesz, ha frissül a Flash Player és kiegészül a támogatás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #2875 üzenetére

    A Sony és a Toshiba meg tudja oldani a támogatást. Nem próbálni kell átírni, hanem akarni. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #2877 üzenetére

    Persze. Ilyet bármelyik nem lusta cég tud csinálni, hiszen azon kívül, hogy az AMD gyári támogatást is kínál semmi sem változott. Mindenki akkor készít a termékhez drivert, amikor akar. A Sony és a Toshiba azért ilyen aktív mert ők nem kérték a gyári támogatást, így nekik kötelező drivert készíteni, ha értékelhető szolgáltatást akarnak kínálni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #2879 üzenetére

    Nem muszáj a Sony-nál vagy a Toshibánál nézelődni, van házon belüli Lenovo driver is 2010 novemberi. 8.752.4, ami lényegében Cata 10.5 és ahogy írja Switchable Graphics Driver. [link]
    Az AMD nem tiltja meg, hogy drivert csináljanak a notebookgyártók. Az persze más kérdés, hogy a gyártók eleve szarnak a terméktámogatásra (nem kérdés, hogy sok gyártó még a januári első drivernél tart, és le se szarják, hogy van sokkal frissebb, amit át lehet írni). Ezért vezette be az AMD a gyári driver lehetőségét, de ebben nem támogatják az Intel IGP-ket. Ez elsősorban stratégia. Ha akarod a Radeon szolgáltatásait vegyél full AMD-s notit. Arra teljes a támogatás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #2881 üzenetére

    Cuki történet. Az a gond vele, hogy a mobil supportot a gyártó kínálja. Ezért ODM-ek. Az AMD nekik odaadja a driver kódját, és azt lehet fejleszteni. Helyettük nem fogják elvégezni a munkát. Ez olyan dolog, hogy az Intel nem kínált már január óta új mobil drivert. Most akkor mutogasson mindenki az Intelre. Nem ... egy pár gyártó leszedte az asztali eszközillesztőt, és kitesztelték őket némi módosítással, ezzel lett egy új driver. Ez a dolgok rendes menete. Aki ezt nem akarja, annak van gyári támogatás. Persze nyilván az AMD nem fogja a konkurens termékre tesztelni a holmit, mert nem szeretnék az Intel megoldásait erősíteni. Ha normális támogatást akarsz, akkor platformot kell venni, mert ahhoz teljes gyári, mindent egybe és nem mellékesen tesztelt támogatás van.

    Persze egyébként megoldható az Intelnél a switchable driver akár gyári szinten is, csak abban mi az üzlet az AMD-nek. Nekik nem jó, hogy lekapcsol a GPU egy Inteles proci mellett. Ha akarod a szolgáltatást gyári támogatással vegyél AMD platformot. Ezért vette meg az AMD az ATI-t, hogy komplett platformmal kereskedjenek. Az AMD nem akarja, hogy más is elérje az összes szolgáltatást, nekik az nem jó.
    Az NV Optimus az megoldás az Inteles konfigoknak. Nyilván ott az lesz a Lenovo problémája, hogy az NV a GeForce-ot a hasonló teljesítményre képes mobil Radeonnál jóval drágábban adja. Ezért olyan durva a Radeonok fölénye a mobil piacon, mert még mindig jobban számít a pénz a szolgáltatásnál.

    A GTX 580-nál csak náhol lesz gyorsabb a Radeon HD 6970. A Cayman nem a GF110, hanem a GF114 ellen készült. A GF110 majd kap egy dupla Caymant.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MPowerPH #2895 üzenetére

    Abból indulj ki, hogy a Cayman 380-390^2 mm körüli, míg a GF110 520 mm^2. A lapkaméret más dimenzió. Ekkora lesz a GF114 mérete, vagyis az ellen készült. Aztán persze a teljesítmény szerint lesz árazva, mert miért is adná olcsóbban az AMD. A csúcskategóriába majd érkezik a dupla verzió. Lényegében ugyanaz fog lejátszódni, mint a HD 5000-nél. A Cayman mozgástere nagy, így opció lesz az AMD-nek a további gyártópartnerek kivégzése.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz tzsolesz #2897 üzenetére

    BFG effektus. Ha mód van rá, akkor eltakarítanak a Palit csoporttól valakit. Ez az ázsiai piacnak kedvező. A Fermivel nem nehéz a gyártókat rossz helyzetbe hozni. Elég egy esetleges HD 6930 és el van intézve a GF114 alacsony árazása.

    (#2898) Bici: Valszeg követni fogják, de a következő év döntő lesz. Persze még egy olyat, amit a GTX 460 768 MB okozott nem engedhetnek meg. A rosszul pozicionált termék nagy kárt csinál. Még az SE-t sem mutatták be egy csomóan, mert az sem kedvező a maga árazásával. A GTS 450-eken pedig túl kellene adni. Jött volna egy GTS 455 is, de áll a bejelentés, mert nincs hely neki a raktárakban, ráadásul árazni sem lehet, mert még mindig pici a rés a GTS 450 és a GTX 460 SE között.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rocket #2922 üzenetére

    Persze, hogy a Cayman jobb teljesítményt fog hozni. Nyilván úgy fogják beárazni, hogy a kártyákhoz mért teljesítmény arányos legyen. A lapkaméret csak a partnerek miatt fontos, egyelőre kiszámíthatatlan a következő év, így amellett, hogy mindenkinek fel van ajánlva a Fusion és az alaplapgyártás lehetősége, nem árt biztonságosabban berendezkedni a haszon szempontjából.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #2977 üzenetére

    Igazából itt nem a két GPU-val van baj, hanem a memória mennyiségével. Az a 2 GB GPU-nként 1 GB. Magas felbontáson és durva AA-val egy modern DX11es játék valami mocskosul zabálja a VRAM-ot. Kifejezetten észrevehető a Civ 5 alatt. Oda 2 GB is kell.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák