Új hozzászólás Aktív témák
-
Hunter2
addikt
" A boltok meg rojtosra tömik a zsebüket."
El kell keserítselek, boltom van és még csak képen láttam RTX 30-as kártyát a nagykeres 320k-s nettó beszerzési árral (3060) meg nem vagyok beljebb. Ph-n mindenféle random józsi számla nélkül olcsóbban adja mint én nettóban kapnám. -
nagyúr
A HUB-video elsősorban azt támasztja alá, hogy a készítője nincs tisztában a vegyes limittel, mint jelenséggel. Nem akarom bántani őket, általában színvonalas anyagokat adnak ki a kezükből, de egy ilyen témába rossz ötlet volt belefolyniuk, a videoból látszik, hogy sem odavágó szakértelemmel, sem megfelelő tesztmódszerekkel nem rendelkeznek egy ilyen jelenség elemzéséhez. A következtetéseik arra a feltételezésre épülnek, hogy ha a felbontás csökkentése mellett nő az FPS, akkor az eredeti felbontásban nem volt CPU-limitáció - ez nyilván nem szükségszerű. A végkövetkeztetés pedig homályos hadoválás - a 3070-es teszt, amit linkeltem, teljes mértékben cáfolja is.
A 3070-nek valóban sokkal alacsonyabb a sávszélessége, de ez aligha gátolja komolyan 4K-ban - a 3060 Ti nem megy közelebb hozzá, pedig egyforma a sávszélességük, miközben minden más területen 20%-kal előrébb van a 3070. A 8GB hatása egyelőre minimális - sajnos elég kevés oldalon van a 3060-asokkal 4K teszt, de a Tom's HW tesztje szerint egyedül a HZD-ben problémás a dolog, és az átlagos FPS-t ott is csak minimálisan rontja.
Szóval nincs itt varázslatos architektúrális limit az Ampere-ben a duplázott FP32 kapcsán - pusztán csak rettenet magas a számítási kapacitás, és nehéz etetni.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Hát a 3 GHz a Navi 22-nek nem lesz meg, ugyanis 2950 MHz az órajellimitje. Az majd a még kisebb Navi esetében lesz realitás.
#104 gbors : Az Ampere-ben nehéz etetni a második FP32 futószalagot. A gond az, hogy ugyanazon az ütemezőn vannak, tehát ugyanazok a warpok futhatnak rajtuk. De az esetek jó részében a programozók nem figyelnek arra, hogy a warpok ne függjenek egymástól, mert minden korábbi architektúrában úgy volt, hogy egy adott ciklusban csak egy tömb állt egy ütemező rendelkezésére. Tehát a shader kódok nagy részében a warp sajnos függnek egymástól, és emiatt vagy az egyik futószalag működik, vagy a másik. A kettő együtt nagyon ritkán használható.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Kansas
addikt
Szerintem rossz oldaláról közelítettük meg a jelenséget, ha "varázslatos architektúrális limit"-ről beszélsz. Nincs ilyen "varázslatos" limit.
Próbáljuk meg akkor a másik oldalról, hátha úgy könnyebb átütni a "bántsák az NVidiát" reflexeden.
Tehát, újrafogalmazva ugyanazt: Az Ampere architektúrában van egy olyan kúl új feature(a DLSS mellett), ami magas GPU terhelés mellett (tipikusan 1440p feletti felbontásokon, tehát 4K/8K) extra erőforrásokat tud bevonni az FP32-es számításokba azáltal, hogy az INT32 operációkra épp nem használt INT32 feldolgozótömbök használhatóak FP32 utasítások végrehajtására is. A gyakorlati végeredmény, hogy ezek a VGA-k az esetek egy jelentős részében jobban skálázódnak 1440p-ről felfelé, mint a saját korábbi termékek és a konkurens VGA-k.
Egyébként biztosra veszem, hogy ez nem csak a játék felbontásának növeléséhez jöhet jól, hanem egyéb FP32-számolásigényes feladatokhoz is.
És azt is, hogy enélkül az architektúrális sajátosság nélkül kevésbé szerepelnének jól az RTX 30xx kártyák az RX6xxx Radeonok ellen 4K-ban...Így fogalmazva jobban tetszik?
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
slmSIG
tag
Na, nekem pont ilyen kártyám van a virtuális gépemben! ....it's awesome!
Kölcsönt tudom adni virtuálisan, virtuális tesztre!
Én azt az időt várom, amikor bemutatni sem tudják az új kártyát, mert már bányászik![ Szerkesztve ]
-
félisten
" könnyebb átütni a "bántsák az NVidiát" reflexeden."
Igen, gbors pont az az ember aki nem szokott korrekten hozzáállni bármelyik gyártóhoz. ref
ha értelmezed mit írt, akkor azt írta Abu is tulajdonképpen amit gbors...értelmezni nem nehéz szerintem :
gbors: "magas a számítási kapacitás, és nehéz etetni."
Abu: "Az Ampere-ben nehéz etetni a második FP32 futószalagot."[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
nagyúr
Próbáljuk meg akkor a másik oldalról, hátha úgy könnyebb átütni a "bántsák az NVidiát" reflexeden.
Itt abba is hagytam az olvasást. Vagy értelmes ember módjára beszélünk, vagy baromságokat vagdosunk a másik fejéhez. A kettő együtt nem megy, és a másodikkal meg szórakoztass mást. Adieu.
#106 Abu85: a kártyák teljesítménye nem arra utal, hogy nagyon ritkán megy együtt a kettő, jóval gyorsabb mindegyik, mintha csak feleannyi FP32 ALU lenne bennünk. Ettől még elhiszem, hogy jelentősen rontja a kihasználhatóságot - viszont ettől nem lesz relatíve gyorsabb az architektúra 4K-ban, mint alatta.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Kansas
addikt
Ahogy gondolod, érvek ellen amúgy is be voltál oltva ebben a thread-ben.
Ha sima CPU vagy vegyes limitről lenne szó, akkor nem csak és kizárólag az Ampere kártyákat érintené ez a jelenség, hanem pl. az RX6900XT-t is. Te a HU logikájában és hozzáértésében látod a hibát, én a tiédben. Kettőtök közül nem a tiéd van mérésekkel alátámasztva.#109 b. : és azt is elmagyaráznád, ez miben mond ellent annak amit én írtam? Gyakorlatilag inkább saját magának és a CPU-limites elméletének mond ellent.
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
válasz Petykemano #111 üzenetére
Mármint melyik elődjéhez képest? Alighanem a 2080Ti-hoz képest a 3080-ban - más viszonylatban nem található meg 2x-es különbség Turing és Ampere GPU-k között...
De a teljes képhez az is hozzá tartozik, hogy pl. a Tensor-magok száma feleződött a 2080Ti-hez képest, az RT magok és a TMU-k száma nem változott, illetve 11-ről 12-re nőtt a ROP-blokkok száma. A memória-alrendszer is teljesen megváltozott.Más szóval: architekturális jellegzetességek különböznek.
Amik nyilván befolyásolják a bottleneck-eket illetve végső soron hogy hol találató a CPU/GPU limit, csak épp az ok-okozati összefüggés van fordítva, mint gbors elővezette.Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
válasz Petykemano #112 üzenetére
Mármint az 56CU-s sima Fury-ra vagy a 64CU-s Fury X-re? Illetve Vegából is csak 56 és 64CU-s verzió volt, 40-esre nem emlékszek... tudtommal az első 40CU-s Radeon az RX5700XT...
De igen, rémlik, hogy mintha némelyik AMD VGA-ról is lett volna ilyen mondás, hogy jól skálázódik felfele, már nem emlékszek, melyikről(talán valamelyik IGP... ), csak arra, hogy nem sokat számított, mert eleve nem adott elég frame/s-t az alacsonyabb settinggekkel sem.
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
nagyúr
Ahogy gondolod, érvek ellen amúgy is be voltál oltva ebben a thread-ben.
Gyakorlatilag inkább saját magának és a CPU-limites elméletének mond ellent.Nagy divat lett ezen az oldalon ilyenekkel alaptalanul dobálózni, amikor nincsenek észérvek. Márpedig nincsenek - feldobod, hogy a "jelenség" miért nem érinti a 6900XT-t. Megnézted, hogy a "jelenség" érinti-e a 6900XT-t? Én megnéztem, és azt látom, hogy pont ugyanakkora a különbség közte és a 3090 között 1440p-ben, mint 4K-ban. 6800XT és 3080 esetében detto. A lassabb kártyáktól valóban jobban elhúz mind a négy kártya 4K-ban - a szintén Ampere 3070-től is. Vajon miért? Az RDNA2-ben is vannak rejtélyes erőforrástartalékok, amiket csak 4K-ban lehet előhúzni? De a GA104-ben már nincsenek?
Az RX6000-es sorozat és a GA104-es kártyák tesztjeiből teljesen egyértelmű, hogy a HU következtetései hibásak voltak - ami annyiban nem meglepő, hogy az alapfelvetésük is rossz volt. Elmagyaráztam, hogy miért, ha nem akarod megérteni, az a te dolgod. Ha nem olvasod el az indoklásként belinkelt teszteket (és később azt írod, hogy a logikám nincs mérésekkel alátámasztva), az is a te dolgod. Viszont ezek után ne nagyon várd el, hogy bárki komolyan vegyen.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Kansas
addikt
Képzeld, megnéztem, és ahogy a HardwareUnboxed tesztben úgy a GamersNexusnál, itt a PH-n de még az általad linkelt Computerbase tesztben(bár a fura grafikon-elrendezés nem könnyíti meg az észrevételét) is látható a tendencia, pl a 6800XT és a 3080 közt, hogy az AMD még fölényben van 1080p-n, kisebb fölényben 1440p-n és az NV átveszi a vezetést 4K-ban. Pl Tomb Raider-ben...
Nyugodtan nézd meg újra... nekem egyelőre munkanapom van, de munkaidő után szívesen belemegyek részletesebben.
Egyelőre annyi, hogy nem véletlen, hogy az általános konklúzió az, hogy 4K-ban az NV a menő. FHD-ban pedig az AMD... persze vannak olyan játékok, ahol az egyik gyártó minden felbontásban viszi a koronát, de a tendencia attól még látszik.[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Abu85
HÁZIGAZDA
Eleve a másik ALU Int32-t is csinál, aminél a warpok közötti függőség jóval ritkább, az szinte mindig befogható. Emellett nem csak az alu kapacitás a végleges teljesítmény meghatározója. Sőt, manapság számos olyan új játék van, ami már shaderek szintjén is cache-aware optimalizálást használ, vagyis a konkurens wave-ek számát egy shaderben direkt visszafogják, hogy nagyobb legyen a cache hit, ezt a leg-leg-legújabb játékok kiegészítik cache-aware leképezőkkel is. Ilyen az új EGO motor (Dirt 5), az új Anvil (AC Valhalla), az új Frostbite (Star Wars Squadron). Ezeknél már a konkurens wave-ek száma is annyira alacsony, hogy szinte minden hardveren a sárga zónában mennek, vagyis alapvetően jó ha egy wave-nek van elég adat futni.
Egyébként az NV például ezeket a cache-aware optimalizálásokat nem ajánlja. Nem azért, mert nem lehet vele nyerni, hanem azért, mert sok a buktatója. Ha jól csinálja egy fejlesztő, akkor simán kihoz belőle +10-15%-ot, ami jó, de ha nem optimalizálnak jól, akkor ott találja magát a GPU, hogy nincs adat egy wave-et sem futtatni, ami gond. És sajnos relatíve könnyű utóbbi helyzetbe belefutni, borzalmasan jól le kell profilozni egy alkalmazást, hogy egy GPU-nál jól működjön a lokalitási elv kihasználása. És sokszor ez sem elég. A hagyományos, erőforrás-allokációra való optimalizálásnál csak az lebeg a szemed felett, hogy a wave-ekkel a hardver zöld zónájában legyél. Erre mindegyik hardver hasonlóan reagál, és valljuk be jelentős különbség az LDS és a regiszterek tekintetében sincs. Ellenben, ha a cache hitre gyúrsz, akkor úgy azért igencsak eltér a Turing, az Ampere, az RDNA, a GCN, stb. Még ha mindegyik hardveren el is éred, hogy konkurens wave-ben még a sárga tartományban legyél, akkor is az a hardver produkálja majd a legtöbb cache-hitet, amelyben egy multiprocesszor illetve szimplán az egész GPU durván ki van tömve cache-sel. Ez korunk nagy problémája egyébként, mert az új konzolokon nagyon sokat lehet nyerni ebből, míg PC-n a sok különböző architektúra miatt sok a buktató, de fejlesztőként elgondolkozol rajta, hogy csak a PC-re érdemes-e most belekezdened százezer sornyi shadert átírni. Ritkán lesz majd igen a válasz. És ez a friss játékokban már inkább hatással van a teljesítményre.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
drotsztyuart
tag
Amugy gondolkodtatok mar azon hogy ufos cikkeket is lehozzatok ?
Tech az is.
Ufokat latnak, de nincsenek vga meg van, de senki nem latott olyat egy jo ideje.
Abu meg azt is megszakerti majd.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz drotsztyuart #122 üzenetére
Nem, ugyanis ha vannak is UFO-k (sőt, bizonyos, hogy van élet a földön kívül), olyan elképesztően nagyok a távolságok a világegyetemben, hogy szinte lehetetlen azokat áthidalni. Az emberek gondolhatják azt, hogy láttam már földönkívülit, de ez maximum annak a következménye, hogy nem tanították az iskolában az általános relativitást.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Duck663
őstag
"olyan elképesztően nagyok a távolságok a világegyetemben, hogy szinte lehetetlen azokat áthidalni." Hmmm, vagy nem ismerjük a módját annak, hogyan lehet "könnyen". Egy fejlettebb civilizáció számára viszont nem biztos, hogy annyira lehetetlen a dolog, simán lehet, hogy az ami számunkra elérhetetlen távolság az számukra egy "hétvégi" kiruccanás. Mondjuk "átugrani" egy másik naprendszerbe.
Ajánlom megtekintésre a Csillagok között című filmet, UFO egy szál sincs benne, de a relativitásra azért rávilágít!
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
Kansas
addikt
Nem véletlenül nem tanítják, nagyon jó tanár(kb. Öveges szintű) kell ahhoz, hogy úgy adja át, hogy a diák számára értelmes legyen. Jó, ha a speciális relativitás-elméletet le tudják értelmesen adni.
Ez már az a része a fizikának(pl. a kvantummechanika mellett), ahol a józan paraszti logika már nem segít, inkább csak hátráltat.Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Abu85
HÁZIGAZDA
A féreglyuk elméleti lehetőség. Közel sem biztos, hogy egy civilizáció el tud érni olyan fejlettségi szintet, hogy negatív energiával féreglyukat kreáljon. Elméletben el lehet rajta gondolkodni, de a gyakorlati kivitelezés tekintetében naprendszer méretű objektumok megépítésére van szükség hozzá.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Kansas
addikt
"Mondjuk "átugrani" egy másik naprendszerbe." - Aztán arcon landolni Roswell mellett...
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Duck663
őstag
"Közel sem biztos, hogy egy civilizáció el tud érni olyan fejlettségi szintet" Hány meg hány különböző fejlettségi szintű civilizáció lehet a világegyetemben? Halovány lila dunsztunk sincs erről. Az hogy egyik vagy másik nem jut el oda, nem jelenti azt, hogy egyik sem képes. Főképp, ha megnézzük, hogy milyen idős is a világegyetem. Gondolj bele, hogy egy másik civilizáció csak ezer évvel van a föld előtt, az most hol járhat fejlettségben, ha megnézzük azt mi hol jártunk ezer esztendővel ezelőtt, és itt sok millió éves differencia is lehet. Persze az is lehet, hogy abban az ezer esztendőben simán kinyírta saját magát az adott civilizáció, a mi civilizációnk is ebbe az irányba tart.
"a gyakorlati kivitelezés tekintetében naprendszer méretű objektumok megépítésére van szükség hozzá." Gyakorlati kivitelezés? Hmmm, mit építesz a sufniban.
#127 Kansas: Igen akár. Hányan haltak meg különféle repülőgépek/hajtóművek kísérletei során, mert valami félrement.
[ Szerkesztve ]
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
Kansas
addikt
Azért van egy pont, ami után a "valami félrement" nem kielégítő magyarázat. Mi a naprendszerből se jutottunk még ki(sőt igazából a Földről se, az a pár tucat holdjáró nem elég hozzá), mégis meg tudjuk oldani a landolás kérdéskörét...
Egyébként Neil Degrasse Tyson után szabadon: nem az a gondolat aggaszt, hogy idegenek járhattak már a Földön, hanem, hogy intelligens létformákat kerestek, de elmentek, mert itt nem találtak...
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
nagyúr
Rendben, nézzük a Shadow of the Tomb Raidert:
1080p:
RX 6900 XT: 128.6 FPS (100%)
RX 6800 XT: 128.6 FPS (100.0%)
RTX 3080: 127.1 FPS (98.8%)
RTX 3070: 122.6 FPS (95.3%)1440p:
RX 6900 XT: 119.8 FPS (105.7%)
RX 6800 XT: 113.3 FPS (100%)
RTX 3080: 114.3 FPS (100.9%)
RTX 3070: 90.1 FPS (79.5%)2160p:
RX 6900 XT: 70.2 FPS (107.8%)
RX 6800 XT: 65.1 FPS (100%)
RTX 3080: 67.3 FPS (103.4%)
RTX 3070: 50.4 FPS (77.4%)Elemzés:
1080p-ben a 3 kártya 5%-on belül van, nyilván van valamilyen masszív limitáció - 99% valószínűséggel CPU / system ram / PCIE sávszélesség, 1% valószínűséggel valami más.
1440p-ben már kb. a normális arányok látszanak, miután közel vannak az 1080p-ben látott kimaxolt 128.6 FPS-hez, valamennyi CPU-limitet itt is gyanítok, de itt kellene keresztmérés, hogy biztos legyen. A 3080 1%-kal gyorsabb, mint a 6800 XT, és 4.6%-kal lassabb, mint a 6900 XT.
2160p-ben egy kicsivel széthúzódik a mezőny - a 3070 egy kicsit visszább csúszik, a 3080 és a 3090 egy kicsit előrébb lép. A 3080 a 6800 XT-hez képest 2.5%-ot javul, a 6900 XT-hez képest pedig 0.5%-ot.Konklúzió:
A 3080 és a 6800 XT relatív sebessége között látható 2.5% változás arra utal, hogy egyes játékokban a 3080 minimálisan előrelép 4K-ban. Miután a 17 játék átlagát mutató összegzésben ez a különbség nem látszik, a mértéke miatt már eleve kétes a dolog - és ráadásul a 6900XT-hez képest érdemben nem lép előre a 3080, tehát ezek a mérések egyáltalán nem támasztják alá a felvetést, miszerint a GA102 4K-ban bármilyen jelentőséggel bíró előrelépést mutatna a Navi-hoz képest.Ha az a mondás, hogy FHD-ben az AMD a menő (amit ez a mérés amúgy megintcsak nem támaszt alá), annak sokkal inkább az lehet az oka, hogy bizonyos körülmények között jobban bánik a CPU-limites helyzettel.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Az AMD azt mondta még januárban, hogy Full HD-ben azért működnek jobban az RDNA 2 dizájnok, mert ilyenkor sok bájt jut egy pixelre a 128 MB-os cache-ből. Ez a felbontás növelésével romlik, mert több a pixel, de a cache kapacitása állandó. 4K-ban is menne durván az RDNA 2, ha lenne rajta 256 MB-os IC, csak az a baj, hogy arányaiban az nem éri még meg a tranzisztorköltséget.
Persze ez az egész játékfüggő. Tehát nehéz általánosítani.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Duck663
őstag
Már amikor sikerül megoldani a landolás kérdéskörét.
Honnan tudod, hogy nem éppen azért akartak a földön landolni, mert valami gondjuk volt odafent? Pl.: találkoztak egy kisebb kődarabbal. Hány repülőn ejtett már sebet egy madárraj?
Egy idegen civilizáció helyében én is továbbállnék... nagyon messze van attól az ember(iség), hogy alkalmas legyen egy idegen civilizációval való kapcsolatfelvételre. Amikor ember gyűlöl embert, csak azért mert másképp gondolkodik, akkor egy teljesen idegen, idegenül kinéző, valószínűleg teljesen másképpen gondolkodó élőlénnyel mit csinálna?
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
Z10N
veterán
New York Times cikkek:
https://www.nytimes.com/2017/12/18/insider/secret-pentagon-ufo-program.html
https://www.nytimes.com/2020/07/23/us/politics/pentagon-ufo-harry-reid-navy.html
Kormany oldalak (Pentagon/Navy):
https://www.navair.navy.mil/foia/documents
https://www.defense.gov/Newsroom/Releases/Release/Article/2165713/statement-by-the-department-of-defense-on-the-release-of-historical-navy-videos/
Interjuk:
https://www.youtube.com/watch?v=aB8zcAttP1E
https://www.youtube.com/watch?v=Eco2s3-0zsQ
[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Duck663
őstag
A Navi 3x-en lehetséges, hogy növelni fogják majd a IC méretét?
A IC-nél gondolom van valamilyen tömörítési technológia alkalmazva, meghajtóból ez változtatható, fejleszthető, javíthatnak rajta? Mert azzal nyerhetnének ezek alapján a legtöbbet.
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
Darmol
senior tag
Tudod, ha nem lehet szempillantás alatt fényéveket megtenni, akkor elég unalmas az univerzumunk. Vannak dolgok, amik rengeteg szempillantás távolságban vannak.
Az, hogy még senki nem tudta a gyakorlatban megvalósítani (legalábbis nem hallottunk róla), az egy dolog.Aki azt mondja "nem tudom elhinni az igazságot" az naiv. Aki azt mondja "nem akarom tudni az igazságot" az ostoba. Aki azt mondja "az igazság tilos" az gonosz. Aki azt mondja "én határozom meg az igazságot" az beteg.
-
Darmol
senior tag
[link]
Az öreg elképesztően jó előadó, érdemes megnézni az összes témát amiről előadást tart.
Mindegyik kiugróan jól érthető szerintem.Aki azt mondja "nem tudom elhinni az igazságot" az naiv. Aki azt mondja "nem akarom tudni az igazságot" az ostoba. Aki azt mondja "az igazság tilos" az gonosz. Aki azt mondja "én határozom meg az igazságot" az beteg.
-
-
Kansas
addikt
Igen, gimnáziumban épp ezzel a videóval tanultuk...
Ha valakinek, neki elhiszem, amit mond, ő még együtt dolgozott Einstein-nel, gondolom megkérdezte volna tőle, ha valami nem lett volna világos...[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Z10N
veterán
https://www.nytimes.com/2017/12/16/us/politics/pentagon-program-ufo-harry-reid.html
https://www.nytimes.com/2017/12/29/science/ufos-aliens-space-travel.html
https://www.nytimes.com/2019/05/26/us/politics/ufo-sightings-navy-pilots.html
https://www.nytimes.com/2020/05/14/us/politics/navy-ufo-reports.html
https://www.defense.gov/Newsroom/Releases/Release/Article/2314065/establishment-of-unidentified-aerial-phenomena-task-force/
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Yeffy
veterán
Egy idegen civilizáció helyében én is továbbállnék... nagyon messze van attól az ember(iség), hogy alkalmas legyen egy idegen civilizációval való kapcsolatfelvételre. Amikor ember gyűlöl embert, csak azért mert másképp gondolkodik, akkor egy teljesen idegen, idegenül kinéző, valószínűleg teljesen másképpen gondolkodó élőlénnyel mit csinálna?
+ végtelen, sajnos...
Big girls ride harder. ヅ || Kondi powaa'!
-
Dtomka
veterán
-
Kansas
addikt
Nos, van egy rossz hírem: a te elemzésedhez hasonlót csináltam a Metro Exodus kapcsán a CB teszt eredményei alapján(RDNA2 adatok hiányában RDNA1-et, Turingot és a szemlééetesség kedvéért a 3090-et belevéve), de míg megírtam, eldobta magát a login session-öm, és hülye fejjel nem tettem ki vágólapra az egész irományt küldés előtt, szóval buktam az egészet.
Bár eszem ágában sincs az egészet újra megcsinálni, a lényegi konklúziót azért leírom újra, a CB adatok alapján ellenőrizheti bármikor bárki akinek van ráérő ideje/kedve.
Szóval: mindhárman tévedtünk, úgy tűnik. Te azért mert a CPU limitre fogtad, ami a Metro esetében egyáltalán nincs jelen, ellenben a skálázódás-különbség látványos a 3080 és 3090 esetén, míg jelentősen kisebb mértékű a 3070 esetében. És ez utóbbiból fakad a HU és az én tévedésem, ugyanis a HU elemzése a 3070 megjelenése előtt 3 héttel jött ki, tehát nem tartalmazhatott 3070-es méréseket, amik viszont kulcs-jelentőségűeknek bizonyultak szerintem. Ugyanis arra engednek következtetni, hogy a jelentősen jobb 4K-ra skálázódás szvsz a VRAM-beli különbségekre vezethető vissza: kisebb mértékben a mennyiségre(a 3070 8GB-ja 4K-ban már tud limitálni némelyest) leginkább viszont a GDDR6 helyett GDDR6X használata miatt, ami jelentős sávszélesség-növekedéssel járu.i. : igazán lehetne tenni valamit a fórum-motorral, gáz ez így, hogy a küldés folyamán történő új authentikáció eldobja a komplett komment tartalmát. Azt se bánnám, ha egy hosszú komment írása közben nem járna le a session.
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
nagyúr
Pedig kéne az az elemzés, mert én a Metro Exodusnál is azt látom, hogy pár % extrát tud felmutatni a 3080 a 6800 XT-vel szemben, amikor 1440p-ről 2160p-re lépünk (5.6% helyett 8.7%). A 3070 és a 6800 viszonylatában meg még fordítva is van a dolog - a 3070 gyorsabb 1080p-ben, a 6800 pedig 1440p-ben és 2160p-ben.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Kansas
addikt
Rendben, holnap megkapod.
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Duck663
őstag
gbors/Kansas: Beleszólok én is kicsit ebbe a diskurzusba, ugyanis, én is ezt a teljesítményvesztést vettem észre a Radeonoknál a felbontás növelésével. Egy tesztet hoztam, jó néhány játéknál szépen kirajzolódik a dolog. [link] Lehet igaza van Abu-nak, hogy az IC a ludas.
[ Szerkesztve ]
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
Kansas
addikt
Nos szóval...
Akkor nézzük is az eredeti ellenőrzésemben szereplő Metro Exodus... helyett az egy kivételt, a Horizon Zero Dawn-t - most esett le hogy a Metro nem volt Steve listáján a jelenséget jól demonstráló játékok(AC Odyssey, R6 Siege, Doom Eternal, F1 2020, Horizon Zero Dawn) között(az első kettővel a CB nem tesztelt, a maradékból hasraütésre választottam egyet):Semmi eget verőt nem csináltam egyébkélnt, csak a kapcsolódó értékeket összerendeztem és extraként számoltam egy deltát hogy mennyivel magasabb az átlag framerate az eggyel kisebb felbontáson.
1080p:
RTX 3090: 119.5 FPS (136%)
RTX 3080: 110.8 FPS (126%)
RTX 3070: 100.4 FPS (114%)
RTX 2080Ti: 88.1 FPS (100%)
RTX 2080S: 79.1 FPS (90%)
RX 6900XT: 116.7 FPS (132%)
RX 6800XT: 106.8 FPS (121%)
RX 6800: 91.1 FPS (103%)
RX 5700XT: 69.6 FPS (79%)1440p:
RTX 3090: 104.8 FPS (146%) = 14.0%-kal több 1080p-ben a framerate
RTX 3080: 92.7 FPS (129%) = 19.5%-kal több 1080p-ben a framerate
RTX 3070: 82.0 FPS (114%) = 22.4%-kal több 1080p-ben a framerate
RTX 2080Ti: 71.8 FPS (100%) = 22.7%-kal több 1080p-ben a framerate
RTX 2080S: 64.4 FPS (90%) = 22.8%-kal több 1080p-ben a framerate
RX 6900XT: 100.6 FPS (140%) = 16.0%-kal több 1080p-ben a framerate
RX 6800XT: 92.3 FPS (129%) = 15.7%-kal több 1080p-ben a framerate
RX 6800: 78.5 FPS (109%) = 16.1%-kal több 1080p-ben a framerate
RX 5700XT: 55.3 FPS (77%) = 25.9%-kal több 1080p-ben a framerate2160p:
RTX 3090: 71.8 FPS (152%) = 46.0%-kal több 1440p-ben a framerate
RTX 3080: 62.6 FPS (133%) = 48.1%-kal több 1440p-ben a framerate
RTX 3070: 51.3 FPS (109%) = 59.8%-kal több 1440p-ben a framerate
RTX 2080Ti: 47.1 FPS (100%) = 52.4%-kal több 1440p-ben a framerate
RTX 2080S: 40.9 FPS (87%) = 57.5%-kal több 1440p-ben a framerate
RX 6900XT: 67.5 FPS (143%) = 49.0%-kal több 1440p-ben a framerate
RX 6800XT: 61.1 FPS (130%) = 51.1%-kal több 1440p-ben a framerate
RX 6800: 52.6 FPS (112%) = 49.2%-kal több 1440p-ben a framerate
RX 5700XT: 34.3 FPS (73%) = 61.2%-kal több 1440p-ben a framerateA 3060Ti azért nem lett beletéve, mert a konklúzióhoz legfontosabb 2160p felbontáson nem lett megmérve CB által.
Konklúzió: mind tévedtünk valamennyit, ugyanis:
- nem látok ezekben az értékekben CPU-limitet - addig tiszta sor, hogy nem szükségszerűen cáfolja önmagában a felbontás csökkenésével monoton módon növekedő framerate, de azzal együtt, hogy a VGA-k erejének növekedésével is monoton nő a framerate, már egyértelműen a CPU-limit hiányát valószínűsíti, és ezzel szemben nem látok semmit a másik oldalon, ami viszont a CPU-limit jelenlétére utalna- a két nagyobb Ampere nagyobb 4K skálázódási előnye csak az előző generációs kártyákkal szemben van meg, bár az RDNA2-khöz képest is marad valamennyi kimutatható extra előny, de az messze nem drámai - ez viszont annyiban elnézhető a HU csapatának, hogy az ő elemzésük megjelenésekor(2020. október 6.) még nem jött ki sem a 3070, sem az AMD lineup, így az előző generációra és a két nagyobb Amprer-re voltak kénytelenek alapozni, ami a később megjelent VGA-k mérési eredményeiből láthatóan torzítást eredményeztek.
- A 3070, 2080S és 5700XT viszonylag hasonóan szerepel 1440p->2160p közötti framerate-esés kapcsán, annak ellenére, hogy két különböző generáció 3 különböző architektúrájú tagjáról van szó, az egyetlen közös pont bennük a VRAM mennyisége(8GB), ami úgy tűnik, ebben a játékban kevés 2160p-re
- szintén ugyanebben a deltában(1440p->2160p) érdekes különbség van a két nagyobb Ampere és a kistesó közt, amit én szintén a VRAM-ra fognék, részben a mennyiségére, részben a típusából(GDDR6 vs GDDR6X) fakadó sávszélesség-előnyére, bár az nem tiszta számomra, melyik számít többet
Megjegyzés: nyilván a fentiek kifejezetten csak az általad linkelt CB teszt adatai alapján ennek az egy játéknak az esetében igazak, de a többi játékra, több tesztelő számai alapján csinálja meg az, akit ezért fizetnek...
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Nézőpont kérdése, hogy ezt minek látod:
- AMD teljesítményvesztés
- Ampere-ek szarul skálázódnak lefele 4K-ról
- Ampere-ek jól skálázódnak felfele WQHD-ról(gyanúm szerint natív 8K-ra lépve is kevesebbet buknak a többi VGA-nál, csak az pillanatnyilag senkit se érdekel)Ami számomra biztosnak tűnik, az az, hogy van köze az Ampere-ek FP32 trükközéséhez, de talán ennél is jobban a VRAM mennyiségéhez és sávszélességéhez.
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Ja bocs, nem kivétel a Horizon, az véletlenül maradt benne...
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Duck663
őstag
Jogos! Én elsősorban házon belül vizsgáltam, az 5700-assal összevetve, de kiderült, hogy tévedtem, csak látszólagos volt. Első körben a Navi 21 skálázódására gyanakodtam, de az rendben van.
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
nagyúr
Haladunk
Akkor pár dolgot tűzzünk le:
- A régebbi generációk és az Ampere között egyes játékokban (de nem az átlagban) látható jelentősebb különbség az 1080p->1440p->2160p teljesítményvesztésben
- A Navi 20 jellemzően hasonlóan viselkedik, mint az Ampere
- Ezeknek a különbségek játéktól függően potenciálisan más-más okokra vezethetők vissza - a CB tesztben is van bőven olyan, ahol CPU-limit van (Death Stranding, F1 2020, Gears, SOTR biztosan). Ezen felül van pár, ahol a 3090 már karcolja a CPU-limitet, a többi még nem, úgyhogy vszleg érdemesebb a 3080-at nézni.Amit én a HZD-nál látok:
- CPU-limit ebben az esetben tényleg nemigen látszik, csak a 3090-nél
- A szokottnál sokkal kevésbé pixel-heavy a játék, az 1080p->4K váltás 65-70%-ra ejti az FPS-t, a jellemzőbb 40% helyett
- 1080p-ben van némi gond az új generációs top tier kártyákkal, a 2080Ti-hez képest mindegyik ellép a 1440p-ben, a Radeonok és a 3090 jelentősen, a 3080 kevésbé. Utána az ugrás 2160p-re már nem olyan jelentős.
- Jó meglátás a 8GB memória problémája 4K-ban - ha összeveted a min és az avg FPS-eket, akkor azt látod, hogy jellemzően 15-20% van közöttük, míg 4K-ban a 8GB-os kártyáknál ez felmegy 40-50%-ra. A 3070-nél amúgy pont nem, de valószínűleg már így is megszenvedik az átlag FPS-ek a memóriahiányt.A fenti 4 dolgot összerakva, nekem az a véleményem, hogy a HZD-ben a legnagyobb GPU-knak egyszerűen kevés a frontendje ahhoz, hogy a rengeteg ALU-t etessék 1080p-ben. 1440p-ben már majdnem normalizálódik a helyzet, de még 4K-ra is marad egy kis javulnivaló. 4K-ra ugráskor pedig a 8GB-os kártyák elkezdenek szenvedni, tovább homályosítva a képet.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Kansas
addikt
Lepetézek, a végén kiderül, hogy alapvetően nagyrészt egyetértünk
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
nagyúr
A fő különbség szerintem az volt, hogy én elsősorban a sok játékos átlagot néztem, te pedig egyes játékokat. Szóval volt értelme visszatérni a civilizált mederbe
Azt viszont továbbra sem látom sehol alátámasztva, hogy az Ampere ALU-struktúrájában kellene keresni a relatíve jobb 4K-s teljesítmény okát abban a pár játékban, ahol ez felbukkan. Utilizációs bottleneck ettől még akkora van benne, mint egy ház - ha nem lenne, akkor pl. a 3060 40-50%-kal lehetne gyorsabb, mint a 2060. Ha meg a másik véglet lenne igaz, miszerint nagyon ritkán lehet mindkét clustert etetni, akkor 5-10%-kal. Ehhez képest olyan 25-30%-ról van szó - pont a közepe.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Duck663
őstag
Azokban a játékokban, ahol ez, mint lehetőség felmerül, meg kell nézni, hogy az órajel változtatására, hogyan reagál, arányaiban. Ha az átlagtól nagyobb mértékben változik a teljesítmény, akkor igaz, ha nem, akkor nem.
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
Kansas
addikt
Én azért nem nézek sok játékos átlagot, mert semmi értelmét nem látom. Egyszerre az ember egy játékkal játszik. Pl AC Odyssey-vel játszok, Valhallával is biztosan fogok, de pl a Horizon Zero Dawn teljesen hidegen hagy, innentől kezdve számomra, ha én akarnék VGA-t venni(nem akarok, konzolon tolom az AC-kat is), a két AC játék számítana, a HZD meg kicsit sem.
Persze szeretek én is minél több játékot tartalmazó teszteket nézni, de egyesével, nem átlagot vonva, hogy egy esetleges számomra érdektelen játék ne torzítsa a "végeredményt", se föl, se le.
Azt viszont nem mondtam, hogy az ALU struktúrában van a magyarázat, az FP32-es trükközés csak egy példa volt, hogy az is számíthat. Én az Ampere kártyák architektúráját említettem, és abba a GPU-n kívül a VRAM is beletartozik(meg az összes egyéb komponens a NYÁK-on és körülötte).
A CPU-limit azért érdekes kérdés, mert bőven függhet a GPU-tól illetve a játék motorjától is, hogy milyen körülmények között lesz a CPU a limitáló tényező. Például amit említesz az "utilizációs bottleneck" az pont egy ilyen jelenség(már ha jól értelmezem, mit értesz alatta)...[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Duck663
őstag
Gondoltam elég ha utalok rá, de nem. Ez: "Azt viszont továbbra sem látom sehol alátámasztva, hogy az Ampere ALU-struktúrájában kellene keresni a relatíve jobb 4K-s teljesítmény okát abban a pár játékban."
És hogy miért is?! Érzem, hogy ez lenne a következő kérdés, úgyhogy most ezt megelőzöm. Elméletileg megduplázták a FP32-es teljesítményt, elméletileg, gyakorlatban nem, de az nem számít, ami számít, hogy mindenképpen van pozitív hozadéka, így az órajel változtatásával nagyobb mértékben változik a számítási kapacitás, mint a korábbi generációknál, és ha erre a játék az átlagtól nagyobb FPS változással reagál, akkor az ennek a kialakításnak köszönhető.Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
Darmol
senior tag
Arra gondolsz, hogy ha több különböző, rögzített órajel mellett vizsgáljuk a számítási teljesítményt, és a teljesítménygörbén legalább egy törést látni, akkor a szűk keresztmetszet tényleg létezik és az architekturális sajátosságok ismeretében lehet keresni az okokat, mivel a törés helye a jellemzője?
Aki azt mondja "nem tudom elhinni az igazságot" az naiv. Aki azt mondja "nem akarom tudni az igazságot" az ostoba. Aki azt mondja "az igazság tilos" az gonosz. Aki azt mondja "én határozom meg az igazságot" az beteg.
-
nagyúr
Én azért nem nézek sok játékos átlagot
OK, ezt értem, de válasszuk szét az egyéni igényeket és a GPU-k elemzését. Utóbbiban minél több játék van, annál jobb. Az átlagok persze hajlamosak eltakarni az érdekes, nem túl markáns részleteket (mint pl. a 8GB probléma a HZD-ben), viszont 15-20 játék esetén már elég jó képet mutatnak arról, mit lehet várni a cucctól általában.
Én az Ampere kártyák architektúráját említettem, és abba a GPU-n kívül a VRAM is beletartozik(meg az összes egyéb komponens a NYÁK-on és körülötte) (...)
Aha. Végső soron, az architektúra egy elég jó gumiszó, mindenesetre én a GPU logikai felépítését értem alatta, a funkcionális egységeket, az arányaikat és az összeköttetéseiket. Az eléggé más.
Utilizáció alatt a GPU egységeinek kihasználását értem, bottleneck alatt pedig azt a faktort, ami a legszűkebb keresztmetszet - jelen esetben a GPU-n belül. Az Ampere FP32-es ALU-inak kihasználtsága messze van az ideálistól - ha 4K-ban javul a relatív teljesítmény, akkor az arra utal, hogy az 1080p-ben lévő szűk keresztmetszet lassan áttevődik máshová (feltéve, hogy a kiindulási alapnál ez kb. stabil - mondjuk a 2080 Ti ilyen szempontból jó alapnak tűnik). A pixelek számának növelésével az ALU-terhelés is kb. arányosan növekszik, ezért nem gondolom, hogy az egy ütemezőre ráakasztott két ALU-clusternek ilyen hatása lenne. Miután a HZD eleve kevésbé érzékeny a pixelek számára, mi fájhat neki? A legegyszerűbb irány, hogy túl sok az egy pixelre eső háromszög.#159 Duck663: Gyakorlatban is megduplázták az ALU-teljesítményt, csak sok körülménynek kell összejönni, hogy ez kihasználható legyen, és a mai játékokban ezek jellemzően nem jönnek össze.
Ezt viszont nem értem:
az órajel változtatásával nagyobb mértékben változik a számítási kapacitás, mint a korábbi generációknál
Ezt mire alapozod? Az órajel növelésével a GPU összes része gyorsul, az ALU-k ugyanannyira, mint az ütemezők, a ROP-ok meg az összes többi.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Zeratul
addikt
OFF: Csokiból is lehet venni igazi csokoládét, és csokoládénak hívott növényi zsírokkal feldúsított kakaóvaj alapú kakaómasszát. Ami egyébként a modern élelmiszeripar egyik csodája
Csak a pontosság kedvéért amire gondolsz az nugát. Abban nincs (vagy csökkentett mennyiségben) kakaóvaj, mert az drága. Sovány, kakaóvaj mentesített kakaóporból és növényi zsiradékokból állítják elő. A csokoládéban ellenben csak kakaóvaj lehet, növényi zsiradék nem. Amiben növényi zsiradék van, az mind nugát. Abból is lehet normálisat csinálni, de akkor nem lesz árelőnye a csokoládéval szemben. -
Komplikato
veterán
Elvileg létezik olyan csoki, amit a kakaóvaj helyett vajjal sűrítenek, de nem volt szerencsém ilyet tesztelni. A növényizsíros hulladéknál az is jobb lehet. Az a gáz, amikor már a Milka csoki is pálmaolajjal készűl.
[ Szerkesztve ]
"Figyelj arra, aki keresi az igazságot és őrizkedj attól, aki hirdeti: megtalálta." - (André Gide)
-
Darmol
senior tag
-
SZULTA
tag
Sziasztok!
Azt lehet tudni mikor lesz a pontos megjelenés? Valahol 17 máshol 18.-át írnak.
Valamint hány órakor ?
Köszönöm -
Kansas
addikt
Miért, mi lesz akkor? Azon túl, hogy lesz még egy videokártya a webshopokban, amiből nincs készlet... vagy van, csak tripla áron?
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
De most tényleg, mi a jelentősége?
Tán csak nem skalpolásra készülsz? Ugye nem?Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
micsoda mák, hogy azzal amivel én szeretek játszani, annak 7970m bőven elég.
szevasztokどんな時代だろうが、機械は決断しない、 戦闘は人間がやるんだ。
-
DonToni
aktív tag
"Aztán, hogy a gyakorlatban hogyan alakulnak az árak, az manapság megjósolhatatlan."
Jósolok én nektek.... MSRP ár + 400%...... alsó hangon....!
-Anti-
-
Liquido
csendes tag
Számomra jól jött ez az egész hercehurca, ingyen cseréltem 6700 XT-re, a 2 töredékét érő régebbi kártyámmal.
Számítógép? Azt eszik vagy isszák?
Új hozzászólás Aktív témák
- gban: Ingyen kellene, de tegnapra
- Bugok, problémák a PROHARDVER lapcsaládon
- iRacing.com - a legélethűbb -online- autós szimulátor bajnokság
- Vodafone otthoni szolgáltatások (TV, internet, telefon)
- Oázis Computer - Prohardver nyereményjáték, fődíj egy Samsung gamer monitor
- Politika
- Kedvenc zene a mai napra
- Van, ahol már törvényben védik az agyhullámainkat
- Mini PC
- Kétféle tájolással munkára fogható, ITX-es ház jött a Sharkoontól
- További aktív témák...