Keresés

Új hozzászólás Aktív témák

  • ddekany

    veterán

    1) Lényegtelen itt Musk, és hogy ő épp kire féltékeny (ha az). Nézzétek meg, hányan is kik írták alá még.

    2) Az önvezetés más jellegű AI, és erősebben specializált is. Mert ott a hardver ára és fogyasztása (és mérete) közelébe sem lehet egy ChatGPT-jellegű rendszerének.

    3) Akár milyen buta/betépett most a ChatGPT, Midjourney, stb., az azért látszik, hogy az alapelv működik, és hogy még tud javulni bőven (nem tudjuk hol a plafon). Szóval lehet gúnyolni, de ezért én fosnék is a helyetekben, hogy hova fog ez elérni, akár pár év alatt.

    4) Nem kell öntudatra ébredt szuperakármi, hogy akkor felfordulás legyen, amihez képest a COVID + Ukrajna vicc voltak. Elég ha túl hatékony eszköz valami pár dologra...

    5) Szép papír, de ha ezt a féket nem lehet kikényszeríteni mindenkire nézve, akinek erre megvannak az anyagiak, akkor nem fog működni. Mert akkor mindenki más csak vesztes pozícióba teszi magát, és így végül ők is visszaszálnak a versengésbe. Mi van pl. az olyan államokkal, aki kevésbé gátlásosak... Kértlem, hogy az amerikai állami szervek bevárják őket.

    [ Szerkesztve ]

  • ddekany

    veterán

    válasz totron #48 üzenetére

    Miből látszik, hogy tud még javulni bőven: Visszanézve a meglévő rendszerek eddigi fejlődési ütemére (pl. ChatGPT), egyenlőre nem lassítunk. Ahogy én érzékeltem legalább is. Az meg nem túl valószínű, hogy a következő hónapban hirtelen beverik be fejüket a plafonba. Plusz, most elkezdett ebbe ömleni a pénz, szóval nagyon sokan keresik párhuzamosan a megoldást a nehézségekre.

    "többek szerint bakugrásokra inkább kell készülni"

    Ez szinte biztosan így lesz, ha komolyabb felépítésbeni változásokat annak nevezünk. Főleg, hogy most a kockázatosabb újító ötletekre is lehet pénzt szerezni.

    Mire túl hatékony: Pl. túl hatékony megfigyelő/rendfenntartó eszköz, amit a vezető maffiózóknak (értsd politikusoknak) sikerül bevezetni. Munkaerő piac sokk szerű változása (pl. átmeneti munkanélküliség). Meg persze franc tudja... elég sok új lehetőséget kinyithat ez.

    "nem változik tehát az egységnyi fejlesztő élete semmit"

    Csak lehet, hogy előbb-utóbb 2x gyorsabban fogsz dolgozni vele, mint nélküle. Fejlesztők mondjuk abban a szerencsés helyzetben vannak, hogy az N-szeres hatékonyság nem jelenti, hogy akkor (N-1)/N % fejlesztő munkanélküli lesz, hanem inkább több vagy több feature-vel rendelkező szoftvert fognak íratni velük. Nem minden szakmára igaz ez.

    Persze nem akarok én itt negatív lenni. Ahogy egyre nagyobb szarban van az erőforrások felélése miatt a civilizáció, jól jöhet, ha hatékonyabban tudunk dolgozni. Tulajdonképpen ez az egyik szalmaszál, hogy a tudomány lépést tart az őrülettel, és így valahogy a nehezített körülmények ellenére sem döglünk éhen... Bár valószínűleg a többség de. OK, ez megint nem pozitív. :)

    [ Szerkesztve ]

  • ddekany

    veterán

    válasz strogov #62 üzenetére

    "AGI", ha valaha lesz, gyarló emberek fogják tréningezni. Hogy milyen lesz (ha lesz), az tőlük függ. Az lehet, hogy jobbára racionális lesz, mert az a hatékony akármilyen cél elérésre. Az már kétségesebb, hogy a céljai az általad elképzeltekkel egyezni fognak-e. (Eleve, az lét célja nem adódik semmiféle matematikai/fizikai törvényszerűségből, hanem szubjektív, véleményes.)

    [ Szerkesztve ]

  • ddekany

    veterán

    válasz Medocsabi #64 üzenetére

    A "Musk szerint" csak a click bait. Nem fontos. Ő egy a rengeteg neves aláíró közt, akik közt rakás AI-s szaki is van.

    Az meg szvsz nem világos, hogy milliárdosoknak mekkora a felelősége abban, hogy a tömegek kényelmes, fényűző életet akarnak élni, és nincs esélye olyan vezetésnek, aki mást ígérne. Legalább is demokráciában. Azaz hiába is mondanák az emberek 99%-ának, hogy holnaptól sajnos fel kell adniuk nagyon nagyon sok mindent, de amúgy dolgozzanak tovább szorgosan, mert különben ilyen-olyan horror vár a gyerekeikre, vagy akár már rájuk. Nem hiszik el, részben mert úgy kényelmesebb. Vagy elhiszik, csak lesz*rják, mert az a fontos, hogy most még jó. (Arról már nem is beszélve, hogy a vezetők is gyarlók, és abból is jobbára morálisan rosszabb fajta, szóval oda se jut, akit ez érdekelne.)

    [ Szerkesztve ]

  • ddekany

    veterán

    válasz dolon75 #74 üzenetére

    Ez azért is vicces, mert egy ChatGPT-szerű AI még nem nagyon von le magától mélyebb következtetéseket, soha nem gondolkodott el arról, amit beletömtek. Ezért mikor megkérdezik valamiről, a saját véleményünk némileg véletlenszerű mixét visszhangozza vissza. Tehát kb. saját magunkat kérdeztük meg. Annyiban értelmesebb az átlagnál, hogy van emberi közbejárással végrehajtott "alignment" mielőtt ki merik tenni a publikum elé ezt a gondolatvilág-kimérát, és attól remélhetően inkább a szakértőktől merít, mintsem Vér Istvántól. (Meg persze nagyon vigyáznak, hogy US-polkorrekt legyen.)

  • ddekany

    veterán

    válasz tegbashar #78 üzenetére

    Most egy olyan dologról beszélsz, ami még nincs, és nem tudod milyen, és valószínűleg nagyon sokfélére meg lehet csinálni, akár a készítő szándékából, akár véletlenül. Lehet pl. valamiféle őrült pszichopatára is. De tegyük fel, hogy nem az. Hanem, hatalmas IQ, racionális (felelőségteljes) gondolkodás. De ez még nem határozza meg, hogy mi a cél, és lét célja szubjektív. De legyen az is valami, amivel a legtöbben első ránézésre egyetértenének: Az intelligens "élet" fenntartása az univerzumban, annak további fejlődése, a világegyetem minél jobb megértése. Ezt figyelembe véve, az emberből tovább fejlődve, mint az evolúció következő ugrása, következik ő, és amiket majd gyárt. Az embereket érdemes likvidálni, mert egy elég problémás szakasza a fejlődésnek. Ez simán lehet a helyes döntés említett cél érdekében. Természetesen ez egyenlőre sci-fi, gondolatkísérlet, de a felvetésed is az.

    [ Szerkesztve ]

  • ddekany

    veterán

    válasz dolon75 #82 üzenetére

    Sok minden betartására rá lehet kényszeríteni az embereket... Most is ezt teszik a törvények, és a médiában a kondicionálás. A kérdés inkább az, hogy minek vesződni ezzel, ha úgy is haszontalan vagy. Max. házi kedvencnek jó lehet az ember... bár ahhoz túl értelmes, így lázadna, szóval valószínűleg mégsem.

    [ Szerkesztve ]

  • ddekany

    veterán

    válasz Algieba #100 üzenetére

    Ez még messze van nyilván attól, hogy önállóan rosszalkodjon. Másfelöl én sosem értettem az "öntudatra ébredés" misztifikálást. Egy generikusabb AI alkot valamiféle modellt a "fejedben", amiben mindenféle entitások vannak, amik hatnak egymásra stb. Akár olyan komplex entitások, mint az emberek. Ez eddig elképzelhető? Ha igen, akkor ő maga is csak egy ilyen entitás. Annyiban kitüntetett entitás, hogy azt vezérli legközvetlenebb módon, és annak ismeri legjobban az állapotát. Ennyi, öntudat. Tudja, hogy az az entitás "ő". Mit felejtek ki?

  • ddekany

    veterán

    válasz Algieba #104 üzenetére

    Nem pont a ChatGPT-ről beszéltem, mint a cikk tárgyát képző felhívás sem (bár valószínűleg a ChatGPT 4 volt az utolsó csepp a pohárban, ami kiprovokálta). Hanem, hogy mi képtelenség, és mi nem. Hogy nem látom abban az extrát, hogy ha valami tud "entitásokat" kezelni valami összetettebb világban, akkor kezelje azt is, hogy az egyik entitás ő. Ha direkt olyanra akarod, hogy legyen identitása, akkor pláne (azaz, még csak az sem kell, hogy "magától" jöjjön rá).

    Őszintén, valahol azt sejtem a mögött amiket mondasz, meg mikor mások hasonlókat mondanak, hogy valamiféle varázslatnak gondolják az élőlényeket, és ebből adódik egy hit, hogy öntudat, kreativitás, vagy akár érzelmek (utóbbi aztán igazán primitív dolog), nem hozható létre géppel úgy sem, tehát erre a tényezőre nem is kell figyelni. Nekem meg pont az lenne totál váratlannak, ha nem lenne replikálható géppel. Azt nem tudom, hogy mikor lesz ez reális. Nem állítom, hogy mostanában.

    Enélkül is persze "izgivé" válhat a helyzet. Elég ha csak túl hatékony a cucc pár területen. Ez kb. az atombomba analógiája - túl hatékony, így kevés pszicho/felelőtlen ember is jó nagy bajt tud csinálni mindenkinek.

  • ddekany

    veterán

    válasz Algieba #110 üzenetére

    Hogy következik, hogy nem akar ártani? Avagy, ha egyszer valaha elő tudunk állítani ilyeneket, sokat, akkor előbb-utóbb simán lesz valaki, aki olyanra align-olja, hogy ártani akarjon. Lehet hogy csak egy másik országnak amúgy...

  • ddekany

    veterán

    válasz Algieba #113 üzenetére

    Ja, de ér egyszerre több dolog miatt is aggódni! Csak mert az ökológiai (erőforrás) összeomlás szinte garantált, még nem jelenti, hogy a terminátor nem b*sz meg előtte. ;] (Nyilván nem szó szerint... csak a Hollywoodi megfogalmazás.) Mellékesen az atom kockázat sem múlt el, ill. ha megússzuk, akkor is lehet, hogy másképp alakult volna, ha nem parázunk rajta sokat előtte.

  • ddekany

    veterán

    válasz BaJaZo #132 üzenetére

    A "számol" VS "dönt" eléggé összemosódik számítógépnél amúgy. Mert hogyan dönt egy program? Általában összehasonlít két számot, és az eredmény alapján vagy ugrik adott címre, vagy csak tovább lép a sorban következő utasításra. (Igen, van még lookup táblás flow control is, nagyon ritkán, de az is bot egyszerű, és csak számok.)

    Másfelöl, egy ChatGPT 4 is megvalósítható ilyen totál hagyományos programmal (csak a CPU-GPU különbség miatt használhatatlanúl lassú lenne). Csak egy rakás lebegőpontos mátrix szorzás szinte az egész. Minden visszavezethető ilyen primitívekre. Köznyelven, minden csak "matek"... (Sőt, minden megvalósítható turing gépen, csak legyen elég idő és szalag. :) )

    A nagy különbség egy Deep Blue és egy tipikus "AI" közt, hogy a előbbinél pontosan tudtuk hogyan működik, és mindent "kézileg" írták bele a logikát a programozók, míg utóbbinál csak az a programot értjük, ami beállítja a paramétereket (policy), de hogy az eredmény miért/hogyan működik pontosan, azt nem tudjuk.

    [ Szerkesztve ]

  • ddekany

    veterán

    válasz Tapsi #140 üzenetére

    "A Deep Blue ugyanez volt. A ChatGPT is eléggé hasonló."

    Pont itt lesz a lényeg, hogy ha alacsony szinten nézed, akkor hasonló, de a végén mégis nagyon lényegesen különböző. A Deep Blue esetén emberek találták ki a logikát, és beírták közvetlenül valamilyen programozási nyelven. Az AI megoldásoknál megvalósítasz és betaníttatsz hagyományos programok segítségével egy rendszer, ami aztán addig állítgat (okos stratégiákkal) egy NN-ben paramétereket, amíg a ténylegesen megoldandó feladatra az megoldást nem ad. Az AlphaZero leveri a Deep Blue-t simán, és bár mi emberek készítettük, nem tudjuk belül hogyan működik, hogy miféle logikák képződtek le az NN-be. Talán leginkább erre utalunk itt az "intelligencia" szóval, ha a hagyományos programokkal állítjuk szembe az "AI"-t. Főleg ha a viselkedés emberre emlékeztet.

    [ Szerkesztve ]

  • ddekany

    veterán

    válasz vicze #146 üzenetére

    Az emberek illúziói, hogy ők többek, mint "számok" és függvények... Semmi különleges nincs abban, hogy valami "dilemma". A dilemma az, amikor gyakorlatilag nem eldönthető, hogy adott célt figyelembe véve melyik választási lehetőség az ideális. Általában kevés a rendelkezésre álló információ ehhez, vagy a számítási kapacitás. Szóval megközelítő modellek alapján, statisztikia alapon, heurszitikákkal tippelsz vmit. Önmagában ehhez még AI sem kell, tradicionális program is megteszi.

    A villamos dilemma (lelöksz-e 1 embert a felüljáróról a villamos elé, hogy az ne gázoljon el másik 5-öt, ha jól emlékszem) egy üvöltő példája az ilyen ál-problémáknak. Mi abban a különleges? Ott is az a nehézség, hogy nem tudod megállapítani biztosan, mennyire fogod magad szarul érezni, ha lelököd azt az 1 embert, vagy hogy nem tudod, törvényileg olyankor mi lesz, stb. Sima információ hiány gond, teljesen hétköznapi, minden rendszer ma is ezek közt navigál. Tippelni kell, és a gyakorlatban nagy eséllyel helyesen döntesz. Én (ha van időm átgondolni, mert amúgy valószínűleg csak lefagynák) lelökném, mert szinte biztos, hogy ez a kimenetel okoz kevesebb érzelmi és gazdasági veszteséget másoknak. (Ha csak nincs több infó, pl. hogy akit lelökök, az mentené meg az AGI-tól az emberiséget... :)).

  • ddekany

    veterán

    válasz vicze #150 üzenetére

    "Te felül tudod írni a szabályokat tudsz új megoldásokat alkotni, ezt a gép nem tudja, csak meglevőt hasznosít újra."

    Az igaz, hogy olyan AI-knál mint a ChatGPT, meg talán az összesnél jelenleg, a betanítás és következtetési szakasz éles elszeparált. Még! De én nem tudok semmiféle fundamentális okról, ami miatt ez így kell maradjon örökre. A jelenleg használt hardver pl. lehetővé teszi a fokozatos módostást. Amúgy addig az is egy köztes lehetőség, hogy saját magának állít össze betanító anyagot az AI (a 4-es, úgy néz ki, valamennyire kezd képes lehet erre, mert megtalálja a hibákat a saját válaszában), aztán másnap az alapján kap egy NN update-et.

    Az meg, hogy mi csak meglévő újrahasznosítása, meg mi az amit már saját ötlet, az szürkezóna. A mostani rendszerek is kidobnak megoldásokat, amiket még soha sem láttak, mint ahogy mi emberek is. Persze azok a korábban látott dolgokra építenek, de ez ránk emberekre is igaz. Amit nem tudunk, hogy milyen szintre tud ez felskálázódni. Nyilván egy ChatGPT ilyen téren nagyon hülye egy emberhez képest, de azt egyáltalán nem lehet kijelenteni, hogy nem csinál ilyet.

    "A gép kit fog védeni az utasát vagy a szembejövőt?"

    Azt fogja preferálni, amire betanítod. Ez nem egy technikai gond, hanem jogi, stb.

    "A világ nem 100%-osan logikus és nem mindig logika vezérli."

    A hibás (logikátlan) eredményt is valamilyen logika dobja ki. Nem jól összerakott logika. Ez megint filozófiai téma, semmiféle technikai gondra nem világít rá...

  • ddekany

    veterán

    válasz vicze #153 üzenetére

    Mit akar ez jelenteni egyáltalán? Mi számít önállónak? Minden döntésnek megvannak az előzményei. Ennél, ha szeretnéd ha ebben a konkrét dilemmában a te preferenciád szerint döntsön, akkor erre külön betanítod. Ha nem teszed, akkor is majd dönt valahogy, hiszen kénytelen.

  • ddekany

    veterán

    válasz Reggie0 #155 üzenetére

    Véletlen az lehet (ChatGPT-ben pl. van is), de az megint előállítható mesterségesen. Gyakorlatban egy sima pseudo random is bizonyosan jó, azaz nem fogod érzéjkelni a rendszer viselkedésén, hogy ez nem valódi véletlen, de ha mégis, ott vannak a kriptográfiában használt véletlen források is.

    A szabad akarat meg... Mi az a dolog, amitől szabad az az akart?

  • ddekany

    veterán

    válasz vicze #156 üzenetére

    Nem arról van szó, hogy nincs 100 éve erre válasz, hanem hogy mindig van aki az A, és van aki a B válaszhoz ragaszkodik. Amíg nem érünk el technikailag oda, hogy lesz "rendes" AGI, ez az állapot fent is marad, mert sokan érzelmi alapon ragaszkodnak ahhoz, hogy ez márpedig lehetetlen. Azért mondom, hogy érzelmi alapon, mert érvet (ami nem nonszensz) még nem halottam rá.

    Azt hogy úgy sem tudjuk, milyen lesz, ha lesz... Igen, erről szólna ez, hogy ha "majd meglátjuk milyen lesz" alapon létrehozol egy nagyon erős AI-t, akkor nem sok esélye van, hogy pont olyan lesz, ami jó neked. Annak már inkább, hogy komoly gondot okoz. De meg lehet "ugyan már" alapon csinálni, csak nekem nem tűnik bölcs ötletnek...

    Persze megette a fene az egészet, mert bármi szabályozás alól van aki kibújik, hogy előnyt szerezzen, és az pont az a szereplő lesz, akiben a legkevésbé bíznál meg ilyen téren.

  • ddekany

    veterán

    válasz vicze #159 üzenetére

    "hogy valós döntést hozzon és ne determisztikusat"

    Lehet bele randomot tenni (ChatGPT esetén tesznek is), ha determinisztikusság kizáró ok valamiért. Általában amúgy az információ hiány miatt (azaz hogy csak egy véletlenszerű minta áll csak rendelkezésre, amit bemenetnek használsz) nem determinisztikusak a valós világban rendszerek beléjük éptett véletlen nélkül is.

    "Az hogy generál neked egy receptet ami ehetetlen, az nem lesz új hanem csak olyasmi, ami nem működik és nagyon sok ehhez hasonló dolog csinál, pontosan azért mert jelenleg több millió emberen tanítják"

    Te is másoktól tanulsz, csak neked már jobban "összeérnek" a fejedben a dolgok, így jobban ki tudod zárni a téves véleményeket. Ez még egy kezdetleges rendszer, amivel játszadoztál, és ennek ez kevésbé megy még. Meglátjuk, hova tud ez fejlődni. De nem látom ez elvi akadályát. Az, hogy nem fogadod el kritika nélkül mások véleményt, és sajátot formálsz, nem valami mágia, az csak rideg logika.

    "És nem hiszem, hogy ez szabályozás kérdése, hisz minding van az a pénz..."

    Igen, félő, hogy nem reális szabályozással kordában taratani ezt. De nem kéne feladni se rögtön, hogy akkor vagy nem tudjuk megcsinálni az "erős" AGI-t (mostanában!), és megúsztuk, vagy mindmeghalunk. Azért ennél tán többet megérne ez...

  • ddekany

    veterán

    válasz vicze #161 üzenetére

    "A saját véleménynek legtöbbször nem sok köze van a logikához. Vannak laposföld hívők..."

    Technikailag (megvalósításában) az is logika, csak nem a fizikai valóság leképzése a cél. A következtetési lánc valóságra alapozó részét egy ponton terminálod egy axiómával, egy pszichés cél elérésére (mint egy csoporthoz tartozás).

    Hogy milyen messze meg közel vagyunk, azt nem tudom. Remélhetően nagyon messze, és van még idő felzárkózni legalább morálisan az embereknek, valami csoda folytán. De amekkora bullshit generátor a ChatGPT 3.5, legalább annyira döbbenetes is ijesztő volt számomra, hogy eléggé brute force tanítással ilyenre képes legyen egy NN. Azaz hogy egyáltalán voltak dolgok, amiket elég találóan lemodellezett magában. És ez egy korai próbálkozás, hiába is régi a terület, mert nem régóta van erre hardver.

    "Puszta matematikából és statisztikából nem lesz tudat"

    Ezeket nem értem. A megfogalmazásodban itt mi számít matematikának, és mi számít tudatnak? (Mert hogy azt mondod, csak azzal nem lehet, azt.)

  • ddekany

    veterán

    válasz vicze #163 üzenetére

    Mondjuk úgy, hogy ráközelítve primitív a cucc, anélkül hogy elvesznénk részletekben a konkrét topológiáról, egyéb archiekturális részletekről, amiket persze nem is ismerünk. Primitív részekből épülnek a komplex viselkedésű rendszerek. A ChatGPT pl. meglepően jól leköveti, hogy ha kiadok tucat bash parancsot, amiket pont ebben a formában sosem látott, akkor mi lesz a képzeletbeli fájlrendszeremen. Úgy, hogy korábban csak rázúdult egy rakás dokumentáció meg beszélgetés a témáról, és senki nem programozta be emberi értelemmel erre a logikát. (Persze, hacsak nem csaltak Open AI-nél...) És még is kialakult a logika benne... Nem hibátlanul, de látszik, hogy az alapötlet működik.

  • ddekany

    veterán

    válasz Tasunkó #165 üzenetére

    Erre jelenleg az a válasz, hogy ugyan dolgoznak emberek a betanított NN-ek belső működésének megértésén, ez jóval lassabban halad, mint az új és komplexebb NN-ek fejlesztése, amiknek a megfejtése meg jóval kilátástalanabb feladat eleve. Szóval az olló csak nyílik.

    Persze van az az ötlet is, hogy csinálunk egy másik AI-t, és majd az kitalálja, hogy az ellenőrzött AI rejt-e magában nem kívánatos dolgokat. Csak mi van, ha az fundamentálisan nehezebb feladat, mint amit az ellenőrzendő AI megoldana... Akkor megint nyílik az olló, hacsak nem gyakorlunk önmérsékletet a haladás ütemében (ami ugye nem jellemző, a gyilkos verseny miatt).

    Meg aztán, ez olyan, hogy lehet, hogy ha van rá sok évtizedünk, miután lettek erősebb AGI-ok, akkor sok kudarc után rájövünk hogyan kell ezt jól csinálni. Ez általában így van minden területen. Csak van az apró bökkenő, hogy túl sok próbálkozási lehetőséged itt nincs, ha a kudarc fatális lehet.

    Továbbra is nszvsz a fő remény az, hogy rohadtúl nem tudunk még ilyen AGI-okat csinálni nagyon sokáig. És mire igen, addigra megváltozik a lelkületünk, vagy akármi más miatt ez kontrollálhatóbb lesz. (Vagy előbb kihalunk más miatt, és akkor tárgytalan, de ez nem egy pozitív jövőkép...)

    [ Szerkesztve ]

Új hozzászólás Aktív témák