Új hozzászólás Aktív témák
-
XMI
csendes tag
"úgy paraméterezik, mintha fő szempont az lenne hogy fals infókat adjon"
Ugye technikailag ez egy szövegpredikciós modell. Az a célfüggvénye, hogy előállítson olyan szöveget, ami megkülönböztethetetlenül hasonló az emberi szövegekhez. Nem az a különleges, hogy "halucinál", hanem inkább az, amikor nem. Az összes tényanyag, amit tud, lényegében mellékhatásként került bele a modellbe a tanítóhalmazból. A probléma az, hogy mi emberek erre a "mindenttudó okoskatörp" képességére kaptunk rá. Ez nem egy szakértői rendszer, csak mi próbáljuk úgy használni, mintha az lenne.Nem nagyon lehet átparaméterezni ezt a képességét, ugyanis nincs olyan metrika a rendszerben, ami számszerűsíteni tudná, hogy mennyire konfidens az adott válaszban (egy szakértői rendszernél elvárás lenne, hogy tudjon egy %-os értéket mondani, hogy mennyire tartja megbízhatónak a választ). Ebben a modellben azt lehet mérni, hogy a soron következő token (kb egy szó) mennyire biztos, hogy oda illik. Azt nem, hogy az egész szöveg mondanivalója mennyire vezethető vissza a tanítóhalmazbeli konkrét tényállításokra, vagy egyszerűen csak szövegstatisztikai általánosságok alapján egy formailag korrekt, de állításaiban teljesen légbőlkapott szöveg adódott ki.
-
XMI
csendes tag
válasz konzumpro #10 üzenetére
A helyezt ennél bonyolultabb.
Egyrészt ez nem egy explainable AI, vagyis egy egyszerű kérdésre nem fogsz tudni kinyerni egy nyelvlogikai elemzést belőle. Nem fogja tudni megmondani, hogy miért pont azt a választ adta amit (ha mond is valamit, az ugyanúgy egy generált szöveg, aminek nem feltétlenül van valóságalapja). Ettől függetlenül (főleg a GPT-4-nél) a prompt-ot lehet ügyesen úgy megfogalmazni, hogy kikényszerítsen valamilyen megmagyarázható logikus szabálylevezetést. Ezekkel a trükkökkel sokszor jelentősen lehet is javítani a válaszainak a helyességén.
Másrészt a lényegi összesítés egy más jellegű feladat, mint rákérdezni valami lexikális ismeretre. A lényegi összesítésnél az előzmény-pufferben egzaktul bent van az alap-szöveg, amin dolgoznia kell. A GPT3.5-nél asszem 8000 tokenig visszamenőleg, a GPT-4-nél talán 30000 tokenig. Ez többtíz oldalnyi szöveg, amire pontosan vissza tud tekinteni. A lexikális kérdéseknél viszont nincs a pufferben előzmény, ami választ generál azt teljes egészében a neurális háló élsúlyaiból adódik ki. Ami egy erősen veszteséges, összevont, általánosított leképezése a tanítóhalmazban mutatott példáknak.
-
veterán
-
Dißnäëß
veterán
válasz konzumpro #23 üzenetére
Nem tudom, találgatunk mindannyian, de annyira amatőrnek nem gondolom a - nevezzük így - háttérben lévő köröket, hogy engedjék ezt a tech-et ilyen durván szabadon menni az elkövetkező években is, miközben ők tehetetlenül nézik. B, hogy leszerződnek ezekkel az említett nagyokkal, fű alatt, szigorú titoktartás mellett nekik ők fognak AI-t csinálni, úgy, hogy még saját maguk hasznára (adatelemzés stb) sem szabad majd, de egy Rheinmetall bármikor bejelentkezhet érte mondjuk, mert kormányzati engedélye van ilyen tech-et kérni és használni. Passz.
Lá lá lá lá lááá lááá.. Lá lá lá lá lááá lááá .. Lá lá lá lá lááá lá lááá lá lá lá lááááá láááá