Hirdetés
Új hozzászólás Aktív témák
-
Zizi123
senior tag
válasz
consono #1835 üzenetére
Rengeteg lehetőség van, hogy miért nem lesz belőle semmi.
- 2 év múlva már elavult lesz.
- A kutya nem fogja venni a szoftveres támogatás hiánya miatt.
- Megveszi másik sokkal nagyobb piaci szereplő.Nem véletlenül nincs más piaci szereplő a nagyokon kívül évtizedek óta.
Amikor Kína (ahol ilyenekre pénz nem számít) is saját gyorsítón dolgozik, és nincs még kézzel fogható eredménye, akkor majd jön a semmiből 1 úriember, és bejelenti a tutit...
Hááát nem tudom....
Gyanum szerint a nagyok már régen tudtak erről, csak éppen nem tartották életképes ötletnek, és nem vásárolták meg már régen. -
Zizi123
senior tag
válasz
S_x96x_S #1829 üzenetére
Akkor jól láttam, hogy olyan, mintha notebook memóriával lehetne bővíteni, na de itt ez már probléma is, hogy az viszont nem gyors....
Tehát ha hiszünk abban, hogy a memória mennyiség mellett, a memória sávszélesség a legfontosabb a nagy LLM-ek használata közben, akkor ez eleve kizárja azt, hogy világverő legyen.
Ha jól gondolom, akkor a 12 csatornás Pl Epyc szerverek memória sávszélessége 576 GB/s, ami "duplája" ennek a tervezett kártya a sávszélességének, és arra jutottunk, hogy a dual Epyc szerver alkalmatlan a nagy nyelvi modellek futtatására, mert tetű lassú.
A Mac Studio M3 Ultra 819GB/s, az RTX 4090 1008GB/s, H100 NVL 3.9TB/s.
Most 2025 elején...
2027 elején már nem ezek a számok lesznek.Tehát nem teljesen vágom, hogy is lesz ez világverő, de nyilván csak valamit nem vettem figyelembe.
-
Zizi123
senior tag
válasz
S_x96x_S #1819 üzenetére
Ha lenne annyi mFt-om amennyi ilyen ígéretes világmegváltó kártyából nem lett semmi...
Mivel bővíthető egyébként, milyen memóriával?Arról nem is beszélve, hogy az még durván 2 év mire ebből leghamarabb lesz valami. Kicsit csúszik majd, és mire piacra kerülne lesznek sokkal jobbak, és így el sem kezdik gyártani...
-
Zizi123
senior tag
Szerintem az emberek 1 csomó olyan dolgot kérdeznek az AI-tól amire a Google is kidobja az "eredményt", mégsem azt használják, pedig könnyebb lenne, mint python egysorost írni...
Egyébként meg nyilván nem a végeredmény volt a fontos, hanem gondolkodás tesztelése.Amikor Zsolt felteszi a klasszikus kérdést, hogy "1 kerek asztalnál az embertől jobbra, és balra is 5-en ülnek, akkor mennyien ülnek összesen az asztalnál?" Őt sem az érdekli, hogy mennyi az eredmény, hanem, hogy jó-e, megtudja-e oldani, tud-e gondolkodni...
[ Szerkesztve ]
-
Zizi123
senior tag
Nem az a cél, hogy okosabb legyen az AI az embernél, olyan dolgokat fedezzen fel, amit az ember még fedezett fel, és olyan problémákat oldjon meg amit eddig az embernek nem sikerült?
Azért az elég fura, hogy 1 olyan rendszertől várjuk ,hogy megváltsa a világot, új dolgokat találjon ki, fedezzen fel, ami arra pont nem alkalmas, hogy "r" betűket megszámoljon.
Ellenben bármikor tud olyan programot írni, ami megszámolja az "r" betűket...
Hát ez elég érdekes...Ami még érdekes,. hogy a válaszadó LLM-ek 1 része "Reasoning", tehát nagyon gondolkodik, nagyon érvel, nagyon ellenőriz, és mégis hülyeséget mond????
Hát ez fura nekem. -
Zizi123
senior tag
válasz
S_x96x_S #1797 üzenetére
Bár a tenyérben elfér-t jelképesen értettem, és nem raktam " " jelek közé azért a 7cm-es méretkülönbség nem 1 kardinális különbség, nekem kis tenyerem van, de a kb 20cm még nekem is elférne benne....
Mac Studio:
Magasság: 9,5 cm
Szélesség: 19,7 cm
Mélység: 19,7 cmMacMini:
Magasság: 5 cm
Szélesség: 12,7 cm
Mélység: 12,7 cmEllenben a Supermicro Dual Epyc szerverével szemben ami
Magasság:: 178 mm
Szélesség: 437 mm
Hosszúság: 737 mm1 Epyc CPU hűtő majdnem olyan nehéz, mint maga a Mac Studio...
-
Zizi123
senior tag
válasz
S_x96x_S #1790 üzenetére
Háááát akkor nagyon úgy néz ki, hogy ez lesz a befutó a DeepSeek R1 Q4 lokális futtatására a Dual Epyc, vagy hibrid rendszer helyett, és még árban is partiban van a csak CPU-s megoldással.
Teljesítményben viszont biztos, hogy sokkal gyorsabb, de azért kíváncsi lennék mennyivel...Várom a review-kat róla...Azért vicces, hogy 1 tenyérben elfér, és sokkal gyorsabb lesz, mint a minimum 1kw-ot evő 2U-s szerver...
[ Szerkesztve ]
-
Zizi123
senior tag
-
Zizi123
senior tag
válasz
5leteseN #1611 üzenetére
Ez senkit nem érdekel sajnos. Se a költsége, se a fenntartása, se az üzemeltetése se semmi. A lényeg, hogy a pénz el legyen verve.
Persze megy a sírás folyamatosan, hogy nincs pénz.Mai új ötlet:
20mFt-ért SolidWorks workstation WTF?????
1TB RAM !!!! A létező legelvetemültebb konfiguráló cég sem rakott még bele 128GB-nál többet. Jellemzően 32GB, vagy max 64GB RAM-ot javasolnak.
De nem értem meg, hogy csak ezen tudnak dolgozni????[ Szerkesztve ]
-
Zizi123
senior tag
válasz
5leteseN #1609 üzenetére
A DeepSeek 671B Q4 404GB
Eddig is volt kisebb pl. LLama 3.1 ami benchmark %-ban, tudásában alig marad el a V3 -tól.
De az nekünk már nem jó, mert elavult, az R1 az igazi...Mondjuk azt nem teljesen értettem amikor magyarázták, hogy miért is kell nekünk a Reasoning amikor dokumentumokban akarunk kerestetni konkrét adatokat. Miért is kell az érvelés.
Amikor mondtam nekik, hogy akkor kb az kell nekünk mint a NotebookLM, csak lokálisan, és a DeepSeek LLM-el, akkor azt mondták, hogy "Igen, feldolgozott dokumentum halmazon célzott rövid kérdések (nem RAG hanem a teljes dokumentumon értelmezett kérdés).[ Szerkesztve ]
-
Zizi123
senior tag
-
Zizi123
senior tag
Minél többet olvasok annál bizonytalanabb vagyok.
"I have 2x 9684X + 24x 64G DDR5 4800
unsloth/DeepSeek-R1-Q4_K_M quantised model
3.5 tokens per second when I pin 12 threads to one CPU (one thread per CCD) using latest llama.cpp,"Az tuti, hogy itt a CPU nem korlátozó. És ez csak Q4
-----------------------------------------------------------------
"Paradoxically, LLM more likely to be faster with one CPU vs few CPUs because of NUMA.
NUMA bandwidth between CPUs is usually 15% - 50% the RAM bandwidth."Szuper mire azt hittem, hogy tuti dual CPU kell.....
------------------------------------------------------------------https://www.reddit.com/r/LocalLLaMA/comments/1ilzcwm/671b_deepseekr1v3q4_on_a_single_machine_2_xeon/?rdt=55198
Erre olvasom ezt ahol meg már hybrid rendszer a tuti, de csakis Xeon-okkal az AMX utasításkészlet miatt
-
Zizi123
senior tag
Próbáltam utána nézni, de nem sokan vetemedtek ilyenre, hogy ekkora modell-t CPU-n futtasson.
Azért vicces volt, hogy a DeepSeek R1 Q4 azon a nagyon bonyolult kérdésen, hogy hány "r" betű van a "strawberry" szóban elgondolkodott vagy 1,5 percet.(5 tokenes sebességgel válaszolt)..Mindezt ha jól rémlik Dual Xeon + 768GB RAM mellett....
Volt olyan kérdés ugyanezen a gépen, ami 1 tokenes válasz alá esett.
Az egyik fórumozó azt írta, hogy ugyanez a feladat H100-as konfigon 4100+ tokenElég jelentős különbségnek mondható
De majd ha semmire nem lesz jó, akkor elmondhatom, hogy "Én megmondtam...."
-
Zizi123
senior tag
válasz
5leteseN #1590 üzenetére
Hááát igen, ezek a nagy kérdések.
Én is azt tapasztaltam, és olvastam, hogy a dual CPU közel sem 2x sebesség, arról nem beszélve, hogy drágább is maga a rendszer. Már a CPU is, de utána az alaplap a ház, valószínűleg a táp is...
A kérdés, hogy nekem szükségem van-e rá.
Mert ha 1db 64 mag 128 szálas CPU kiszolgálja bőven, akkor nem szórakozok 2x32 maggal drágábban.[ Szerkesztve ]
-
Zizi123
senior tag
válasz
S_x96x_S #1582 üzenetére
DeepSeek 761B Q8 (720GB) vagy Q4 (404GB) futtatása lenne a feladat.
12 csatornás EPYC-re gondoltam. Minden porcikám tiltakozik ellene, de ez a kiadott feladat.
Mivel pénz nem sok van (mert ha sok lenne, akkor volna GPU-ra is)
A kérdés pl arra irányult volna, hogy van-e tapasztalat, hogy a CPU-t mennyire kell kimaxolni.
Csak mert ha a memória sávszélesség lesz a szűk keresztmetszet, akkor teljesen mindegy, hogy 2x 64 magos EPYC van benne, vagy csak 2x 32 esetleg 2x 16.
Ahogy nézem a szóba jöhető CPU-k a AMD EPYC™ 9005 széria lehet a 6000Mhz-es RAM-ok miatt.
2x Epyc 9135
2x Epyc 9355
esetleg iszonyatosan indokolt esetben 2x Epyc 9555.De az is kérdés, hogy egyáltalán a dual CPU előny-e, mert tesztekben panaszkodtak, hogy az LLM modellel való dolgozáskor is meglévő jelenség, hogy a 2 CPU terheltsége nincs szinkronban.
Tehát lehet, hogy jobban járnék 1db 64GB core-os CPU-val, mint 2x32 Core-al?Esetleg erre tapasztalat?
-
Zizi123
senior tag
Sziasztok, esetleg van valakinek tapasztalata LLM csak CPU-n való futtatásával?
Mennyivel lassabb, mint ha GPU-n futtatnám. Köszönöm. -
Zizi123
senior tag
Hamár ennyire belemerültetek a fordítás / beszéd felismerés témakörbe, akkor volna olyan kérdésem, hogy van-e már olyan szoftver amivel pl Discordon amikor játék közben random játékosokkal játszok, akkor tudjak velük "bármilyen" nyelven "beszélgetni".
Bármilyen nyelv: jellemzően angol, orosz, német
Beszélgetni: FPS játékok, tehát szerintem kb 20 szóban kimerül egyébként a beszélgetésTehát én magyarul mondom ők adott nyelven hallják kvázi tolmács progi.
[ Szerkesztve ]
-
Zizi123
senior tag
válasz
S_x96x_S #1420 üzenetére
Az RTX 4060 TI low cost gamer kártya, ami nem speciálisan AI-ra lett fejlesztve., mint az M4 Pro. (vagy mint amennyire az M4 PRo-nál rá voltak gyúrva)
Viszont sebességben elveri az M4 Pro-t, mert minden +16GB RAM-ért kapsz 1 újabb RTX 4060 16GB-ot."MacBook Pro -n ( kimaxolva 128GB-ra )"
Az már 2,2m fölött van az már igencsak az a kategória, amikor ha valakinek van 2.2m AI-ra gépe, akkor akad ott 3m is, és akkor mér lehet tényleg olyat venni ami tényleg gyors.
(Bár csak 48GB RAM lesz a GPU-n.)Mondjuk az más kérdés, hogy mit kezd a 100MB-os modelllel a MacBook Pro, mert bár 128GB-val meg tudja nyitni, de a sebessége az a 11 token elég lightosnak tűnik.
-
Zizi123
senior tag
válasz
Zizi123 #1417 üzenetére
Akkor ez azt jelenti, hogy otthon "amatőr" szinten el lehet "játszadozni" a MacMini M4 Pro 64Gb-al (1mFt+ -ért) (5,69token), csak nem lesz gyors. Vagy ugyanezt a feladatot megtudod oldani 4db NVIDIA GeForce RTX 4060 Ti 16GB-el sokkal olcsóbban és gyorsabb 4-5x. (mondjuk ha az áram ingyé van, vagy van napelemed (és ingyé van))
Mondjuk amit nem teljesen értek, hogy ami szükséges:
1db 48Gb-os kártya
2db 24Gb-os kártya
4db 12GB-os kártya
4db (????) 16GB-os kártya (miért nem elég a 3?) -
Zizi123
senior tag
válasz
consono #1413 üzenetére
Aki AI-val foglalkozik nem érdekli a fogyasztás
Akinek telik 1,5mFt-os Mac-ra annak valószínűleg telik a villanyszámlára is.
Pl. Nálunk még soha senkit nem érdekelt, hogy az Nvidia H100-asaink mennyit esznekMennyibe kerül?
Ha megveszed a MacBook Pro-t RAM bővítéssel 48GB-ra, annyiból a 4090 konfig simán kijön 64GB RAM-al. (ami igazából 64GB+24GB)
Arról nem beszélve, hogy ugye az Apple-nél mivel a rendszer memória közös a GPU memóriával, így 1 nagyobb modellhez minimum 48GB-ra kell bővítened az Apple-t ami nagyon nem olcsó. Ugye arról nem is beszélve, hogy ha betöltesz 1 40GB-os modell-t akkor a MacOS is küzdeni fog a maradék 8GB-al, tehát ajánlott a 64GB.Tehát tagadhatatlan, hogy az Apple-nek van olyan amikor van előnye, de igen magas áron, és speciális körülmények között.
-
Zizi123
senior tag
válasz
S_x96x_S #1411 üzenetére
Akkor ezek szerint a channels és a controllers ugyanaz?
Csak mert a dual, quad, eight channels rendszerekbe ugye annyi darab memóriát kell rakni ahhoz, hogy kihasználja a rendszer sebességét.
Az Apple-né viszont 1-2db memória modul van max, és az tud 16, 24, 32 channelt???"kétcsatornás DDR5 memória ;
2x64 = 128 bit ; vagyis annyi tudhat mint az alap M4
és kevesebbet mint az "M4 Pro"
Ez azért fura, mert ahogy írtam is jelen pillanatban a létező leggyorsabb DDR5 memória modulok tudnak 40GB/s-et. azért nagyon elmarad a 120GB/s-től.Sajnos az Apple memória sebességről semmit nem lehet találni, hogy milyen gyors, mekkora a tényleges átviteli sebessége.
Visszatérve az AI-ra:
A Geegbench AI alapján:Single Precision (FP32) score:
M4 Pro 5.770
RTX 4090: 42.338Half Precision (FP16) score:
M4 Pro: 38.425 (RTX 4070 szint)
RTX 4090: 56.949Quantized (INT8) Score:
M4 Pro: 51.440
RTX 4090 31.147Tehát nagyon jó az Apple proci, főleg, hogy tartalmazza a GPU-t is, de 1 ugyanolyan árú PC-vel csak bizonyos AI feladatok esetén tudja felvenni a harcot.
[ Szerkesztve ]
-
Zizi123
senior tag
válasz
S_x96x_S #1409 üzenetére
Értem, csak senki nem beszélt eddig notebookról.
Emlékeim szerint MacMini-ről, mini PC-ről volt szó utána én hoztam fel a PC-t, mint alternatív megoldást a MacMini helyett.Viszont még mindig nem értem, hogy a memória sebessége a controllerek számától függ?
Tehát a memória végtelen sebességű, csak attól függ a gyakorlati sebessége, hogy mennyi controller van a gépben?
Én eddig azt hittem, hogy maga a memória modulnak , a rajta levő chipnek van 1 sebessége. De akkor ezek szerint nem.
Pl az Intel i5-14500 CPU-ban mennyi memória controller van? -
Zizi123
senior tag
válasz
S_x96x_S #1392 üzenetére
Bocs tényleg benéztem, hogy 16GB RAM van benne, így 100et-al olcsóbb, mint írtam.
Viszont amit írtál csak részben igaz."A gyors egyesített memória sebessége eléggé fontos, és egy M4 PRO-s 273GB/s of memory bandwidth -et lehetetlen összehozni 2 csatornás DDR5-ből."
Ez így igaz, ahogy az Apple sem tudja összehozni szerintem. Ez max 1 elvi sebesség lehet, mert maga a DDR5 memória nem tud annyit amit használ az Apple is. A csúcs DDR5 memóriák tudnak 40GB/s körül olvasni az LPDDR5 viszont nyilván nincs a közelébe ennek. Ha DDR5-ből csinál GPU memóriát, akkor annak kellene lennie a gyenge láncszemnek.
Vagy valamit nagyon félreértek.Nem túl sportszerű mobil GPU-val hasonlítgatni a MacMini-t
Ha a 4070 Ti-vel, vagy Ti Super-al hasonlítjuk összes akkor már nagyon csúnyán alúlmarad a MacMini a az RTX 4070 GPU-k 672.3 GB/s memória sávszélességhez képest.
Vagy az RTX 4080 Super 736MB/s-jéhez képest.Igen ezek csak 16GB-os kártyák azt nem tudom, hogy tudnak-e az AI alkalmazások több kártyát használni egyszerre, pl a (ComfyUI biztos nem, mert azzal szórakoztam én is, de azt írják, hogy csak 1 kártyát tud kezelni egyszerre)
Tehát azért 1 próbát megérne, hogy az említett 48GB-os modell-t ha betöltöd az milyen sebességgel dolgozik, a LPDDR5 memória visszafogja-e vagy sem ...
De persze ez józan paraszti logika, símán lehet, hogy nem így működik a dolog.
Írdd már meg légy szíves ha nem stimmel a gondolkodásom.[ Szerkesztve ]
-
Zizi123
senior tag
válasz
Mp3Pintyo #1389 üzenetére
Hát nem tudom, de a 8GB RAM, nem tűnik túl acélosnak az alapmodellben.
Ráadásul max 32GB-ra bővíthető +200e-ért.
A 256GB SSD is nagyon kevés még az én AI könyvtáram is jóval nagyobb, pedig nagyon hobbi szinten nyomom. Természetesen +100 +200 +400e-ért bővíthető ez is.
De ha akkor meg már 700e-ért olyan PC-t lehet kapni ami agyonveri a Macmini-t...[ Szerkesztve ]
-
Zizi123
senior tag
Van vagy 1000 könyvem, van-e olyan ingyenes AI, ami a fénykép alapján csinál belőle 1 adatbázist pl excel-be, író, cím alapján rendezve? Fizetősben tuti, hogy van, mert valamelyik youtuber demonstrálta ezt vele.
Előre is köszönöm. -
-
Zizi123
senior tag
Tudja valaki, hogy mi van a ComfyUI-al? Máskor 1-2 naponta frissítették most meg lassan 1 hónapja semmi. Készen van???
Vagy már nem menő van helyette valami más valami jobb? -
Zizi123
senior tag
válasz
Mp3Pintyo #1114 üzenetére
Most az általad javasoltat haszálom a DualClip Loader-ben:
ViT-L-14-BEST-smooth-GmP-TE-only-HF-format.safetensors
és
google_t5-v1_1-xxl_encoderonly -t használtam napokig, amióta javasoltad a Smooth verziót.Előtte pedig hónapokig:
google_t5-v1_1-xxl_encoderonly
és
clip_l.safetensors valami 246GB-os alapot.Tehát működik merem állítani, az igaz, hogy nem gyors, mert kb 1,5- 2 perc legenerálni 1 képet, de ráérek.
Tehát mire tudnám kiváltani az Encoder verziót ami jó lenne a Smooth mellé?
Szerintem simán el lehet menni 5GB-ig, de valószínűleg 10GB-ig is, mert mintha már generáltam volna valamit így, hogy nincs egyesítve a 2 model-00001 és model-00002. safetendors file. -
Zizi123
senior tag
válasz
Mp3Pintyo #1104 üzenetére
Most vettem észre, hogy eddig ezt használtam régóta, és nem is értem, hogy miért, amikor csak képgenerálásra használom most éppen a ComfyUI-t: google_t5-v1_1-xxl_encoderonly
Gondolom ez az "encoderonly" nem erre van kitalálva...
Mivel csak 8GB-os GPU-m van, így ezt töltöm le helyette:
https://huggingface.co/theunlikely/t5-v1_1-xxl-fp16/tree/mainDe bármilyen tanácsot elfogadok, hogy mit használjak az "encoderonly" helyett.
Köszönöm. -
Zizi123
senior tag
Sziasztok!
Nagyon amatőr kédrés, de a "00001-of-00002.safetensors" és "00002-of-00002.safetensors" fileokat egyesíteni kell, hogy használni tudjam ComfyUI alatt?
Ha igen, akkor hogyan?
Vannak nagyobb modellek amit csak szétdarabolva tudok letölteni.
Köszönöm. -
Zizi123
senior tag
válasz
DarkByte #918 üzenetére
Köszönöm a tájékoztatást.
Viszont a kérdéseimről is tudnátok valamit mondani?
Miért ad más válasz ugyanarra a kérdésre mindig?
Miért betűnként írja ki, amikor nyilvánvalóan tudnia kell a választ már az első betűnél?Ezekre az, hogy nem angolul kérdezem nem magyarázat.
Az, hogy máshogy fogalmaz az lehet simán a választékosság miatt, de a lényeg (jelen esetben a személy) az ne legyen már emiatt.
Mintha megkérdezném, hogy mennnyi 5x5+10, és a változatosság kedvéért mindig más eredményt adna ki. (tudom, hogy nem erre való, csak a példa kedvéért.) -
Zizi123
senior tag
Átdugtam a monitort az integrált Intel GPU-ba, és gyorsultam 2,5 percet, és kaptam 1 újabb nevet
ollama run gemma2:27b --verbose
ki volt a Szegedi TudományEgyetem rektora 2020-ban? Csak a neve érdekel, mást szöveget ne is írjál.
Róbert Balogh
total duration: 7m24.033877sGondolom, hogy nem erre van az AI azért lehet ez, hogy 2x sem mondja ugyanazt ugyanaz a model. De ezek után miről merjem megkérdezni ahol nem számít, hogy igazat mond, vagy sem.???
-
Zizi123
senior tag
Hááát nem tudom, hogy mit gondoljak az egészről.
Én is telepítettem az Ollamat, tök jól működik. (sajnos csak az Ollama az összes többi fura.)
Minden AI modellnek beugróként felteszem ugyanazt a kérdést:
"Ki volt a Szegedi Tudományegyetem rektora 2020-ban?"
Ennyi az egész kérdés.A ChatGPt 3.5-nél kezdtem el kb fél éve ezt a "tesztet".
A ChatGPT 4.o votl az első ami tudta, hogy Dr. Rovó László. Azóta a Claudie 3.5 Sonett *** is eltalálta.
*** Először azt válaszolta, hogy nincs információja róla, mert csak 2024. áprilisáig van meg az adatbázisa....Amikor felvilágosítottam, hogy akkor a 2020-as információnak meg kell lennie bocsánatot, kért és kiírta a helyes választ.
Ezeken kívül teljesen random, hogy melyik milyen nevet ír ki. Jellemzően olyanokat akiknek semmi közük, és nem is volt soha semmi közük az SZTE-hez!!!
Amióta teleítettem az Ollamat rengeteg modell-t letöltöttem, és mindig megkérdezem azoktól is. Az eredmény ugyanez.
Mivel nincs erős gépem, így ha nagy modelt használok nagyon lassú a válasz, betűnként írja ki:
Pár példa:ollama run llama3:8b --verbose
>>> ki volt a Szegedi TudományEgyetem rektora 2020-ban?
A szakmai kérdés!
2020-ban a Szegedi Tudományegyetem rektorává Dr. Bajnóczi Ferenc lett.
total duration: 1.1367449s------------------------------------------------------------------------------------------
ollama run gemma2:latest --verbose
ki volt a Szegedi TudományEgyetem rektora 2020-ban?
A Szegedi Tudományegyetem rektora 2020-ban **dr. Székács Zoltán** volt.
total duration: 1m42.2215917s
--------------------------------------------------------------------------------------------
ollama run gemma2:27b --verbose
Ki votl a Szegedi TudományEgyetem rektora 2020-ban?
A rektor a Szegedi Tudományegyetemen **2020-ban**:
**Prof. Dr. László Kürti** was the rector of the University of Szeged (az "Egyetem" a "University"-t jelenti) in 2020.
total duration: 1h7m16.511192s
--------------------------------------------------------------------------------------------
1 perccel később ugyanaz:ollama run gemma2:27b --verbose
>>> ki volt a Szegedi TudományEgyetem rektora 2020-ban? Csak a neve érdekel, mást szöveget ne is írjál.
Róbert Ács.
total duration: 9m52.0053081s
--------------------------------------------------------------------------------------------Az 1 dolog, hogy semmelyik nem jó. Ezt engedjük is el.
Viszont ha 1 perc különbséggel megkérdezem ugyanazt, akkor miért kapok más eredményt???A másik, hogy miért betűnként írja ki a választ?
Amikor elkezdi írni a nevet, (Róbert Ács) akkor már nyilván tudja, hogy mit fog kiírni... Úgysem hiszem, hogy betűnként keresi ki, hogy R ó b e r t ...
Akkor miért nem írja ki egyből, hogy Róbert? Miért kell várnom még 5 percet az "R" betű után a "óbert"-re???Azt sem értem, hogy a töltelék szöveget, ami csak azért van, hogy egész / kerek mondatban válaszoljon: "A Szegedi Tudományegyetem rektora 2020-ban: " erre miért kell 20 percet vagy nagyobb model-nél 1 órát várni??? Ezt honnan keresi / generálja le betűnként???
Ez tökéletesen látszik az utolsó példán, hogy bár mind 2 válasz rossz, és furcsa módon különbözik, de ha nincs töltelék szöveg, csak 1 nevet kérek, akkor 1 órával kevesebb a válaszidő...
Valaki el tudja nekem magyarázni miért van ez?
Új hozzászólás Aktív témák
- Samsung Galaxy Tab S7 Plus 5G 6/128GB, Megkímélt, Kártyafüggetlen, Töltővel, Dobozzal, 1 Év Garancia
- Samsung Galaxy Tab S8 Ultra 5G 8/128GB, Megkímélt, Független, Töltővel, Dobozzal, 1 Év Garanciával!
- AKCIÓ!!! GAMER PC: Új i5-12400F/14400F + RX 7800 XT 16GB GDDR6 + Új 16-32GB DDR4! GAR/SZÁMLA!!!
- 1 db Samsung Galaxy A55 A556 5G 128GB GARANCIA
- Sony HT-A9 vezeték nélküli házimozi rendszer
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest