Új hozzászólás Aktív témák
-
5leteseN
aktív tag
-
5leteseN
aktív tag
Ha jól értem (döcögős angolommal), a VRAM érték után ott kellene lennie, hogy milyen GPU-t használ. ...vagy a CPU-t?
Ha neked az elég jó teljesítményű AMD-vel lassú, akkor erősen gyanús, hogy nem azt használja, hanem a CPU-val dolgozik.
A terminálban meg kellene keresned azt a részt amit idéztem a CPU-ba töltős "valami"...
Most jutott eszembe: ezeket betetted az indító *.bat-ba?
.\python_embeded\python.exe -m pip uninstall torch torchvision torchaudio torchtext functorch xformers -y
.\python_embeded\python.exe -m pip install torch-directml
.\python_embeded\python.exe -s Fooocus\entry_with_update.py --directmlEzt most próbálom, hogy javít-e a helyzeten?
--use-split-cross-attention
[ Szerkesztve ]
-
bbmt
senior tag
válasz 5leteseN #353 üzenetére
Igen, beleraktam.
A CPU 16%-on volt a GPU meg 99%-on, ezek szerint nem a procit használta.Most nincs cpu sor csak ennyi:
[Parameters] Adaptive CFG = 7
[Parameters] Sharpness = 2
[Parameters] ADM Scale = 1.5 : 0.8 : 0.3
[Parameters] CFG = 4.0
[Parameters] Seed = 3753901617140569632
[Parameters] Sampler = dpmpp_2m_sde_gpu - karras
[Parameters] Steps = 30 - 15A kanál a gyengék villája
-
-
5leteseN
aktív tag
Nézem én is az Mp3Pinyo csatornán, a videókban, és a VRAM beállításra adott Gugli-eredményeket is bogarászom, de nem nagyon van másnak ilyen problémája.
Lehet, hogy ismét berakom a gépbe a házi-múzeumból a GTX 960-as nV-t, mert azzal kapásból
menteldöcögött.
Örültem volna, ha ezzel a 3-4-szeres teljesítményű és dupla VRAM-os AMD-vel is megy, de eddig ...[ Szerkesztve ]
-
Mp3Pintyo
aktív tag
Itt a lista és a példaképek arról, hogy miket választhatsz ki:
https://stable-diffusion-art.com/sdxl-styles/https://www.youtube.com/mp3pintyo AI, Mesterséges Intelligencia, Képkészítés tutorialok, bemutatók
-
Mp3Pintyo
aktív tag
-
-
Mp3Pintyo
aktív tag
válasz 5leteseN #363 üzenetére
A Krita esetén ha a pluginre gondolsz az azért más mivel a ComfyUI adja a szerver hátteret.
A ComfyUI-nak is nagyon jól van dokumentálva hogyan kell AMD kártyára telepíteni.https://www.youtube.com/mp3pintyo AI, Mesterséges Intelligencia, Képkészítés tutorialok, bemutatók
-
5leteseN
aktív tag
válasz Mp3Pintyo #366 üzenetére
Igen, kösz a segítséget, emlékeztem, hogy valahol a szokásostól eltérő érték kell, csak nem jutott eszembe, hogy melyiknél, nem bírom a tempót !
Akkor ez a CFG érték a Fooocus-nál maradhat a 7-es érték, nem az okozza a gondot.
Akkor én/mi keressük tovább a megoldást erre az AMD-VGA-k problémájára...
[ Szerkesztve ]
-
Mp3Pintyo
aktív tag
válasz 5leteseN #370 üzenetére
1. Live lekapcsolása . katt a pause gombra.
2. legördülő menüben a Live helyett válaszd a generate lehetőséget
3. LCM mód helyett válaszd mondjuk a Cinematicot.
4. Generate gomb
5. A legenrált 4 képből válaszd ki ami kell
6. File menü Exporthttps://www.youtube.com/mp3pintyo AI, Mesterséges Intelligencia, Képkészítés tutorialok, bemutatók
-
phrenetiX
junior tag
Sziasztok! Elkezdtem kisérletezgetni a Fooocus-szal. Melyik stílust lenne érdemes használni, ha a legjobb, valósághű tájképek generálása lenne a célom?
3 db Casio óra eladó (2 db G-Shock, 1 db Edifice)
-
-
-
Geller72
veterán
Fooocusból melyiket használjátok? Az oldalon annyi free ai image generator van, hogy nem tudom, melyik a jó.
-
Mp3Pintyo
aktív tag
válasz Geller72 #378 üzenetére
Mire gondolsz? A Fooocusból csak egy van: https://github.com/lllyasviel/Fooocus
Mindig frissítsd rá a legújabbra. Minek az oldalán van sok free image generator?
Magyar tutorialt pedig itt találsz róla:
Saját gépen futó: https://youtu.be/Jy26FAurvks
Google Colab változat: https://youtu.be/VVU2aPhxHW4
Fooocus generálás majd nagyítás és hibajavítás: https://youtu.be/b0ivgFzU5SA
Fooocus haladó: https://youtu.be/C1UQHvEFZH8https://www.youtube.com/mp3pintyo AI, Mesterséges Intelligencia, Képkészítés tutorialok, bemutatók
-
5leteseN
aktív tag
válasz Mp3Pintyo #373 üzenetére
Köszönöm!
Kicsit később nézem, mert most gép-takarítást végzek: gyanúsan kezd összeakadni a sok keresztbe-kasul telepített AI-s program és azok Python-jai és egyebei.
A pár nem tetsző és nem sikerült AI-t leszedem, és megy vissza a Fooocus, Krita, és szerintem még vmelyik Comfyui.
A Oogabooga is marad vagy újratelepül szerintem.
A Whistler hibátlanul dolgozik, bár csak részfeladata van(feliratozik), de azt nálam kiválóan végzi!Közben frissült is a Krita generatív AI-ja.
Ha maradt volna a korábbi telepítés, akkor magától frissítette volna?[ Szerkesztve ]
-
Mp3Pintyo
aktív tag
válasz 5leteseN #380 üzenetére
Igen, tudom, többek között észrevettem én is egy hibát és azt is javította miután szóltam
Nekem nem frissült, letöltöttem a zip fájl és felülírtam az előző telepítést.
Oogabooga helyett az LM Studio egyszerűbbhttps://www.youtube.com/mp3pintyo AI, Mesterséges Intelligencia, Képkészítés tutorialok, bemutatók
-
-
-
consono
nagyúr
Értettem, és igazad is van
5leteseN Az 1 GB VRAM használatra AMD-n megpróbálhatnád a Fooocus run.bat-jába beletenni a --normalvram kapcsolót a a xxxx.py mögé. Nekem így indulásnál már azt mondja, hogy NORMAL_VRAM módban megy, de generálásnál még mindig azt mondja, hogy loading in lowvram mode és csak 2GB-t használ, pár pillanatra meg fel a képgenerálás végén 4-re. MAjd még nézegetem.
"In God we trust. All others must bring data"
-
5leteseN
aktív tag
-
5leteseN
aktív tag
A Fooocus-szal nem volt semmi gond, amíg nem váltottam az AMD-re. Csábító volt a 3-szoros teljesítmény és a dupla VRAM.
Meg is van, mióta kicseréltem, csak azóta a Fooocus nem indul
Az is jó volt pedig, jól eljátszogattam vele a Cyberpunk-stílusú képekkel ...Azon gondolkodom, hogy visszateszem az AMD-VEGA mellé a GTX 960-at is. 5W fogyasztás, amikor nem dolgozik. Remélem találok tápkábelek hozzá.
Ma kicsit elhavaztam, de nézem majd azt a --NORMALVRAM-ot.
...és .Nálad pontosan hogy néz ki a run.bat-ban a kiegészítés?
[ Szerkesztve ]
-
-
5leteseN
aktív tag
"Modern-Világ"
Biztos, hogy ilyen lovat akartam?
Kiegészítettem a run_AMD.bat állományomat:
--------------------------------------
.\python_embeded\python.exe -m pip uninstall torch torchvision torchaudio torchtext functorch xformers -y
.\python_embeded\python.exe -m pip install torch-directml
.\python_embeded\python.exe -s Fooocus\entry_with_update.py --directml.\python_embeded\python.exe -s Fooocus\entry_with_update.py --normalvram --use-split-cross-attention
pause
----------------------------------------Ezt is javasolták: --use-split-cross-attention
...nyomtam az ENTER-t, és:
----------------------------------
\Fooocus>.\python_embeded\python.exe -s Fooocus\entry_with_update.py --directml
Already up-to-date
Update succeeded.
[System ARGV] ['Fooocus\\entry_with_update.py', '--directml']
Python 3.10.9 (tags/v3.10.9:1dd9be6, Dec 6 2022, 20:01:21) [MSC v.1934 64 bit (AMD64)]
Fooocus version: 2.1.824
Running on local URL: http://127.0.0.1:7865
To create a public link, set `share=True` in `launch()`.
Using directml with device:
Total VRAM 1024 MB, total RAM 65458 MB
Set vram state to: NORMAL_VRAM
Disabling smart memory management
Device: privateuseone
VAE dtype: torch.float32
Using sub quadratic optimization for cross attention, if you have memory or speed issues try using: --use-split-cross-attention
Refiner unloaded.
...
--------------------------------------A vége mondjuk ez:
-----------------------------------
Fooocus V2 Expansion: Vocab with 642 words.
Fooocus Expansion engine loaded for cpu, use_fp16 = False.
Requested to load SDXLClipModel
Requested to load GPT2LMHeadModel
Loading 2 new models
App started successful. Use the app with http://127.0.0.1:7865/ or 127.0.0.1:7865
------------------------------------------------------Akár jó is lehet.
Nézzük a "Girl on street" klasszikust:
----------------------------
return tensor.to(device, copy=copy).to(dtype)
RuntimeError: Could not allocate tensor with 117964800 bytes. There is not enough GPU video memory available!
Total time: 45.18 seconds
--------------------------------------------------Ehy kép generálást állítottam be és legkisebb felbontásúra tettem a képméretet:
-----------------------------------------
... \Fooocus\Fooocus\backend\headless\fcbh\model_management.py", line 532, in cast_to_device
return tensor.to(device, copy=copy).to(dtype)
RuntimeError: Could not allocate tensor with 117964800 bytes. There is not enough GPU video memory available!
Total time: 10.42 seconds
----------------------------------------------Az sem sejtetett sok jót nekem, hogy a Firefox-os saját szerveres Fooocus oldal így nézett ki
... amikor működött, közepén megjelent egy a kis állapotjelző szimbólum. Amióta nem működik a Fooocus, azóta a középen látható "hiányzó elem" szimbólum látható a helyén.
Ez csak érdekesség volt.
-
consono
nagyúr
válasz 5leteseN #392 üzenetére
Szerintem ezt a sok kapcsolót egybe kellene, nem külön sorokba, szóval a --directml mögé tedd be , hogy --use-split-cross-attention.
Vedd ki az utolsó sort és így módosítsd az előtte levőt:.\python_embeded\python.exe -s Fooocus\entry_with_update.py --directml --use-split-cross-attention
A --normalvram-ot elengedheted, utána is csak 1GB-t mond...
A Fooocus nálam is ilyen és működik, ikon nélkül, szerintem az nem para.
"In God we trust. All others must bring data"
-
5leteseN
aktív tag
Valamit betölt a VRAM-ba, mert amikor elindítom a generálást, akkor az addig 0,7GB-os VRAM foglaltság felmegy 7,8-ra(8GB van), majd elszáll, ez az első hibaüzenet:
[Sampler] sigma_min = 0.0291671771556139, sigma_max = 14.614643096923828
Requested to load SDXL
Loading 1 new model
ERROR diffusion_model.output_blocks.1.0.in_layers.2.weight Could not allocate tensor with 117964800 bytes. There is not enough GPU video memory available!
ERROR diffusion_model.output_blocks.1.1.transformer_blocks.1.ff.net.0.proj.weight Could not allocate tensor with 52428800 bytes. There is not enough GPU video memory available! -
5leteseN
aktív tag
-
consono
nagyúr
válasz 5leteseN #396 üzenetére
Azt még próbáld ki, hogy ezt beteszed a run.bat elejére, hátha:
set PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.5,max_split_size_mb:128
set COMMANDLINE_ARGS=--opt-split-attention --precision full --always-batch-cond-uncond --disable-nan-check --api --lowvram --no-half --no-half-vae --sub-quad-q-chunk-size 256 --sub-quad-kv-chunk-size 256--sub-quad-chunk-threshold 75 --use-cpu interrogate clip --no-hashing
set SAFETENSORS_FAST_GPU=1HA így megy megpróbálhatod kicserélni a --lowvram -ot --medvram -ra
[ Szerkesztve ]
"In God we trust. All others must bring data"
Új hozzászólás Aktív témák
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Könyvajánló
- Apple Watch Sport - ez is csak egy okosóra
- Steam topic
- Vodafone otthoni szolgáltatások (TV, internet, telefon)
- Battlefield 2042
- Garmin Forerunner 165 - alapozó edzés
- Autós topik
- Videó stream letöltése
- Android alkalmazások - szoftver kibeszélő topik
- További aktív témák...
- -62% HP EliteBook 845 G7 (840 G7):Ryzen 5 4650U,16GB,512GB SSD,vilI.MAGYAR bill.,Bang&Ol.,Win11ProHU
- Több db HP Thunderbolt dock 230W G2 230W -os töltővel MONITORCENTER
- Philips Evnia 42M2N8900 Gamer Oled Monitor!42"/4k/138hz/0,1ms/Freesync-Gsync/HDMI 2.1/TypeC/Ambiglow
- -56% HP EliteBook 840 G8:i7 1165G7,16GB RAM,512GB NMVe SSD,Iris Xe,IR kam.+ujj.olv.,vil.MAGYAR bill.
- Monitortató plexi konzol több elérhető készletről MONITORCENTER