Hirdetés
Új hozzászólás Aktív témák
-
BullZeye
veterán
Látom van Kodi Dockerhez, ezt próbálta már valaki, ez mire jó?
Eladó Yuka 1000 robotfűnyíró + sweeper!
-
-
Zsötie
tag
Sziasztok!
Segítsetek nekem légyetek szívesek. Én is a radarr és sonarr párossal küzdök, de nem más jellegű a gondom.
Nem tudom beállítani, hogy a konténerben futó sonarr lássa a megosztott mappát, amiben a sorozatok vannak.
Egy Xigmanas-on lévő Virtualbox-n fut az Ubuntu szerver, amin konténerben van a Sonarr.
A megosztott mappa, ugyan ezen a fizikai gépen van, a Xigmanas alatt.Automatikusan sehogy sem működik.
Manuálisan be tudom mount-olni a megosztást az Ubuntu szerveren, de ezt nem látja a konténerben futó sonarr. Itt akadtam el.
Köszi! -
szuszinho
őstag
Egy containerben van most minden, és csak úgy működik, ha nem az IP cím van az URL-ben.
Ami még nem megy, hogy az általam megadott mappába tegye a letöltött epizódokat.
/medi/HDD1TB/Torrent-ből kellene a /media/HDD1TB/Tvsow-ba.
A Remote Path Mappings-nál hiába adom meg az útvonalat, nem fér hozzá. Amennyiben a Torrent mappát adom meg a Remote Path Mappings-nál, akkor oda megcsinálja az összeített könyvtárat.
Milyen felhasználó alatt fut a sonarr? Melyik csoporthoz kellene hozzáadni? -
addikt
-
haddent
addikt
válasz szuszinho #88 üzenetére
Container != stack. A stack az egy, vagy több konténer összessége. Az az előnye, hogy pont a hasonló helyzetekre saját networkingjük van amiben közösen vannak, többek közt
Nem kell sem túlgondolnod sem túlbonyolítanod, egyelőre szerintem bőven elég annyit tudni a stackről, hogy simán a composeban a services -nél nem egy, hanem szépen több konténert felsorolsz, a többi automatikus
-
szuszinho
őstag
válasz instantwater #86 üzenetére
A sor végén is van ', csak lemaradt. A logban szerepel így.
Kezdjük előről. Stack nem mindig kell? Most úgy csinálom, hogy lehúzom az image fájl, és rögtön hozzáadok egy új stacket.
Törlök mindent, és megpróbálok egy containerbe tenni mindent. -
addikt
-
addikt
válasz szuszinho #84 üzenetére
Én most már nyitnék indítanék egy shellt a konténerben és curl/wgettel vagy csak pinggel megpróbálnám elérni a másik konténert.
Itt a portok bindelésével lesz baj.
Ha konténer névvel próbálod elérni az sem megy?
Hostról eléred?Úgy emlékszem a portainer tud importálni vagy exportálni compose ymlt.
Ha megy composeben akkor portainerben is mennie kell.
Megy composeben?Most látom van egy ' a http előtt. Az tényleg ott van vagy csak a fórumra került be így?
[ Szerkesztve ]
-
haddent
addikt
válasz szuszinho #80 üzenetére
Ahogy mondta a kolléga, egy stacken belül hostnévvel közlekedünk, sőt a portokat sem szükséges megpublikálni. Én nem használom ezt a 2 cuccot, de ha jól értem, akkor pl a jackett neked nem is kell, mármint kézzel te azt nem piszkálod. Tehát pl felesleges megpublikálni. Sonarrnak pedig "jackett:9117" -en kellene elérnie az apit
-
szuszinho
őstag
válasz instantwater #79 üzenetére
[ Szerkesztve ]
-
addikt
válasz szuszinho #78 üzenetére
Ezek egy egy konténerben futnak composeben?
Ha igen, akkor ne IP hanem service név alapján hivatkozzanak egymásra.A 192.168.x.x úgy néz ki, mint a host LAN IPje. Ez is működhet, de az a konténer amit el akarsz érni annak a 0.0.0.0:9117-on kell figyelnie.
Esetleg, ha adnál egy kis compose YMLt vagy docker parancsot többet tudnánk segíteni.
[ Szerkesztve ]
-
szuszinho
őstag
Szeretném beállítani a sonarr jackett párost. Jackett és ncore sikerül, de hiába adom meg a sonarrnak az elérési út API párost:
Invalid request Validation failed: -- Unable to connect to indexer, check the log for more details
Unable to connect to indexer: The operation has timed out.: 'http://192.168.0.21:9117/api/v2.0/indexers/ncore/results/torznab/api?t=caps&apikey=xxxxxxxxxxxx
Tudna valaki segíteni?
Köszi!
-
szuszinho
őstag
válasz stickermajom #70 üzenetére
Milyen jogusultságok kellenek a mappáknak?
-
őstag
válasz instantwater #73 üzenetére
A Kubernetestől, 0 tudásom lévén, pont a fentebb említett lehetőségek és (beállítási) kötelezettségek miatt félek.
-
addikt
-
haddent
addikt
válasz instantwater #68 üzenetére
Pontosan ezt mondtam, hogy a swarm nekem szimpatikusabb, hiszen compose syntaxot használ. Az már más dolog, hogy a Kubernetes meggyakta és nyilván azóta messze le is hagyta
-
stickermajom
addikt
-
Zsötie
tag
Sziasztok!
Radarr és sonarr esetén hogyan tudom legegyszerűbben megoldani, hogy hozzá férjenek a NAS-n megosztott médiát tartalmazó mappákhoz?
Köszi! -
addikt
Eléggé más dologra vannak kitalálva.
A compose az "egygépes" környezetre van kitalálva, hogy szépen besshzol majd upolsz amit akarsz.
Ennek egy doppingolása volt a swarm ami végül nem lett népszerű.A Kubernetes pedig egy 3..n (n=10,20,100) szerveres környezetre van kitalálva, ahol
a rendszer dönti el, hogy melyik konténer melyik fizikai gépre kerüljön,
költözteti őket, ha lehal egy gép,
automatikusan bekonfigurálja a gépek között a routolást, hogy mindegy legyen melyik gépen fut a konténered,
hálózati meghajtókat csatol,
loadbalancereket kér az infrastruktúra szolgáltatótól,
logot gyűjt központosítva,
névtereket kezel,
dinamikusan bekonfigurálja a konténereid környezeti változóit, nem kell kézzel fájlokat barkácsolnod majd feltöltened minden szerverre,
monitorozza az erőforrásokat és képes autoscalingre,
feltételek alapján priorizálja az erőforrások kiosztását, és a legalacsonyabb prioritású konténereket lövi ki először, hogy a magasab prioritásúak tovább futhassanak.Az egyik legnagyobb előnye, hogyha olyan konténereid vannak amik kimaxolják a gép erőforrásait, akkor a stackedet kiteszi több gépre, és menetközben skálázni is tud.
Ezt a composevel nem lehet megcsinálni.
Ezért találták ki a Swarmot, de az már történelem.Körtét az almával.
-
BullZeye
veterán
válasz PumpkinSeed #64 üzenetére
Már mint a SMB csak az újabb? Nem értem.
Eladó Yuka 1000 robotfűnyíró + sweeper!
-
haddent
addikt
válasz instantwater #65 üzenetére
Maga a működése és az elve az nagyon is jó, csak nekem a konfigja baromira nem tetszik a composehoz képest De hát ez csak az én kis beidegződésem, ettől még marha jó cucc
-
addikt
-
addikt
-
addikt
-
szuszinho
őstag
A pubilc IP van a ddns-ben beállítva. (Nem is tudom, lehet-e mást).
A többit megnézem.
version: "2"
services:
openvpn-as:
image: linuxserver/openvpn-as
container_name: openvpn-as
cap_add:
- NET_ADMIN
environment:
- PUID=1000
- PGID=1000
- TZ=Europe/Budapest
volumes:
- openvpn:/config
ports:
- 943:943
- 9443:9443
- 1194:1194/udp
restart: unless-stopped[ Szerkesztve ]
-
haddent
addikt
válasz szuszinho #58 üzenetére
Akkor meg is van mi a gond. Első körben, hogy a 172.19.0.2 az a konténer ip címe és lokál (ezért is látod a virtualizált eth0 interfészt), ahogyan a 192 -es is. Public ip -d kéne felvenni a dinamikus dns -hez.
Ezen felül a docker0, lan és wan interfészeid össze kellen forwardolni, ip forwardingot engedélyezni kernelbenMondjuk ennek nagy részét a Docker alapból megcsinálja, ha nem vagy mazohista és nem kapcsoltad ki az iptables nyulkapiszkát és csinálod manuálisan
De servernek tuti a wan címed kell nem a konténer-lanNálam pl. azt adom meg, hogy rowra.org, a lan 10.0.0.0/24, a docker meg 10.10.0.0/16
Ezen felül érdemes NET_ADMIN jogot adni a stacknek.Teszt erejére kipróbálhatod, hogy
privileged:
true
network_mode: host
Módban futtatod, csak majd (szerintem) ne hagyd úgy, mert így nem nagyon érvényesül a virtualizációban rejlő "védelem", ráül a hosztra teljesenItt az én konfigom, hátha segít ez is [link]
[ Szerkesztve ]
-
szuszinho
őstag
Nem működik
A gép IP: 192.168.143.107, 1194 portot nyitottam a routerben. DDNS beállítva.
Openvpn: felvettem egy új felhasználót, admint töröltem, as.conf fájlt is módosítottam. A server name alapból 172.19.0.2. Ezt írom át a ddns címre. Listen on all interfaces yes.
Ami érdekes, hogy eth0-t is lehet választani, de nincs ilyen interface.Telefonon próbálok csatlakozni: Access Server, itt megadom a szükséges adatokat, majd ezt kapom: Failed to import file.
-
szuszinho
őstag
Tudna segíteni valaki openvpn-as konfigurálásban? Agyf@szt kapok lassan...
-
haddent
addikt
Nem, semmi. Annyi, hogy minden service-hez fel kell sorolni amit futtatni szeretnél. Van egyébként unless stopped is, nem tudom pontosan hogy van keress rá. Akkor még jobban .service -re hasonlít, mert ha leállítod kézzel ("disable") akkor nem indul újra amíg el nem indítod kézzel.
Meg ugye el lehetne ezt az egészet vinni kubernetes irányába is, de szerintem otthonra (jobban mondva amíg nem load-balance / high availability a cél) addig felesleges és szvsz. a kubernetes konfigja egy hányadék a compose-hoz képest
Kapcsolók közül még a --force-recreate talán érdemes megjegyezni
[ Szerkesztve ]
-
őstag
válasz instantwater #53 üzenetére
Ez nagyon jól hangzik! Köszönöm!
Sokat fogok még ide visszajárni! -
addikt
-
őstag
válasz instantwater #51 üzenetére
És ezt tudom valahogy elegánsan automatizálni boot után?
-
addikt
-
őstag
válasz instantwater #48 üzenetére
Systemd-ben azért volt kényelmes, mert a compose-hoz nem értek és 3 éve nem találkoztam a restart paraméterrel. Így az upgrade is csak félig volt macera.
-
addikt
-
őstag
Sziasztok!
Ti a docker konténerek indítását boot után, hogy oldjátok meg?
Nekem jelenleg egy-egy konténer egy-egy systemd service-ként fut.
Valahogy így.
(Rutorrent, Sonarr, Radarr, Jackett, Plex, Ombi, Heimdall) -
szuszinho
őstag
Létrehoztam a portainert a compose fájlban, viszont, a webes felületen a stacks fülön limited control-t mutat. Ez normális?
-
BullZeye
veterán
válasz instantwater #42 üzenetére
Meg CP parancsot is, tudom, viszont annál picit komolyabb dolgot szeretnék, fájlverzió követés stb.
Eladó Yuka 1000 robotfűnyíró + sweeper!
-
addikt
-
BullZeye
veterán
válasz instantwater #40 üzenetére
Az csak remote szerverben tud syncronizálni, nem? 2 konténert nem szeretnék futtatni emiatt.
Egyik HDDn van Munka mappa, másik HDDn meg Backup mappa, ezeket kéne 1 eszközön szinkronizálni. Ezt ahogy most rákerestem megint, továbbra se tudja syncthing.
[ Szerkesztve ]
Eladó Yuka 1000 robotfűnyíró + sweeper!
-
addikt
-
BullZeye
veterán
Van valami jó file sync app? Synology mai napig képtelen volt megcsinálni, hogy 2 mappát 1 NAS-on szinkronizáljon rendesen, dockerrel kinyílt a világ, de nem ismerek egy programot se
Eladó Yuka 1000 robotfűnyíró + sweeper!
-
haddent
addikt
válasz szuszinho #36 üzenetére
Szia
Elég intuitív a dolog, ha az alap dockerezés megvan, illetve az official dokksiban mindenre rá tudsz keresni, össze lehet legozni szépen. Személyes véleményem alapján a legojbban akkor jársz, ha meglévő kissebb-nagyobb composeokat átnézel, mi merre hány méter. Ha lesz időm délután feltöltök párat
-
szuszinho
őstag
Sziasztok,
Kezdek ismerkedni a docker világával. A docker-compose fájl szerkesztése egyszerűbbnek tűnik, mint minden futtatáskor kiadni a paramétereket. Erről tudnátok egy kis segítséget, útmutatót?
Egyelőre a portainer és a docker-compose van fent. Szeretnék vpn-t, domoticzot, octopit futtatni. Persze később még egyebeket is.Köszi!
-
addikt
A Docker nem segít inkompatibilis alkalmazások esetén.
Javasolnám, hogy csak LTS verziókat használj azokból a szoftverekből amiket konténerizálsz, így viszonylag ritkán, pár havonta vagy évente kell csak frissítened, függően a szoftvered kiadási ciklusaitól.
Én a hetekben szaladtam bele egy elég komoly hibába ezzel kapcsolatban.
Node.js app, rejtélyes memóriaszivárgással.Kiderült, hogy a kolléga amikor megírta a Dockerfilet úgy döntött, hogy ő Node 9-et fog használni, mert akkor még az volt a legfrissebb.
Viszont a hibát ott követte el, hogy a 9-es verzió nem LTS, tehát nem a stabilitásra van kihegyezve, hanem az új featurek tesztelésére, Node 8 lett volna a helyes döntés ami ugyan régebbi de LTS.Frissítettem Node 10-re a Dockerfilet, újrabuildeltem az imaget, és láss csodát elmúlt a memóriaszivárgás.
A Node 10 az egy LTS verzió.
Productionben ez a minimum, hogy amit lehet, azt stabilt használni, de home serveren miért szívatnád magad instabil verziók tesztelésével?
Neked a saját kis szervered a production, annak kell kiszolgálnia az igényeidet.
Kivéve ha az igényed az, hogy minél jobb hibakereső legyél. -
haddent
addikt
Otthonra ez elmegy, de productionben csúnya lenne
Érdekességképp, hogy pl. miért / azért Dockerrel IS be lehet szívni az inkompatibilitást. Kb. hetente szoktam frissíteni az összes stacket, konténert. Van néhány saját "kéziratú" konténerem is benne saját appal. Az egyik ilyen egy homeserver (automatizált login nélkül torrent keresés, letöltés gombra nyomva beküldi a deluge -be majd letöltés után rendszerezi stb..). Kijött a Deluge frissítés tök jó, csak a Python-Deluge RPC nem volt vele kompatibilis, néztem miért, mégis hogy hasalhat el.. A saját konténerem meg ugye hiába próbálnám pullolni.. Jó, akkor fresh build. Semmi.. Oh, ja tényleg, diszkrét explicit módon beégetett verziók vannak benne, pontosan azért mert egy pip upgrade kb. naponta cseszte szét Docker nélkül... Csodás.. Akkor most mindenből fel a legfrissebb és szoros erős imák sorozata, hogy minden összeillik, majd megint diszkrét verziók beégetése.Ez nem volt sok idő, 1 óra kb. De productionben elég vicces lett volna
-
haddent
addikt
Dehogy! Biztos vannak olyan mazohista állatok, akik 1-1 konténert cli -ből futtatnak minden paramétert kézzel mindig beírva, de erre találták ki többek közt a Docker-Compose -t. Szépen egy yaml fájlban felparaméterezed aztán csak docker-compose up, down, pull stb..
Lehet portainerezni meg van updater ami a jelenleg futó konténerből kiszedi a paramétereket, updatel és újraindít ugyanazokkal meg ilyen egyéb baromságok, de egyértelműen az a biztos és jó, amikor explicit módon ott van egy yaml konfig fájlban minden és kész. Arról nem beszélve, hogy jól csoportosítható több konténer egy stackké, közös network stb..
-
Rimuru
veterán
Dockert csomagkezelobol updatelunk azt nem kell tudni hogy a distrod csomagkezeloje mit csinal vele.
Containert lenyegeben ugy lehet updaltelni hogy irod, de itt mar tobb uton el lehet indulni. A legegyszerubb talan a docker-compose vagy ott van a korabban mar sokat emlegetett portainer is.
Vigyázat, csalok!
-
BullZeye
veterán
Jól értelmezem, hogy ha updatelni kell egy dockert, akkor az előzőt manuálisan törölni kell, és újra letölteni és telepíteni az újat?
Nincs ennél valami egyszerűbb megoldás?
Container beállításokat lehet újrahasznosítani (hálózati elérés, változók stb?). Synology GUI-ból vezérelném az egészet.
Eladó Yuka 1000 robotfűnyíró + sweeper!
-
addikt
-
haddent
addikt
válasz instantwater #25 üzenetére
Is! Na meg high availability -hez IS (swarm)
-
stigma
addikt
Ebben igazad van, első körben utátanézek, olvasgatok ennek az egésznek, mert persze ehhez is nagy elánnal álltam neki , főleg hogy tudatlan vagyok.
Owncloud-ot max csak ki akartam próbálni milyen a 10-es verzió, mert otthonra alap
felahsználásnak tökéletes lenne.
Leszedni és futtani sikerült, de persze valamit szarul konfiguráltam, így nem megy..
Nextcloud-om fut, mail szervert sikerült Google fiókkal összekötni, köszi a segítséget....Google Pixel 8 Pro / OPPO Watch X / iPad 9th Gen. Wifi 64GB...
-
addikt
-
Rimuru
veterán
válasz instantwater #23 üzenetére
Irtak(nak) azt is, csak le kell gorgetni idaig: Compatible Clients
Bármit ami linuxon elfut - akkor mar nem is kell docker ugyis linux a host.Vigyázat, csalok!
-
addikt
Eldöntöttem. Mindkettőt hostolni kell, úgyhogy marad a Keepass Syncthinggel.
Először majdnem megijedtem, hogy titkosítatlanul tárolod gitben őket.
Hallottam már erről az appról, de ennek nincs Android kliensse. Vagy igen?Ki mit futtat dockerben? Bármit ami linuxon elfut.
[ Szerkesztve ]
-
Rimuru
veterán
válasz instantwater #21 üzenetére
Ezt neked kell eldonteni.
Nalam pl self hosted gitben vannak a jelszavak. (pass)
Amugy ezt a topicot lehet atneveznem ki mit hasznal dockerben topicra vagy nyitnek helyette egy olyat, ide meg johetne szakmai tartalom (pl container epitesben segiteni).[ Szerkesztve ]
Vigyázat, csalok!
-
addikt
-
haddent
addikt
válasz instantwater #19 üzenetére
Nem tudom hány néhány én 2013 -ban kezdtem, ne aggódj akkor is az ment bőven.. B szakirány, prog.mód meg analízis Nem baj ez, az alapok kellenek, adott egy látásmódot meg olyan alaptudást amivel ezek meg minden újdonság könnyen tanulható, csak mondjuk legalább a C szakirányon (vagy csinálnának egy "D" -t) ami tényleg az, hogy 3 év után használható, modern szakember legyen, ne egy elmaradt valami..
Van self-hosted bitwarden, közösbe nyilván nem tolnék én se semmit
[ Szerkesztve ]
-
addikt
Bitwarden felhős fiókot kér.
Köszönöm, így tudom, hogy hogyan és hol van az adatbázisom, nem pedig egy nagy közös adatbázisban kitudja milyen titkosítással.Ez a baj, hogy hallani sem hallottak róla
Nyugatabbra azért jobb a helyzet.Mikor fogja az ELTE ismerni legalább azt a szót, hogy konténerizáció, és hálózatok?
Amikor én jártam az IK-ra néhány éve, még mindig a "szekvenciális inputfájlból" című feladatok voltak különféle módon.
Köszönöm, a főnököm többet fizet, ha gyors a szerver, mintha jól tudok text fájlból maximumot keresni.
-
I02S3F
addikt
Feliratkozás, hogy visszataláljak!
-
haddent
addikt
válasz instantwater #15 üzenetére
A jelszó kezelés elég bonyolult nálad, Bitwardent nézted már? Főleg a Bitwarden-rs implementációt rust nyelven, nálam hibátlan. Be tudod importálni a keepassod.
Nálunk hallani se nagyon hallottak a Dockerről, de egyből megtetszett nekik, hogy pár óra alatt migrálok bármit bárhonnan bárhova bármilyen verzióban. Nem gond, hogy 4 éve elavult és érintetlen szarokat kell újrahúzni új szerverre, majd upgradelni. Nem kérdés, hogy ez a jövő és már rég itt van (kéne lennie), csak hát rengetegen le vannak ragadva.
Én is az ELTE -n tanultam, papíron, formális matematikai nyelven papíron ciklust meg programkódot írni és C/C++ -ban mindent, de nem vagyok a magam ellensége -
haddent
addikt
- Pihole biztosan lesz, az csak egy fancy név egy hosts fájlra
- owncloud passz, de mivel lényegében egy php alkalmazásról beszélünk egy mariadb -vel, ezért szerintem biztosan megoldható, max saját build
- nextcloud ha van akkor viszont nem értem minek az owncloud? next jobb, szerintemPortainerben a containers lapon tudsz lehúzni és deployolni, de neked is azt javaslom, mint előzőleg, hogy ne portainerrel kezdj, ha az alapok nem feltétlen vannak meg
-
addikt
Örülök, hogy lett ilyen topik is, mert kicsit nyugatabbra évek óta használják production környezetben is a Dockert és a Kubernetes is egyre népszerűbb. Én magam is napi szinten püfölöm őket.
Remélem a jövőben lesznek fejlesztői témájú kérdések is, melyekben szívesen segítek, ha tudok.
Aki fejlesztőként dolgozik, nagyon megéri megtanulni a Docker használatát és képfájlok készítésének módját. Egyre inkább alapelvárás lesz ez a tudás, hogy Docker konténer formájában tudd szállítani a kész programot, akár te telepíted kézzel, akár CI/CD rendszerből automatikusan kerül telepítésre valamilyen platformon, ami valószínűleg valamilyen Kubernetes alapú/kompatibilis megoldás lesz.
És persze, ahogy az első hozzászólásban is írta a kolléga, rengeteg fejfájást spórol meg a konténerizáció. Még felsorolni is hosszú lenne. Ezért amikor új munkahelyet keresek, már a fejvadásztól megkérdezem, hogy Dockert használ-e a cég. Ha nem, megy a levesbe. Ennyire ég és föld a vele vagy nélküle telepítés.
Felhasználóként hobbi célra én Syncthinget és OpenVPN-t futtatok egy kis VPSen Dockerben, így olcsón megoldottam a fájlszinkronizációt és a VPNt.
Syncthinggel a Keepass adatbázisomat szinkronizálom a telefon és laptop között. VPS közbeiktatásával gyorsabb, stabilabb, mintha egymást kellene keresniük relay szervereken keresztül.
Az egyszerűség jegyében a host OS Alpine Linux. Ez lehetne bármi más is, de kizárólag konténerek futtatására használom, így a minimalizmusa törekedtem.
[ Szerkesztve ]
-
stigma
addikt
Sziasztok, csak hogy egy fantasztikus témával jöjjek Docker Linux-on
Lehet egyedi kérés lessz és túl "user error" lesz részemről, de az alábiakat szeretném:
Adott egy ARM board eszköz => Amlogic S912-es Box Coreelec-el szerelve.
Erre feltettem a docker-t majd a linuxserver.io-s package-t de az alábbiakat akarom konfigurálni:
- pihole : lehet nem támogatott => github
- owncloud: ez ne támogatott tudtommal: => github
- nextcloud: Ez elvileg létező image => githubAmi érdekelne, hogy portrainer-ben hogy lehet létező image-t github vagy dockerhub-ról lehúzni mert nekem nem sikerült.
Ugye az sem mindegy milyen chipseten vagyok ARM/x86 vagy egyéb más, csak ugye naív vagyok és azt hittem hogy dokerben bármi futni fog
Ami az egyetlen container az a Nextcloud, melyet a linuxserver/nextcloud esetén megtalálok.Van ötlet leírás, hogy egy adott docker container-t hogy kell konfigolni portainer-ben?
Hivatalos oldalt párszor átnéztem de nekem elsőre kínai: https://www.portainer.io/Habár ebbe úgy érzem pár órát bele kell fektetnem
....Google Pixel 8 Pro / OPPO Watch X / iPad 9th Gen. Wifi 64GB...
-
stigma
addikt
Hali, köszi a példát és a megosztást.
Nextcloud jobb sokkal, csak ezeken az ARM procikon az alap funckiókra valamivel gyorsabban pufferelt az Owncloud, igaz az nem Docker-ben volt hanem kézi telepítéssel.Többi miatt priviben kereslek.
....Google Pixel 8 Pro / OPPO Watch X / iPad 9th Gen. Wifi 64GB...
-
haddent
addikt
Attól függ mit akarsz. Nekem több subdomainem is fut, ezért az nginx tök külön unit a cloudtól és kézzel hoztam létre a certeket majd automatán frissíti őket ha kell.
Ezekben tudok segíteni szívesen, de az Owncloudot egyáltalán nem ismerem, plána az ő ssl kezelési hülyeségeit. (Egyébként nem jobb a Nextcloud?)
Nagyjából így néz ki egy nginx példa (ez így nem fog működni, az enyémet raktam fel, csak kivágtam az irreleváns részeket):
-
stigma
addikt
Hi, tudom a "google a barátom", de abban segítetek milyen lépéseket kell tennem?
Tegyük fel hogy felteszem az Owncloud-ot a leírás alapján, itt a többit (HTTP és SSl-t ) Nginx Configuration menüpontban végezzem el?Bocs a láma kérdésért de ilyesmit még nem csináltam.
A NAS oprendszerben duckdns-t használtam és konfiguráltam, az ARMbian/dietpi nevü redszerekben volt egy letsencrypt parancs melyben a mail cím, DDNS és 1-2 paramétert megadva a certbot mindent megcsinált.....Google Pixel 8 Pro / OPPO Watch X / iPad 9th Gen. Wifi 64GB...
-
stigma
addikt
Néha picit nehézkesen írok, mert még én is tanulom a Docker-t és a hozzá passzoló szavakat, szóval bocs ha valamit máshogy fogalmazom.
Pont erre van szükségem,mert otthon egy NUC-ról megy a filmezés, melyen Libreelec rendszer van telepítve, ahova 1 kattintással Dockert és Portainer-t tudok varázsolni ezáltal már egyszerűbben fel tudom/tudnám tenni.Portainer-t hétvégén 10 perc erejéig tettem fel, és próbáltam ki, ott még nagyon sok minden ismeretlen számomra, szóval ha lesz időm hétvégén elolvasom a hivatalos oldalon lévő dokumentációt vagy rákeresek youtube videok-ra hogy nyomják a profik
Illetve a NAS oprendszere-újabb változatában beépítették a Portrainer-t mint Docker konténer kezelőt így ha megtanulom, akkor két legyet ütök egy csapásra
....Google Pixel 8 Pro / OPPO Watch X / iPad 9th Gen. Wifi 64GB...
-
haddent
addikt
-
stigma
addikt
Köszi mindkettőtöknek, ebben még nem annyira vagyok profi, de biztos találok vaamit a neten ahonnan össze tudom ollózni.
Hosztolni csak 1 -et akarok csak minidig van valamit amit kitalálok és le akarom tesztelni ezért van az, hogy több portot is át kell irányítanom mert ugye nem lehet egyszerre 2 eszközömnek ugyanugy a 80-as vagy 443-as portot használni.
Ebben az esetben most a NAS-on lévő Nextcloud használja a 80 és 433-as portot, de most egy Rock64-et ha tesztelek dockert és ugyanezeket a Nextcloud appot akkor azt már mondjuk 8080-as vagy 4443-as portokra kell kiengednem.OMV = Openmediavault.
NAs oprendszer, kis vason is tökéletesen fut. Kb 1 éve ezt használom nagy megelégedésre egy Asrock J4105-ITX lappal és 8GB rammal, melyből kb 4GB is elég lenne.......Google Pixel 8 Pro / OPPO Watch X / iPad 9th Gen. Wifi 64GB...
-
haddent
addikt
Ahogy írta colomb2 is és én is, reverse proxy mögé érdemes rakni mindent. Egyrészt security másrészt https endpoint. Na meg ugye mi van olyankor, ha egyszerre 4-5 http(s) cuccot akarok hosztolni? Elég gány portokat írkálni böngészőbe, sokkal elegánsabb egy (sub)domain. Na meg nem szokás csak úgy kiengedni a dolgokat egyenest.
Backup szerintem rém egyszerű portainer nélkül is. Eleve minden volume -ot bindinggal használok, van egy sajátos szisztémám. A backup így a config+data könyvtárak és a docker-compose.yml, semmi más nem kell. Lényegében GIT -be mentek mindent. A data kicsit eröltetett GIT -be, de egyébként eléggé best practice szerintem.
Személy szerint nem ajánlom, hogy a Portainerre bízd magad. Jó dolog, én is használom, de nem helyettesíti a tudást, szerintem. Mert aztán ha gubanc van úgyis be kell mászni manuálisan
OMV alatt mit értesz?
[ Szerkesztve ]
-
stigma
addikt
Nextcloud esetén simán megoldottam, mert volt leírásom, illetve ott a szükséges portokat (HTTP:80 és HTTPS:443-at) átengedtem a routeren és probléma nélkül üzemel.
Owncloud esetén ugye alapértelmezetten 8080-as poron átjön ami tök jó, de szerettem volna SSL-t, és amiatt a HTTPS-es 4443-as porton akartam átengedni, de sajnos nem sikerült.
Lehet hogy valamit elcsesztem a leírás alapján, de majd hétvégén megnézem.
Ugye ezért rossz ha több eszközről tesztelek, mert mindenhol port átírányítást kellene alkalmazni, ami a routerben egyszerű de Dockerben nem biztos (mármint a konfigurálásban)Portrainer-t azért szerentém megtanulni/alkalmazni mert OMV-ben a Dokcker arra fog épülni és így könnyebb lesz a menedzselés, illetve a backup, mert most nincs más csak ha parancssori mókolás ha konténert akarok lementeni és nem újra konfiglni.
....Google Pixel 8 Pro / OPPO Watch X / iPad 9th Gen. Wifi 64GB...
-
haddent
addikt
Nekem is tervben van / félig-meddig kész egy nagy összefogó cikk úgy mindenről is
Hol akadtál el az HTTPS/TLS -sel kapcsolatban? Biztos meg lehet oldani "gyári" Nextcloud stílusban is, de a legegyszerűbb szerintem / nekem az volt, hogy az amúgy is már meglévő nginx reverse proxy mögé bevágtam és kész is
Portainer-t is használok, viszont én kizárólag felügyeletre / log nézegetésre. Sajnos a deploy egyelőre docker-compose 2.0 -t tud max. kezelni én meg 3.2 verziót használok, sokkal rövidebb, implicitebb, meg talán voltak is dolgok amik csak vele jöttek be
-
stigma
addikt
Sziasztok.
Nem lenne rossz ha a topic felpörögne, mert eléggé elterjedt az években a Docker és a hozzá használatos konténerek/image-k vagy nevezzük egyszerűbben programoknak (még kezdő vagy benne)
Én OMV (NAS oprendszer) alatt használok Dockert, melyben a saját felhőt hoztam létre DDNS-el persze leírás alapján. Mai napig tökéletesen működik, szerintem elég gyorsan is tölti be a felhőbe lévő adatokat.
Nextcloud-hoz Mariadb+ Nextcloud + Duckdns+letsenrypt-et használok Dockerben.
Ezen ívül amivel próbálkozom, próbálkoztam:
- Amlogic boxok esetében Owncloud/Nextcloud: helyi hálón már működik nekem, HTTPS/SSL kapcsolatot még valahogy varzsolni kellene.
- Roc64-es board-al az alábbiakat teszteltem:
- Armbian-ra sima docker.io-t + docker-compose-t tettem majd Owncloud-ot.
- NextcloudPI-t sikeresen feltettem, futattam., igaz itt kihívás nincs nagyonMint látjátok én inkább a felhő fele mentem el(Nextcloud, Owncloud), hogy őket kipróbáljam, mert a mai világban a legegyszerűbb így megosztani.Igaz a Drive tökéletesen működik, viszont oda korlátozott a feltöltési limit, itt viszont max a HDD szab határt.
Ezenkívül amit jó lenne megtanulni/leírást összeszedni az a Portainer(remélem jól írom) mely Docker konténere könnyebb kezelhetőségére,menedzselésére használható, futtatható.
Sajnos kevés időm ellenére ha bármint sikerül összehoznom és hasznotokra válik, itt meg fogom osztani.....Google Pixel 8 Pro / OPPO Watch X / iPad 9th Gen. Wifi 64GB...
-
Cirbolya_sen
aktív tag
példák ahol találkozhatunk docker-el:
- NAS rendszerekben
- routerekben
- szerverekbenCirbolya_sentinel
-
haddent
addikt
Nem találtam Dockerrel foglalkozó topicot, szóval gondoltam nyitok egyet, hátha másnak is hasznos lesz
Mi is az a Docker?
Egy konténerizációs forma. Konyhanyelven a fizikai vas (bare-metal) és a teljes virtualizáció (kvm, hyper-v stb.) közt helyezhetnénk el valahol.
Főbb előnyei a szeparáció (egy-egy konténer izoláltan fut a hosthoz és egymáshoz képest) és a gyors, könnyű, kompatibilis disztribúció (konkrétan bármilyen alkalmazást becsomgolsz egy Docker konténerbe, akkor az pontosan ugyanúgy fog futni bármilyen hoszton, bármilyen OS alatt bármilyen verzióval, amennyiben egyetlen előfeltétele, a Dockerd engine teljesül).
Ezen felül természetesen el lehet durvulni vele és stackeket, swarmokat létrehozni, amiket aztán a felhőben (pl. Kubernetes) is futtathatunk, így osztva a terhelést, biztosítva a zero downtime -ot stb., de talán ennyire ne menjünk előre.Akkor most ez virtualizáció?
Nem. Pl. éppen ezért Linux hoszton nem tudsz Windows konténereket futtatni (nem mintha nagyon lennének vagy szükségesek lennének), illetve éppen ezért nincs grafikus megjelenítés, nem tudsz belépni "remote desktop" -pal a környezetbe (ez nem teljesen igaz, létezik pl. X11 forwarding, de ez eléggé abuse / erőszakolásnak számít és erősen megkérdőjelezi, hogy valóban Docker kell-e a feladat megoldásához)Teljesítmény
Szóval tisztáztuk, hogy nem virtualizációról beszélünk, tehát akkor nincs overhead. De, van, de linux hosztokon elenyésző. (Szubjektív, nem túl reprezentatív, de érdekes példa: ivy bridge alapú intel pentium G2130 procival és 4GB rammal kb. 20 servicet futtatok a szerveremen, köztük webszerver, torrent, Jellyfin (Emby) média stream, vpn stb., illetve ezek mellett tűzfalként is szolgál a gép, mégis röhögve bírja)
Nehéz százalékosan általánosságban adni egy számot, mivel nyilván alkalmazás- / felhasználásfüggő, de amennyiben bármilyen, nem grafikus alkalmazásunk (bármilyen szerver, kiszolgáló, háttérfolyamat stb..) van, mindenképp érdemes lehet kipróbálni.Miért?[/B
Nincs is konkrét virtualizáció, még overhead is van, akkor mégis minek? Azért, mert teljes mértékben elszeparálhatjuk alkalmazásainkat. Pl. miért akarnánk, hogy a webszerverünk és a torrent szerverünk egy környezetben fusson? Minek "lássanak át egymásra"? Sőt, minek férjenek hozzá a fizikai vashoz az abszolut szükségesnél jobban?
Ezen felül nem kell bajlódni semmilyen 26 ezer lépéses telepítéssel, nem létezik az inkompatibilitás és a dependencia fogalma, nincs cross-dependency, nem kell milliónyi, a hoszt számára felesleges csomagot karbantartanunk. Egy-egy alkalmazás esetén elég mindig csak az ő saját image -ét frissíteni és máris a legfrissebb, legbiztonságosabb, javított alkalmazás fog futni, ráadásul szeparálva, ami ugyan nem feltétlen teljes mértékben megegyező biztonsági izoláció a teljes virtualizációhoz képest, de közel állhat hozzá.
Személyes véleményem szerint a rendezettség és letisztultság is fontos egy ilyen környezet esetén, hiszen minden logot, mentést/adatot és konfigurációt a mi saját elveink szerint rendezhetünk, 1-1 mappába gyűjtve, nem szétszórva a root / -on. Így nyilván a biztonsági mentés / backup is jóval egyszerűbb.Témaindítónak talán elég ennyi
Új hozzászólás Aktív témák
Hirdetés
- Karácsonyi akció: ESET termékek hivatalos forgalmazója / NOD32 / Internet Security / stb.
- Windows 10/11 Home/Pro , Office OEM/Retail kulcsok
- Adobe Előfizetések - Adobe Creative Cloud All Apps - 12 Hónap
- Eredeti játékkulcsok Steamre, Xbox-ra és Playstationre!
- Microsoft licencek KIVÉTELES ÁRON AZONNAL - UTALÁSSAL IS AUTOMATIKUS KÉZBESÍTÉS - Windows és Office
- Heroes of Might and Magic V (Gold Edition) - PC-s játék
- Diablo IV! Battlenet GIFT! + Vessels of Hatred
- Surfshark Starter VPN 1 év / Végtelen eszköz / Előfizetés hosszabbításra is alkalnas Kupon
- Surfshark Starter VPN 3 hónap / Végtelen eszköz / Előfizetés hosszabbításra is alkalnas Kupon
- Indiana Jones and the Great Circle Prémium edition - GeForce RTX 40xx
Állásajánlatok
Cég: Axon Labs Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest