Új hozzászólás Aktív témák
-
Jeti1
tag
válasz martonx #1408 üzenetére
Azt hiszem tényleg nem voltam elég konkrét. Nagyjából 15-20 céget kellene kiszolgálni, ahol cégenként kb. 10-15 fővel lehet számolni, s minden cégnek 2-3 adatbázisa lenne. Egy cégen belül nagyjából 4-5 ember csatlakozna egyidejűleg az adatbázishoz. Így már tudsz konkrétabb választ adni? Ha kell még valamilyen adat, akkor írd meg, aztán leírom. Persze teljesen pontos számokat nem tudok mondani, mert egyelőre még elméletben, a fejemben létezik ez az egész ötlet. Agyalgatok azon, hogy egy központosítás mennyire reális és kb. mennyibe kerülne, mert talán jobban megérné, mint minden egyes mikro vállalkozáshoz, pici céghez kihelyezni egy szervert, s azt konfigurálni.
Természetesen kösi az eddigi válaszod is, mert elgondolkodtatott 1-2 dolgot illetően.Ne várjunk a nevetéssel, amíg boldogok leszünk. Különben félő: meghalunk anélkül, hogy nevettünk volna. /La Bruyére/
-
Jeti1
tag
válasz martonx #1411 üzenetére
1. Hasznos és jó, amit írsz. Két kérdés azonban felmerült bennem. Érdemes lehet odafigyelni arra, hogy a leggyorsabb winchesterekkel legyen felszerelve a gép és a rendszer esetleg SSD-ről működjön? A másik szerverre azért lenne szerinted szükség, hogy az végezze a mentést vagy azon tárolódjanak a mentések? Adattárolásra elég lehet egy NAS is.
2. A felhőszolgáltatás már régebben is eszembe jutott és pont az Azure megoldással foglalkoztam. Szerintem használható lenne, de még mindig sokan félnek tőle, nem tartják elég megbízhatónak... A programozók ráadásul nem rajongtak az ötletért, mert bizonyos dolgokat másként kellene megoldaniuk, mint eddig tették. Több dolgot illetően eltér egymástól az SQL Azure és SQL Server kezelése.
Ha már szóba jött a RAID, van egy nagyon jó oldal, ahol megadhatod a lemezek számát, hogy egy lemez milyen kapacitású és a RAID típusát, az pedig kiírja, hogy mennyi lesz a hasznos terület, az írás-olvasás gyorsaságot és a hibatűrést. A weboldal: RAID Calculator
[ Szerkesztve ]
Ne várjunk a nevetéssel, amíg boldogok leszünk. Különben félő: meghalunk anélkül, hogy nevettünk volna. /La Bruyére/
-
Jeti1
tag
válasz martonx #1416 üzenetére
1. Az adatbázisok átlagban 4-5 GB-osak és esténként nem dolgoznak rajtuk normál esetben. Ez alapján azt hiszem a NAS jó megoldás lesz mentések tárolásra, a normál adattárolásra pedig több gyors merevlemez, ha ez a verzió valósul meg.
2. Egyetértek veled, de a programozók többségben vannak. Valószínűleg összegyűjtöm majd a különbségeket és oda adom nekik olvasásra, hogy ne hallomások alapján ítéljünk meg egy felhőbeli megoldást.
Ne várjunk a nevetéssel, amíg boldogok leszünk. Különben félő: meghalunk anélkül, hogy nevettünk volna. /La Bruyére/
-
Jeti1
tag
válasz martonx #1418 üzenetére
Köszi! Így azért egyszerűbb volt, mint utána járni a dolgoknak! Gondolom te használod az SQL Azure technológiát, nem csak ismerkedsz vele, ahogy én.
Ha már te ennyire otthon vagy az adatbázisok, SQL témában, akkor kérdeznék még valamit. Szerinted, hogy néz ki egy elfogadható és egy ideális karbantartási terv adatbázisok esetén?
Ne várjunk a nevetéssel, amíg boldogok leszünk. Különben félő: meghalunk anélkül, hogy nevettünk volna. /La Bruyére/
-
Jeti1
tag
válasz martonx #1420 üzenetére
Minden adatbázis szerver esetén a Management rész alatt létrehozható (varázslóval is) egy úgynevezett Maintenance Plan. Ezt a Maintenance Plant nyílván többféleképpen is el lehet készíteni, s arra lennék kíváncsi, hogy szerinted hogyan kellene, mire mondod azt, hogy ez már egy megfelelő beállítás, mondjuk egy adatbázis mentési terv esetén.
Így most már remélem érthetően sikerült leírnom, hogy mi érdekel.Ezen a videón a Maintenance Plan varázslójával állítanak be egy ütemezett teljes db mentést: [link]
Ne várjunk a nevetéssel, amíg boldogok leszünk. Különben félő: meghalunk anélkül, hogy nevettünk volna. /La Bruyére/
-
Jeti1
tag
válasz martonx #1443 üzenetére
Én valami ilyesmit szeretnék, csak az internetről vadászott példában szereplő exe kiterjesztésű fájl helyett egy saját bat kiterjesztésűt akarok futtatni: [link]
A bat fájlom normál módon elindítva megcsinálja, amit kell, viszont SQL Server Agent-tel vezérelve szeretném lefuttatni minden nap egy bizonyos időpontban.A bat fájl windows kötegfájl, ha jól tudom. Ebben az esetben a második pontodban írtaknak megfelelek.
Ne várjunk a nevetéssel, amíg boldogok leszünk. Különben félő: meghalunk anélkül, hogy nevettünk volna. /La Bruyére/
-
Jeti1
tag
válasz martonx #1446 üzenetére
A Windows ütemezett feladataival szoktam bat fájlokat futtatni, de arra gondoltam jó lenne, ha mindent az SQL Server Agent kezelne... Ezek szerint csak jó lenne, de nem lesz jó.
Ne várjunk a nevetéssel, amíg boldogok leszünk. Különben félő: meghalunk anélkül, hogy nevettünk volna. /La Bruyére/
-
sztanozs
veterán
válasz martonx #1449 üzenetére
Majd legfeljebb akkor mutopgatnak, ha én fejlesztek nekik - én csak megmutattam neki, hogy hogyan csinlja azt, amit nem kéne
JOGI NYILATKOZAT: A bejegyzéseim és hozzászólásaim a személyes véleményemet tükrözik; ezek nem tekinthetők a munkáltatóm hivatalos állásfoglalásának...
-
Sk8erPeter
nagyúr
-
lakisoft
veterán
válasz martonx #1457 üzenetére
A MySQL vs. Oracle összehasonlításnak nincs értelme. Nem ugyan arra a piacra készült így nem lehetnek egymás konkorensei. Sokat fejlődött a MySQL mióta az Oracle átvette a Sun-tól.
MSSQL vs. Oracle vs. PostgreSQL ennek az összehasonlításnak talán már több értelme lenne. -
lakisoft
veterán
válasz martonx #1460 üzenetére
Nem tudom fejlesztőként vagy üzelemtetőként töltöd a munkaóráidat adatbázisok között?
Beépített függvényekben az Oracle sokkal szerteágazóbb, testreszabhatóbb, részletesebb megoldásokat kínál, míg az MSSQL ebből a szempontból sokkal elnagyoltabb. (Hozzátenném, hogy napi szinten fejlesztek MSSQL2008 alatt.) Pl.: Random függvény Oracle-ben és MSSQL-benUi: Nagyon szeretek T-SQL-ben dolgozni, de tény hogy megvannak a maga korlátai. Ez Oracle-nél is így van de ott "komolyabb"* megoldásokkal lehet találkozni.
*A szakmai szememnek tetszőbb, szakma által jobban elfogadott, konvenció követőbb
[ Szerkesztve ]
-
Lacces
őstag
válasz martonx #1460 üzenetére
Na, ez már jobban tetszik, amit írsz.
OracleDB-nek az ingyenes része mennyire használható? Mennyire zabálja a hardvert? (Suliban valahányszor az Oracle adatbázishoz nyúltunk csak úgy ette a kliensek memóriáját). Ingyenes MS SQL-ben is gondolkoztam, de a linux integrációról nem olvastam semmi pozitívat.
De az ingyenes OracleDB-vel felkeltetted az érdeklődésemet! -
Lacces
őstag
válasz martonx #1473 üzenetére
Lehet, nem tudom, épp ezért kérdeztem, hogy mekkora jó. Én laptopon futatom a linux + java webszervert (Jetty - baromi jó, gyors és keveset eszik ajánlom mindenkinek) + mongot + (jelenleg mysql), de összeségében még nem láttam őket együtt 1GB ram felé menni
Bár úgy vettem észre, hogy nincs nagy különbség Windows Server 2008 + IIS + mongo + mssql ,és a fentebb említett java-s megoldás között hardver zabálásban.
Te így kezdetnek mennyi memóriát mondanál? (mongo + postgresql esetleg egy Win-es megoldásnál?)
-
-
bpx
őstag
válasz martonx #1529 üzenetére
egyáltalán nincs eltévedve, én nem feltétlenül cache-elnék alkalmazásoldalon (de persze én nem fejlesztő vagyok)
ezt úgy hívják, hogy materialized view [link]
Oracle-ben van, a többi RDBMS-ről nincs tapasztalatom
wiki szerint MS SQL-ben van hasonló, MySQL-ben csak workaround -
addikt
válasz martonx #1533 üzenetére
Tisztában vagyok a memcache-sel, de úgy vélem, hogy ennél gyorsabb lenne SQL szerveren belül maradni, hiszen a VIEW már úgy lenne összeállítva, hogy a legoptimálisabb legyen lekérdezés-szempontból. Csak azt tartom "pazarlásnak", hogy minden lekérdezésnél frissíti a tartalmát. Kereséshez van szükségem erre, szóval egy 7*20000 soros táblát kéne a cache-ben tartani. Ez sok...
-
addikt
válasz martonx #1540 üzenetére
Ok, leírom:
Van 3 táblám: ugyvitel_marka, ugyvitel_termek, ugyvitel_termek_altipus, ugyvitel_termek_tulajdonsag_kapcsolat
ugyvitel_marka: id, markanev; értelemszerűen márkanevek vannak benne, ~250 db.
ugyvitel_termek: id, ugyvitel_marka_id, termeknev: a termékek listája. Egyelőre ~17000 rekorddal.
ugyvitel_termek_altipus: id, ugyvitel_termek_id, ugyvitel_statusz_id, stb.. : termék alkategóriák listája. Szintén ~17000 rek.
ugyvitel_termek_tulajdonsag_kapcsolat: id, ugyvitel_tulajdonsag_id, ugyvitel_termek_altipus_id, tulajdonsag: ez tartalmazza a termékekhez tartozó tulajdonságokat (cikkszám1, cikkszám2, ismertető, stb...). Az ugyvitel_tulajdonsag_id a tulajdonság típusát azonosítja (csz, ismertető, stb.). Jelenleg ~110000 rekorddal.Ezekből kéne leválogatni márkanév, terméknév, csz1, csz2, és ismertető alapján (szabad szavas keresővel).
Az adatbázis tovább fog nőni, akár a többszörösére. MySQL-ről van szó.
[ Szerkesztve ]
-
addikt
válasz martonx #1542 üzenetére
Igen, már tegnap kiderült, hogy a szerver haldoklott, ezért volt lassú (most villámgyors). Ettől függetlenül még érdekelt a téma, és gondoltam megkérdezem a nálam tapasztaltabbakat, hogy van-e mód tovább gyorsítani az SQL-t. Mint írtam, egy más jellegű problémánál jól fog jönni a file-cache, de az kisebb jelentőségű, mint az első.
Kösz a válaszokat!
[ Szerkesztve ]
-
cucka
addikt
válasz martonx #1563 üzenetére
Ez miért előnye a php-nak? Miért más nyelveken mit tárolnak a verziókövetőben? Szerelmes verseket?
Annyi előny, hogy nem kell lefordítani, megszabadulsz a Make/Ant szkriptektől, vagy az xml-ek turkálásától Mavenben, stb. . (Meg persze bizonyos szempontból ez hátrány is, tudom jól, ne akadj fenn ezen)A relációs SQL az egy rohadt nagy halmaz, rengeteg alhalmazzal, amik között halmaz műveleteket tudsz elvégezni rohadtul gyorsan. Hol akarsz ebben fejlődést? Legyenek örökölhetőek, interfészelhetőek a tárolt eljárások?
Ha alkalmazáslogikára szeretnéd használni, akkor szélesebb körű beépített libeket, és igen, több nyelvi eszközt.Ráadásul vicces pont PHP oldalról fanyalogni az SQL nyelv egyszerűsége miatt...
Az egy dolog, hogy a php egy nem túl jól kitalált nyelv, csomó furcsasággal, viszont a beépített eszközkészlete (magyarul a standard lib) igencsak jól használható és jól dokumentált.De hidd el, amikor komoly adatlogikákat kell kivitelezni, és komoly algoritmusokat kell kivitelezni, akkor azt próbáld már meg webszerver oldalon kivitelezni.
Emlékeztetlek, az eredeti hozzászólás a php topikban keletkezett, arra a felvetésre, hogy a php kódba nem kéne egyáltalán sql-t beágyazni/összerakni, hanem minden hasonló feladatot tárolt eljárással kéne megoldani. A php topikban pedig jellemzően nem a szakma krémje szokott kérdéseket feltenni, hanem kezdők.
Szóval igyekezz ennek tükrében értelmezni, amiket írtam. Én is pontosan jól tudom, hogy komplex projekteknél és nagy adatmennyiségnél az adatbázis szerver és kliens közötti kapcsolat overhead-je elszaladhat. Ennek ellenére nem fogom egyik kezdő php fejlesztőnek sem tanácsolni, hogy dobja ki a php-vel legyártott dinamikus sql-t és kezdjen inkább tárolt eljárásokat írni ezek kiváltására.[ Szerkesztve ]
-
rum-cajsz
őstag
válasz martonx #1578 üzenetére
haha,
Nem tudom melyik adatbázisra gondoltál, de hivatalos Oracle oktatáson mégis elhangzott (a tapasztalt Oracle szakértő szájából), hogy szép-szép az új join szintaktika, de ha biztosra akarunk menni akkor használjuk a régi módszert....=Kilroy was here============================ooO=*(_)*=Ooo=======
-
rum-cajsz
őstag
válasz martonx #1585 üzenetére
Ó, én az Oracle optimalizáló fejlesztőiből bármit ki tudok nézni, annyi minden
"faszsággal"érthetetlen dologgal találkoztam már. Ebbe belefér az is, hogy a joint rosszul (értsd: nagyobb költséggel) értelmezi egyik illetve másik esetben.
De lehet, hogy csak a rosszindulat beszél belőlem, és mostanra már tényleg szép és jó az Oracle join szintaxisokkal.[ Szerkesztve ]
=Kilroy was here============================ooO=*(_)*=Ooo=======
-
Jim-Y
veterán
válasz martonx #1608 üzenetére
Csak ha nincs az embernek mobilnete?
Én valahol a kettőt ötvözném, alapból egy webszolgáltatás lenne, amit mobilnettel teljes értékűként lehetne használni, de pl lehetne olyat, hogy az ember letöltse lokális adatbázisba az őt érdeklő járatokat, így offline is lehetne követni azokat a járatokat amit az ember használ.. talán..
-
Sk8erPeter
nagyúr
-
G.A.
aktív tag
válasz martonx #1671 üzenetére
Üdv!
Próbáltam úgy is, hogy a mezőnevek a CSV első sorában voltam, meg úgy is hogy nélküle.(ha ez a fejléc) Úgy is, hogy ha volt, akkor a feltöltéskor hagyja azt ki. Ezek nem jöttek be. Ami talán fontos és kimaradt, hogy ezt a gépemen lévő wamp-on próbáltam. Ezért kipróbáltam egy online adatbázison is, ott meg feltöltötte.
Ezt nem értem....Ha már sikerült feltöltenem lenne egy másik kérdésem.
Amit sikerült feltöltenem, azokban a magyar szöveget, ahol az ékezetes karakterek kezdődnek, onnantól levágja. Feltöltéskor az utf8-as karakterkészletet választottam, mivel a varchar-os mezők utf8_hungarian_ci-re vannak állítva. Itt mi a hiba?A másik, hogy vannak olyan mezők ahol tizedes számok is vannak. Ha jól tudom ott a mezőt decimálra kell állítani? (értékek pl.: 18.2, 5.5, 7.5, 0.5...)
GA
-
bambano
titán
válasz martonx #1829 üzenetére
Három dolgot nem értek a válaszodban:
- függvényt kerestem volna eredetileg, ez meg tárolt procedúrában egy vezérlési szerkezet
- attól, hogy for-ral dolgozom fel a query eredményét, hogyan fog változni a tárolt procedúra által visszaadott adatok típusa?
- miért kellene for-t használnom arra, amire van beépített kész utasítás?tartok tőle, nem ugyanazt értettük a kérdésem alatt.
Egy átlagos héten négy hétfő és egy péntek van (C) Diabolis
-
bambano
titán
válasz martonx #1831 üzenetére
a probléma a következő: van egy halom mérési eredményem. ebből csinálni kell egy halom grafikont. a grafikon legyártása gyakorlatilag ugyanolyan lépésekből áll, kivéve, hogy az adatsort, amiből lesz, más-más query-k adják. ezért gondoltam arra, hogy a különbözőséget jelentő queryket belerakom egy táblába, a többihez írok egy darab scriptet, aminek egy paramétere, hogy hanyadik query-s grafikont csinálja meg és azt futtatom.
ehhez kellene egy olyan, amit más programozási nyelvekben evalnak szoktak hívni, hogy összerakom valahogy egy stringbe a queryt és azt ugyanúgy feldolgoztatom, mintha simán beírt query lenne.
"Úgy értettem, hogy egy query eredményeként kigenerálsz egy rakás SQL query-t, és ezeket szeretnéd egymás után futtatni programozottan.": mindig egy query lesz az eredmény, azt kell futtatni.
Erre elvileg (postgrestől elvonatkoztatva) két módszer létezhet:
- van készen eval függvény
- tárolt eljárást kell rá írni.A postgresben nincs eval függvény, meg más sem, amire hunyorítva nézve eval függvény lehetne, ezért ez az út járhatatlan.
A postgresnek a tárolt eljárási környezetében van olyan, hogy visszatérési eredményként egy query által generált táblát adok vissza, de ezzel az a probléma, hogy a tárolt eljárás definíciós részében meg kell adni a tábla formátumát, hogy milyen rekordtípust fog visszaadni, az pedig nem egyforma. Így nem tudom a tárolt eljárásban a return query exec-et használni.
Egy átlagos héten négy hétfő és egy péntek van (C) Diabolis
-
Ispy
veterán
válasz martonx #1833 üzenetére
Még mindig nem érted:
olyan utasítást keres, amivel egy táblában található utasítást tud futattni kódból, mssqlben ilyen az sp_executesql függvény, vagy visual basicben az eval függvény. Tehát, ha végiglépked egy forral, akkor a for belsejében kell egy függvény, ami a ciklus által visszaadott értéket tudja nativ kódként értelmezni."Debugging is like being the detective in a crime movie where you're also the murderer."
-
bambano
titán
válasz martonx #1833 üzenetére
de nem akarom a query recordjain végiglépkedni, mert egy query-m van.
van egy táblám, van benne n darab query. ezekből a querykből mindig pontosan egyre van szükségem, sem többre, sem kevesebbre. pontosan egy elemű for ciklust futtatni nem látszik hasznosnak. majd egy másik, későbbi időpontban egy másik queryre van szükségem, de akkor is csak pontosan egyre.(#1834) Ispy
Egy átlagos héten négy hétfő és egy péntek van (C) Diabolis
-
retes
aktív tag
válasz martonx #1839 üzenetére
Azt próbálom, csak adott közben egy ilyen feladat amit szeretnék megoldani, csak nem tudom, hogy az Access egyáltalán tud e olyat csinálni, hogy mikor indítok egy lekérdezést, akkor feldob egy ablakot, hogy írjam be neki a tól-ig et. Másfelől meg szerintem, az "egy minimális Access tudást illene magadra szedni, mielőtt kérdezel." nagyon kedves és segítőkész hozzáállás. martonx őstagként azt hinném, hogy ezt a látásmódot ezzel a titulussal sikeresen magadra szedted már mióta a PH-ra írogatsz. Látszik, hogy nem sikerült, viszont tedd meg, ha már nem vagy hajlandó segíteni, ne is gátold, hogy más építő jelleggel szóljon hozzá és inkább ne is írj. Köszönöm!
A tudás mindenkié!!!
-
DS39
nagyúr
válasz martonx #1849 üzenetére
teljesen felesleges újra feltalálni a spanyol viaszt. az SQL Server Business Intelligence része egy igen professzionális riportoló eszközt (Reporting Services) tartalmaz.
remek dinamikus (paraméter szerinti) táblázatok, és diagramok készíthetők vele [link]
az email-ben kiküldés kicsit macerás, de ahogy alább linkeltem megoldható.
[ Szerkesztve ]
Új hozzászólás Aktív témák
- Di-BOX , Asrock Beebox-s kiegészítők,Adata Powerbank,Akyga táp,SAT Finder,DVB-T jelerősség mérő
- SK Hynix DDR3 2 GB -1600 MHz laptop memória
- 3db router, 2 wifi receiver - (D-Link DIR-842, ASUS RT-N12, RT-N12E, 2xTP-LINK TL-WN722N) egyben
- Adata XPG D50 4133 MHz DDR4 RGB 2x8 GB
- Toshiba , Dell notebook töltők
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Promenade Publishing House Kft.
Város: Budapest