Fórum Ubuntu CZ/SK
Ubuntu pro osobní počítače => Internet a sítě => Téma založeno: Peterx 07 Ledna 2010, 13:06:11
-
Zdravim kazdeho, hladam nejaku utilitu, najlepsie z spustitelnu z command line, ktora dokaze otestovat ci nejaka stranka je funkcna. Nie ping, ale potrebujem zistit ci dana stranka naozaj funguje...
-
co tak napr. http://specto.sourceforge.net/ ?
-
curl, wget? ale vzdycky se muze stat, ze ti server posle stranku ala "Hledana stranka se na servru bohuzel nenaleza"... takze je potreba nejaky postprocessing
-
Dik za odpoved, myslim ze curl bude pouzitelny.
-
Takze specto je nepouzitelne, kedze sa s nim neda poslat ani len mail...
Skusal som curl, no tam mam problem s tym ze to vracia html kod a naviem ako napisat skript asi takyto:
curl www.stranka.nieco
ak na tej stranke najdes text tak ok ak nie tak...
-
curl www.stranka.nieco | grep -q "hledany text" && echo "Text nalezen"
-
Dik
-
Tak a uz som natrafil na dalsi problem, aj ked sa tohoto netika.
Mam zoznam srtanok v textovom subore a napisal som si script:
cat zoznam | while read line; do curl $line; done
Vysledok je takyto:
'url: (6) Couldn't resolve host 'www.stranka.nieco
Vobec netusim kde sa vzalo to '
-
az na umisteni toho apostrofu ve vypisu chyby to vypada uplne normalne... (spravne by to melo vypadat:
curl: (6) Couldn't resolve host 'www.stranka.nieco' )
mimochodem, proc mas v seznamu neexistujici domeny? jestli chces napriklad nejake domeny kupovat a chces zjistit, jestli jsou obsazene, tak tohle ti vubec nepomuze...
-
To URL som tam napisal nezmyselne len sem, aby to niekoho neplietlo.
Uz som zistil ze chyba je v textovom subore, ale vobec netusim aka.
Chcel som to takto:
vytvorim textovy subor s adresamy
grep www. /adresar/subor1 | sed 's/^[ \t]*//;s/[ \t]*$//' >>/adresar/subor2
Potom:
cat /adresar/subor2 | while read line; do curl $line; done
A toto mi uz nefunguje.
Ked ale subor2 vytvorim manualne, cize napisem tam zoznam stranok, tak to funguje a vobec netusim pre co.
-
Este prikladam subor, vie niekto co je na nom vadneho?
www.adminko.sk/ubuntu/l1.tar.gz
-
windowsacke (crlf) konce radku, pouzij
cat soubor2 | sed 's/.$//' | while read line; do curl $line; done
-
Prave som to zistil aj ja...
Dovod pre co ma to nenapadlo je ten ze mam iny skritp z ktorym takto vytvoreny subor funguje bez problemov.
-
Namiesto curl sa nenajde nieco co dokaze overit funkcnost stranok. Problem s tym curl je taky ze ak ho pouzijem tak musim nieco na tej stranke hladat, ale ak mate niekolko 100 stranok co chcete skontrolovat tak to je problem. Co je horsie stranky su pisane od HTML, ASP, .NET az po PHP, takze je to problem..
Hladam nieco ako je T4eWebPing pod windowsami.
-
takze ti vlastne zalezi na headru, jo?
zkuswget --server-response http://www.seznam.cz/ -O /dev/null 2>&1 | head -20
-
Tak to to uz je lepsie riesenie, aj ked nie dokonale :)
Idem skusat..
-
Nie je to zle, postaci kym nenajdem lepsie, idealne by bolo nieco co dokaze nacitat stranku a ak sa ju podary nacitat do urcitej doby tak ok, ak nie tak je problem.
-
jde to taky pomoci wgetu >> zkus man wget / utfg / projev vlastni iniciativu
-
Man wget som skusil, no nie je tam nikde nic o tom ze ma pockat az sa stranka cela natiahne a nenasiel som tam ani u z toho co si pisal / utfg /.
Na linuxe som zaciatocnik a to co je pre niekoho samozrejme pre mna este nie je.
Ale aj tak dik za pomoc
-
z man wget:
-T vteřin
--timeout=vteřin
Nastavení časového limitu sítě na zadaný počet vteřin. Je ekvivalentní společnému nastavení
--dns-timeout, --connect-timeout a --read-timeout.
Kdykoliv probíhá síťová operace, Wget může ověřovat prodlevu a operaci přerušit, pokud trvá příliš
dlouho. Tak lze zabránit zamrznutí nebo nekonečným spojením. Jediným časovým limitem, který je jako
výchozí nastaven, je 900 vteřin na čtení. Nastavením na 0 se vyřadí. Výchozí hodnotu je záhodno měnit
pouze v případě, že skutečně víte, co děláte.
Všechny volby týkající se časových limitů akceptují hodnoty v desítkové soustavě, včetně hodnot pod
vteřinu. Např. 0.1 vteřin je platnou (ačkoliv nevhodnou) hodnotou. Hodnoty pod vteřinu se hodí při
testování časů odpovědi serveru nebo latence sítě.
utfg znamena "use the f*** google"
-
Ta skratka je dobra, ale velky brat google mi v tom nepomohol a to som skusal dost
-
a co ta citace z manualu wgetu? pripadne zkombinuj s http://www.root.cz/clanky/hratky-z-radky-navratove-hodnoty/ a libovolnym bash tutorialem
-
jj, uz studujem, dik.
-
Možná by pomohlo, kdyby ses s námi podělil o to - řečeno s majorem - čo také si predstavuješ pod pojmom funkčnost stránok. Třeba by ti pak někdo poradil lépe :-)
-
Tak na toto je tazke odpovedat, mne ide o to aby som zistil nefunkcnost aj v pripade ze IIS nevrati chybu, ale stranka nie je funkcna dajme tomu pre to ze nema dostupnu databazu.
-
Hmm,
tak to budeš asi muset trochu programovat....
-
:) asi sa budem musiet naucit :)
-
Asi ano.
Pro začátek by bylo potřeba si stanovit nějaké jednoznačné rozpoznávací znaky, kdy je stránka funkční resp. kdy je nefunkční. Aby bylo vůbec co testovat...
-
Ano a to je moj problem kedze sa jedna o rozne stranky v roznych formatovh...
-
A co kontrolovat zvášť web a zvlášť DB - předpokládáme, že když jede web i DB, pak se stránka zobrazuje korektně (a jestli ne, tak vyhodíme programátora..)
Web můžeš kontrolovat pomocí "HTTP status codes" (jak to přeložit do češtiny?) např. pomocí curl:
curl --write-out "%{http_code}\n" -o /dev/null <webova_stranka>
což vypíše 200 při úspěchu a jiné při chybách (viz. http://www.w3.org/Protocols/HTTP/HTRESP.html)
A MySQL (nebo jinou DB) se bude kontrolovat třeba přístupem na nějakého uživatele bez jakýchkoliv práv: příhlásí se, pak můžem prohlásit, že DB jede. Nepřihlásí se, pak DB nejede.
Btw, nějak takto (ehm, v trošku komplexnější formě) funguje např. dohled pomocí Nagiosu.
-
No na databazu sa z vonku nedostanem a pokial nejde databaza tak IIS nevrati 404 a ak aj ano, nemozem sa na to spolahnut, lebo niektore stranky vyuzivaju chybu 404 na redirect. Inak DB su hlavne MSSQL...
-
A co kontrolovat zvášť web a zvlášť DB - předpokládáme, že když jede web i DB, pak se stránka zobrazuje korektně (a jestli ne, tak vyhodíme programátora..)...
;D
Pokud je to tvoje stránka tak bych si to nějak ošéfoval tam, třeba se na stránce zobrazí "Stránka nefachá" pokud nějak nefunguje (DB nejede...) a to potom vyhledat grepem.
-
kontrolovat statusy HTTP jak bylo uvedeno drive, pokud je status OK, nacist stranku pomoci wget a grepnout ji na Error hlasky. Pokud se tam nejake vyskytnou, ejhle, pruser je na svete.
Problem by samozrejme mohl nastat v pripade ńejakeho clanku popisujiciho nejaky Error, a byl by tam vypis te chyby, ale to uz je na tobe, jak se s tim poperes :)
-
Problem by samozrejme mohl nastat v pripade ńejakeho clanku popisujiciho nejaky Error, a byl by tam vypis te chyby, ale to uz je na tobe, jak se s tim poperes :)
Mno, jestli jde jen o kontrolu, zda jede DB, tak při chybě spojení by to mohlo (třeba jen do poznámky v kódu, ne na web) vypsat nějakou předem definovanou chybu s několika nesmyslnými (řekněme tak unikátními, že se v textu ani kódu normálně nevyskytují) znaky, třeba: "<!-- Hapala mi databaze! !324*^& -->" :) Přece napsat toto do kódu pár stránkám je na pár minut..
-
otazka je, jestli ma takovou moznost... (myslim upravu kodu stranek, ktere chce testovat - ja predpokladam ze nema)
-
otazka je, jestli ma takovou moznost... (myslim upravu kodu stranek, ktere chce testovat - ja predpokladam ze nema)
nj, tak kontrolování něčeho, na co nemám aspoň nějaký rozumný přístup, je holt omezené. Na to bych univerzální algoritmus nechtěl vymýšlet... :)
-
Sak to, ani ja, no musim :(
-
Sak to, ani ja, no musim :(
Obcas treba kapitulovat a zvolit kompromis(tie kontroly, co uz tu su navrhnute), alebo potom kodit kazdu kontrolu rucne, co je slusne povedane hovadina.
-
To viete, vysvetlite to sefovy ze to nejde....
:)
-
Hoď sem schválně seznam těch webů.
-
To asi nie je dobry napad, ale aj tak sa to meni...
-
No dobrá, ale pak si uvědom, že zde máme poněkud zapeklitý problém:
Jak ověřit, zda se nějaká soustava nachází či nenachází v určitém stavu, když neznáme definici tohoto stavu?
A včíl mudruj...
-
Mne je to uplne jasne...
Nechcem aby sef nasiel odkazi na stranky, no ani tak by to nepomohlo...
-
Mne je to uplne jasne...
Nechcem aby sef nasiel odkazi na stranky, no ani tak by to nepomohlo...
Ááá, tak to budou zřejmě nějaké hrozně tajné stránky. Mě osobně taky vždycky strašně rozčílí, když zjistím, že na moje stránky někdo někde odkazuje!!!
-
Kazdy mame nejakeho sefa...
-
Jestli chceš pomoct, dej nám prostředky. Pokud ne, měním na [nevyřešitelné] ;)
-
Myslym ze to bude neriesitelne...
Jedine co ma napadlo je to ze pre kazdu stranku nadefinujem nejaky text ktory sa tam nachadza a potom budem kontrolovat ci ho tam najdem a ak nie znamena to ze stranka nejde. Bude to ale pracne...
-
Fíha, to jsi vymyslel úplně sám?
Problem by samozrejme mohl nastat v pripade ńejakeho clanku popisujiciho nejaky Error, a byl by tam vypis te chyby, ale to uz je na tobe, jak se s tim poperes :)
Mno, jestli jde jen o kontrolu, zda jede DB, tak při chybě spojení by to mohlo (třeba jen do poznámky v kódu, ne na web) vypsat nějakou předem definovanou chybu s několika nesmyslnými (řekněme tak unikátními, že se v textu ani kódu normálně nevyskytují) znaky, třeba: "<!-- Hapala mi databaze! !324*^& -->" :) Přece napsat toto do kódu pár stránkám je na pár minut..
kontrolovat statusy HTTP jak bylo uvedeno drive, pokud je status OK, nacist stranku pomoci wget a grepnout ji na Error hlasky. Pokud se tam nejake vyskytnou, ejhle, pruser je na svete.
Problem by samozrejme mohl nastat v pripade ńejakeho clanku popisujiciho nejaky Error, a byl by tam vypis te chyby, ale to uz je na tobe, jak se s tim poperes :)
-
Vidim ze moja odpoved bola nepochopena... Myslel som to ironicky...
Prave tomu som sa chcel vyhnut...