Fórum Ubuntu CZ/SK

Ostatní => Otevřená diskuze kolem Linuxu a OSS => Téma založeno: Bosf 23 Února 2009, 08:08:16

Název: Downloader celých webových stránek?
Přispěvatel: Bosf 23 Února 2009, 08:08:16
Používal jsem Offline Explorer,který mi vyhovoval,mohl jsem si nastavit jak hluboko se má program dívat a stahovat (abych nestahoval databázi seznamu protože tam byl odkaz na seznam) takže jsem měl klidně celou kategorii "cheaty" stáhlou pro kamarády bez internetu,atd.Ale není freeware :(

Není něco podobného ale opensource?
Název: Re: Downloader celých webových stránek?
Přispěvatel: Tomáš Jančík 23 Února 2009, 08:21:54
wget
s určitejma parametrama to vzládá taky... man wget
Název: Re: Downloader celých webových stránek?
Přispěvatel: Vojtěch Trefný 23 Února 2009, 08:31:56
Hlavně nepoužívat na *ubuntu.cz ;)
Název: Re: Downloader celých webových stránek?
Přispěvatel: Jiří :Kačer: Voseček 23 Února 2009, 10:33:11
wget -r http://domena.cz
Název: Re: Downloader celých webových stránek?
Přispěvatel: Tomáš Jančík 23 Února 2009, 10:41:29
wget -r http://domena.cz

jj, ale mám pocit že jsem někdy někde viděl i limit jak hluboko má stahovat...
Název: Re: Downloader celých webových stránek?
Přispěvatel: nettezzaumana 23 Února 2009, 11:10:13
wget -r http://domena.cz

jj, ale mám pocit že jsem někdy někde viděl i limit jak hluboko má stahovat...
.. omg. to je slovo do pranice .. kdes to videl? u rodicu v lednicce?

# wget --help | grep -i depth
  -l,  --level=NUMBER       maximum recursion depth (inf or 0 for infinite).
Název: Re: Downloader celých webových stránek?
Přispěvatel: Tomáš Jančík 23 Února 2009, 12:01:04
wget -r http://domena.cz

jj, ale mám pocit že jsem někdy někde viděl i limit jak hluboko má stahovat...
.. omg. to je slovo do pranice .. kdes to videl? u rodicu v lednicce?

# wget --help | grep -i depth
  -l,  --level=NUMBER       maximum recursion depth (inf or 0 for infinite).

no najít jsem mu to mohl taky, ale já chtěl jsen říct, že to wget umí... a doufal jsem že man wget už použije sám...
Název: Re: Downloader celých webových stránek?
Přispěvatel: Bosf 24 Února 2009, 16:50:56
děkuji všem,postahováno,DÍKě
edit: vlastně ne, dal jsem pro příklad databázi cheatů wincheateru (krásná zkouška pavouka) takže:

wget -p -l10 "http://www.cheater.cz/winch/online.htm"

a potom co se to stáhlo tak zkouška- některé obrázky chyběly,to se dá přežít.tak jsem klikl na první odkaz.A nic.Soubor nenalezen.Kde je chyba? (mezi klávesnicí a židlí,ale jako kde jsem já udělal chybu)
Název: Re: Downloader celých webových stránek?
Přispěvatel: mallox 08 Března 2009, 18:49:38
http://www.httrack.com/
Název: Re: Downloader celých webových stránek?
Přispěvatel: Marp 08 Března 2009, 18:55:06
http://www.httrack.com/
Ano.. Httrack je přímo v repozitářích, vynikající nástroj, lze nastavit hloubku i soubory. Používám k plné spokojenosti už několik let.