Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!
Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.



 Użytkownik
	



Witam forumowiczow ponownie w sprawie dzialania programu wget na Windows7.
Mam problem ktorego nie umiem rozwiazac.
Kiedy kopiuje witryne ( http://lukaszsupergan.com/ ) rekurekcyjnie np do 3 poziomu " w glab" to przy polaczeniu z siecia mam witryne skopiowana na HDD w jej strukturze i wszystkimi elementami skladowymi.
Kiedy odlacze dostep do sieci zostaje struktura (foldery i podfoldery) znikaja wszystkie skladowe: text, zdjecia, css itp itd.
Dlaczego tak sie dzieje, i jak zapisac na HDD kompletna witryne, zeby dzialala bez dostepu do sieci?
 
Pozdrawiam
Offline




 Zbanowany
	




3221
Ostatnio edytowany przez uzytkownikubunt (2016-12-01 01:45:58)
Offline



 Użytkownik
	



Marna to dla mnie pociecha.
Przeciez po to jest downloaderem zeby nie tylko sciagal ( co robi )ale rowniez zapisywal (czego nie robi )
Mysle ze w konfigu jest jakis kruczek, ktorego do tej pory nie poznalem.
Ostatnio edytowany przez Novi-cjusz (2016-10-03 15:58:27)
Offline







 Podobno człowiek...;)
	







Wget jest od pobierania.
Jesli strona zawiera biblioteki javascript, i kod, który dynamicznie generuje sznurki w przeglądarce, to wget ich nie wygeneruje, bo nie wykonuje Javascriptu przy pobieraniu.
Do takich stron napakowanych javascriptem się często pisze osobne skrypty z użyciem jakichś modułów typu np:
http://search.cpan.org/~nine/WWW-WebKit-0.07/lib/WWW/WebKit.pm
http://search.cpan.org/~sprout/WWW-Scripter-Plugin- … JavaScript.pm
To by było na tyle
Offline



 Użytkownik
	



Musze przyznac, ze nie bardzo rozumiem logike pobierania bez zapisywania.
Jak strona zniknie z serwera to uzytkownik na drugim koncu swiata moze sobie nagwizdac?
Byloby szkoda, bo mimo calego badziewia w Internecie jest tez wiele ciekawych stron i witryn, ktore warto by bylo zachowac na HDD,
To z jednej strony, a z drugiej dziwne jest ze zeby skopiowac strone czy witryne niezbedne jest wyzsze wyksztalcenie IT i do tego kilka lat praktyki. (;-(
Offline







 Podobno człowiek...;)
	







Czego nie rozumiesz?
Wejdź sobie na google.pl z Firefoxa i naciśnij ctrl+u, to zobaczysz,
 jak wygląda Javascript i Ajax w praktyce.
Weź też pod uwagę, że cały ten kod wykonuje przeglądarka pacjenta, a nie serwer.
Wget tego kodu nie wykonuje, bo nie jest przeglądarką, tylko programem do pobierania plików 
z sieci, podobnie jak Axel czy Aria2.
Ostatnio edytowany przez Jacekalex (2016-10-03 23:27:48)
Offline



 Użytkownik
	



Piszesz o detalach implementacji, a ja nie rozumiem dlaczego skopiowanie ciekawej witryny jest takie nielatwe.
Albo inaczej to jak sciagnac i zapisac to co chce, tylko HTTrack?
Offline


 Użytkownik
	


Novi-cjusz napisał(-a):
Piszesz o detalach implementacji, [...]
Przepraszam, że się wtrącam ale czy Ty rozumiesz wogóle słowo "implementacja"? Przecież już zostało to jasno napisane, że wget nie podąża za dynamicznie generowanymi linkami bo ich nie generuje bo nie wykonuje skryptów JavaScript.
Offline



 Użytkownik
	



To jak sobie sciagnac ciekawa witryne?
Tylko HTTrack ?
Offline


 Zbanowany
	


@Novi-cjusz wirtualka z windowsem+ teleport pro z jakiegoś trackera
cel uświęca środki :)
PS pamiętam całe witryny to się zasysało w dobie kawiarenek internetowych i modemów wdzwanianych :)
Ostatnio edytowany przez hi (2016-10-04 14:36:21)
Offline



 Użytkownik
	



Tak bedzie trzeba, samo zycie.
Pozdro.
Offline