Jak sciągnąć całą stronę z podstronami?
Chciałbymsciągnąć całą stronę wraz ze wszystkimi podstronami i obrazkami na komputer. Wiem, źe są do tego jakieś programy. Prosze o wskazanie takiego i ze trzy zdania jak z tego korzystać.
Odpowiedzi: 8
Bobi niestety nic z tego. Dzieje się to samo co w przypadku innych programów.
Wiecie co wstawię tu screena z katalogu z tym co sie sciąga. Widać tam jakie zapytania są do wyboru.
http://www.termiaukcja.republika.pl/lista.JPG
Moźe ktoś z Was, kto zna php mógłby napisać mi jak wprowadzić adres strony tak aby wywyływało to od razu zapytanie dla serwera o wyświetlenie tak jakbym zaznaczył wszystkie opcje i kliknął do roboty. Myślę zźe gdybym taki adres do programu wprowadził to by sciągnął wszystko, bo dalej to juz zwykłe linki html są. Aby wyjaśnić jaśniej o co mi chodzi:
http://forum.centrumxp.pl/posting.php?mode=reply&t=48812
chodzi mi o tak skonstruowany link.
Wiecie co wstawię tu screena z katalogu z tym co sie sciąga. Widać tam jakie zapytania są do wyboru.
http://www.termiaukcja.republika.pl/lista.JPG
Moźe ktoś z Was, kto zna php mógłby napisać mi jak wprowadzić adres strony tak aby wywyływało to od razu zapytanie dla serwera o wyświetlenie tak jakbym zaznaczył wszystkie opcje i kliknął do roboty. Myślę zźe gdybym taki adres do programu wprowadził to by sciągnął wszystko, bo dalej to juz zwykłe linki html są. Aby wyjaśnić jaśniej o co mi chodzi:
http://forum.centrumxp.pl/posting.php?mode=reply&t=48812
chodzi mi o tak skonstruowany link.
Z tego co czytam to program Offline Explorer ponoć radzi sobie ze ściąganiem witryn napisanych w php.
Trial 30 dni do ściągniecia bez problemu.
Trial 30 dni do ściągniecia bez problemu.
WaGonik próbowałem, ale rezultat taki sam – tylko pierwszą stronę sciąga i nawet ona niedziała, bo po sciągnięciu za pomocą Httracka to linki otwierały sie z netu. Chyba faktycznie z php to sie nie da.
Moź starzy wyjadacze forumowi nam pomogą?
Moź starzy wyjadacze forumowi nam pomogą?
No nie wiem czy da się ściągnąć strony PHP. Skrypt PHP jest wykonywany po stronie serwera a ty dostajesz tylko wynik zapytania w postaci kodu HTML.
uźyłeś programu
Teleport Pro ? wpisując w google jest natychmiastowa odpowiedz z pierwszych linkow z polskich stron.
Teleport Pro ? wpisując w google jest natychmiastowa odpowiedz z pierwszych linkow z polskich stron.
Panowie wszystko ok, tylko źe strona jest w php i sciągnęło mi tylko "stronę tytułową, a mi chodzi źeby sciągnęło automatem wszystko. Moźe po prostu podam wam stronę i sami zobaczcie. Chodzi mi czy da się taką stronę zmirrorować, źeby te wszystkie opcje i zapytania chodziły na kompie offline.
http://www.meccg.winternet.one.pl/index.php
Jest moźliwość źe kiedy wybiorę na stronie ręcznie wszystkie opcje i kliknę przycisk do roboty, a następnie bedę otwierał kolejno wszystkie 1600 odnośników, to jakiś program będzie to "zapisywał" jako stronę offline?
http://www.meccg.winternet.one.pl/index.php
Jest moźliwość źe kiedy wybiorę na stronie ręcznie wszystkie opcje i kliknę przycisk do roboty, a następnie bedę otwierał kolejno wszystkie 1600 odnośników, to jakiś program będzie to "zapisywał" jako stronę offline?
programik , teleport pro, cos takiego
Zajrzyj tutaj, masz tam sporo menadzerow pobierania oraz programow do pobierania calych witryn internetowych
http://amnezja.org/modules.php?name=Downloads&d_op=viewdownload&cid=11
tu tez sjakis jest http://dobreprogramy.pl/index.php?dz=2&id=663&t=64
http://amnezja.org/modules.php?name=Downloads&d_op=viewdownload&cid=11
tu tez sjakis jest http://dobreprogramy.pl/index.php?dz=2&id=663&t=64
Strona 1 / 1