Программа для скачивания всего сайта

0
Горожане
+ 6
Командировочный
У меня такой вопрос. Можно ли с помощью какой-нибудь программы скачать весь сайт.
Ответ прост - можно.

Teleport Pro 1.47
Web Transporter
iWorm

ну и ще вот здесь пачка...
Горожане
+ 6
Командировочный
jenyok, большое спасибо. И ещё вопрос, а какая из этих програм лучше ?

Цитата:И ещё вопрос, а какая из этих програм лучше ?


Без понятия. Не юзаю. Пару лет назад качал какой-то ресурс, но не помню уже чем.
Горожане
+ 2
Гастарбайтер
Юзаю Телепорт Про, устраивает, много опций полезных
Горожане
+ 1
Местный
Использую Телепорт.

А вообще -- дело вкуса. Кому что нравится.
Инструктор по панике.
Горожане
+ 11
Старожил
Offline Explorer Enterprise 4.7 - Мощнейшая программа, позволяющая скачивать как отдельные файлы, так и целые веб-сайты (HTTP, FTP и HTTPS) на жесткий диск для их последующего офф-лайн просмотра как на отдельном компьютере, так и пользователями локальной сети - в программу встроен внутренний HTTP-сервер.
Поддерживается создание проектов практически неограниченного размера; полная автоматизация скачивания с широкими возможностями по настройки фильтров для выборочной загрузки только нужных файлов, загрузку сайтов можно регулировать используя многочисленные настройки проектов, разрешать или запрещать адреса с помощью ключевых слов, ограничивать длительность загрузки по времени, по размеру информации или количеству файлов; имеются средства редактирования загруженных веб-страниц и свой собственный просмотрщик созданных коллекций сайтов; поддерживается OLE Automation и множество других функции, включая поддержку новейших веб-технологий (например, загрузку потокового audio/video). Возможна интеграция программы с Internet Explorer, Netscape и Opera; интерфейс - многоязычный.
Что нового:
В версии 4.7 добавлены: поддержка загрузки Flash видео ссылок, вызов меню проводника Windows в карте (Ctrl+правый щелчок мыши), поддержка Google Flash видео проигрывателя

Offline Explorer Enterprise 4.7
Горожане
+ 13
Залетный
wget -r -l 10 http://adress.to
Эта команда скачивает сайт рекурсивно с глубиной рекурсии 10. Для сохранения сообщения об ошибках можно добавить опцию -o logfile.log. Хорошо бы дать комманде задание включится, например, в 3:30, чтобы не забивать трафик в часы пик. Делается так: Вводим команду at 3:30[Enter], далее появляется приглашение, вводим команду 'wget -r -l 10 http://adress.to[Enter], она запуститься в 3:30. Cntrl-D
Я другие программы не пробовал, меня вполне устраивает wget.
Для продолжения прерванной закачки опция '-c'
Может работать в режиме spider, опция '--spider', для проверки например закладок на живучесть
Горожане
+ 6
Командировочный
Всем спасибо за ответ. Попробую каждую программу.
Гость
Вложения удалены. Удалён и дебил их разместивший.
by Kanarsky
 
Доступ закрыт.
  • Чтобы отвечать в темах данного форума Вам нужно авторизоваться на сайте