2009-07-28 13:32:02 +0000 2009-07-28 13:32:02 +0000
362
362

Как я могу загрузить весь сайт?

Как я могу загрузить все страницы с сайта?

Любая платформа в порядке.

Ответы (20)

347
347
347
2009-07-28 13:55:39 +0000

HTTRACK работает как чемпион по копированию содержимого всего сайта. Этот инструмент может даже захватить кусочки, необходимые для того, чтобы сайт с активным кодовым содержанием работал в автономном режиме. Я поражен тем, что он может реплицировать в автономном режиме.

Эта программа сделает все, что вам от нее нужно.

Счастливой охоты!

282
282
282
2009-07-28 14:05:25 +0000

Wget - классический инструмент командной строки для такого рода задач. Он поставляется с большинством Unix/Linux систем, и вы можете получить его также для Windows . На Mac, Homebrew - это самый простой способ установить его (brew install wget).

Вы бы сделали что-нибудь вроде:

wget -r --no-parent http://site.com/songs/

Для более подробной информации смотрите Wget Manual и его примеры , или e. g. these:

8
8
8
2009-09-16 22:12:13 +0000

Вы должны взглянуть на ScrapBook , расширение Firefox. Оно имеет режим углубленного захвата .

.

8
8
8
2009-09-16 21:56:24 +0000

Internet Download Manager имеет утилиту Site Grabber с большим количеством опций - которая позволяет полностью загрузить любой веб-сайт, как вы хотите.

  1. Вы можете установить ограничение на размер страниц/файлов для загрузки

  2. Вы можете установить количество сайтов филиала для посещения

  3. Вы можете изменить способ скрипты/всплывающие окна/дубликаты ведут себя

  4. вы можете указать домен, только под этим доменом все страницы/файлы, отвечающие требуемым параметрам будут загружены

  5. ссылки могут быть преобразованы в автономные ссылки для просмотра

  6. у вас есть шаблоны, которые позволяют вам выбрать вышеуказанные параметры для вас

Программное обеспечение не является бесплатным, однако - посмотрите, если это соответствует вашим потребностям, используйте оценочную версию.

7
7
7
2009-09-17 11:42:49 +0000
5
5
5
2009-09-17 02:08:03 +0000

Мне нравится Offline Explorer . Это общее программное обеспечение, но оно очень хорошее и простое в использовании.

5
5
5
2009-07-28 14:03:11 +0000

Я обращусь к онлайн буферизации, которую используют браузеры…

Обычно большинство браузеров используют кэш просмотра для того, чтобы держать файлы, которые вы загружаете с веб-сайта вокруг некоторое время, так что вам не придется загружать статические изображения и контент снова и снова. При некоторых обстоятельствах это может значительно ускорить работу. Вообще говоря, большинство кэшей браузеров ограничены фиксированным размером, и когда он достигает этого предела, он удаляет самые старые файлы в кэше.

Интернет-провайдеры, как правило, имеют кэширующие серверы, которые хранят копии часто посещаемых сайтов, таких как ESPN и CNN. Это избавляет их от проблем, связанных с попаданием на эти сайты каждый раз, когда кто-нибудь в их сети заходит туда. Это может быть значительной экономией в количестве дублированных запросов к внешним сайтам к провайдеру.

4
4
4
2010-02-26 01:26:42 +0000

WebZip также является хорошим продуктом.

4
4
4
2009-07-28 23:23:28 +0000

Я не делал этого много лет, но есть еще несколько утилит. Возможно, вы захотите попробовать Веб-змея . Кажется, я использовал его много лет назад. Я сразу вспомнил название, когда прочитал ваш вопрос.

Я согласен со Стеси. Пожалуйста, не забивайте их сайт. Очень плохо.

3
3
3
2009-10-14 11:41:36 +0000

Попробуйте BackStreet Browser .

Это бесплатный, мощный автономный браузер. Высокоскоростная многопоточная программа для загрузки и просмотра веб-сайтов. Делая несколько одновременных запросов сервера, BackStreet Browser может быстро загрузить весь сайт или его часть, включая HTML, графику, Java-апплеты, звуковые и другие файлы, определяемые пользователем, и сохраняет все файлы на жестком диске, либо в их родном формате, либо в виде сжатого ZIP-файла и просмотра в автономном режиме.

3
3
3
2013-03-21 17:14:16 +0000

Teleport Pro является еще одним бесплатным решением, которое будет копировать любые и все файлы с любого целевого объекта (также имеет платную версию, которая позволит вам вытащить больше страниц содержания).

3
3
3
2009-09-16 22:17:23 +0000

DownThemAll - это дополнение Firefox, которое загружает все содержимое (например, аудио- или видеофайлы) для конкретной веб-страницы одним щелчком мыши. Это не скачивание всего сайта, но это может быть что-то вроде того, что искал вопрос.

3
3
3
2015-09-18 01:41:23 +0000

Для Linux и OS X: Я написал grab-site для архивирования целых сайтов в файлы WARC . Эти файлы WARC могут быть browsed или извлечены. grab-site позволяет вам контролировать, какие URL пропускать с помощью регулярных выражений, и они могут быть изменены, когда запущено сканирование. Он также поставляется с обширным набором настроек по умолчанию для игнорирования ненужных URL.

Существует веб-инструментальная панель для мониторинга сканирования, а также дополнительные опции для пропуска видео-контента или ответов более определенного размера.

1
1
1
2017-11-03 18:13:37 +0000

Power wget

Хотя wget уже упоминался, этот ресурс и командная строка была настолько бесшовной, что я подумал, что она заслуживает упоминания:wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/ Смотрите этот код, объясненный в оболочке пояснения

0
0
0
2019-10-14 14:14:05 +0000

Сохранить страницу WE

Отличное расширение для Chrome и Firefox, который загружает большинство/все содержимое веб-страницы и сохраняет его прямо в файл .html. Google Chrome Extension Firefox Extension

Я заметил, что на странице картинной галереи, на которой я примерял его, он сохраняет эскизы, но не полные картинки. Или, может быть, просто не JavaScript, чтобы открыть полные картинки эскизов.

Но, это работало лучше, чем wget, PDF и т.д.. Отличное простое решение для большинства людей.

0
0
0
2019-11-11 16:33:26 +0000

Вы можете использовать нижеперечисленные бесплатные онлайн-инструменты, которые сделают zip-файл всего содержимого, включённого в этот url

0
0
0
2015-09-27 08:49:33 +0000

У почтенного * FreeDownloadManager.org ** тоже есть такая возможность.

Free Download Manager имеет ее в двух формах в двух: Site Explorer и Site Spider :

Site Explorer Site Explorer позволяет просматривать структуру папок веб-сайта и легко загружать необходимые файлы или папки. HTML Spider Вы можете загружать целые веб-страницы или даже целые веб-сайты с помощью HTML Spider. Инструмент может быть настроен на загрузку файлов только с заданными расширениями.

Я считаю, что Проводник сайтов полезен, чтобы увидеть, какие папки включить / исключить, прежде чем пытаться загрузить весь сайт - особенно, когда есть целый форум скрывается на сайте, который вы не хотите загружать, например.

-1
-1
-1
2015-09-21 16:02:12 +0000

Скачать HTTracker он будет загружать веб-сайты очень легко шаги, чтобы следовать.

ссылку на загрузку http://www.httrack.com/page/2/

видео, которое поможет вам https://www.youtube.com/watch?v=7IHIGf6lcL4

-3
-3
-3
2015-12-02 13:59:03 +0000

Firefox может сделать это самостоятельно (по крайней мере FF 42 может). Просто используйте “Сохранить страницу”

.

-4
-4
-4
2015-05-16 18:05:51 +0000

Я считаю, что Google Chrome может сделать это на настольных устройствах, просто перейдите в меню браузера и нажмите кнопку сохранения веб-страницы.

Также обратите внимание, что такие услуги, как карманные могут на самом деле не сохранить веб-сайт, и, таким образом, подвержены гниению ссылок.

И наконец, обратите внимание, что копирование содержимого веб-сайта может нарушить авторские права, если это применимо.

Похожие вопросы

18
15
6
12
6