Как я могу загрузить весь сайт?
Как я могу загрузить все страницы с сайта?
Любая платформа в порядке.
HTTRACK работает как чемпион по копированию содержимого всего сайта. Этот инструмент может даже захватить кусочки, необходимые для того, чтобы сайт с активным кодовым содержанием работал в автономном режиме. Я поражен тем, что он может реплицировать в автономном режиме.
Эта программа сделает все, что вам от нее нужно.
Счастливой охоты!
Wget - классический инструмент командной строки для такого рода задач. Он поставляется с большинством Unix/Linux систем, и вы можете получить его также для Windows . На Mac, Homebrew - это самый простой способ установить его (brew install wget
).
Вы бы сделали что-нибудь вроде:
wget -r --no-parent http://site.com/songs/
Для более подробной информации смотрите Wget Manual и его примеры , или e. g. these:
Вы должны взглянуть на ScrapBook , расширение Firefox. Оно имеет режим углубленного захвата .
Internet Download Manager имеет утилиту Site Grabber с большим количеством опций - которая позволяет полностью загрузить любой веб-сайт, как вы хотите.
Вы можете установить ограничение на размер страниц/файлов для загрузки
Вы можете установить количество сайтов филиала для посещения
Вы можете изменить способ скрипты/всплывающие окна/дубликаты ведут себя
вы можете указать домен, только под этим доменом все страницы/файлы, отвечающие требуемым параметрам будут загружены
ссылки могут быть преобразованы в автономные ссылки для просмотра
у вас есть шаблоны, которые позволяют вам выбрать вышеуказанные параметры для вас
Программное обеспечение не является бесплатным, однако - посмотрите, если это соответствует вашим потребностям, используйте оценочную версию.
Мне нравится Offline Explorer . Это общее программное обеспечение, но оно очень хорошее и простое в использовании.
Я обращусь к онлайн буферизации, которую используют браузеры…
Обычно большинство браузеров используют кэш просмотра для того, чтобы держать файлы, которые вы загружаете с веб-сайта вокруг некоторое время, так что вам не придется загружать статические изображения и контент снова и снова. При некоторых обстоятельствах это может значительно ускорить работу. Вообще говоря, большинство кэшей браузеров ограничены фиксированным размером, и когда он достигает этого предела, он удаляет самые старые файлы в кэше.
Интернет-провайдеры, как правило, имеют кэширующие серверы, которые хранят копии часто посещаемых сайтов, таких как ESPN и CNN. Это избавляет их от проблем, связанных с попаданием на эти сайты каждый раз, когда кто-нибудь в их сети заходит туда. Это может быть значительной экономией в количестве дублированных запросов к внешним сайтам к провайдеру.
WebZip также является хорошим продуктом.
Я не делал этого много лет, но есть еще несколько утилит. Возможно, вы захотите попробовать Веб-змея . Кажется, я использовал его много лет назад. Я сразу вспомнил название, когда прочитал ваш вопрос.
Я согласен со Стеси. Пожалуйста, не забивайте их сайт. Очень плохо.
Попробуйте BackStreet Browser .
Это бесплатный, мощный автономный браузер. Высокоскоростная многопоточная программа для загрузки и просмотра веб-сайтов. Делая несколько одновременных запросов сервера, BackStreet Browser может быстро загрузить весь сайт или его часть, включая HTML, графику, Java-апплеты, звуковые и другие файлы, определяемые пользователем, и сохраняет все файлы на жестком диске, либо в их родном формате, либо в виде сжатого ZIP-файла и просмотра в автономном режиме.
Teleport Pro является еще одним бесплатным решением, которое будет копировать любые и все файлы с любого целевого объекта (также имеет платную версию, которая позволит вам вытащить больше страниц содержания).
DownThemAll - это дополнение Firefox, которое загружает все содержимое (например, аудио- или видеофайлы) для конкретной веб-страницы одним щелчком мыши. Это не скачивание всего сайта, но это может быть что-то вроде того, что искал вопрос.
Для Linux и OS X: Я написал grab-site для архивирования целых сайтов в файлы WARC . Эти файлы WARC могут быть browsed или извлечены. grab-site позволяет вам контролировать, какие URL пропускать с помощью регулярных выражений, и они могут быть изменены, когда запущено сканирование. Он также поставляется с обширным набором настроек по умолчанию для игнорирования ненужных URL.
Существует веб-инструментальная панель для мониторинга сканирования, а также дополнительные опции для пропуска видео-контента или ответов более определенного размера.
Хотя wget уже упоминался, этот ресурс и командная строка была настолько бесшовной, что я подумал, что она заслуживает упоминания:wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/
Смотрите этот код, объясненный в оболочке пояснения
Отличное расширение для Chrome и Firefox, который загружает большинство/все содержимое веб-страницы и сохраняет его прямо в файл .html
.
Google Chrome Extension
Firefox Extension
Я заметил, что на странице картинной галереи, на которой я примерял его, он сохраняет эскизы, но не полные картинки. Или, может быть, просто не JavaScript, чтобы открыть полные картинки эскизов.
Но, это работало лучше, чем wget, PDF и т.д.. Отличное простое решение для большинства людей.
Вы можете использовать нижеперечисленные бесплатные онлайн-инструменты, которые сделают zip-файл всего содержимого, включённого в этот url
У почтенного * FreeDownloadManager.org ** тоже есть такая возможность.
Free Download Manager имеет ее в двух формах в двух: Site Explorer и Site Spider :
Site Explorer Site Explorer позволяет просматривать структуру папок веб-сайта и легко загружать необходимые файлы или папки. HTML Spider Вы можете загружать целые веб-страницы или даже целые веб-сайты с помощью HTML Spider. Инструмент может быть настроен на загрузку файлов только с заданными расширениями.
Я считаю, что Проводник сайтов полезен, чтобы увидеть, какие папки включить / исключить, прежде чем пытаться загрузить весь сайт - особенно, когда есть целый форум скрывается на сайте, который вы не хотите загружать, например.
Скачать HTTracker он будет загружать веб-сайты очень легко шаги, чтобы следовать.
ссылку на загрузку http://www.httrack.com/page/2/
видео, которое поможет вам https://www.youtube.com/watch?v=7IHIGf6lcL4
Firefox может сделать это самостоятельно (по крайней мере FF 42 может). Просто используйте “Сохранить страницу”
Я считаю, что Google Chrome может сделать это на настольных устройствах, просто перейдите в меню браузера и нажмите кнопку сохранения веб-страницы.
Также обратите внимание, что такие услуги, как карманные могут на самом деле не сохранить веб-сайт, и, таким образом, подвержены гниению ссылок.
И наконец, обратите внимание, что копирование содержимого веб-сайта может нарушить авторские права, если это применимо.