Ссылка на файл
В вызове после предыдущей части мы размечали рецепт печенья для Кекса. Он оказался настолько хорошим, что мы решили сделать его доступным для всех. Мы сохранили рецепт в формате PDF, чтобы любой желающий мог его скачать и распечатать. Осталось добавить ссылку на этот самый файл.
Когда мы переходим по ссылкам, то попадаем на другие страницы или места на странице. Но при переходе по ссылке на файл браузер предложит его скачать.
Однако, если браузер умеет обрабатывать файлы этого типа, то содержимое файла откроется прямо в браузере. Чаще всего так происходит с изображениями. Но в последнее время браузеры научились открывать PDF-файлы и многие другие.
Для того чтобы предотвратить открытие файлов прямо в браузере, у тега существует атрибут download , который поможет именно скачать файл.
При скачивании или загрузке файлов со сторонних сайтов для безопасности можно использовать атрибут rel=»noopener» . Этот атрибут позволяет игнорировать скрипты сторонней страницы, которые могут влиять на загрузку файла. Особенно актуален этот атрибут в случае, если загрузка происходит в новой вкладке или новом окне.
Перейти к заданию
- index.html Сплит-режим
- style.css Сплит-режим
Блог
День двенадцатый. Все любят печенье
Сегодня Кекс попросил меня сделать рецепт того самого рыбного печенья доступным для всех своих клиентов. Но вот незадача, у меня нет принтера, да и печатать рецепт на всех, тратить бумагу, не хочется. Пришлось сделать ссылку для скачивания файла.
Скачать
!DOCTYPE>
Как скачать сайт полностью на компьютер?
Всем привет подскажите пожалуйста как скачать сайт www.bartek.wojtyca.pl/work/kceto.html себе на комп? Я качал через Teleport Pro, HTTrack но обе программы не полностью его качают! Они не могут скачать папку primary и все что в ней находится!
Жду ваших гениальных предложений!
- Вопрос задан более трёх лет назад
- 358460 просмотров
6 комментариев
Простой 6 комментариев
главный вопрос, зачем.
Saboteur @saboteur_kiev
По ftp не пробовали?
Андрей Васильченко @dron_4r Автор вопроса
Сергей: Это не мой сайт! так что FTP не канает
Андрей Васильченко @dron_4r Автор вопроса
386DX: Что бы был!
Saboteur @saboteur_kiev
Андрей Васильченко: Программы типа teleport pro и так далее устарели по своим алгоритмам, и подходят для примитивных сайтов. Современные динамические сайты адекватно и целиком такими методами скачать невозможно.

те же .php вытянуть не получится
Решения вопроса 0
Ответы на вопрос 13
Olejik2211 @Olejik2211
Чужой лендинг/сайт можно скачать с помощью webcloner.ru, если свой выгрузить хотите с сервера, то в помощь filezilla. Но если конструктор какой: тильда, викс, юкоз, то только через сервисы. Т.к. не дают они выгружать полностью сайт.
Ответ написан более трёх лет назад
Нравится 28 1 комментарий
А каким сервером бользоватся если через конструтор?
Владимир Мартьянов @vilgeforce
Раздолбай и программист
Ответ написан более трёх лет назад
Комментировать
Нравится 24 Комментировать
Попробуйте «Cyotek WebCopy».
www.cyotek.com/cyotek-webcopy
Ответ написан более трёх лет назад
Комментировать
Нравится 12 Комментировать
Чтобы скачать сайт целиком с помощью wget нужно выполнить команду:
wget -r -k -l 7 -p -E -nc http://site.com/
-r — указывает на то, что нужно рекурсивно переходить по ссылкам на сайте, чтобы скачивать страницы.
-k — используется для того, чтобы wget преобразовал все ссылки в скаченных файлах таким образом, чтобы по ним можно было переходить на локальном компьютере (в автономном режиме).
-p — указывает на то, что нужно загрузить все файлы, которые требуются для отображения страниц (изображения, css и т.д.).
-l — определяет максимальную глубину вложенности страниц, которые wget должен скачать (по умолчанию значение равно 5, в примере мы установили 7). В большинстве случаев сайты имеют страницы с большой степенью вложенности и wget может просто «закопаться», скачивая новые страницы. Чтобы этого не произошло можно использовать параметр -l.
-E — добавлять к загруженным файлам расширение .html.
-nc — при использовании данного параметра существующие файлы не будут перезаписаны. Это удобно, когда нужно продолжить загрузку сайта, прерванную в предыдущий раз.
Ответ написан более года назад
Комментировать
Нравится 9 Комментировать
archivarix @archivarix
Можно попровобать еще эту систему скачивания сайтов — https://ru.archivarix.com
Сервис скачитвает сайт онлайн, потом готовый сайт отправляет на емайл в zip файле вместе с CMS. Это будет работоспособный сайт, с лоадером и возможностью редактирования файлов, а не просто набор html файлов и картинок, который обычно получают при скачивании другими даунлоадерами. В этом основное отличие сервиса, по сути дела он импортирует скачиваемый сайт на свою CMS из любой другой, это дает огромные возможности для последующиего редактирования контента, вроде удаления битых ссылок, счетчиков и рекламы, создание новых страниц в скачанном сайте на основе существующих и тд.
Для того, чтобы посмотреть сайт на своем компьютере надо будет поставить локальный Apache сервер, например вот этот — https://www.apachefriends.org/ru/index.html
Ответ написан более трёх лет назад
Нравится 8 2 комментария
Эта программа больше предназначена не для скачивания сайта на комп, а для клонирования сайтов и для скачивания старых сайтов из web.archive.org. В отличие от всех других программ к скаченному сайту идет CMS, хоть и простая но вполне функциональная. Так что полученный контент можно легко подправить под свои нужды.

Руслан @Konovalovrg
archivarix а копируется ли сайт на Тильде с внутренним квизом в нем?
Java Developer
Выкачивал сайты с помощью программы Offline Explorer.
Скачивал без всяких проблем со всеми страницами и ресурсами.
На рутрекере много крякнутых версий данной программы.
Ответ написан более трёх лет назад
Нравится 4 1 комментарий
Андрей Васильченко @dron_4r Автор вопроса
Так же не может скачать!
Пробовал webparse.ru — можно скачать мобильную версию и десктопную. Доступны различные тарифы. Тестовая скачка бесплатна
Ответ написан более трёх лет назад
Нравится 4 1 комментарий
Спасибо большое!!
Web Developer
Есть ещё saveweb2zip.com, можно бесплатно скопировать сайт в архив, а там дальше делай с ним, что хочешь.
Два способа скачать сайт целиком на компьютер

Иногда возникает необходимость посмотреть не только фронт-энд сайта, но и его код. Бывает так, что встречается хороший веб-ресурс с необычным дизайном и хочется понять, как в нём сделаны те или иные элементы, какие используются теги и стили.
Предупреждаю сразу – воровать, таким образом, чужие проекты нельзя! Но для того чтобы сделать резервную копию своего сайта или посмотреть на то как свёрстан тот или другой элемент понравившегося вам ресурса, такой подход может быть использован.
Особенно удобно иметь файлы нужного сайта на жёстком диске своего ПК или в хранилище dropbox. Просмотреть его код можно в любое время, вне зависимости от того есть интернет или нет.
Скачиваем сайт своими руками
Итак, первый способ как скачать сайт целиком на компьютер состоит в том, что делаем всё своими руками, без сторонних он-лайн сервисов или особых программ. Для этого нам понадобится браузер и простой редактора кода, например Noutepad++.
- Создаём на рабочем столе корневую папку с названием сайта
- Создаём в ней ещё три папки и называем одну images (сюда будем складывать картинки); вторую — css (для файлов со стилями); и третью — js (для скриптов).
Загружаем html код страницы
Далее всё очень просто: находим интересующий нас проект, открываем главную страницу и нажимаем на клавиши ctrl + U. Браузер сразу же показывает нам её код.

Копируем его, создаём новый файл в редакторе кода, вставляем код главной страницы, в новый файл, сохраняя его под названием index, с расширением html (index.html). Всё, главная страница сайта готова. Размещаем её в корне документа, то есть кладём файл индекс.html рядом с папками images, css и js
Далее чтобы скачать сайт целиком на компьютер проделываем тоже со всеми страницами сайта. (Данный метод подходит, только если ресурс имеет не слишком много страниц). Таким же образом, копируем все html-страницы понравившегося нам сайта в корневую папку, сохраняем их с расширением html и называем каждую из них соответствующим образом (не русскими буквами – contact.html, about.html).
Создаём css и js файлы
После того как мы сделали все страницы сайта, находим и копируем все его css стили и java скрипты. Для этого кликаем по ссылкам, ведущим на css и js файлы в коде.


Таким же образом как мы копировали файлы html, копируем все стили и скрипты создавая в редакторе Notepad++ соответствующие файлы. Делать их можно с такими же названиями, сохраняя их в папках сss и js. Файлы стилей кладём в папку css, а код java script в папку js.
Копируем картинки сайта
Чтобы скачать сайт целиком на компьютер также нам нужны все его картинки. Их можно загрузить, находя в коде сайта и открывая по порядку одну за другой. Ещё можно увидеть все картинки сайта, открыв инструменты разработчика в браузере с помощью клавиши F12. Находим там директорию Sources и ищем в ней папку img или images В них мы увидим все картинки и фотографии сайта. Скачиваем их все, ложа в папку images.

Убираем всё лишнее в html коде
После того как мы скачали все файлы сайта нужно почистить его код от всего лишнего. Например, можно удалить:
- код google analytics и yandex метрики;
- код верификации сайта в панелях для веб мастеров яндекса и гугла:
- можно удалить любой код, который нам не нужен и оставить тот, что нужен.
Настраиваем пути к картинкам, скриптам и стилям
Теперь если открыть файл index.html с помощью браузера то мы увидим только его хтмл код, который выглядит так же как сайты на заре появления интернета. Чтобы сайт стал таким же, как он есть он-лайн нужно подключить к нему css стили, скрипты и фотографии. Для этого подключаем в html коде файлы со стилями css и скрипты, а так же прописываем правильный путь к фотографиям. Чтобы не ошибиться при прописывании пути к файлам, я не рекомендую делать большую вложенность папок в папки. Все фотографии пусть будут в папке images а стили в css . Ссылки на файлы css и js могут быть приблизительно такими:
А вот ссылка к файлу с логотипом лежащим в папке images:

Если мы всё правильно подключили то, открыв индексный файл с помощью браузера, мы увидим сайт точно таким же, как он есть в интернете.
Скачиваем сайт целиком на компьютер с помощью wget
Этот способ намного быстрее предыдущего. Скачиваем последнюю версию консольной программы wget здесь.

Подробно об этой программе написано в Википедии и сейчас нет необходимости расписывать все нюансы её работы.
Далее распаковываем архив и создаём на диске С в папке Program Files папку с названием wget. Затем вставляем файлы из корневой папки распакованного архива в только что созданную папку.

После этого находим на рабочем столе системный значок «Компьютер», кликаем правой кнопкой мыши по нему, открываем «Свойства», заходим в «Дополнительные свойства системы», «Перемены среды» и находим здесь строку «Path» в директории «Системные переменные» и жмём на кнопку «Изменить».
Перед нами появится строка, в конце которой нужно поставить точку с запятой и затем вставить скопированный путь к папке wget на диске С (C:\Program Files\wget). Вставляем его после точки с запятой в строке и сохраняем всё.

После этого чтобы скачать сайт целиком на компьютер, открываем консоль windows в директории «Пуск» и вводим в командную строку cmd. После этого мы увидим консоль, куда вводим wget –h чтобы убедится, что данное приложение работает.
После копируем url нужного сайта и вводим wget —page-requisites -r -l 10 http://adress-sayta.com и запускаем консоль. (Параметр —page-requisites отвечает за то чтобы все картинки, шрифты и стили сайта скачались. Если оставить этот параметр и вставить в конце только url сайта, то загрузится только его главная страница. Поэтому нужно добавить ключи -l и -r и 10-ый уровень вложенности глубины загрузки.

Всё, скачивание сайта началось. Скопированные файлы теперь находятся на диске С в папке «Пользователи», «Admin» (на windows 7). В папке «Админ» находим папку сайта со всеми его файлами. Запускаем файл index.html и убеждаемся, что веб-ресурс скачан на компьютер полностью и он такой же, как он-лайн.
Как скопировать сайт целиком и переделать под себя

“Новое — это хорошо забытое старое…”. Кажется, в мире интернета смысл этой поговорки немного изменился. В условиях миллиардной аудитории никто не ждет, пока какой-то проект или красивый лендинг забылся. Копирование, копирование и еще раз копирование — это философия не только небольших частных предпринимателей, которые просматривают сайт-визитку или витрину магазина где-то за океаном. Копируются соцсети, мессенджеры, маркетплейсы, различные сервисы для бизнеса. И плагиат распространен в мире арбитража трафика.
Увидели красивый лендинг или крутой преленд с высокой конверсией? Необязательно тратить много времени и делать все с нуля. Если не копировать, то какой смысл в SPY-инструментах. Но простое использование команд “Ctrl+C” и “Ctrl+V” не работает. Да и при копировании страницы теряется код, нарушается верстка, пропадают картинки, отсутствует анимация. Не работают формы обратной связи, партнерские ссылки для переадресации на сайт рекламодателя засчитываются владельцу донора. Можно ли скопировать сайт так, чтобы его можно было отредактировать под себя и залить на сервер? И как это сделать? Об этом сегодня и поговорим. Усаживайтесь поудобнее, впереди вас ожидает только полезная информация и рабочие советы.
Можно ли скопировать любой сайт
- сбивается верстка на адаптивных сайтах: съезжают кнопки, таблицы, текст;
- часть информации, как текстового, так и графического контента, становится недоступной;
- не работают формы, в некоторых случаях при заполнении полей обратной связи заявки будет получать конкурент, у которого вы “своровали” сайт;
- ни о какой адаптивности говорить не стоит: сайт будет всегда адаптированным под размер экрана устройства, с которого было копировано.
Хорошая новость в том, что простые сайты скопировать можно и даже обеспечить их корректную работу после минимальных правок в визуальном редакторе и ввода штучных изменений в код. Это лендинги, прелендинги, сайты-визитки и даже небольшие интернет-магазины на несколько страниц.
Загрузить можно даже сайт, который работает с использованием динамических таблиц. Правда мы получим статическую страницу с урезанными функциями (например, без адаптации под размер экрана).
А зачем вообще копировать чужой сайт
Если перефразировать слова Остина Клеона из книги “Кради как художник”, копирование — это творческий процесс, если мы, конечно, просто не выдаем чужие наработки за свои. И он ведет нас к прогрессу. Используя готовые образцы за основу, мы создаем что-то новое. Становится актуальным вопрос: что хорошо, а что плохо? “Существует только то, что достойно или недостойно быть позаимствованным…”.
Копирование помогает переосмыслить чужие идеи и сделать что-то лучшее. Для веб-программистов и верстальщиков — это возможность разобрать чужой код, изучить особенности работы скриптов, анимацию, чтобы потом использовать эти идеи в новых проектах.
Актуально копирование сайтов в арбитраже трафика и среди маркетологов, которые запускают рекламные кампании в сети. Можно потратить месяцы и тысячи долларов (это при самых скромных подсчетах) на тестирование лендингов и прелендингов, сайтов визиток и одностраничных магазинов (неважно, созданным с нуля или на базе шаблонов). Но все равно не получить результат.
Альтернатива — найти Landing Page через SPY-инструмент, посмотреть статистику, выбрать и, естественно, доработать под себя. Второй способ занимает немного времени, буквально часы. И бонус — можно сразу скопировать рабочую связку типа “баннер+лендинг”, “прелендинг+лендинг” или даже “баннер+преленд+лендинг пейдж”.
Последствия копирования чужих сайтов
Прежде чем переходить непосредственно к основному разделу с советами, вспомним о последствиях, которые могут ожидать при копировании:
- административная ответственность. За копирование чужого сайта (прежде всего это касается дизайна и логотипов) на вас могут подать в суд. Но это возможно только в случаях, когда скопирован уникальный портал, например интернет-магазин, который разрабатывался с нуля, а не лендинг по бесплатному шаблону;
- владелец оригинала через суд может заставить вас удалить свой ресурс, если вы копируете магазин или страницу захвата. Вы потеряете клиентов, которых успели привлечь, усилия на доработку и продвижение пропадут зря;
- вы теряете часть клиентов, когда используете чужой дизайн: клиенты будут ассоциировать вас с компанией-донором сайта, в следующий раз могут обратиться в другую компанию;
- возможна просадка конверсии — в случае, если лендинг уже надоел аудитории, пользователи будут его игнорировать, так как часть целевой аудитории уже отклонила предложение или воспользовалась им.
Все же в арбитраже, если успеть вовремя заметить лендинги и прелендинги с высокой конверсией, копирование сайта позволяет быстро запустить рабочий креатив и увеличить ROI, сберегая время и силы на разработку. А web-программисты получают образец для тренировок и разбора удачных решений.
Как скачать веб сайт на компьютер через браузер
Самый очевидный способ скопировать web-сайт — скачать его с помощью браузера. При этом доступно сразу два способа:
- народный Ctrl+S (“Страница” — “Сохранить как…” в Opera. В Chrome опция запрятана в “Дополнительных инструментах”) — метод, который сразу приходит на ум;
- копирование кода страницы через “Инструменты разработчика” в меню “Разработка” (в браузерах на базе Google Chrome — в меню “Дополнительные инструменты”).

Кажется, все просто, зачем еще заморачиваться. Используем команду “Ctrl+S” и получаем готовый html-файл. Не все так, как кажется. Функция сохранения создана, в первую очередь, чтобы можно было просматривать информацию автономно, когда нет доступа к интернету. И это не самый удобный способ копирования сайта.
Доступно три варианта скачивания:
- только html;
- одним файлом;
- страница полностью.

Первый метод предполагает сохранение только html-разметки. Если такую страницу просматривать без интернета или попытаться установить на сервер, то мы увидим только таблицы, заголовки. Большая часть контента, картинки, формы, виджеты и даже часть текста, будет утеряна.
Очевидно, нужно выбрать пункт “Страница полностью” или “Одним файлом”. В первом случае будет сохранен html-файл вместе с папкой, в которой сохраняются файлы стилей, шрифты, картинки, ссылки на другие страницы. Во втором создается веб-архив: HTML документ вместе с javascript, css, аудио и видео, закодированный по методу MIME (.mhtml) — по такому же принципу кодируются сообщения электронной почты.
И mhtml-архив и html-докумет с файлами позволяют просматривать содержимое страницы в автономном режиме. Но в случае загрузки на сервер сайт работать не будет или с заметными искажениями, хотя сохраненные страницы можно открыть через визуальный редактор (и даже через текстовый редактор типа MS Word), отредактировать и уже сохранить в правильном формате.
Но главный недостаток — за один раз вы сохраняете только одну страницу. Если это большой сайт, на выходе получится много папок, не связанных между собой, которые придется связывать вручную.
Более продвинутый способ копирования — через инструменты разработчика. Позволяет скопировать не только саму html-разметку, но и структуру файлов сайта с каталогами.

Чтобы скопировать сайт:
- входим в меню “Разработка”;
- выбираем “Инструменты разработчика” (Ctrl+I или Ctrl+Shift+I) — перед нами появляются DevTools;
- выбираем вкладку “Sources” — в левой части окна открывается окно с деревом каталогов;
- просматриваем структуру страницы — обычно файлы сайта идут в первой папке, ниже — папки с внешними скриптами (обычно, их копировать не нужно);
- создаем на локальном хранилище (жесткий диск, флешка, облачное хранилище, куда мы будем копировать страницу) папку с названием страницы, внутри создаем каталоги в соответствии со структурой зеркала сайта;
- сохраняем поочередно все файлы, кликнув по ним правой кнопкой мыши и выбрав команду “Save As”. К сожалению, скопировать все файлы одним махом или папку целиком возможности нет;
- копируем название файлов (символы в названии после вопросительного знака (“?”) копировать необязательно), если оно не подставилось автоматически;
- если нужно скачать изображение, то мы кликаем по нему в каталоге в левой части окна, после этого нажимаем по самому объекту правой кнопкой мышки и выбираем все ту же команду — “Save As”.
Повторяем процедуру для всех страниц сайта. Естественно, если названия папок с контентом совпадают, то на сервере используется общий каталог, создавать новый на локальном диске не нужно.

Если инструментов разработчика нет, можно пойти по более длинному пути. Создаем папку с названием сайта, внутри три каталога: img — для изображений, видео; css — для файлов стилей; js — для файлов скриптов. Открываем главную страницу копируемого сайта. Нажимаем “Ctrl+U” — браузер откроет исходный код страницы. Копируем его и вставляем в блокнот. Сохраняем файл в папке сайта (корневой папке) под именем index.html. В исходном коде находим ссылки на скрипты, изображения (заканчиваются расширением .jpg, .png), стили (css), скрипты (js) — кликаем по ним. Код сохраняем с использованием блокнота. Помещаем в папки с соответствующим названием. По такой же схеме сохраняем все страницы.

Правда смысла в этом методе немного. В современных браузерах, даже небольших авторских проектах, реализованы инструменты разработчика. Да и удобнее пользоваться парсерами, способными в автоматическом режиме просканировать все страницы и скачать сайт целиком.
Специализированные программы для копирования сайта — парсеры
Парсеры, они же грабберы или рипперы — это специализированные программы, которые постранично сканируют сайт или только выбранные разделы, скачивают исходный код и контент, систематизируют данные в автоматическом режиме. У парсеров, как и у обычного браузера, нет доступа к данным, сохраненным на сервере: на это способен лишь хакерский софт, и то только после внедрения шпионского ПО (червя или трояна), которое сольет пароли и логины для доступа или напрямую данные с сервера злоумышленнику. Как вы понимаете, такой софт в свободном доступе не лежит.
Принцип работы парсеров такой же, как и при постраничном скачивании с помощью команды “Сохранить как…” или через “Инструменты разработчика”. Только поочередно веб-страницы открывает не пользователь, а бот, который имитирует поведение человека. Похожий алгоритм у роботов поисковых систем.
Юзер вводит url-адрес в адресной строке граббера. Приложение подает запрос серверу, тот в ответ выдает html-код. Дальше бот считывает страницу и начинает ее сканирование: ищет все внутренние ссылки и отправляет запрос по ним, потом снова считывает и сохраняет код, стили, скрипты, мультимедиа, контент. Процесс повторяется, пока приложение не сканирует весь сайт.
Парсеры не смогут сделать идентичную копию сайта. Они сохраняют лишь его статический html-слепок (зеркальную копию или дубликат). Но для небольших лендингов часто этого достаточно, где исходный код и страница в браузере — идентичны. И главный бонус — такой софт облегчает работу арбитражников:
- экономит время, десятки часов;
- автоматически систематизирует файлы, создавая структуру сайта, которую можно загрузить на сервер и запустить;
- снижает вероятность механической ошибки, когда какой-то файл сохранен не под правильным именем или помещен не в тот каталог.
Недостаток — по-прежнему невозможно скачать исходный код. Только слепок или зеркальную копию с контентом и ссылками, которую выдает сервер. Остальные минусы зависят от конкретного приложения. Например, некоторое ПО просто скачивает с каждой страницы всю информацию, которую сможет найти. В итоге получается много дублей картинок и скриптов. Сайт размером в 20 мегабайт может разрастись до 200 мб.
В сети выложено много парсеров как бесплатных, так и платных. Есть софт в виде программного обеспечения для установки на локальное устройство (для Windows, Android, MacOS, iOS), скрипты для установки на сервер, онлайн-сервисы.
Специализированные программы для установки на компьютер
WinHTTrack WebSite Copier
WinHTTrack WebSite Copier — приложение для скачивания сайтов, которое распространяется бесплатно. Есть версии для Windows, в том числе устаревших версий Windows 2000, XP (WinHTTrack), Linux, BSD (WebHTTrack). Основная задача — скачивание и упорядочивание файлов. На выходе получаем готовую папку с зеркальной копией сайта, которую можно залить на сервер.

У софта есть много дополнительных опций:
- скачивание закрытых разделов сайта (при наличии доступа — логина и пароля), доступных авторизованным пользователям;
- создание резервных копий в несколько кликов;
- обновление уже скачанного сайта — приложение сопоставит и добавит обновленные разделы или внесет изменения в скачанные страницы;
- возможно одновременное скачивание нескольких сайтов с перекрестными ссылками или скачивание вместе с сайтом страниц других ресурсов, на которые ведут внешние ссылки;
- гибкая настройка формата структуры сохраненного сайта (одним файлом mhtml или сайта полностью), ассоциаций MIME, добавление прокси и др.;
- возобновление прерванных загрузок и другие опции.
Cyotek WebCopy
Еще один бесплатный парсер с широкими возможностями. Софт автоматически упорядочивает структуру, копирует скрытые части сайта, которые доступны только после аутентификации. Полезная функция — захват форм. В отличие от других грабберов, Cyotel WebCopy умеет копировать с сохранением работоспособности формы доступа, обратной связи, заказа, которые реализованы на сервере через динамические скрипты php.

В отличие от HTTrack, есть версия только для Windows, зато здесь более современный и приятный дизайн.
- автоматическое упорядочивание структуры. Парсер сопоставляет все ссылки и переназначает путь к ним после копирования, исключает появление дубликатов;
- можно вручную установить формат, по которому приложение будет упорядочивать структуру;
- доступно сохранение контента в один файл (MIME html);
- опция захвата форм, возможно скачивание закрытых разделов, доступных после авторизации;
- приложение выводит дерево ссылок, в котором можно наглядно посмотреть структуру сайта;
- фильтры, позволяющие сохранить только скрипты или изображения;
- приложение устроено так, чтобы создать зеркальную копию сайта, которая будет работать автономно.
Wget
Это универсальная утилита с множеством полезных функций. Умеет сканировать и копировать сайты по http, https, ftp, ftps. Если оценивать по возможностях — это одно из самых мощных приложений. Умеет сканировать сайт и сохранять исходный код вместе с контентом в один файл (mhtml для локального просмотра), создавать зеркальные копии сайта, которые в дальнейшем можно загрузить на новый сервер. Также среди функций — скачивание исходного кода с сервера по ftp (для разработчиков и владельцев).
Утилита изначально написана для linux, но потом создатели сделали компиляцию для Windows. Но визуальная оболочка отсутствует. Управление граббером через командную строку.

Скачать дистрибутив для Linux можно здесь. Версия для Windows (файл .exe) — здесь.
Процесс установки на Windows:
- загружаем файл или zip-архив;
- извлекаем файл wget.exe, копируем его в папку Windows/System32 (или в другой каталог, который позволяет запускать утилиту через командную строку из любого места);
- запускаем командную строку: прописываем в строке поиска на панели задач cmd (Windows 10, 11) или Win + X — “Выполнить”, пишем команду cmd, нажимаем кнопку ОК;
- вводим команду “wget -h”, чтобы увидеть список команд с расшифровкой;
- для удобства создаем каталог в корневой папке на диске С, куда будут загружаться файлы сайтов (cd / — команда, чтобы переместиться в корневой каталог, md wgetdown — создать папку с названием “wgetdown”).
- сделать зеркало сайта: wget -r https://www.yoursite.com;
- сделать копию сайта и локализовать ссылки: wget —convert-links -r https://www.yoursite.com;
- сделать оффлайн-зеркало с локализацией ссылок: wget —mirror —convert-links —adjust-extension —page-requisites —no-parent https://www.yoursite.com;
- сохранить зеркало сайта как .html: wget —html-extension -r https://www.yoursite.com;
- загрузить изображения: wget -A «*.jpg» -r https://www.yoursite.com.
Web ScrapBook
Браузерное расширение для Chrome, позволяет в несколько кликов скачать копию сайта или отдельную страницу. Также позволяет просматривать на браузере архивированные страницы, когда доступ к интернету отсутствует.

- удобное управление в один клик;
- минимум функций.
Teleport Pro

Одно из самых популярных приложений для копирования сайтов и лендингов среди арбитражников. Приложение может скачать сайт целиком или отдельные страницы со всеми ссылками и адаптацией для просмотра на компьютере. Граббер умеет создавать статические дубликаты лендингов и прелендингов, которые можно запускать на сервере.
- автоматическое восстановление структуры сайта;
- есть возможность настроить адреса ссылок;
- поиск по ключевым словам;
- загрузка скрытых разделов, защищенных паролем;
- создание дубликатов сайта;
- одновременное сканирование нескольких адресов.
Недостаток — устаревший дизайн, немного запутанный интерфейс.
Offline Explorer
Один из самых продвинутых грабберов с большим набором функций, интуитивно понятным и современным интерфейсом. Но он платный. Приложение умеет захватывать сайты целиком или отдельные страницы. С высокой точностью воспроизводит дубликаты страниц в социальных сетях (*Facebook, YouTube, *Instagram), может сканировать защищенные паролем разделы. Разработан на движке Chromium.

- одновременная загрузка нескольких проектов;
- автоматическое скачивание при появлении обновлений (резервное архивирование);
- загрузка по HTTP, FTP;
- реализовано сканирование и копирование страниц в социальных сетях.
Webcopier
Еще один платный проект. Webcopier изначально разработан для корпоративного использования. Это одновременно веб-браузер и инструмент, позволяет в несколько кликов сохранять интернет-каталоги, брошюры, расшаривать данные внутри локальной сети. Для разработчиков реализована возможность поиска мертвых ссылок и анализа структуры сайта.
Маркетологам риппер дает возможность быстро копировать страницы лендингов для дальнейшего редактирования.
- парсер имеет встроенные средства просмотра;
- копирование страниц в несколько кликов;
- сканирование, просмотр структуры;
- загрузка сайта с автоматической корректировкой структуры;
- есть версии для Windows, Mac, Android.
Плагин Save Page WE
Расширение для браузеров Chrome, Firefox. Фактически плагин копирует опцию “Save As…”, но более качественно упорядочивает структуру файлов. И имеет несколько полезных функций, таких как извлечение ссылок и файлов (изображений, видео).

Онлайн-сервисы для копирования сайтов
DollySites
Это не совсем онлайн-сервис, а скрипт, который можно установить на свой сервер (в лицензию входит возможность установки на три IP). Позволяет скачать и отредактировать сайт в несколько кликов, поддерживает прокси и tor-сайты (.union). Есть инструмент захвата и адаптации форм обратной связи. По набору функций DollySite превосходит многие оффлайн-пакеты для локальной установки. После регистрации открывается личный кабинет, где можно управлять загрузками.

- встроенный редактор;
- можно в несколько кликов заменить картинку или текст;
- высокая скорость работы за счет серверных ресурсов;
- можно перевести сайт с помощью встроенного переводчика.
Главный недостаток — скрипт платный. Демо-версия на один час без функции экспорта.
Web2zip
Простой сервис, который позволяет сделать дубликат сайта или лендинга. Функция у приложения только одна — сохранить сайт. Зато инструмент сразу создает zip-архив, готовый к загрузке на сервер и распаковке. Работает без регистрации и авторизации.

Saveweb2zip
Еще один сервис для создания дубликата сайта в один клик с упаковкой в zip. Но у сервиса есть несколько дополнительных функций:
- настройка форм обратной связи, интеграция с партнерками;
- копирование мобильной версии.

Saveweb2zip — один из лучших инструментов арбитражника, который позволяет быстро копировать лендинги и в один клик адаптировать их для захвата клиентов.
RoboTools
Роботулс пошел дальше и предлагает скопировать не только актуальную версию сайта, но и версии за прошлые годы из веб-архивов. Инструмент специально разработан для создания сателлитов. Сервис позволяет скачать сайт за несколько минут. Для загрузки доступен zip-архив, который можно отредактировать или загрузить на сервер и сразу же запустить (после распаковки). Сайт платный — оплата за страницы. Но скачивание с некоторыми ограничениями доступно бесплатно в демо-версии.

Webparse.ru
Сервис для скачивания сайтов в один клик, но с дополнительными функциями: скачивание мобильной версии, сканирование и просмотр контента, загрузка страницы или всего ресурса целиком. Сайт платный, есть пробная версия с одним бесплатным скачиванием.

WebSiteDownloader
Простой инструмент для скачивания сайтов в один клик без регистрации и ограничений. Вставляем ссылку, нажимаем кнопку “Download”. Полезная функция — поддержка скачивания из веб-архива Wayback Machine.

Копирование с использованием услуг фрилансеров и компаний
Еще один способ скопировать сайт — обратиться в веб-студию или к фрилансеру через одну из бирж фриланса. Метод подойдет, если вам понравился лендинг, сайт-визитка или небольшой магазин, сайт с описанием услуг и хочется себе такой же. Это не вариант для арбитражников: от звонка и заключения договора до получения готового сайта уйдет пару дней. Зато вариант для небольших предпринимателей, блогеров, у которых нет возможности и надобности разбираться в тонкостях веб-дизайна, работы с html-разметкой, подключения баз данных и настройки хостингов.
При обращении к фрилансерам, возможны два варианта:
- копирование сайта через парсер с редактированием кода и структуры, изменением контактов, форм обратной связи, некоторых фото. Дизайн будет идентичным, но новые функции добавить практически невозможно. Цена — в пределах 800-1000 рублей. Время работы — 1-2 дня;
- визуальное копирование с помощью конструктора (сборка нового сайта с нуля по шаблону). Этот вариант дороже, в пределах 5000 — 8000 рублей за простой лендинг, сайт на 3-5 страниц. Будут небольшие отличия в дизайне, анимации. Зато можно добавить функции по желанию. Время — до 10 дней.
В любом случае вы получаете сайт с правильной версткой без ошибок, с работающими формами обратной связи.
Студии, где можно заказать услугу копирования сайта:
- студия SPECHEET (specheet.ru). Копирование (парсинг) — 790 рублей, от одного дня. Создание копии лендинга с нуля — от 7000 руб.;
- pro — сервис копирования сайтов (парсинга). Предлагает три тарифа: эконом за 390 руб. — копирование парсером с удалением трекеров и жучков; Эконом+ за 590 руб. — дополнительно редактируется форма приема заявок; Стандарт за 990 руб. — копирование с удалением трекеров, редактированием формы приема заявок, замена текста, контактов, установка Я.Метрики, залив на хостинг;
- веб-агентство pixel — предлагает комплексное копирование сайта (дизайна, форм, скриптов), цены рассчитываются индивидуально.
Гайд: как скачать весь сайт
Мы уже описали, как копировать сайт постранично с помощью встроенных инструментов браузера. Теперь подробная инструкция по использованию программ и сервисов.
Как скопировать сайт с помощью программы Cyotel WebCopy
Эту программу мы выбрали по трем причинам: она бесплатная, хороший функционал, почти как у платного софта, и приятный современный интерфейс (в сравнении с HTTrack, Teleport Pro, у которых возможности такие же).
Скачиваем установочный файл — переходим на официальный сайт, нажимаем кнопку “Download”.

Запускаем скачанный установщик, принимаем условия, нажимаем кнопку дальше.

Отмечаем необходимые настройки, нажимаем кнопку “Дальше” (Next).

Выбираем опции установки (создавать ли ярлык на рабочем столе), нажимаем “далее” и “установить”.

Запускаем приложение. Основные режимы работы программы:
- тестирование сайта;
- просмотр отчета по содержимому сайта;
- быстрое сканирование;
- копирование сайта.

Быстрое сканирование позволяет увидеть структуру страниц и их взаимосвязь. Через отчет можно оценить размер сайта и насколько много дополнительного контента будет загружено.

Чтобы скопировать сайт, достаточно в поле с адресом (website) вставить URL и нажать кнопку Копировать (Copy). Приложение автоматически создает структуру, редактирует ссылки. Все данные сохраняются в папку (Save folder), указанную под адресной строкой.

Готово, получаем дубликат сайта с преобразованным php-кодом в html-разметку. После завершения копирования в окне с данными можно посмотреть результаты копирования, список файлов, карту сайта.

Копирование сайта с помощью онлайн-сервиса Saveweb2zip
Процесс копирования с помощью сервиса упрощен, насколько возможно. Все четыре шага:
- переходим по ссылке saveweb2zip.com;
- вставляем в адресную строку url сайта или страницы;
- если нужно, настраиваем форму обратной связи;
- нажимаем кнопку “Скачать”.

Сервис сканирует сайт, автоматически формирует его зеркало и запускает скачивание. На этом копирование закончено. Вы получаете готовый для запуска дубликат. Скачанный zip-архив можно редактировать в визуальном редакторе или распаковать и запустить на сервере.

Скачивание изображений с сайта
И предустановленные программы, и онлайн-сервисы скачивают сайт целиком вместе с изображениями, скриптами, видео. Но картинки, как и видеоролики, копируются не всегда. Причина может быть как в установленных ограничениях по размеру файла, так и просто связана со сбоями в работе сервиса, ошибками в коде. Изображения могут физически находится на стороннем сайте (хостинге изображений или видеохостинге) и граббер проигнорирует их. В такой ситуации есть несколько решений:
- сканировать с помощью парсера, который умеет отдельно скачивать картинки и другой мультимедиа контент;
- заново сканировать сайт парсером, установив функцию “Скачать все страницы по ссылкам” (multiple mirror);
- копировать картинки вручную: открываем в браузере исходный сайт и скопированную на ПК копию, просматриваем страницы, где отсутствуют изображения, копируем картинки, кликнув по ним правой кнопкой мыши и выбираем команду “Сохранить изображение как…”, сохраняем в папку с контентом (img, pics, content или другое название) в раннее скачанном архиве;

- через инструменты разработчика: нажимаем в браузере Ctrl+Shift+I, открываем вкладку Sources, находим папку с изображением, копируем в папку с архивом.

Удобный функционал по скачиванию картинок реализован в Wget. Но приложение работает только через командную строку. Чтобы скачать изображения, запускаем программу через командную строку и вводим команду wget -A «*.jpg» -r https://www.yoursite.com
Как редактировать скопированный сайт
После скачивания есть несколько способов редактирования:
- открываем через блокнот или адаптированный блокнот для программистов (Notepad++, HAPedit или другой) и редактируем исходный код (вариант для настоящих гиков);
- через локальное приложение для создания и редактирования сайтов, например Adobe Dreamwiever или через WYSIWYG Web Builder. Впрочем, отредактировать скачанный лендинг можно даже через MS Word. Работает по принципу графического редактора (но не получится отредактировать формы захвата). Редактируем текст, стили, добавляем разделы как и при редактировании текстового документа;
- через веб-абминку CMS. Импортировать большой сайт на WordPress, Joomla или другую CMS не так легко (веб-разработчики новичкам рекомендуют работать с Modx Revo), но с лендингами, у которых минимум внешних ссылок, можно управиться, хотя это требует опыта.

Для редактирования лучше использовать специализированный редактор, хотя можно использовать и MS Word или его бесплатные аналоги, например WPS Office.
Подведем итоги
Скопировать сайт несложно, если это ресурс на несколько страниц без сложных форм и скриптов. Лендинги, магазины на одну страницу, визитки можно скачать, отредактировать и запустить на собственном сервере за несколько минут. Но когда дело касается сложных проектов с сотнями, тысячами страниц, корректно скопировать их достаточно сложно. И усилия на доработку часто нужны такие же, как на создание с нуля. Впрочем, для маркетологов и арбитражников парсеры заметно упрощают жизнь и позволяют намного быстрее запускать успешные рекламные кампании.
*владелец Facebook и Instagram, компания Meta – запрещенная в РФ организация
Вам была полезна эта статья?