Перейти к содержанию
СофтФорум - всё о компьютерах и не только

Удалённая архивация файлов и папок сайта


Рекомендуемые сообщения

Имеется сайт, нужно сделать резервную копию.

Доступ имею по ftp.

Бэкап БД сделал, теперь дело за файлами и каталогами. Но так как их много и качаться будет долго и трафик порасходуется, хочеться как-нибудь заархивировать все папки и файлы сайта чтобы можно было потом скачать...

Сервер вроде как на Linux'е, может какие команды архивации помогут? :)

Вообще это реально? :)

Ссылка на комментарий
Поделиться на другие сайты

Только через FTP думаю нельзя. Если есть SSH доступ - ОК. Если нет, но можно залить PHP / Perl / другой скрипт, можно запустить его, а потом скачать архив

Ссылка на комментарий
Поделиться на другие сайты

Да, через PuTTY

tar zcvf site.tar.gz www

Здесь www путь к папки, относительной к текущой директории

Если не можешь сделать, пиши где лежить сайт и резултать команди pwd или пише мне на ICQ / Skype и помогу...

Ссылка на комментарий
Поделиться на другие сайты

Darhazer:

Т.е. примерно так:

tar zcvf <имя_файла>.tar.gz /httpdocs

?

Изменено пользователем Darth Emil
Ссылка на комментарий
Поделиться на другие сайты

примерно да :blushing:

Потом надо <имя_файла>.tar.gz скопировать в директории к которой есть доступ по FTP или HTTP чтоб скачать, например также в /httpdocs

Ссылка на комментарий
Поделиться на другие сайты

Гость
Эта тема закрыта для публикации ответов.
  • Последние посетители   0 пользователей онлайн

    • Ни одного зарегистрированного пользователя не просматривает данную страницу
×
×
  • Создать...