UNIX

wgetでウェブサイト(ディレクトリ)をバックアップする方法。

さくらインターネットで公開しているサイトを、手元にあるUNIXマシンへ持ってくる必要がありました。
今回は小規模なサイトでしたが、WordPress等、CMSで作成されているウェブサイトのバックアップが必要になった場合は大量のファイルをひとつひとつFTPでダウンロードするのは時間が掛かってしまいますし、たまに失敗することも。

ということで、手元にあるUNIXマシンでwgetコマンドを使って一括ダウンロードしてみたいと思います。
ちなみにWindows用もありますが、インストールが面倒くさいのでUNIXを使うこととします(えー)

wgetコマンドの使い方

文法

wgetコマンド実例

トップページ(index.html)をダウンロードしたい場合

【解説】
オプション無しでURLを指定した場合は、指定されたファイルをダウンロードします。

サイト全体をダウンロードしたい場合

【解説】
-r : 再帰的取得
-l 0 (小文字のエル、スペース、数字の0): リンクをたどる階層の指定。「0」は全階層の意味。階層数のデフォルトは「5」

上記だと、URLを起点としてリンク先を3階層たどってファイルを取得します。

特定のディレクトリのみをダウンロードしたい場合

【解説】
-np : 親ディレクトリは無視

wgetはFTPだけでなくHTTP経由でもファイルの取得を行えるコマンドですので、自分のはもちろん、人様のサイトもこれでバックアップをとることが出来るのですが、あまり感心できない気もするので、そのあたりは自己責任でお願いします。

-UNIX
-, , ,