wgetはウェブサイト全体(サブディレクトリ全体)または特定のディレクトリをダウンロードします

wgetはウェブサイト全体(サブディレクトリ全体)または特定のディレクトリをダウンロードします

wgetコマンドを使用して、親ディレクトリの下のサブディレクトリ全体をダウンロードします。

親ディレクトリの下のサブディレクトリ全体をダウンロードするには、wget コマンドを使用します。コマンドは次のとおりです。

wget -r --level=0 -E --ignore-length -x -k -p -erobots=off -np -N http://www.remote.com/remote/presentation/dir

リモート サーバーのフォルダー全体がコンピューターの現在のファイル ディレクトリにダウンロードされます。

wget を使用してディレクトリ内のすべてのファイルをダウンロードする方法

wget -r -np -nH -R index.html http://url/including/files/you/want/to/download/

各パラメータの意味:

-r : すべてのサブディレクトリを走査する
-np: 上位のサブディレクトリには移動しない
-nH : ホスト名フォルダにファイルを保存しない
-R index.html : index.html ファイルをダウンロードしない

wgetはウェブサイト全体または特定のディレクトリをダウンロードします

特定のディレクトリ内のすべてのファイルをダウンロードする必要があります。コマンドは以下のとおりです

wget -c -r -np -k -L -p www.xxx.org/pub/path/

ダウンロード中。外部ドメインへの画像またはリンクがあります。同時にダウンロードする必要がある場合は、-H パラメータを使用する必要があります。

wget -np -nH -r --span-hosts www.xxx.org/pub/path/

-c ダウンロードを再開する
-r 再帰ダウンロード、指定されたウェブページのディレクトリ(サブディレクトリを含む)内のすべてのファイルをダウンロードします
-ndは再帰的にダウンロードするときに階層ごとにディレクトリを作成せず、すべてのファイルを現在のディレクトリにダウンロードします。
-np は、wget -c -r www.xxx.org/pub/path/ のように再帰的にダウンロードするときに上位ディレクトリを検索しません。
-np パラメータを指定しないと、上記のパスの pub ディレクトリにある他のファイルも同時にダウンロードされます。
-k は絶対リンクを相対リンクに変換します。サイト全体をダウンロードし、Web ページをオフラインで閲覧するには、このパラメータを追加するのが最適です。
-L は、wget -c -r www.xxx.org/ などの再帰時に他のホストを入力しません。
ウェブサイトに次のようなリンクがある場合:
www.yyy.org の場合、-L パラメータを指定しないと、山を燃やす火のように www.yyy.org の Web サイトが再帰的にダウンロードされます。
-p 画像など、Web ページに必要なすべてのファイルをダウンロードします。
-A はダウンロードするファイルパターンリストを指定します。複数のパターンはカンマで区切られます。
-i の後には、ダウンロードする URL を指定するファイルが続きます。

他にもネットで調べた使い方があるので、今後の参考にして頂けるようここに記しておきます。

wgetの一般的な使い方

wget の使用形式

使用方法: wget [オプション]… [URL]…

* wget を使用してサイトをミラーリングします。
wget -r -p -np -k http://dsec.pku.edu.cn/~usr_name/
# または
wget -m http://www.tldp.org/LDP/abs/html/

* 不安定なネットワーク上で部分的にダウンロードされたファイルをダウンロードし、アイドル時間にダウンロードする

wget -t 0 -w 31 -c http://dsec.pku.edu.cn/BBC.avi -o down.log &

# または、filelistからダウンロードするファイルのリストを読み取ります

wget -t 0 -w 31 -c -B ftp://dsec.pku.edu.cn/linuxsoft -i filelist.txt -o
ダウンログ &

上記のコードは、ネットワークが比較的アイドル状態のときにダウンロードするためにも使用できます。私の使い方は、mozilla で、その時点でダウンロードするのが不便な URL リンクをメモリにコピーして、filelist.txt ファイルに貼り付け、夜間にシステムを離れる前に上記のコードの 2 行目を実行することです。

* プロキシを使用してダウンロードする
wget -Y on -p -k https://sourceforge.net/projects/wvware/

プロキシは環境変数またはwgetrcファイルで設定できます。

# 環境変数にプロキシを設定する
エクスポートPROXY=http://211.90.168.94:8080/
# ~/.wgetrc でプロキシを設定する
http_proxy = http://proxy.yoyodyne.com:18023/
ftp_proxy = http://proxy.yoyodyne.com:18023/

さまざまなwgetオプションのリスト

* 起動する

-V, --version wgetのバージョンを表示して終了する
-h, --help 構文ヘルプを表示する
-b, --background 起動後、バックグラウンドで実行
-e, --execute=コマンド
`.wgetrc' 形式でコマンドを実行します。wgetrc 形式については、/etc/wgetrc または ~/.wgetrc を参照してください。

* ファイルの記録と入力

-o, --output-file=FILE レコードをFILEファイルに書き込む
-a, --append-output=FILE FILEファイルにレコードを追加する
-d, --debug デバッグ出力を印刷する
-q, --quiet クワイエットモード(出力なし)
-v, --verbose 詳細モード(これがデフォルト設定です)
-nv、--non-verbose は詳細モードをオフにしますが、静音モードはオフにしません
-i, --input-file=FILE FILE に表示されている URL をダウンロードします
-F, --force-html 入力ファイルを HTML 形式のファイルとして扱う
-B, --base=URL -F -i パラメータで指定されたファイル内に表示される相対リンクのプレフィックスとして URL を使用します --sslcertfile=FILE オプションのクライアント証明書 --sslcertkey=KEYFILE オプションのクライアント証明書 KEYFILE
–egd-file=FILE はEGDソケットのファイル名を指定します

* ダウンロード

--bind-address=アドレス
ローカルアドレス(ホスト名またはIP、ローカルに複数のIPまたは名前がある場合に使用)を指定します
-t, --tries=NUMBER 接続試行の最大回数を設定します (0 は無制限を意味します)。
-O -​​-output-document=FILE ドキュメントをFILEファイルに書き込む
-nc, --no-clobber 既存のファイルを上書きしない、または .# プレフィックスを使用しない
-c, --continue 未完了のファイルのダウンロードを続行します --progress=TYPE 進行状況バーのマークを設定します
-N, --timestamping ローカルファイルより新しいファイル以外は再ダウンロードしない
-S, --server-response サーバーの応答を印刷 --spider 何もダウンロードしない
-T, --timeout=SECONDS 応答タイムアウトを秒単位で設定します
-w, --wait=SECONDS 試行間隔を SECONDS 秒待機 --waitretry=SECONDS 再接続間隔を 1...SECONDS 秒待機 --random-wait ダウンロード間隔を 0...2*WAIT 秒待機
-Y, --proxy=on/off プロキシをオンまたはオフにする
-Q, --quota=NUMBER ダウンロード容量制限を設定する --limit-rate=RATE ダウンロード速度を制限する

* 目次

-nd –no-directories ディレクトリを作成しない
-x, --force-directories ディレクトリの強制作成
-nH, --no-host-directories ホストディレクトリを作成しない
-P, --directory-prefix=PREFIX ファイルをディレクトリ PREFIX/… に保存します
--cut-dirs=NUMBER リモートディレクトリのNUMBERレベルを無視します

* HTTPオプション

–http-user=USER HTTPユーザー名をUSERに設定します。
–http-passwd=PASS http パスワードを PASS に設定します。
-C, --cache=on/off サーバー側のデータキャッシュを有効/無効にします (通常は有効)。
-E, --html-extension すべての text/html ドキュメントを .html 拡張子で保存します --ignore-length `Content-Length' ヘッダーフィールドを無視します --header=STRING 文字列 STRING をヘッダーに挿入します
–proxy-user=USER プロキシユーザー名をUSERに設定する
–proxy-passwd=PASS プロキシパスワードをPASSに設定する
--referer=URL HTTPリクエストに「Referer: URL」ヘッダーを含める
-s, --save-headers HTTPヘッダーをファイルに保存する
-U, --user-agent=AGENT は、エージェント名を Wget/VERSION ではなく AGENT に設定します。
--no-http-keep-alive HTTP キープアライブ接続 (永続的な接続) を無効にします。
--cookies=off クッキーを使用しません。
--load-cookies=FILE セッションを開始する前にファイル FILE からクッキーをロードします
--save-cookies=FILE セッション終了後に FILE にクッキーを保存します

* FTPオプション

-nr, --dont-remove-listing `.listing' ファイルを削除しない
-g, --glob=on/off ファイル名のグロビング メカニズムをオンまたはオフにします --passive-ftp パッシブ転送モードを使用します (デフォルト)。
--active-ftp アクティブ転送モードを使用する --retr-symlinks 再帰時に、リンクをファイル(ディレクトリではない)にポイントする

* 再帰ダウンロード

-r, –recursive 再帰ダウンロード - 注意して使用してください。
-l, --level=NUMBER 最大再帰深度 (inf または 0 は無限)。
--delete-after 完了後にファイルを部分的に削除します
-k, --convert-links 非相対リンクを相対リンクに変換する
-K, --backup-converted ファイルXを変換する前に、X.origとしてバックアップします
-m, --mirror は -r -N -l inf -nr と同等です。
-p, --page-requisites HTMLファイルに表示されているすべての画像をダウンロードします

* 再帰ダウンロードへの包含と除外(承認/拒否)

-A, --accept=LIST 受け入れ可能な拡張子のセミコロンで区切られたリスト
-R, --reject=LIST 受け入れられない拡張子のセミコロンで区切られたリスト
-D, --domains=LIST セミコロンで区切られた承認済みドメインのリスト --exclude-domains=LIST セミコロンで区切られた除外ドメインのリスト --follow-ftp HTML ドキュメント内の FTP リンクをたどります --follow-tags=LIST セミコロンで区切られたたどる HTML タグのリスト
-G, --ignore-tags=LIST 無視される HTML タグのセミコロンで区切られたリスト
-H, --span-hosts 再帰時に外部ホストへ移動
-L, --relative 相対リンクのみをたどる
-I, --include-directories=LIST 許可されたディレクトリのリスト
-X, --exclude-directories=LIST 含めないディレクトリのリスト
-np, --no-parent 親ディレクトリまで遡らない

これで、wget を使用して Web サイト全体 (サブディレクトリ全体) または特定のディレクトリをダウンロードする方法についての説明は終わりです。ディレクトリ内のすべてのファイル コンテンツをダウンロードする wget の詳細については、123WORDPRESS.COM の以前の記事を検索するか、以下の関連記事を引き続き参照してください。今後とも 123WORDPRESS.COM をよろしくお願いいたします。

以下もご興味があるかもしれません:
  • Linuxのwgetコマンドの詳細な説明
  • Linux の curl コマンドと wget コマンドの紹介と比較
  • vbs と wget を組み合わせてウェブサイトの画像をダウンロードする
  • Windows システムで wget スケジュール タスク スクリプトを構成する
  • dos は wget.exe を使用して、ウイルス対策ソフトウェアのアップグレードをより自動化します。
  • wget を使用してウェブサイトを再帰的にミラーリングする
  • Linuxのwgetコマンドの詳細な説明
  • Linux の wget コマンドの詳細な紹介

<<:  ウェブデザインレイアウトの理解

>>:  Vue でユーザー権限に基づいてルートを動的に追加する方法

推薦する

EclipseのプロジェクトをTomcatに追加できない問題を解決する方法

1. プロジェクトを右クリックしてプロパティを選択します2. プロジェクトファセットをクリック3. ...

MYSQLは、ショッピングカートに追加する際に重複追加を防ぐためのサンプルコードを実装します。

序文最近、仕事の都合で、APP ショッピングカートの注文支払いに取り組んでいました。テスト中にバグが...

自動行折り返し機能付き CSS Flex レイアウトのサンプル コード

フレックス コンテナーを作成するには、要素に display: flex プロパティを追加するだけで...

Nginx プロキシ転送構成を通じてクロスドメイン API プロキシ転送を実装する方法

序文WEB 開発では、クロスドメイン リクエストが頻繁に発生します。クロスドメインの問題を解決する方...

Navicat の MySQL へのリモート接続が遅い理由の詳細な説明

最終的な解決策は最後の写真にありますリモート データベース ( Linux システム) に接続したと...

Facebook によるインターネット サービスのほぼ完璧な再設計

<br />出典: http://www.a-xuan.cn/?p=197 先ほどFac...

インデックスを設計する際の原則は何ですか? インデックスの障害を回避するにはどうすればよいでしょうか?

目次主キーインデックス頻繁にクエリされるフィールドのインデックスを作成する大きなフィールドのインデッ...

Linuxファイルの基本属性の知識ポイントのまとめ

Linux システムは典型的なマルチユーザー システムです。異なるユーザーは異なる立場にあり、異なる...

JavaScript の手ぶれ補正とスロットリングの詳細な説明

目次デバウンススロットル要約するデバウンス定義: スクロール イベントなど、短時間に連続してトリガー...

Windows での MySQL5 グリーン バージョンのインストールの概要 (推奨)

1 MySQLをダウンロードするダウンロードアドレス: http://downloads.mysq...

Centos7.5でのIPアドレス設定の実装

1. IPアドレスを設定する前に、まずifconfigを使用してネットワークカード情報を表示し、ネッ...

...

CocosCreatorの共通知識ポイントを整理する

目次1. シーンの読み込み2. ノードを見つける1. ノード検索2. その他のノード操作3. 再生ア...

Nginx タイムアウト設定の詳細な説明

最近、プロジェクトで nginx を使用し、バックエンドで Java を使用しました。バックエンドで...

W3C チュートリアル (8): W3C XML スキーマのアクティビティ

XML スキーマは、DTD に代わる XML ベースのものです。 XML スキーマは、DTD に代わ...