最近、cronスケジュールタスク用のdockerを作りたいと思っており、Dockerfileで次のように定義しています library/alpine:latest より apk --update add rsync openssh bash を実行します ボリューム ["/data"] start.sh を追加します / コマンド ["/bin/bash","/start.sh"] crontab を使用して、start.sh でスケジュールされたタスク run.cron をロードし、crond を開始します。
docker build Dockerfile を実行後、docker run –name xxx -d を使用してコンテナを実行しました。start.sh の実行後にコンテナが終了し、スケジュールされたタスクをまったく開始できないことがわかりました。nohup の使用、無限ループ、シグナルの使用など、オンラインでさまざまな方法を試しましたが、どれも信頼できるものではないことがわかりました。 docker のメカニズムを分析した結果、docker コンテナは一度に 1 つのプロセスしか管理できないことがわかりました。プロセスが終了すると、コンテナも終了します。これは、コンテナ内で一度に 1 つのプロセスしか実行できない (それは無駄です) ことを意味するのではなく、最後に実行されているプロセスは終了できないことを意味します。 この場合、コンテナの起動時に start.sh が実行されます。crond のデフォルト設定はバックグラウンドで実行されるため、start.sh の実行が終了し、start.sh が終了するとコンテナが終了します。 したがって、start.sh では、crond をフォアグラウンドで強制的に実行する必要があります: crond -f。 この方法では start.sh は終了せず、docker run -d はコンテナをバックグラウンドで実行し続けることができます。 start.sh の概要: (1)コンテナ内で複数のデーモンプロセスを実行する場合、最初のプロセスをバックグラウンドで実行する必要があります(または&を追加してください)。そうしないと、後続のサービスを開始できません。 (2)コンテナ内の最後のデーモンプロセスはフォアグラウンドモードで実行する必要があります。そうしないと、start.shが終了し、コンテナが終了し、すべてのサービスが無駄に開始されます。 ubuntu:latestから mkdir -p "/usr/src/pdas" を実行します。 mkdir -p "/usr/src/pdas/reload" コピー bin.tar /usr/src/pdas config.tar /usr/src/pdas をコピーします lib.tar /usr/src/pdas をコピーする ワークディレクトリ /usr/src/pdas tar -xvf lib.tar && \ を実行します。 tar -xvf bin.tar && \ tar -xvf config.tar ENV LD_LIBRARY_PATH /usr/src/pdas/lib/libxml/lib:/usr/src/pdas/lib/curl/lib:$LD_LIBRARY_PATH ワークディレクトリ /usr/src/pdas/bin chmod +x start.sh && \ を実行します。 chmod +x f_recv && \ chmod +x f_send ボリューム /behb/diqu ボリューム /var/log/pdas エントリポイント ./start.sh ./start.shスクリプトは以下のとおりです #!/bin/bash ./f_recv & ./f_send 上記は、Docker イメージの起動スクリプトに関するいくつかの考察です。 追加知識: Docker で複数のプロセスを処理する方法 通常、Docker コンテナは単一のプロセスを実行するのに適していますが、多くの場合、Docker コンテナ内で複数のプロセスを実行する必要があります。マルチプロセス コンテナを実行するには、シェル スクリプトを使用する方法とスーパーバイザーを使用する方法の 2 つがあります。どちらの方法もシンプルで、それぞれに長所と短所がありますが、注目すべき詳細がいくつかあります。ここではスクリプトを使用した処理方法についてのみ説明します。 スクリプト multiple_thread.sh を記述します。このスクリプトは 2 つの Python プログラムを実行し、結果をログ ファイルに保存します。スクリプトの内容は次のとおりです #!/bin/bash # 最初のプロセスを開始する nohup python -u /tmp/thread1.py > /tmp/thread1.log 2>&1 & ps aux |grep スレッド1 |grep -q -v grep PROCESS_1_STATUS=$ ですか? echo "thread1 のステータス..." $PROCESS_1_STATUSをエコーする [ $PROCESS_1_STATUS -ne 0 ]の場合; echo "my_first_process の起動に失敗しました: $PROCESS_2_STATUS" $PROCESS_1_STATUS を終了 フィ 睡眠5 # 2番目のプロセスを開始する nohup python -u /tmp/thread2.py > /tmp/thread2.log 2>&1 & ps aux |grep スレッド2 |grep -q -v grep PROCESS_2_STATUS=$ ですか? echo "thread2 ステータス..." $PROCESS_2_STATUSをエコーする [ $PROCESS_2_STATUS -ne 0 ]の場合; echo "my_second_process の起動に失敗しました: $PROCESS_2_STATUS" $PROCESS_2_STATUS を終了 フィ # sleep 60; 中にプロセスが60秒ごとに実行されているかどうかを確認します ps aux |grep スレッド1 |grep -q -v grep PROCESS_1_STATUS=$ ですか? ps aux |grep スレッド2 |grep -q -v grep PROCESS_2_STATUS=$ ですか? # 上記のgrepで何かが見つかった場合は、0ステータスで終了します # 両方とも 0 でない場合は、何かがおかしい [ $PROCESS_1_STATUS -ne 0 -o $PROCESS_2_STATUS -ne 0 ]の場合; echo "プロセスの 1 つはすでに終了しています。" 出口1 フィ 次に、Dockerfile を作成します。 Centos:latest から thread1.py をコピー /tmp/thread1.py thread2.py をコピー /tmp/thread2.py multiple_thread.sh をコピー /tmp/multiple_thread.sh コマンド bash /tmp/multiple_thread.sh Docker コンテナ内で 2 つのプロセスを開始するための上記の Dockerfile 実装コードは、私が皆さんと共有できるすべてです。これが皆さんの参考になれば幸いです。また、123WORDPRESS.COM を応援していただければ幸いです。 以下もご興味があるかもしれません:
|
フレキシブル レイアウト (Flexbox) はますます人気が高まっており、CSS レイアウトの記述...
目次1. 短絡や条件文の代わりにデフォルトのパラメータを使用する2. 複数の条件の処理3. スイッチ...
前に書いたものは複雑すぎるので、シンプルなコアにしましょう <html> <ヘッド...
目次1. 使いやすい2. 関数内でジェネリックを使用する3. クラス内でジェネリックを使用する4. ...
インデックス作成は大学図書館の書誌インデックスの構築に似ており、データ検索の効率を向上させ、データベ...
この記事では、ボタン切り替え画像を実現するためのVueの具体的なコードを例として紹介します。具体的な...
Linux環境で、特定のソフトウェア(パッケージ)がインストールされているかどうかを確認したい。 r...
とても嬉しいです。この問題に遭遇したとき、私はDockerコンテナのプロセス原理について話さなければ...
jQueryプラグインの毎日の積み重ねメニュー、参考までに、具体的な内容は次のとおりです。スタックメ...
目次日付オブジェクト日付オブジェクトの作成新しい日付()日付を取得する()取得日()月を取得する()...
目次1. 材料を準備する2. Linuxカーネルファイルをダウンロードする3. コンパイル4. TF...
目次1. 通常どのようなコンテンツを処理する必要があるか2. 基本的な考え方3. 具体的な実践の詳細...
ヒント: MySQL では、ユーザーの作成と削除が頻繁に必要になります。ユーザーを作成するときは、通...
この記事は主にInnoDBのロックに関する知識を素早く理解してもらうことを目的としています。 Roc...
この記事では、フォームの完全選択または逆選択を実現するためのJavaScriptの具体的なコードを参...