docker容器內(nèi)要啟動(dòng)兩個(gè)進(jìn)程時(shí)Dockerfile的實(shí)現(xiàn)代碼
近期想做一個(gè)cron定時(shí)任務(wù)的docker,在Dockerfile中做如下定義
FROM library/alpine:latest RUN apk --update add rsync openssh bash VOLUME ["/data"] ADD start.sh / CMD ["/bin/bash","/start.sh"]
在start.sh中用crontab 加載定時(shí)任務(wù)run.cron,然后啟動(dòng)crond:
/usr/bin/crontab /run.cron
/usr/sbin/crond
docker build Dockerfile后,采用docker run –name xxx -d 運(yùn)行容器,發(fā)現(xiàn)start.sh執(zhí)行后容器就退出了,根本無(wú)法啟動(dòng)定時(shí)任務(wù),網(wǎng)上各種辦法有說(shuō)用nohup,有死循環(huán),還有說(shuō)用信號(hào),發(fā)現(xiàn)都不靠譜。
分析了一下docker的機(jī)制,一個(gè)docker容器同時(shí)只能管理一個(gè)進(jìn)程,這個(gè)進(jìn)程退出后,容器也就退出了。這并不意味著一個(gè)容器里只能同時(shí)運(yùn)行一個(gè)進(jìn)程(那樣太浪費(fèi)了),只是最后一個(gè)運(yùn)行的進(jìn)程不能退出。
這個(gè)案例在容器啟動(dòng)運(yùn)行start.sh,crond的缺省設(shè)置是后臺(tái)運(yùn)行,這樣導(dǎo)致start.sh運(yùn)行結(jié)束,容器跟著start.sh退出而退出。
因此,在start.sh中,crond 應(yīng)強(qiáng)制采用前臺(tái)運(yùn)行:crond -f。
這樣start.sh就不會(huì)退出, docker run -d 運(yùn)行時(shí)就可以保持容器后臺(tái)運(yùn)行。
start.sh總結(jié)總結(jié):
(1)容器中運(yùn)行多個(gè)守護(hù)進(jìn)程時(shí),前面的進(jìn)程要用后臺(tái)方式運(yùn)行(或添加 &),否則后面的服務(wù)無(wú)法啟動(dòng)
(2)容器中最后一個(gè)守護(hù)進(jìn)程一定要用前臺(tái)方式運(yùn)行,否則start.sh退出,容器退出,所有的服務(wù)就白啟動(dòng)了
FROM ubuntu:latest RUN mkdir -p "/usr/src/pdas" \ mkdir -p "/usr/src/pdas/reload" COPY bin.tar /usr/src/pdas COPY config.tar /usr/src/pdas COPY lib.tar /usr/src/pdas WORKDIR /usr/src/pdas RUN tar -xvf lib.tar && \ tar -xvf bin.tar && \ tar -xvf config.tar ENV LD_LIBRARY_PATH /usr/src/pdas/lib/libxml/lib:/usr/src/pdas/lib/curl/lib:$LD_LIBRARY_PATH WORKDIR /usr/src/pdas/bin RUN chmod +x start.sh && \ chmod +x f_recv && \ chmod +x f_send VOLUME /behb/diqu VOLUME /var/log/pdas ENTRYPOINT ./start.sh
其中 ./start.sh腳本如下
#!/bin/bash ./f_recv & ./f_send
以上是docker鏡像啟動(dòng)腳本的一點(diǎn)心得。
補(bǔ)充知識(shí):Docker中運(yùn)行多個(gè)進(jìn)程時(shí)的處理
通常,Docker容器適合運(yùn)行單個(gè)進(jìn)程,但是很多時(shí)候我們需要在Docker容器中運(yùn)行多個(gè)進(jìn)程。這時(shí)有兩種不同方法來(lái)運(yùn)行多進(jìn)程容器:使用shell腳本或者supervisor,兩種方法都很簡(jiǎn)單,各有優(yōu)劣,只是有一些值得注意的細(xì)節(jié)。這里只講用腳本的處理方法。
寫一個(gè)腳本multiple_thread.sh,腳本功能運(yùn)行兩個(gè)python程序,將運(yùn)行結(jié)果保存到log文件中。腳本內(nèi)容如下
#!/bin/bash # Start the first process nohup python -u /tmp/thread1.py > /tmp/thread1.log 2>&1 & ps aux |grep thread1 |grep -q -v grep PROCESS_1_STATUS=$? echo "thread1 status..." echo $PROCESS_1_STATUS if [ $PROCESS_1_STATUS -ne 0 ]; then echo "Failed to start my_first_process: $PROCESS_2_STATUS" exit $PROCESS_1_STATUS fi sleep 5 # Start the second process nohup python -u /tmp/thread2.py > /tmp/thread2.log 2>&1 & ps aux |grep thread2 |grep -q -v grep PROCESS_2_STATUS=$? echo "thread2 status..." echo $PROCESS_2_STATUS if [ $PROCESS_2_STATUS -ne 0 ]; then echo "Failed to start my_second_process: $PROCESS_2_STATUS" exit $PROCESS_2_STATUS fi # 每隔60秒檢查進(jìn)程是否運(yùn)行 while sleep 60; do ps aux |grep thread1 |grep -q -v grep PROCESS_1_STATUS=$? ps aux |grep thread2 |grep -q -v grep PROCESS_2_STATUS=$? # If the greps above find anything, they exit with 0 status # If they are not both 0, then something is wrong if [ $PROCESS_1_STATUS -ne 0 -o $PROCESS_2_STATUS -ne 0 ]; then echo "One of the processes has already exited." exit 1 fi
下一步制作Dockerfile:
FROM centos:latest COPY thread1.py /tmp/thread1.py COPY thread2.py /tmp/thread2.py COPY multiple_thread.sh /tmp/multiple_thread.sh CMD bash /tmp/multiple_thread.sh
以上這篇docker容器內(nèi)要啟動(dòng)兩個(gè)進(jìn)程時(shí)Dockerfile的實(shí)現(xiàn)代碼就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
dockerfile-maven-plugin使用指南小結(jié)
最近在將應(yīng)用部署到容器平臺(tái),需要在打包時(shí)生成docker鏡像,在網(wǎng)上首先搜到了docker-maven-plugin這個(gè)插件,本文就來(lái)介紹了dockerfile-maven-plugin使用小結(jié),感興趣的可以了解一下2021-09-09關(guān)于Docker容器Dead狀態(tài)的分析
這篇文章主要介紹了關(guān)于Docker容器Dead狀態(tài)的分析,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2023-07-07如何將Docker的構(gòu)建時(shí)間減少40%(推薦)
這篇文章主要介紹了如何將Docker的構(gòu)建時(shí)間減少40%,本文描述了我們?cè)趦?yōu)化CI管道后獲得的一些新見解,需要的朋友可以參考下2023-11-11Docker之自定義網(wǎng)絡(luò)實(shí)現(xiàn)
大家好,本篇文章主要講的是Docker之自定義網(wǎng)絡(luò)實(shí)現(xiàn),感興趣的同學(xué)趕快來(lái)看一看吧,對(duì)你有幫助的話記得收藏一下,方便下次瀏覽2021-12-12