使用Dockerfile避免镜像过大
镜像变大最近发现我的docker commit的镜像越拉越大,从一开始不到1g,到现在近8g了,然而我并没有装那么多东西查看资料发现,docker和虚拟机的使用还是有区别的,docker会记录你在使用过程中执行的命令,并保存命令执行过程中的一些数据,形成一个类似ps的图层,随着你操作和commit的叠加,层数也在叠加,最终导致你的docker莫名其妙变得越来越大。有两种方法可以docker减弱变大
·
镜像变大
最近发现我的docker commit的镜像越拉越大,从一开始不到1g,到现在近8g了,然而我并没有装那么多东西
查看资料发现,docker和虚拟机的使用还是有区别的,docker会记录你在使用过程中执行的命令,并保存命令执行过程中的一些数据,形成一个类似ps的图层,随着你操作和commit的叠加,层数也在叠加,最终导致你的docker莫名其妙变得越来越大。
有两种方法可以docker减弱变大的速度:
1、减少命令执行数量,或着将多个命令合成一个
2、使用dockerfile
这里主要是简单记录一下第二种方法
创建一个基础镜像
将下面内容保存为docker-compose.yml
version: '3.3'
services:
django:
image: weinull/nginx-uwsgi-django:2.2.17
container_name: django
ports:
- 18080:8080
- 10443:443
tty: true
environment:
- TZ=Asia/Shanghai
- LANG=C.UTF-8
使用下面命令进行拉取
docker-compose up -d
查看images是否有该镜像
没有的话使用docker commit 创建
创建Dockerfile文件
本地创建名为Dockerfile的文件,其中基础镜像为刚才拉取的镜像
# base image
FROM weinull/nginx-uwsgi-django
LABEL org.opencontainers.image.authors="5wimming"
RUN apt install redis-server nmap masscan mysql-server
RUN python3 -m pip install Django==3.2.4 celery==5.1.2 mysqlclient requests python-masscan celery[redis] IPy ping3 django-simpleui==2021.6.2 django-import-export beautifulsoup4 django-redis python-nmap -i https://pypi.tuna.tsinghua.edu.cn/simple
然后使用下面命令进行构建
docker build -t new6bee/ase:v1 .
然后会发现有些交互的命令没有考虑到,构建失败,贼麻烦,于是我放弃了,但是想法是好的,fighting
我决定继续采用:搭建环境的时候,减少命令执行数量,或着将多个命令合成一个
更多推荐
已为社区贡献5条内容
所有评论(0)