环境部署是所有团队都必须面对的问题,随着系统越来越大,依赖的服务也越来越多,比如我们目前的一个项目就会用到:

  • Web 服务器:Nginx
  • Web 程序:PHP + Node
  • 数据库:MySQL
  • 搜索引擎:ElasticSearch
  • 队列服务:Gearman
  • 缓存服务:Redis + Memcache
  • 前端构建工具:npm + bower + gulp
  • PHP CLI 工具:Composer + PHPUnit

因此团队的开发环境部署随之暴露出若干问题:

  1. 依赖服务很多,本地搭建一套环境成本越来越高,初级人员很难解决环境部署中的一些问题
  2. 服务的版本差异及 OS 的差异都可能导致线上环境 BUG
  3. 项目引入新的服务时所有人的环境需要重新配置

对于问题 1,可以用Vagrant这样的基于虚拟机的项目来解决,团队成员共享一套开发环境镜像。对于问题 2,可以引入类似PHPBrew这样的多版本 PHP 管理工具来解决。但两者都不能很好地解决问题 3,因为虚拟机镜像没有版本管理的概念,当多人维护一个镜像时,很容易出现配置遗漏或者冲突,一个很大的镜像传输起来也不方便。

Docker 的出现让上面的问题有了更好的解决方案,虽然个人对于 Docker 大规模应用到生产环境还持谨慎态度,但如果仅仅考虑测试及开发,私以为 Docker 的容器化理念已经是能真正解决环境部署问题的银弹了。

下面介绍Docker 构建 PHP 项目开发环境过程中的演进,本文中假设你的操作系统为 Linux,已经安装了 Docker,并且已经了解Docker 是什么,以及Docker 命令行的基础使用,如果没有这些背景知识建议先自行了解。

# Hello World

首先还是从一个 PHP 在 Docker 容器下的 Hello World 实例开始。我们准备这样一个 PHP 文件index.php

<?php
echo "PHP in Docker";

然后在同目录下创建文本文件并命名为Dockerfile,内容为:

# 从官方PHP镜像构建
FROM       php

# 将index.php复制到容器内的/var/www目录下
ADD        index.php /var/www/

# 对外暴露8080端口
EXPOSE     8080

# 设置容器默认工作目录为/var/www
WORKDIR    /var/www/

# 容器运行后默认执行的指令
ENTRYPOINT ["php", "-S", "0.0.0.0:8080"]

构建这个容器:

docker build -t allovince/php-helloworld .

运行这个容器

docker run -d -p 8080:8080 allovince/php-helloworld

查看结果:

curl localhost:8080
PHP in Docker

这样我们就创建了一个用于演示 PHP 程序的 Docker 容器,任何安装过 Docker 的机器都可以运行这个容器获得同样的结果。而任何有上面的 php 文件和 Dockerfile 的人都可以构建出相同的容器,从而完全消除了不同环境,不同版本可能引起的各种问题。

想象一下程序进一步复杂,我们应该如何扩展呢,很直接的想法是继续在容器内安装其他用到的服务,并将所有服务运行起来,那么我们的 Dockerfile 很可能发展成这个样子:

FROM       php
ADD        index.php /var/www/

# 安装更多服务
RUN	       apt-get install -y \
	       mysql-server \
	       nginx \
	       php5-fpm \
	       php5-mysql
	       
# 编写一个启动脚本启动所有服务
ENTRYPOINT ["/opt/bin/php-nginx-mysql-start.sh"]

虽然我们通过 Docker 构建了一个开发环境,但觉不觉得有些似曾相识呢。没错,其实这种做法和制作一个虚拟机镜像是差不多的,这种方式存在几个问题:

  • 如果需要验证某个服务的不同版本,比如测试 PHP5.3/5.4/5.5/5.6,就必须准备 4 个镜像,但其实每个镜像只有很小的差异。
  • 如果开始新的项目,那么容器内安装的服务会不断膨胀,最终无法弄清楚哪个服务是属于哪个项目的。

# 使用单一进程容器

上面这种将所有服务放在一个容器内的模式有个形象的非官方称呼:Fat Container。与之相对的是将服务分拆到容器的模式。从 Docker 的设计可以看到,构建镜像的过程中可以指定唯一一个容器启动的指令,因此 Docker 天然适合一个容器只运行一种服务,而这也是官方更推崇的。

分拆服务遇到的第一个问题就是,我们每一个服务的基础镜像从哪里来?这里有两个选项:

选项一、 统一从标准的 OS 镜像扩展,比如下面分别是 Nginx 和 MySQL 镜像

FROM ubuntu:14.04
RUN  apt-get update -y && apt-get install -y nginx
FROM ubuntu:14.04
RUN  apt-get update -y && apt-get install -y mysql

这种方式的优点在于所有服务可以有一个统一的基础镜像,对镜像进行扩展和修改时可以使用同样的方式,比如选择了 ubuntu,就可以使用apt-get指令安装服务。

问题在于大量的服务需要自己维护,特别是有时候需要某个服务的不同版本时,往往需要直接编译源码,调试维护成本都很高。

选项二、 直接从 Docker Hub 继承官方镜像,下面同样是 Nginx 和 MySQL 镜像

FROM nginx:1.9.0
FROM mysql:5.6

Docker Hub可以看做是 Docker 的 Github,Docker 官方已经准备好了大量常用服务的镜像,同时也有非常多第三方提交的镜像。甚至可以基于Docker-Registry项目在短时间内自己搭建一个私有的 Docker Hub。

基于某个服务的官方镜像去构建镜像,有非常丰富的选择,并且可以以很小的代价切换服务的版本。这种方式的问题在于官方镜像的构建方式多种多样,进行扩展时需要先了解原镜像的Dockerfile

出于让服务搭建更灵活的考虑,我们选择后者构建镜像。

为了分拆服务,现在我们的目录变为如下所示结构:

~/Dockerfiles
├── mysql
│   └── Dockerfile
├── nginx
│   ├── Dockerfile
│   ├── nginx.conf
│   └── sites-enabled
│       ├── default.conf
│       └── evaengine.conf
├── php
│   ├── Dockerfile
│   ├── composer.phar
│   ├── php-fpm.conf
│   ├── php.ini
│   ├── redis.tgz
└── redis
    └── Dockerfile

即为每个服务创建单独文件夹,并在每个服务文件夹下放一个 Dockerfile。

# MySQL 容器

MySQL 继承自官方的MySQL5.6 镜像,Dockerfile 仅有一行,无需做任何额外处理,因为普通需求官方都已经在镜像中实现了,因此 Dockerfile 的内容为:

FROM mysql:5.6

在项目根目录下运行

docker build -t eva/mysql ./mysql

会自动下载并构建镜像,这里我们将其命名为eva/mysql

由于容器运行结束时会丢弃所有数据库数据,为了不用每次都要导入数据,我们将采用挂载的方式持久化 MySQL 数据库,官方镜像默认将数据库存放在/var/lib/mysql,同时要求容器运行时必须通过环境变量设置一个管理员密码,因此可以使用以下指令运行容器:

docker run -p 3306:3306 -v ~/opt/data/mysql:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 -it eva/mysql

通过上面的指令,我们将本地的 3306 端口绑定到容器的 3306 端口,将容器内的数据库持久化到本地的~/opt/data/mysql,并且为 MySQL 设置了一个 root 密码123456

# Nginx 容器

Nginx 目录下提前准备了 Nginx 配置文件nginx.conf以及项目的配置文件default.conf等。Dockerfile 内容为:

FROM nginx:1.9

ADD  nginx.conf      /etc/nginx/nginx.conf
ADD  sites-enabled/*    /etc/nginx/conf.d/
RUN  mkdir /opt/htdocs && mkdir /opt/log && mkdir /opt/log/nginx
RUN  chown -R www-data.www-data /opt/htdocs /opt/log

VOLUME ["/opt"]

由于官方的Nginx1.9是基于 Debian Jessie 的,因此首先将准备好的配置文件复制到指定位置,替换镜像内的配置,这里按照个人习惯,约定/opt/htdocs目录为 Web 服务器根目录,/opt/log/nginx目录为 Nginx 的 Log 目录。

同样构建一下镜像

docker build -t eva/nginx ./nginx

并运行容器

docker run -p 80:80 -v ~/opt:/opt -it eva/nginx

注意我们将本地的 80 端口绑定到容器的 80 端口,并将本地的~/opt目录挂载到容器的/opt目录,这样就可以将项目源代码放在~/opt目录下并通过容器访问了。

# PHP 容器

PHP 容器是最复杂的一个,因为在实际项目中,我们很可能需要单独安装一些 PHP 扩展,并用到一些命令行工具,这里我们以 Redis 扩展以及 Composer 来举例。首先将项目需要的扩展等文件提前下载到 php 目录下,这样构建时就可以从本地复制而无需每次通过网络下载,大大加快镜像构建的速度:

wget https://getcomposer.org/composer.phar -O php/composer.phar
wget https://pecl.php.net/get/redis-2.2.7.tgz -O php/redis.tgz

php 目录下还准备好了 php 配置文件php.ini以及php-fpm.conf,基础镜像我们选择的是PHP 5.6-FPM,这同样是一个 Debian Jessie 镜像。官方比较亲切的在镜像内部准备了一个docker-php-ext-install指令,可以快速安装如 GD、PDO 等常用扩展。所有支持的扩展名称可以通过在容器内运行docker-php-ext-install获得。

来看一下 Dockerfile

FROM php:5.6-fpm

ADD php.ini    /usr/local/etc/php/php.ini
ADD php-fpm.conf    /usr/local/etc/php-fpm.conf

COPY redis.tgz /home/redis.tgz
RUN docker-php-ext-install gd \
    && docker-php-ext-install pdo_mysql \
    && pecl install /home/redis.tgz && echo "extension=redis.so" > /usr/local/etc/php/conf.d/redis.ini
ADD composer.phar /usr/local/bin/composer
RUN chmod 755 /usr/local/bin/composer

WORKDIR /opt
RUN usermod -u 1000 www-data

VOLUME ["/opt"]

在构建过程中做了这样一些事情:

  1. 复制 php 和 php-fpm 配置文件到相应目录
  2. 复制 redis 扩展源代码到/home
  3. 通过docker-php-ext-install安装 GD 和 PDO 扩展
  4. 通过pecl安装 Redis 扩展
  5. 复制 composer 到镜像作为全局指令

按照个人习惯,仍然设置/opt目录作为工作目录。

这里有一个细节,在复制 tar 包文件时,使用的 Docker 指令是COPY而不是ADD,这是由于ADD指令会自动解压tar文件

现在终于可以构建+运行了:

docker build -t eva/php ./php
docker run -p 9000:9000 -v ~/opt:/opt -it eva/php

在大多数情况下,Nginx 和 PHP 所读取的项目源代码都是同一份,因此这里同样挂载本地的~/opt目录,并且绑定 9000 端口。

# PHP-CLI 的实现

php 容器除了运行 php-fpm 外,还应该作为项目的 php cli 使用,这样才能保证 php 版本、扩展以及配置文件保持一致。

例如在容器内运行 Composer,可以通过下面的指令实现:

docker run -v $(pwd -P):/opt -it eva/php composer install --dev -vvvplainplain

这样在任意目录下运行这行指令,等于动态将当前目录挂载到容器的默认工作目录并运行,这也是 PHP 容器指定工作目录为/opt的原因。

同理还可以实现 phpunit、npm、gulp 等命令行工具在容器内运行。

# Redis 容器

为了方便演示,Redis 仅仅作为缓存使用,没有持久化需求,因此 Dockerfile 仅有一行

FROM redis:3.0

# 容器的连接

上面已经将原本在一个容器中运行的服务分拆到多个容器,每个容器只运行单一服务。这样一来容器之间需要能互相通信。Docker 容器间通讯的方法有两种,一种是像上文这样将容器端口绑定到一个本地端口,通过端口通讯。另一种则是通过 Docker 提供的Linking 功能,在开发环境下,通过 Linking 通信更加灵活,也能避免端口占用引起的一些问题,比如可以通过下面的方式将 Nginx 和 PHP 链接起来:

docker run -p 9000:9000 -v ~/opt:/opt --name php -it eva/php
docker run -p 80:80 -v ~/opt:/opt -it --link php:php eva/nginx

在一般的 PHP 项目中,Nginx 需要链接 PHP,而 PHP 又需要链接 MySQL,Redis 等。为了让容器间互相链接更加容易管理,Docker 官方推荐使用Docker-Compose完成这些操作。

用一行指令完成安装

pip install -U docker-composeplainplainplainplain

然后在 Docker 项目的根目录下准备一个 docker-compose.yml 文件,内容为:

nginx:
    build: ./nginx
    ports:
      - "80:80"
    links:
      - "php"
    volumes:
      - ~/opt:/opt

php:
    build: ./php
    ports:
      - "9000:9000"
    links:
      - "mysql"
      - "redis"
    volumes:
      - ~/opt:/opt

mysql:
    build: ./mysql
    ports:
      - "3306:3306"
    volumes:
      - ~/opt/data/mysql:/var/lib/mysql
    environment:
      MYSQL_ROOT_PASSWORD: 123456

redis:
    build: ./redis
    ports:
      - "6379:6379"

然后运行docker-compose up,就完成了所有的端口绑定、挂载、链接操作。

# 更复杂的实例

上面是一个标准 PHP 项目在 Docker 环境下的演进过程,实际项目中一般会集成更多更复杂的服务,但上述基本步骤仍然可以通用。比如EvaEngine/Dockerfiles是为了运行我的开源项目EvaEngine准备的基于 Docker 的开发环境,EvaEngine 依赖了队列服务 Gearman,缓存服务 Memcache、Redis,前端构建工具 Gulp、Bower,后端 Cli 工具 Composer、PHPUnit 等。具体实现方式可以自行阅读代码。

经过团队实践,原本大概需要 1 天时间的环境安装,切换到 Docker 后只需要运行 10 余条指令,时间也大幅缩短到 3 小时以内(大部分时间是在等待下载),最重要的是 Docker 所构建的环境都是 100%一致的,不会有人为失误引起的问题。未来我们会进一步将 Docker 应用到 CI 以及生产环境中。

本文首发于我在卧龙阁的专栏PHP 与创业的那些事儿,转载请保留。

Tags :phpDocker

Donate:Buy me a coffee|文章有帮助,可以请我喝杯咖啡