diff --git a/.devcontainer/devcontainer.json b/.devcontainer/devcontainer.json
new file mode 100644
index 000000000..eb977b416
--- /dev/null
+++ b/.devcontainer/devcontainer.json
@@ -0,0 +1,22 @@
+// https://code.visualstudio.com/docs/remote/devcontainerjson-reference
+
+{
+ "image": "yeasy/docker_practice:latest",
+ "mounts": [
+ "source=dp-code-remote-cache,target=/root/.vscode-server,type=volume"
+ ],
+ "settings": {
+ "terminal.integrated.shell.linux": "/bin/sh"
+ },
+ "forwardPorts": [
+ 4000
+ ],
+ "runArgs": [
+ "--cap-add=SYS_ADMIN"
+ ],
+ "postStartCommand": [
+ "sh",
+ "-cx",
+ "pwd ; cd /workspaces/docker_practice ; mkdir -p ${PWD}/node_modules; mkdir -p ${PWD}/_book; mount --bind /srv/gitbook/node_modules ${PWD}/node_modules ; mount --bind /mnt ${PWD}/_book"
+ ]
+}
diff --git a/.docker/docker-entrypoint.sh b/.docker/docker-entrypoint.sh
new file mode 100755
index 000000000..18b1687f4
--- /dev/null
+++ b/.docker/docker-entrypoint.sh
@@ -0,0 +1,11 @@
+#!/usr/bin/env sh
+
+echo
+echo
+echo "Please open your browser: 127.0.0.1:4000"
+echo
+echo "欢迎加入 QQ 群:【 145983035 】 分享 Docker 资源,交流 Docker 技术"
+echo
+echo
+
+exec nginx -g "daemon off;"
diff --git a/.github/CODEOWNERS b/.github/CODEOWNERS
new file mode 100644
index 000000000..bf8cf1de4
--- /dev/null
+++ b/.github/CODEOWNERS
@@ -0,0 +1,39 @@
+* @yeasy @khs1994
+/.github/* @khs1994
+/.travis/* @khs1994
+/.vuepress/* @khs1994
+/advanced_network/* @yeasy @khs1994
+/appendix/* @yeasy @khs1994
+/archive/* @khs1994
+/basic_concept/* @yeasy @khs1994
+/buildx/* @khs1994
+/cases/* @yeasy @khs1994
+/cloud/* @khs1994
+/compose/* @yeasy @khs1994
+/container/* @yeasy @khs1994
+/coreos/* @khs1994
+/data_management/* @khs1994
+/etcd/* @khs1994
+/IDE/* @khs1994
+/image/* @yeasy @khs1994
+/install/* @khs1994
+/introduction/* @yeasy @khs1994
+/kubernetes/* @yeasy @khs1994
+/network/* @yeasy @khs1994
+/opensource/* @khs1994
+/repository/* @khs1994
+/security/* @yeasy @khs1994
+/underly/* @yeasy @khs1994
+/.drone.yml @khs1994
+/.editorconfig/ @khs1994
+/.gitattributes @khs1994
+/.gitignore @khs1994
+/_config.yml @yeasy @khs1994
+/book.json @yeasy @khs1994
+/CHANGELOG.md @yeasy @khs1994
+/CONTRIBUTING.md @yeasy @khs1994
+/docker-compose.yml @khs1994
+/manifest @khs1994
+/package.json @khs1994
+/README.md @yeasy @khs1994
+/SUMMARY.md @yeasy @khs1994
diff --git a/.github/FUNDING.yml b/.github/FUNDING.yml
new file mode 100644
index 000000000..c08c58549
--- /dev/null
+++ b/.github/FUNDING.yml
@@ -0,0 +1,13 @@
+# These are supported funding model platforms
+
+github: yeasy
+patreon: # Replace with a single Patreon username
+open_collective: # Replace with a single Open Collective username
+ko_fi: # Replace with a single Ko-fi username
+tidelift: # Replace with a single Tidelift platform-name/package-name e.g., npm/babel
+community_bridge: # Replace with a single Community Bridge project-name e.g., cloud-foundry
+liberapay: # Replace with a single Liberapay username
+issuehunt: # Replace with a single IssueHunt username
+otechie: # Replace with a single Otechie username
+lfx_crowdfunding: # Replace with a single LFX Crowdfunding project-name e.g., cloud-foundry
+custom: # Replace with up to 4 custom sponsorship URLs e.g., ['link1', 'link2']
diff --git a/.github/ISSUE_TEMPLATE/Bug_report.md b/.github/ISSUE_TEMPLATE/Bug_report.md
index 8528cd1f5..4db514ec7 100644
--- a/.github/ISSUE_TEMPLATE/Bug_report.md
+++ b/.github/ISSUE_TEMPLATE/Bug_report.md
@@ -21,11 +21,11 @@ about: Create a report to help us improve
* [x] Others (Pls describe below)
### Docker Version
-
-
+
+
-* [x] Edge (v19.03)
-* [x] Stable (v19.03)
+* [x] Test (v20.10)
+* [x] Stable (v20.10)
* [x] 1.13.0 or Before
### Problem Description
diff --git a/.github/ISSUE_TEMPLATE/Custom.md b/.github/ISSUE_TEMPLATE/Custom.md
index 650a860b6..6db0f8f22 100644
--- a/.github/ISSUE_TEMPLATE/Custom.md
+++ b/.github/ISSUE_TEMPLATE/Custom.md
@@ -21,11 +21,11 @@ about: Create a issue about Docker
* [x] Others (Pls describe below)
### Docker Version
-
-
+
+
-* [x] Edge (v19.03)
-* [x] Stable (v19.03)
+* [x] Test (v20.10)
+* [x] Stable (v20.10)
* [x] 1.13.0 or Before
### Problem Description
diff --git a/.github/PULL_REQUEST_TEMPLATE.md b/.github/PULL_REQUEST_TEMPLATE.md
index 39d35fdc7..c33735a4e 100644
--- a/.github/PULL_REQUEST_TEMPLATE.md
+++ b/.github/PULL_REQUEST_TEMPLATE.md
@@ -3,7 +3,7 @@
See [CONTRIBUTING](CONTRIBUTING.md) for contribution guidelines.
-->
-### Proposed changes (Mandatory)
+**Proposed changes (Mandatory)**
-### Fix issues (Optional)
+**Fix issues (Optional)**
@@ -162,14 +140,14 @@ root@7d93de07bf76:/# curl 127.0.0.1
配合使用 `-p` 参数对外映射服务端口,可以允许容器外来访问该服务。
-### 相关资源
+## 相关资源
* `Debian` 官网:https://www.debian.org/
* `Neuro Debian` 官网:http://neuro.debian.net/
* `Debian` 官方仓库:https://github.com/Debian
* `Debian` 官方镜像:https://hub.docker.com/_/debian/
* `Debian` 官方镜像仓库:https://github.com/tianon/docker-brew-debian/
-* `Ubuntu` 官网:http://www.ubuntu.org.cn/global
+* `Ubuntu` 官网:https://ubuntu.com
* `Ubuntu` 官方仓库:https://github.com/ubuntu
* `Ubuntu` 官方镜像:https://hub.docker.com/_/ubuntu/
* `Ubuntu` 官方镜像仓库:https://github.com/tianon/docker-brew-ubuntu-core
diff --git a/cases/os/summary.md b/cases/os/summary.md
index 0817e80be..48afe0436 100644
--- a/cases/os/summary.md
+++ b/cases/os/summary.md
@@ -2,10 +2,10 @@
本章讲解了典型操作系统镜像的下载和使用。
-除了官方的镜像外,在 Docker Hub 上还有许多第三方组织或个人上传的 Docker 镜像。
+除了官方的镜像外,在 `Docker Hub` 上还有许多第三方组织或个人上传的 Docker 镜像。
读者可以根据具体情况来选择。一般来说:
-* 官方镜像体积都比较小,只带有一些基本的组件。 精简的系统有利于安全、稳定和高效的运行,也适合进行定制化。
+* 官方镜像体积都比较小,只带有一些基本的组件。 精简的系统有利于安全、稳定和高效的运行,也适合进行个性化定制。
* 出于安全考虑,几乎所有官方制作的镜像都没有安装 SSH 服务,无法通过用户名和密码直接登录到容器中。
diff --git a/cloud/README.md b/cloud/README.md
index 2fa6e02d1..6cc5824e3 100644
--- a/cloud/README.md
+++ b/cloud/README.md
@@ -2,4 +2,4 @@
Docker 目前已经得到了众多公有云平台的支持,并成为除虚拟机之外的核心云业务。
-除了 AWS、Google、Azure、Docker 官方云服务等,国内的各大公有云厂商,基本上都同时支持了虚拟机服务和容器服务,甚至还专门推出了容器云业务。
\ No newline at end of file
+除了 AWS、Google、Azure 等,国内的各大公有云厂商,基本上都同时支持了虚拟机服务和基于 Kubernetes 的容器云业务。有的还推出了其他服务,例如 [容器镜像服务](https://cloud.tencent.com/act/cps/redirect?redirect=11588&cps_key=3a5255852d5db99dcd5da4c72f05df61) 让用户在云上享有安全高效的镜像托管、分发等服务。
diff --git a/cloud/alicloud.md b/cloud/alicloud.md
index cf48a9508..6d8783f4e 100644
--- a/cloud/alicloud.md
+++ b/cloud/alicloud.md
@@ -1,10 +1,10 @@
-## 阿里云
+# 阿里云
-![阿里云](_images/aliyun-logo.png)
+![阿里云](./_images/aliyun-logo.png)
[阿里云](https://www.aliyun.com?source=5176.11533457&userCode=8lx5zmtu&type=copy) 创立于 2009 年,是中国较早的云计算平台。阿里云致力于提供安全、可靠的计算和数据处理能力。
-[阿里云](https://www.aliyun.com?source=5176.11533457&userCode=8lx5zmtu&type=copy) 的客户群体中,活跃着微博、知乎、魅族、锤子科技、小咖秀等一大批明星互联网公司。在天猫双 11 全球狂欢节等极富挑战的应用场景中,阿里云保持着良好的运行纪录。
+[阿里云](https://www.aliyun.com?source=5176.11533457&userCode=8lx5zmtu&type=copy) 的客户群体中,活跃着微博、虎牙、魅族、优酷等一大批明星互联网公司。在天猫双 11 全球狂欢节等极富挑战的应用场景中,阿里云保持着良好的运行纪录。
[阿里云容器服务 Kubernetes 版 ACK](https://www.aliyun.com/product/kubernetes?source=5176.11533457&userCode=8lx5zmtu&type=copy) 提供了高性能、可伸缩的容器应用管理服务,支持在一组云服务器上通过 Docker 容器来进行应用生命周期管理。容器服务极大简化了用户对容器管理集群的搭建工作,无缝整合了阿里云虚拟化、存储、网络和安全能力。容器服务提供了多种应用发布方式和流水线般的持续交付能力,原生支持微服务架构,助力用户无缝上云和跨云管理。
diff --git a/cloud/aws.md b/cloud/aws.md
index b73b87ad9..81c03033b 100644
--- a/cloud/aws.md
+++ b/cloud/aws.md
@@ -1,6 +1,6 @@
-## 亚马逊云
+# 亚马逊云
-![AWS](_images/aws-logo.jpg)
+![AWS](./_images/aws-logo.jpg)
[AWS](https://www.amazonaws.cn),即 Amazon Web Services,是亚马逊(Amazon)公司的 IaaS 和 PaaS 平台服务。AWS 提供了一整套基础设施和应用程序服务,使用户几乎能够在云中运行一切应用程序:从企业应用程序和大数据项目,到社交游戏和移动应用程序。AWS 面向用户提供包括弹性计算、存储、数据库、应用程序在内的一整套云计算服务,能够帮助企业降低 IT 投入成本和维护成本。
@@ -8,4 +8,4 @@
2015 年 AWS 正式发布了 EC2 容器服务(ECS)。ECS 的目的是让 Docker 容器变的更加简单,它提供了一个集群和编排的层,用来控制主机上的容器部署,以及部署之后的集群内的容器的生命周期管理。ECS 是诸如 Docker Swarm、Kubernetes、Mesos 等工具的替代,它们工作在同一个层,除了作为一个服务来提供。这些工具和 ECS 不同的地方在于,前者需要用户自己来部署和管理,而 ECS 是“作为服务”来提供的。
-![AWS 容器服务](_images/ECS.jpg)
+![AWS 容器服务](./_images/ECS.jpg)
diff --git a/cloud/intro.md b/cloud/intro.md
index b91187802..ceffdf19a 100644
--- a/cloud/intro.md
+++ b/cloud/intro.md
@@ -1,7 +1,7 @@
-## 简介
+# 简介
目前与容器相关的云计算主要分为两种类型。
一种是传统的 IaaS 服务商提供对容器相关的服务,包括镜像下载、容器托管等。
-另一种是直接基于容器技术对外提供容器云服务,所谓 Container as a Service(CaaS)。
\ No newline at end of file
+另一种是直接基于容器技术对外提供容器云服务,所谓 Container as a Service(CaaS)。
diff --git a/cloud/summary.md b/cloud/summary.md
index fd3c1fb83..118332439 100644
--- a/cloud/summary.md
+++ b/cloud/summary.md
@@ -1,4 +1,4 @@
-## 本章小结
+# 本章小结
本章介绍了公有云服务对 Docker 的积极支持,以及新出现的容器云平台。
diff --git a/cloud/tencentCloud.md b/cloud/tencentCloud.md
index 38933eac1..4c2f8d43a 100644
--- a/cloud/tencentCloud.md
+++ b/cloud/tencentCloud.md
@@ -1,11 +1,11 @@
-## 腾讯云
+# 腾讯云
-![腾讯云](_images/qcloud-logo.jpg)
+![腾讯云](./_images/qcloud-logo.jpg)
-[腾讯云](https://cloud.tencent.com/redirect.php?redirect=1040&cps_key=3a5255852d5db99dcd5da4c72f05df61&from=console) 在架构方面经过多年积累,并且有着多年对海量互联网服务的经验。不管是社交、游戏还是其他领域,都有多年的成熟产品来提供产品服务。腾讯在云端完成重要部署,为开发者及企业提供云服务、云数据、云运营等整体一站式服务方案。
+[腾讯云](https://cloud.tencent.com/act/cps/redirect?redirect=1040&cps_key=3a5255852d5db99dcd5da4c72f05df61&from=console) 在架构方面经过多年积累,并且有着多年对海量互联网服务的经验。不管是社交、游戏还是其他领域,都有多年的成熟产品来提供产品服务。腾讯在云端完成重要部署,为开发者及企业提供云服务、云数据、云运营等整体一站式服务方案。
-具体包括 [云服务器](https://cloud.tencent.com/redirect.php?redirect=1001&cps_key=3a5255852d5db99dcd5da4c72f05df61&from=console)、[云存储](https://cloud.tencent.com/redirect.php?redirect=1020&cps_key=3a5255852d5db99dcd5da4c72f05df61&from=console)、[云数据库](https://cloud.tencent.com/redirect.php?redirect=1003&cps_key=3a5255852d5db99dcd5da4c72f05df61&from=console)、[视频与CDN](https://cloud.tencent.com/redirect.php?redirect=1019&cps_key=3a5255852d5db99dcd5da4c72f05df61&from=console) 和 [域名注册](https://dnspod.cloud.tencent.com) 等基础云服务;腾讯云分析(MTA)、腾讯云推送(信鸽)等腾讯整体大数据能力;以及 QQ互联、QQ 空间、微云、微社区等云端链接社交体系。这些正是腾讯云可以提供给这个行业的差异化优势,造就了可支持各种互联网使用场景的高品质的腾讯云技术平台。
+具体包括 [云服务器](https://cloud.tencent.com/act/cps/redirect?redirect=1001&cps_key=3a5255852d5db99dcd5da4c72f05df61&from=console)、[云存储](https://cloud.tencent.com/act/cps/redirect?redirect=1020&cps_key=3a5255852d5db99dcd5da4c72f05df61&from=console)、[云数据库](https://cloud.tencent.com/act/cps/redirect?redirect=1003&cps_key=3a5255852d5db99dcd5da4c72f05df61&from=console)、[视频与CDN](https://cloud.tencent.com/act/cps/redirect?redirect=1019&cps_key=3a5255852d5db99dcd5da4c72f05df61&from=console) 和 [域名注册](https://dnspod.cloud.tencent.com) 等基础云服务;腾讯云分析(MTA)、腾讯云推送(信鸽)等腾讯整体大数据能力;以及 QQ互联、QQ 空间、微云、微社区等云端链接社交体系。这些正是腾讯云可以提供给这个行业的差异化优势,造就了可支持各种互联网使用场景的高品质的腾讯云技术平台。
-[腾讯云容器服务 TKE](https://cloud.tencent.com/redirect.php?redirect=10058&cps_key=3a5255852d5db99dcd5da4c72f05df61) 是高度可扩展的高性能容器管理服务,用户可以在托管的云服务器实例集群上轻松运行应用程序。使用该服务,将无需安装、运维、扩展用户的集群管理基础设施,只需进行简单的 API 调用,便可启动和停止 Docker 应用程序,查询集群的完整状态,以及使用各种云服务。用户可以根据用户的资源需求和可用性要求在用户的集群中安排容器的置放,满足业务或应用程序的特定要求。
+[腾讯云容器服务 TKE](https://cloud.tencent.com/act/cps/redirect?redirect=10058&cps_key=3a5255852d5db99dcd5da4c72f05df61) 是高度可扩展的高性能容器管理服务,用户可以在托管的云服务器实例集群上轻松运行应用程序。使用该服务,将无需安装、运维、扩展用户的集群管理基础设施,只需进行简单的 API 调用,便可启动和停止 Docker 应用程序,查询集群的完整状态,以及使用各种云服务。用户可以根据用户的资源需求和可用性要求在用户的集群中安排容器的置放,满足业务或应用程序的特定要求。
![](https://mc.qcloudimg.com/static/img/0581dbeb97c869bbe6e62025dbc592d7/image.png)
diff --git a/compose/commands.md b/compose/commands.md
index 23d9c8196..e18e7a779 100644
--- a/compose/commands.md
+++ b/compose/commands.md
@@ -1,6 +1,6 @@
-## Compose 命令说明
+# Compose 命令说明
-### 命令对象与格式
+## 命令对象与格式
对于 Compose 来说,大部分命令的对象既可以是项目本身,也可以指定为项目中的服务或者容器。如果没有特别的说明,命令对象将是项目,这意味着项目中所有的服务都会受到命令影响。
@@ -12,23 +12,19 @@
docker-compose [-f=...] [options] [COMMAND] [ARGS...]
```
-### 命令选项
+## 命令选项
* `-f, --file FILE` 指定使用的 Compose 模板文件,默认为 `docker-compose.yml`,可以多次指定。
* `-p, --project-name NAME` 指定项目名称,默认将使用所在目录名称作为项目名。
-* `--x-networking` 使用 Docker 的可拔插网络后端特性
-
-* `--x-network-driver DRIVER` 指定网络后端的驱动,默认为 `bridge`
-
* `--verbose` 输出更多调试信息。
* `-v, --version` 打印版本并退出。
-### 命令使用说明
+## 命令使用说明
-#### `build`
+### `build`
格式为 `docker-compose build [options] [SERVICE...]`。
@@ -46,27 +42,27 @@ docker-compose [-f=...] [options] [COMMAND] [ARGS...]
* `--pull` 始终尝试通过 pull 来获取更新版本的镜像。
-#### `config`
+### `config`
验证 Compose 文件格式是否正确,若正确则显示配置,若格式错误显示错误原因。
-#### `down`
+### `down`
此命令将会停止 `up` 命令所启动的容器,并移除网络
-#### `exec`
+### `exec`
进入指定的容器。
-#### `help`
+### `help`
获得一个命令的帮助。
-#### `images`
+### `images`
列出 Compose 文件中包含的镜像。
-#### `kill`
+### `kill`
格式为 `docker-compose kill [options] [SERVICE...]`。
@@ -78,7 +74,7 @@ docker-compose [-f=...] [options] [COMMAND] [ARGS...]
$ docker-compose kill -s SIGINT
```
-#### `logs`
+### `logs`
格式为 `docker-compose logs [options] [SERVICE...]`。
@@ -86,13 +82,13 @@ $ docker-compose kill -s SIGINT
该命令在调试问题的时候十分有用。
-#### `pause`
+### `pause`
格式为 `docker-compose pause [SERVICE...]`。
暂停一个服务容器。
-#### `port`
+### `port`
格式为 `docker-compose port [options] SERVICE PRIVATE_PORT`。
@@ -104,7 +100,7 @@ $ docker-compose kill -s SIGINT
* `--index=index` 如果同一服务存在多个容器,指定命令对象容器的序号(默认为 1)。
-#### `ps`
+### `ps`
格式为 `docker-compose ps [options] [SERVICE...]`。
@@ -114,7 +110,7 @@ $ docker-compose kill -s SIGINT
* `-q` 只打印容器的 ID 信息。
-#### `pull`
+### `pull`
格式为 `docker-compose pull [options] [SERVICE...]`。
@@ -124,11 +120,11 @@ $ docker-compose kill -s SIGINT
* `--ignore-pull-failures` 忽略拉取镜像过程中的错误。
-#### `push`
+### `push`
推送服务依赖的镜像到 Docker 镜像仓库。
-#### `restart`
+### `restart`
格式为 `docker-compose restart [options] [SERVICE...]`。
@@ -138,7 +134,7 @@ $ docker-compose kill -s SIGINT
* `-t, --timeout TIMEOUT` 指定重启前停止容器的超时(默认为 10 秒)。
-#### `rm`
+### `rm`
格式为 `docker-compose rm [options] [SERVICE...]`。
@@ -150,7 +146,7 @@ $ docker-compose kill -s SIGINT
* `-v` 删除容器所挂载的数据卷。
-#### `run`
+### `run`
格式为 `docker-compose run [options] [-p PORT...] [-e KEY=VAL...] SERVICE [COMMAND] [ARGS...]`。
在指定服务上执行一个命令。
@@ -203,7 +199,7 @@ $ docker-compose run --no-deps web python manage.py shell
* `-T` 不分配伪 tty,意味着依赖 tty 的指令将无法运行。
-#### `scale`
+### `scale`
格式为 `docker-compose scale [options] [SERVICE=NUM...]`。
@@ -223,13 +219,13 @@ $ docker-compose scale web=3 db=2
* `-t, --timeout TIMEOUT` 停止容器时候的超时(默认为 10 秒)。
-#### `start`
+### `start`
格式为 `docker-compose start [SERVICE...]`。
启动已经存在的服务容器。
-#### `stop`
+### `stop`
格式为 `docker-compose stop [options] [SERVICE...]`。
@@ -239,17 +235,17 @@ $ docker-compose scale web=3 db=2
* `-t, --timeout TIMEOUT` 停止容器时候的超时(默认为 10 秒)。
-#### `top`
+### `top`
查看各个服务容器内运行的进程。
-#### `unpause`
+### `unpause`
格式为 `docker-compose unpause [SERVICE...]`。
恢复处于暂停状态中的服务。
-#### `up`
+### `up`
格式为 `docker-compose up [options] [SERVICE...]`。
@@ -283,12 +279,12 @@ $ docker-compose scale web=3 db=2
* `-t, --timeout TIMEOUT` 停止容器时候的超时(默认为 10 秒)。
-#### `version`
+### `version`
格式为 `docker-compose version`。
打印版本信息。
-### 参考资料
+## 参考资料
* [官方文档](https://docs.docker.com/compose/reference/overview/)
diff --git a/compose/compose_file.md b/compose/compose_file.md
index d41ea4152..1b866c0cf 100644
--- a/compose/compose_file.md
+++ b/compose/compose_file.md
@@ -1,4 +1,4 @@
-## Compose 模板文件
+# Compose 模板文件
模板文件是使用 `Compose` 的核心,涉及到的指令关键字也比较多。但大家不用担心,这里面大部分指令跟 `docker run` 相关参数的含义都是类似的。
@@ -22,7 +22,7 @@ services:
下面分别介绍各个指令的用法。
-### `build`
+## `build`
指定 `Dockerfile` 所在文件夹的路径(可以是绝对路径,或者相对 docker-compose.yml 文件的路径)。 `Compose` 将会利用它自动构建这个镜像,然后使用这个镜像。
@@ -62,7 +62,7 @@ build:
- corp/web_app:3.14
```
-### `cap_add, cap_drop`
+## `cap_add, cap_drop`
指定容器的内核能力(capacity)分配。
@@ -80,7 +80,7 @@ cap_drop:
- NET_ADMIN
```
-### `command`
+## `command`
覆盖容器启动后默认执行的命令。
@@ -88,11 +88,11 @@ cap_drop:
command: echo "hello world"
```
-### `configs`
+## `configs`
仅用于 `Swarm mode`,详细内容请查看 [`Swarm mode`](../swarm_mode/) 一节。
-### `cgroup_parent`
+## `cgroup_parent`
指定父 `cgroup` 组,意味着将继承该组的资源限制。
@@ -102,7 +102,7 @@ command: echo "hello world"
cgroup_parent: cgroups_1
```
-### `container_name`
+## `container_name`
指定容器名称。默认将会使用 `项目名称_服务名称_序号` 这样的格式。
@@ -112,11 +112,11 @@ container_name: docker-web-container
>注意: 指定容器名称后,该服务将无法进行扩展(scale),因为 Docker 不允许多个容器具有相同的名称。
-### `deploy`
+## `deploy`
仅用于 `Swarm mode`,详细内容请查看 [`Swarm mode`](../swarm_mode/) 一节
-### `devices`
+## `devices`
指定设备映射关系。
@@ -125,7 +125,7 @@ devices:
- "/dev/ttyUSB1:/dev/ttyUSB0"
```
-### `depends_on`
+## `depends_on`
解决容器的依赖、启动先后的问题。以下例子中会先启动 `redis` `db` 再启动 `web`
@@ -148,7 +148,7 @@ services:
>注意:`web` 服务不会等待 `redis` `db` 「完全启动」之后才启动。
-### `dns`
+## `dns`
自定义 `DNS` 服务器。可以是一个值,也可以是一个列表。
@@ -160,7 +160,7 @@ dns:
- 114.114.114.114
```
-### `dns_search`
+## `dns_search`
配置 `DNS` 搜索域。可以是一个值,也可以是一个列表。
@@ -172,7 +172,7 @@ dns_search:
- domain2.example.com
```
-### `tmpfs`
+## `tmpfs`
挂载一个 tmpfs 文件系统到容器。
@@ -183,7 +183,7 @@ tmpfs:
- /tmp
```
-### `env_file`
+## `env_file`
从文件中获取环境变量,可以为单独的文件路径或列表。
@@ -207,7 +207,7 @@ env_file:
PROG_ENV=development
```
-### `environment`
+## `environment`
设置环境变量。你可以使用数组或字典两种格式。
@@ -229,7 +229,7 @@ environment:
y|Y|yes|Yes|YES|n|N|no|No|NO|true|True|TRUE|false|False|FALSE|on|On|ON|off|Off|OFF
```
-### `expose`
+## `expose`
暴露端口,但不映射到宿主机,只被连接的服务访问。
@@ -241,7 +241,7 @@ expose:
- "8000"
```
-### `external_links`
+## `external_links`
>注意:不建议使用该指令。
@@ -254,7 +254,7 @@ external_links:
- project_db_1:postgresql
```
-### `extra_hosts`
+## `extra_hosts`
类似 Docker 中的 `--add-host` 参数,指定额外的 host 名称映射信息。
@@ -271,7 +271,7 @@ extra_hosts:
52.1.157.61 dockerhub
```
-### `healthcheck`
+## `healthcheck`
通过命令检查容器是否健康运行。
@@ -283,7 +283,7 @@ healthcheck:
retries: 3
```
-### `image`
+## `image`
指定为镜像名称或镜像 ID。如果镜像在本地不存在,`Compose` 将会尝试拉取这个镜像。
@@ -293,7 +293,7 @@ image: orchardup/postgresql
image: a4bc65fd
```
-### `labels`
+## `labels`
为容器添加 Docker 元数据(metadata)信息。例如可以为容器添加辅助说明信息。
@@ -304,11 +304,11 @@ labels:
com.startupteam.release: "rc3 for v1.0"
```
-### `links`
+## `links`
>注意:不推荐使用该指令。
-### `logging`
+## `logging`
配置日志选项。
@@ -335,7 +335,7 @@ options:
max-file: "10"
```
-### `network_mode`
+## `network_mode`
设置网络模式。使用和 `docker run` 的 `--network` 参数一样的值。
@@ -347,7 +347,7 @@ network_mode: "service:[service name]"
network_mode: "container:[container name/id]"
```
-### `networks`
+## `networks`
配置容器连接的网络。
@@ -365,7 +365,7 @@ networks:
other-network:
```
-### `pid`
+## `pid`
跟主机系统共享进程命名空间。打开该选项的容器之间,以及容器和宿主机系统之间可以通过进程 ID 来相互访问和操作。
@@ -373,7 +373,7 @@ networks:
pid: "host"
```
-### `ports`
+## `ports`
暴露端口信息。
@@ -389,7 +389,7 @@ ports:
*注意:当使用 `HOST:CONTAINER` 格式来映射端口时,如果你使用的容器端口小于 60 并且没放到引号里,可能会得到错误结果,因为 `YAML` 会自动解析 `xx:yy` 这种数字格式为 60 进制。为避免出现这种问题,建议数字串都采用引号包括起来的字符串格式。*
-### `secrets`
+## `secrets`
存储敏感数据,例如 `mysql` 服务密码。
@@ -412,7 +412,7 @@ secrets:
external: true
```
-### `security_opt`
+## `security_opt`
指定容器模板标签(label)机制的默认属性(用户、角色、类型、级别等)。例如配置标签的用户名和角色名。
@@ -422,7 +422,7 @@ security_opt:
- label:role:ROLE
```
-### `stop_signal`
+## `stop_signal`
设置另一个信号来停止容器。在默认情况下使用的是 SIGTERM 停止容器。
@@ -430,7 +430,7 @@ security_opt:
stop_signal: SIGUSR1
```
-### `sysctls`
+## `sysctls`
配置容器内核参数。
@@ -444,7 +444,7 @@ sysctls:
- net.ipv4.tcp_syncookies=0
```
-### `ulimits`
+## `ulimits`
指定容器的 ulimits 限制值。
@@ -458,7 +458,7 @@ sysctls:
hard: 40000
```
-### `volumes`
+## `volumes`
数据卷所挂载路径设置。可以设置为宿主机路径(`HOST:CONTAINER`)或者数据卷名称(`VOLUME:CONTAINER`),并且可以设置访问模式 (`HOST:CONTAINER:ro`)。
@@ -486,7 +486,7 @@ volumes:
mysql_data:
```
-### 其它指令
+## 其它指令
此外,还有包括 `domainname, entrypoint, hostname, ipc, mac_address, privileged, read_only, shm_size, restart, stdin_open, tty, user, working_dir` 等指令,基本跟 `docker run` 中对应参数的功能一致。
@@ -546,7 +546,7 @@ stdin_open: true
tty: true
```
-### 读取变量
+## 读取变量
Compose 模板文件支持动态读取主机的系统环境变量和当前目录下的 `.env` 文件中的变量。
@@ -573,6 +573,7 @@ MONGO_VERSION=3.6
执行 `docker-compose up` 则会启动一个 `mongo:3.6` 镜像的容器。
-### 参考资料
+## 参考资料
* [官方文档](https://docs.docker.com/compose/compose-file/)
+* [awesome-compose](https://github.com/docker/awesome-compose)
diff --git a/compose/demo/django/docker-compose.yml b/compose/demo/django/docker-compose.yml
index d3a50353b..861980abd 100644
--- a/compose/demo/django/docker-compose.yml
+++ b/compose/demo/django/docker-compose.yml
@@ -3,6 +3,8 @@ services:
db:
image: postgres
+ environment:
+ POSTGRES_PASSWORD: 'postgres'
web:
build: .
@@ -11,5 +13,3 @@ services:
- .:/code
ports:
- "8000:8000"
- links:
- - db
diff --git a/compose/django.md b/compose/django.md
index ce8fd7c41..16a588f5e 100644
--- a/compose/django.md
+++ b/compose/django.md
@@ -1,4 +1,4 @@
-## 使用 Django
+# 使用 Django
> 本小节内容适合 `Python` 开发人员阅读。
@@ -8,7 +8,7 @@
第一步,因为应用将要运行在一个满足所有环境依赖的 Docker 容器里面,那么我们可以通过编辑 `Dockerfile` 文件来指定 Docker 容器要安装内容。内容如下:
-```dockerfile
+```docker
FROM python:3
ENV PYTHONUNBUFFERED 1
RUN mkdir /code
@@ -35,6 +35,8 @@ services:
db:
image: postgres
+ environment:
+ POSTGRES_PASSWORD: 'postgres'
web:
build: .
@@ -43,8 +45,6 @@ services:
- .:/code
ports:
- "8000:8000"
- links:
- - db
```
查看 [`docker-compose.yml` 章节](compose_file.md) 了解更多详细的工作机制。
@@ -80,6 +80,7 @@ DATABASES = {
'USER': 'postgres',
'HOST': 'db',
'PORT': 5432,
+ 'PASSWORD': 'postgres',
}
}
```
diff --git a/compose/install.md b/compose/install.md
index 4a7ba479f..468a1a5ee 100644
--- a/compose/install.md
+++ b/compose/install.md
@@ -1,4 +1,4 @@
-## 安装与卸载
+# 安装与卸载
`Compose` 支持 Linux、macOS、Windows 10 三大平台。
@@ -9,24 +9,27 @@
```bash
$ docker-compose --version
-docker-compose version 1.24.1, build 4667896b
+docker-compose version 1.27.4, build 40524192
```
Linux 系统请使用以下介绍的方法安装。
-### 二进制包
+## 二进制包
在 Linux 上的也安装十分简单,从 [官方 GitHub Release](https://github.com/docker/compose/releases) 处直接下载编译好的二进制文件即可。
例如,在 Linux 64 位系统上直接下载对应的二进制包。
```bash
-$ sudo curl -L https://github.com/docker/compose/releases/download/1.24.1/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-compose
+$ sudo curl -L https://github.com/docker/compose/releases/download/1.27.4/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-compose
+
+# 国内用户可以使用以下方式加快下载
+$ sudo curl -L https://download.fastgit.org/docker/compose/releases/download/1.27.4/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-compose
$ sudo chmod +x /usr/local/bin/docker-compose
```
-### PIP 安装
+## PIP 安装
*注:* `x86_64` 架构的 Linux 建议按照上边的方法下载二进制包进行安装,如果您计算机的架构是 `ARM` (例如,树莓派),再使用 `pip` 安装。
@@ -42,18 +45,18 @@ $ sudo pip install -U docker-compose
```bash
Collecting docker-compose
- Downloading docker-compose-1.24.1.tar.gz (149kB): 149kB downloaded
+ Downloading docker-compose-1.27.4.tar.gz (149kB): 149kB downloaded
...
Successfully installed docker-compose cached-property requests texttable websocket-client docker-py dockerpty six enum34 backports.ssl-match-hostname ipaddress
```
-### bash 补全命令
+## bash 补全命令
```bash
-$ curl -L https://raw.githubusercontent.com/docker/compose/1.24.1/contrib/completion/bash/docker-compose > /etc/bash_completion.d/docker-compose
+$ curl -L https://raw.githubusercontent.com/docker/compose/1.27.4/contrib/completion/bash/docker-compose > /etc/bash_completion.d/docker-compose
```
-### 卸载
+## 卸载
如果是二进制包方式安装的,删除二进制文件即可。
diff --git a/compose/introduction.md b/compose/introduction.md
index cde4affba..677761430 100644
--- a/compose/introduction.md
+++ b/compose/introduction.md
@@ -1,4 +1,4 @@
-## Compose 简介
+# Compose 简介
`Compose` 项目是 Docker 官方的开源项目,负责实现对 Docker 容器集群的快速编排。从功能上看,跟 `OpenStack` 中的 `Heat` 十分类似。
diff --git a/compose/lnmp.md b/compose/lnmp.md
new file mode 100644
index 000000000..6e89ed21f
--- /dev/null
+++ b/compose/lnmp.md
@@ -0,0 +1,3 @@
+# 使用 compose 搭建 LNMP 环境
+
+本项目的维护者 [khs1994](https://github.com/khs1994) 的开源项目 [khs1994-docker/lnmp](https://github.com/khs1994-docker/lnmp) 使用 Docker Compose 搭建了一套 LNMP 环境,各位开发者可以参考该项目在 Docker 或 Kubernetes 中运行 LNMP。
diff --git a/compose/rails.md b/compose/rails.md
index 96b2bb8f5..af8517b68 100644
--- a/compose/rails.md
+++ b/compose/rails.md
@@ -1,4 +1,4 @@
-## 使用 Rails
+# 使用 Rails
> 本小节内容适合 `Ruby` 开发人员阅读。
@@ -8,7 +8,7 @@
首先,因为应用将要运行在一个满足所有环境依赖的 Docker 容器里面,那么我们可以通过编辑 `Dockerfile` 文件来指定 Docker 容器要安装内容。内容如下:
-```dockerfile
+```docker
FROM ruby
RUN apt-get update -qq && apt-get install -y build-essential libpq-dev
RUN mkdir /myapp
@@ -45,8 +45,6 @@ services:
- .:/myapp
ports:
- "3000:3000"
- links:
- - db
```
所有文件就绪后,我们就可以通过使用 `docker-compose run` 命令生成应用的骨架了。
@@ -117,5 +115,3 @@ $ docker-compose run web rake db:create
```
这个 web 应用已经开始在你的 docker 守护进程里面监听着 3000 端口了。
-
-![](../_images/docker-compose-rails-screenshot.png)
diff --git a/compose/usage.md b/compose/usage.md
index 7f3d8b515..ec0479b0e 100644
--- a/compose/usage.md
+++ b/compose/usage.md
@@ -1,6 +1,6 @@
-## 使用
+# 使用
-### 术语
+## 术语
首先介绍几个术语。
@@ -10,13 +10,13 @@
可见,一个项目可以由多个服务(容器)关联而成,`Compose` 面向项目进行管理。
-### 场景
+## 场景
最常见的项目是 web 网站,该项目应该包含 web 应用和缓存。
下面我们用 `Python` 来建立一个能够记录页面访问次数的 web 网站。
-#### web 应用
+### web 应用
新建文件夹,在该目录中编写 `app.py` 文件
@@ -36,11 +36,11 @@ if __name__ == "__main__":
app.run(host="0.0.0.0", debug=True)
```
-#### Dockerfile
+### Dockerfile
编写 `Dockerfile` 文件,内容为
-```dockerfile
+```docker
FROM python:3.6-alpine
ADD . /code
WORKDIR /code
@@ -48,7 +48,7 @@ RUN pip install redis flask
CMD ["python", "app.py"]
```
-#### docker-compose.yml
+### docker-compose.yml
编写 `docker-compose.yml` 文件,这个是 Compose 使用的主模板文件。
@@ -65,7 +65,7 @@ services:
image: "redis:alpine"
```
-#### 运行 compose 项目
+### 运行 compose 项目
```bash
$ docker-compose up
diff --git a/compose/v2.md b/compose/v2.md
new file mode 100644
index 000000000..d098db28f
--- /dev/null
+++ b/compose/v2.md
@@ -0,0 +1,7 @@
+# Compose V2
+
+目前 Docker 官方用 GO 语言 [重写](https://github.com/docker/compose-cli) 了 Docker Compose,并将其作为了 docker cli 的子命令,称为 `Compose V2`。你可以参照官方文档安装,然后将熟悉的 `docker-compose` 命令替换为 `docker compose`,即可使用 Docker Compose。
+
+## 官方文档
+
+* [Compose V2 beta](https://docs.docker.com/compose/cli-command/)
diff --git a/compose/wordpress.md b/compose/wordpress.md
index 7188bb35b..170e54df7 100644
--- a/compose/wordpress.md
+++ b/compose/wordpress.md
@@ -1,14 +1,14 @@
-## 使用 WordPress
+# 使用 WordPress
> 本小节内容适合 `PHP` 开发人员阅读。
`Compose` 可以很便捷的让 `Wordpress` 运行在一个独立的环境中。
-### 创建空文件夹
+## 创建空文件夹
假设新建一个名为 `wordpress` 的文件夹,然后进入这个文件夹。
-### 创建 `docker-compose.yml` 文件
+## 创建 `docker-compose.yml` 文件
[`docker-compose.yml`](https://github.com/yeasy/docker_practice/blob/master/compose/demo/wordpress/docker-compose.yml) 文件将开启一个 `wordpress` 服务和一个独立的 `MySQL` 实例:
@@ -46,6 +46,6 @@ volumes:
db_data:
```
-### 构建并运行项目
+## 构建并运行项目
运行 `docker-compose up -d` Compose 就会拉取镜像再创建我们所需要的镜像,然后启动 `wordpress` 和数据库容器。 接着浏览器访问 `127.0.0.1:8000` 端口就能看到 `WordPress` 安装界面了。
diff --git a/container/README.md b/container/README.md
index 5d571a9de..a7bfeffa0 100644
--- a/container/README.md
+++ b/container/README.md
@@ -1,4 +1,5 @@
# 操作 Docker 容器
+
容器是 Docker 又一核心概念。
简单的说,容器是独立运行的一个或一组应用,以及它们的运行态环境。对应的,虚拟机可以理解为模拟运行的一整套操作系统(提供了运行态环境和其他系统环境)和跑在上面的应用。
diff --git a/container/attach_exec.md b/container/attach_exec.md
index 0feb1342a..aca5d99a2 100644
--- a/container/attach_exec.md
+++ b/container/attach_exec.md
@@ -1,10 +1,10 @@
-## 进入容器
+# 进入容器
在使用 `-d` 参数时,容器启动后会进入后台。
某些时候需要进入容器进行操作,包括使用 `docker attach` 命令或 `docker exec` 命令,推荐大家使用 `docker exec` 命令,原因会在下面说明。
-### `attach` 命令
+## `attach` 命令
下面示例如何使用 `docker attach` 命令。
@@ -22,9 +22,9 @@ root@243c32535da7:/#
*注意:* 如果从这个 stdin 中 exit,会导致容器的停止。
-### `exec` 命令
+## `exec` 命令
-#### -i -t 参数
+### `-i` `-t` 参数
`docker exec` 后边可以跟多个参数,这里主要说明 `-i` `-t` 参数。
diff --git a/container/daemon.md b/container/daemon.md
index 5175c3557..37840aff2 100644
--- a/container/daemon.md
+++ b/container/daemon.md
@@ -1,4 +1,4 @@
-## 后台运行
+# 后台运行
更多的时候,需要让 Docker 在后台运行而不是直接把执行命令的结果输出在当前宿主机下。此时,可以通过添加 `-d` 参数来实现。
diff --git a/container/import_export.md b/container/import_export.md
index c2a76a29e..7f88763fd 100644
--- a/container/import_export.md
+++ b/container/import_export.md
@@ -1,6 +1,6 @@
-## 导出和导入容器
+# 导出和导入容器
-### 导出容器
+## 导出容器
如果要导出本地某个容器,可以使用 `docker export` 命令。
```bash
@@ -12,7 +12,7 @@ $ docker export 7691a814370e > ubuntu.tar
这样将导出容器快照到本地文件。
-### 导入容器快照
+## 导入容器快照
可以使用 `docker import` 从容器快照文件中再导入为镜像,例如
diff --git a/container/rm.md b/container/rm.md
index 4de8504b9..aa1958c5b 100644
--- a/container/rm.md
+++ b/container/rm.md
@@ -1,15 +1,15 @@
-## 删除容器
+# 删除容器
可以使用 `docker container rm` 来删除一个处于终止状态的容器。例如
```bash
-$ docker container rm trusting_newton
+$ docker container rm trusting_newton
trusting_newton
```
如果要删除一个运行中的容器,可以添加 `-f` 参数。Docker 会发送 `SIGKILL` 信号给容器。
-## 清理所有处于终止状态的容器
+# 清理所有处于终止状态的容器
用 `docker container ls -a` 命令可以查看所有已经创建的包括终止状态的容器,如果数量太多要一个个删除可能会很麻烦,用下面的命令可以清理掉所有处于终止状态的容器。
diff --git a/container/run.md b/container/run.md
index 9dfd596ca..5f7802fd5 100644
--- a/container/run.md
+++ b/container/run.md
@@ -1,10 +1,10 @@
-## 启动容器
+# 启动容器
-启动容器有两种方式,一种是基于镜像新建一个容器并启动,另外一个是将在终止状态(`stopped`)的容器重新启动。
+启动容器有两种方式,一种是基于镜像新建一个容器并启动,另外一个是将在终止状态(`exited`)的容器重新启动。
因为 Docker 的容器实在太轻量级了,很多时候用户都是随时删除和新创建容器。
-### 新建并启动
+## 新建并启动
所需要的命令主要为 `docker run`。
@@ -37,7 +37,7 @@ bin boot dev etc home lib lib64 media mnt opt proc root run sbin srv sys tmp usr
当利用 `docker run` 来创建容器时,Docker 在后台运行的标准操作包括:
-* 检查本地是否存在指定的镜像,不存在就从公有仓库下载
+* 检查本地是否存在指定的镜像,不存在就从 [registry](../repository/README.md) 下载
* 利用镜像创建并启动一个容器
* 分配一个文件系统,并在只读的镜像层外面挂载一层可读写层
* 从宿主主机配置的网桥接口中桥接一个虚拟接口到容器中去
@@ -45,9 +45,9 @@ bin boot dev etc home lib lib64 media mnt opt proc root run sbin srv sys tmp usr
* 执行用户指定的应用程序
* 执行完毕后容器被终止
-### 启动已终止容器
+## 启动已终止容器
-可以利用 `docker container start` 命令,直接将一个已经终止的容器启动运行。
+可以利用 `docker container start` 命令,直接将一个已经终止(`exited`)的容器启动运行。
容器的核心为所执行的应用程序,所需要的资源都是应用程序运行所必需的。除此之外,并没有其它的资源。可以在伪终端中利用 `ps` 或 `top` 来查看进程信息。
diff --git a/container/stop.md b/container/stop.md
index 31853a5d9..4852848b4 100644
--- a/container/stop.md
+++ b/container/stop.md
@@ -1,4 +1,4 @@
-## 终止容器
+# 终止容器
可以使用 `docker container stop` 来终止一个运行中的容器。
@@ -9,10 +9,9 @@
终止状态的容器可以用 `docker container ls -a` 命令看到。例如
```bash
-docker container ls -a
+$ docker container ls -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
ba267838cc1b ubuntu:18.04 "/bin/bash" 30 minutes ago Exited (0) About a minute ago trusting_newton
-98e5efa7d997 training/webapp:latest "python app.py" About an hour ago Exited (0) 34 minutes ago backstabbing_pike
```
处于终止状态的容器,可以通过 `docker container start` 命令来重新启动。
diff --git a/coreos/README.md b/coreos/README.md
index 90d240f8a..36512e4fe 100644
--- a/coreos/README.md
+++ b/coreos/README.md
@@ -1,7 +1,7 @@
-# CoreOS
+# Fedora CoreOS
-CoreOS 的设计是为你提供能够像谷歌一样的大型互联网公司一样的基础设施管理能力来动态扩展和管理的计算能力。
+`CoreOS` 是一个专门为安全和大规模运行容器化工作负载而构建的新 Fedora 版本,它继承了 Fedora Atomic Host 和 CoreOS Container Linux 的优势。
-CoreOS 的安装文件和运行依赖非常小,它提供了精简的 Linux 系统。它使用 Linux 容器在更高的抽象层来管理你的服务,而不是通过常规的 YUM 和 APT 来安装包。
+`CoreOS` 的安装文件和运行依赖非常小,它提供了精简的 Linux 系统。它使用 Linux 容器在更高的抽象层来管理你的服务,而不是通过常规的包管理工具 `yum` 或 `apt` 来安装包。
-同时,CoreOS 几乎可以运行在任何平台:`VirtualBox`, `Amazon EC2`, `QEMU/KVM`, `VMware` 和 `OpenStack` 等 。
+同时,`CoreOS` 几乎可以运行在任何平台:`VirtualBox` `Amazon EC2` `QEMU/KVM` `VMware` `Bare Metal` 和 `OpenStack` 等 。
diff --git a/coreos/demo/example.fcc b/coreos/demo/example.fcc
new file mode 100644
index 000000000..59c557680
--- /dev/null
+++ b/coreos/demo/example.fcc
@@ -0,0 +1,7 @@
+variant: fcos
+version: 1.0.0
+passwd:
+ users:
+ - name: core
+ ssh_authorized_keys:
+ - ssh-rsa AAAA...
diff --git a/coreos/install.md b/coreos/install.md
new file mode 100644
index 000000000..8e3b7a746
--- /dev/null
+++ b/coreos/install.md
@@ -0,0 +1,52 @@
+# 安装 Fedora CoreOS
+
+## 下载 ISO
+
+在 [下载页面](https://getfedora.org/coreos/download/) `Bare Metal & Virtualized` 标签页下载 ISO。
+
+## 编写 FCC
+
+FCC 是 Fedora CoreOS Configuration (Fedora CoreOS 配置)的简称。
+
+```yaml
+# example.fcc
+variant: fcos
+version: 1.0.0
+passwd:
+ users:
+ - name: core
+ ssh_authorized_keys:
+ - ssh-rsa AAAA...
+```
+
+将 `ssh-rsa AAAA...` 替换为自己的 SSH 公钥(位于 `~/.ssh/id_rsa.pub`)。
+
+## 转换 FCC 为 Ignition
+
+```bash
+$ docker run -i --rm quay.io/coreos/fcct:v0.5.0 --pretty --strict < example.fcc > example.ign
+```
+
+## 挂载 ISO 启动虚拟机并安装
+
+> 虚拟机需要分配 3GB 以上内存,否则会无法启动。
+
+在虚拟机终端执行以下命令安装:
+
+```bash
+$ sudo coreos-installer install /dev/sda --ignition-file example.ign
+```
+
+安装之后重新启动即可使用。
+
+## 使用
+
+```bash
+$ ssh core@虚拟机IP
+
+$ docker --version
+```
+
+## 参考链接
+
+* [官方文档](https://docs.fedoraproject.org/en-US/fedora-coreos/bare-metal/)
diff --git a/coreos/intro.md b/coreos/intro.md
index 9b1a64da8..5540d942a 100644
--- a/coreos/intro.md
+++ b/coreos/intro.md
@@ -1,31 +1,28 @@
-# CoreOS 介绍
+# Fedora CoreOS 介绍
-[CoreOS](https://coreos.com/) 对 Docker 甚至容器技术的发展都带来了巨大的推动作用。其提供了运行现代基础设施的特性,支持大规模服务部署,使得在基于最小化的现代操作系统上构建规模化的计算仓库成为了可能。
+[Fedora CoreOS](https://getfedora.org/coreos/) 是一个自动更新的,最小的,整体的,以容器为中心的操作系统,不仅适用于集群,而且可独立运行,并针对运行 Kubernetes 进行了优化。它旨在结合 CoreOS Container Linux 和 Fedora Atomic Host 的优点,将 Container Linux 中的 [Ignition](https://github.com/coreos/ignition) 与 [rpm-ostree](https://github.com/coreos/rpm-ostree) 和 Project Atomic 中的 SELinux 强化等技术相集成。其目标是提供最佳的容器主机,以安全,大规模地运行容器化的工作负载。
-# CoreOS 特性
+## FCOS 特性
-## 一个最小化操作系统
+### 一个最小化操作系统
-CoreOS 被设计成一个基于容器的最小化的现代操作系统。它比现有的 Linux 安装平均节省 40% 的 RAM(大约 114M )并允许从 PXE 或 iPXE 非常快速的启动。
+FCOS 被设计成一个基于容器的最小化的现代操作系统。它比现有的 Linux 安装平均节省 40% 的 RAM(大约 114M )并允许从 PXE 或 iPXE 非常快速的启动。
-## 无痛更新
+### 系统初始化
-利用主动和被动双分区方案来更新 OS,使用分区作为一个单元而不是一个包一个包的更新。这使得每次更新变得快速,可靠,而且很容易回滚。
+Ignition 是一种配置实用程序,可读取配置文件(JSON 格式)并根据该配置配置 FCOS 系统。可配置的组件包括存储,文件系统,systemd 和用户。
-## Docker 容器
+Ignition 在系统首次启动期间(在 initramfs 中)仅运行一次。由于 Ignition 在启动过程中的早期运行,因此它可以在用户空间开始启动之前重新对磁盘分区,格式化文件系统,创建用户并写入文件。当 systemd 启动时,systemd 服务已被写入磁盘,从而加快了启动时间。
-应用作为 Docker 容器运行在 CoreOS 上。容器以包的形式提供最大得灵活性并且可以在几毫秒启动。
+### 自动更新
-## 支持集群
+FCOS 使用 rpm-ostree 系统进行事务性升级。无需像 yum 升级那样升级单个软件包,而是 rpm-ostree 将 OS 升级作为一个原子单元进行。新的 OS 部署在升级期间进行,并在下次重新引导时生效。如果升级出现问题,则一次回滚和重新启动会使系统返回到先前的状态。确保了系统升级对群集容量的影响降到最小。
-CoreOS 可以在一个机器上很好地运行,但是它被设计用来搭建集群。
+### 容器工具
-可以通过 k8s 很容易得使应用容器部署在多台机器上并且通过服务发现把他们连接在一起。
+对于诸如构建,复制和其他管理容器的任务,FCOS 用一组容器工具代替了 **Docker CLI**。**podman CLI** 工具支持许多容器运行时功能,例如运行,启动,停止,列出和删除容器和镜像。**skopeo CLI** 工具可以复制,认证和签名镜像。您还可以使用 **crictl CLI** 工具来处理 CRI-O 容器引擎中的容器和镜像。
-## 分布式系统工具
+## 参考文档
-内置诸如分布式锁和主选举等原生工具用来构建大规模分布式系统得构建模块。
-
-## 服务发现
-
-很容易定位服务在集群的那里运行并当发生变化时进行通知。它是复杂高动态集群必不可少的。
+* [官方文档](https://docs.fedoraproject.org/en-US/fedora-coreos/)
+* [openshift 官方文档](https://docs.openshift.com/container-platform/4.3/architecture/architecture-rhcos.html)
diff --git a/coreos/intro_tools.md b/coreos/intro_tools.md
deleted file mode 100644
index 9144d4826..000000000
--- a/coreos/intro_tools.md
+++ /dev/null
@@ -1,13 +0,0 @@
-# CoreOS 工具介绍
-
-`CoreOS` 内置了 `服务发现`,`容器管理` 工具。
-
-## 服务发现
-
-`CoreOS` 的第一个重要组件就是使用 `etcd` 来实现的服务发现。在 `CoreOS` 中 `etcd` 默认以 `rkt` 容器方式运行。
-
-`etcd` 使用方法请查看 [etcd 章节](../etcd/)。
-
-## 容器管理
-
-第二个组件就是 `Docker`,它用来运行你的代码和应用。`CoreOS` 内置 `Docker`,具体使用请参考本书其他章节。
diff --git a/data_management/README.md b/data_management/README.md
index a45cd21db..532f4374e 100644
--- a/data_management/README.md
+++ b/data_management/README.md
@@ -1,6 +1,6 @@
# Docker 数据管理
-![](_images/types-of-mounts.png)
+![](./_images/types-of-mounts.png)
这一章介绍如何在 Docker 内部以及容器之间管理数据,在容器中管理数据主要有两种方式:
diff --git a/data_management/bind-mounts.md b/data_management/bind-mounts.md
index 6d0bef720..278d12ff2 100644
--- a/data_management/bind-mounts.md
+++ b/data_management/bind-mounts.md
@@ -1,39 +1,37 @@
-## 挂载主机目录
+# 挂载主机目录
-### 挂载一个主机目录作为数据卷
+## 挂载一个主机目录作为数据卷
使用 `--mount` 标记可以指定挂载一个本地主机的目录到容器中去。
```bash
$ docker run -d -P \
--name web \
- # -v /src/webapp:/opt/webapp \
- --mount type=bind,source=/src/webapp,target=/opt/webapp \
- training/webapp \
- python app.py
+ # -v /src/webapp:/usr/share/nginx/html \
+ --mount type=bind,source=/src/webapp,target=/usr/share/nginx/html \
+ nginx:alpine
```
-上面的命令加载主机的 `/src/webapp` 目录到容器的 `/opt/webapp`目录。这个功能在进行测试的时候十分方便,比如用户可以放置一些程序到本地目录中,来查看容器是否正常工作。本地目录的路径必须是绝对路径,以前使用 `-v` 参数时如果本地目录不存在 Docker 会自动为你创建一个文件夹,现在使用 `--mount` 参数时如果本地目录不存在,Docker 会报错。
+上面的命令加载主机的 `/src/webapp` 目录到容器的 `/usr/share/nginx/html`目录。这个功能在进行测试的时候十分方便,比如用户可以放置一些程序到本地目录中,来查看容器是否正常工作。本地目录的路径必须是绝对路径,以前使用 `-v` 参数时如果本地目录不存在 Docker 会自动为你创建一个文件夹,现在使用 `--mount` 参数时如果本地目录不存在,Docker 会报错。
Docker 挂载主机目录的默认权限是 `读写`,用户也可以通过增加 `readonly` 指定为 `只读`。
```bash
$ docker run -d -P \
--name web \
- # -v /src/webapp:/opt/webapp:ro \
- --mount type=bind,source=/src/webapp,target=/opt/webapp,readonly \
- training/webapp \
- python app.py
+ # -v /src/webapp:/usr/share/nginx/html:ro \
+ --mount type=bind,source=/src/webapp,target=/usr/share/nginx/html,readonly \
+ nginx:alpine
```
-加了 `readonly` 之后,就挂载为 `只读` 了。如果你在容器内 `/opt/webapp` 目录新建文件,会显示如下错误
+加了 `readonly` 之后,就挂载为 `只读` 了。如果你在容器内 `/usr/share/nginx/html` 目录新建文件,会显示如下错误
```bash
-/opt/webapp # touch new.txt
+/usr/share/nginx/html # touch new.txt
touch: new.txt: Read-only file system
```
-### 查看数据卷的具体信息
+## 查看数据卷的具体信息
在主机里使用以下命令可以查看 `web` 容器的信息
@@ -48,7 +46,7 @@ $ docker inspect web
{
"Type": "bind",
"Source": "/src/webapp",
- "Destination": "/opt/webapp",
+ "Destination": "/usr/share/nginx/html",
"Mode": "",
"RW": true,
"Propagation": "rprivate"
@@ -56,7 +54,7 @@ $ docker inspect web
],
```
-### 挂载一个本地主机文件作为数据卷
+## 挂载一个本地主机文件作为数据卷
`--mount` 标记也可以从主机挂载单个文件到容器中
diff --git a/data_management/volume.md b/data_management/volume.md
index b96b624c5..a80cca4c8 100644
--- a/data_management/volume.md
+++ b/data_management/volume.md
@@ -1,6 +1,6 @@
-## 数据卷
+# 数据卷
-`数据卷` 是一个可供一个或多个容器使用的特殊目录,它绕过 UFS,可以提供很多有用的特性:
+`数据卷` 是一个可供一个或多个容器使用的特殊目录,它绕过 UnionFS,可以提供很多有用的特性:
* `数据卷` 可以在容器之间共享和重用
@@ -10,9 +10,9 @@
* `数据卷` 默认会一直存在,即使容器被删除
->注意:`数据卷` 的使用,类似于 Linux 下对目录或文件进行 mount,镜像中的被指定为挂载点的目录中的文件会隐藏掉,能显示看的是挂载的 `数据卷`。
+>注意:`数据卷` 的使用,类似于 Linux 下对目录或文件进行 mount,镜像中的被指定为挂载点的目录中的文件会复制到数据卷中(仅数据卷为空时会复制)。
-### 创建一个数据卷
+## 创建一个数据卷
```bash
$ docker volume create my-vol
@@ -23,6 +23,7 @@ $ docker volume create my-vol
```bash
$ docker volume ls
+DRIVER VOLUME NAME
local my-vol
```
@@ -42,22 +43,21 @@ $ docker volume inspect my-vol
]
```
-### 启动一个挂载数据卷的容器
+## 启动一个挂载数据卷的容器
在用 `docker run` 命令的时候,使用 `--mount` 标记来将 `数据卷` 挂载到容器里。在一次 `docker run` 中可以挂载多个 `数据卷`。
-下面创建一个名为 `web` 的容器,并加载一个 `数据卷` 到容器的 `/webapp` 目录。
+下面创建一个名为 `web` 的容器,并加载一个 `数据卷` 到容器的 `/usr/share/nginx/html` 目录。
```bash
$ docker run -d -P \
--name web \
- # -v my-vol:/wepapp \
- --mount source=my-vol,target=/webapp \
- training/webapp \
- python app.py
+ # -v my-vol:/usr/share/nginx/html \
+ --mount source=my-vol,target=/usr/share/nginx/html \
+ nginx:alpine
```
-### 查看数据卷的具体信息
+## 查看数据卷的具体信息
在主机里使用以下命令可以查看 `web` 容器的信息
@@ -73,7 +73,7 @@ $ docker inspect web
"Type": "volume",
"Name": "my-vol",
"Source": "/var/lib/docker/volumes/my-vol/_data",
- "Destination": "/app",
+ "Destination": "/usr/share/nginx/html",
"Driver": "local",
"Mode": "",
"RW": true,
@@ -82,7 +82,7 @@ $ docker inspect web
],
```
-### 删除数据卷
+## 删除数据卷
```bash
$ docker volume rm my-vol
diff --git a/docker-compose.yml b/docker-compose.yml
index 624994749..d54a15791 100644
--- a/docker-compose.yml
+++ b/docker-compose.yml
@@ -2,30 +2,31 @@ version: "3"
services:
- # $ docker-compose up server => up a server,Only Support Linux or macOS
- server:
- image: yeasy/docker_practice:latest
- ports:
- - 4000:4000
- volumes:
- - ./:/srv/gitbook-src
- command: server
-
- # $ docker-compose up build => build gitbook
-
- build:
+ gitbook-build:
+ &gitbook-build
image: yeasy/docker_practice:latest
volumes:
- ./:/srv/gitbook-src
command: build
- # $ docker run -it --rm -p 4000:80 dockerpracticesig/docker_practice
- offline:
- # this image build by travis ci
- image: dockerpracticesig/docker_practice
+ gitbook-server:
+ << : *gitbook-build
+ ports:
+ - 4000:4000
+ command: server
+
+ # docker run -it --rm -p 4000:80 dockerpracticesig/docker_practice
+ gitbook-offline:
+ &gitbook-offline
+ # this image build by GitHub Action
+ image: dockerpracticesig/docker_practice:gitbook
ports:
- 4000:80
+ vuepress-offline:
+ << : *gitbook-offline
+ image: dockerpracticesig/docker_practice:vuepress
+
# developer test docker image
development:
diff --git a/etcd/cluster.md b/etcd/cluster.md
index dc39d33ae..305e78e4a 100644
--- a/etcd/cluster.md
+++ b/etcd/cluster.md
@@ -1,4 +1,4 @@
-## etcd 集群
+# etcd 集群
下面我们使用 [Docker Compose](../compose/) 模拟启动一个 3 节点的 `etcd` 集群。
diff --git a/etcd/etcdctl-v2.md b/etcd/etcdctl-v2.md
index 6e66a9ff8..d37e4ce75 100644
--- a/etcd/etcdctl-v2.md
+++ b/etcd/etcdctl-v2.md
@@ -1,4 +1,4 @@
-## 使用 etcdctl v2
+# 使用 etcdctl v2
`etcdctl` 是一个命令行客户端,它能提供一些简洁的命令,供用户直接跟 `etcd` 服务打交道,而无需基于 `HTTP API` 方式。这在某些情况下将很方便,例如用户对服务进行测试或者手动修改数据库内容。我们也推荐在刚接触 `etcd` 时通过 `etcdctl` 命令来熟悉相关的操作,这些操作跟 `HTTP API` 实际上是对应的。
@@ -46,14 +46,14 @@ GLOBAL OPTIONS:
--version, -v print the version
```
-### 数据库操作
+## 数据库操作
数据库操作围绕对键值和目录的 CRUD (符合 REST 风格的一套操作:Create)完整生命周期的管理。
etcd 在键的组织上采用了层次化的空间结构(类似于文件系统中目录的概念),用户指定的键可以为单独的名字,如 `testkey`,此时实际上放在根目录 `/` 下面,也可以为指定目录结构,如 `cluster1/node2/testkey`,则将创建相应的目录结构。
*注:CRUD 即 Create, Read, Update, Delete,是符合 REST 风格的一套 API 操作。*
-#### set
+### set
指定某个键的值。例如
```bash
$ etcdctl set /testdir/testkey "Hello world"
@@ -66,7 +66,7 @@ Hello world
--swap-with-index '0' 若该键现在的索引值是指定索引,则进行设置操作
```
-#### get
+### get
获取指定键的值。例如
```bash
$ etcdctl set testkey hello
@@ -87,7 +87,7 @@ Error: 100: Key not found (/testkey2) [1]
--consistent 将请求发给主节点,保证获取内容的一致性
```
-#### update
+### update
当键存在时,更新值内容。例如
```bash
$ etcdctl set testkey hello
@@ -107,7 +107,7 @@ Error: 100: Key not found (/testkey2) [1]
--ttl '0' 超时时间(单位为秒),不配置(默认为 0)则永不超时
```
-#### rm
+### rm
删除某个键值。例如
```bash
$ etcdctl rm testkey
@@ -127,7 +127,7 @@ Error: 100: Key not found (/testkey2) [8]
--with-index '0' 检查现有的 index 是否匹配
```
-#### mk
+### mk
如果给定的键不存在,则创建一个新的键值。例如
```bash
$ etcdctl mk /testdir/testkey "Hello world"
@@ -146,7 +146,7 @@ Error: 105: Key already exists (/testkey) [2]
--ttl '0' 超时时间(单位为秒),不配置(默认为 0)则永不超时
```
-#### mkdir
+### mkdir
如果给定的键目录不存在,则创建一个新的键目录。例如
```bash
$ etcdctl mkdir testdir
@@ -162,7 +162,7 @@ Error: 105: Key already exists (/testdir) [7]
--ttl '0' 超时时间(单位为秒),不配置(默认为 0)则永不超时
```
-#### setdir
+### setdir
创建一个键目录,无论存在与否。
@@ -171,14 +171,14 @@ Error: 105: Key already exists (/testdir) [7]
--ttl '0' 超时时间(单位为秒),不配置(默认为 0)则永不超时
```
-#### updatedir
+### updatedir
更新一个已经存在的目录。
支持的选项为
```bash
--ttl '0' 超时时间(单位为秒),不配置(默认为 0)则永不超时
```
-#### rmdir
+### rmdir
删除一个空目录,或者键值对。
若目录不空,会报错
@@ -189,7 +189,7 @@ $ etcdctl rmdir /dir
Error: 108: Directory not empty (/dir) [13]
```
-#### ls
+### ls
列出目录(默认为根目录)下的键或者子目录,默认不显示子目录中内容。
例如
@@ -212,9 +212,9 @@ $ ./etcdctl ls dir
-p 对于输出为目录,在最后添加 `/` 进行区分
```
-### 非数据库操作
+## 非数据库操作
-#### backup
+### backup
备份 etcd 的数据。
支持的选项包括
@@ -222,7 +222,7 @@ $ ./etcdctl ls dir
--data-dir etcd 的数据目录
--backup-dir 备份到指定路径
```
-#### watch
+### watch
监测一个键值的变化,一旦键值发生更新,就会输出最新的值并退出。
例如,用户更新 testkey 键值为 Hello world。
@@ -237,7 +237,7 @@ Hello world
--after-index '0' 在指定 index 之前一直监测
--recursive 返回所有的键值和子键值
```
-#### exec-watch
+### exec-watch
监测一个键值的变化,一旦键值发生更新,就执行给定命令。
例如,用户更新 testkey 键值。
@@ -258,7 +258,7 @@ README.md
--recursive 返回所有的键值和子键值
```
-#### member
+### member
通过 list、add、remove 命令列出、添加、删除 etcd 实例到 etcd 集群中。
@@ -269,7 +269,7 @@ $ etcdctl member list
ce2a822cea30bfca: name=default peerURLs=http://localhost:2380,http://localhost:7001 clientURLs=http://localhost:2379,http://localhost:4001
```
-### 命令选项
+## 命令选项
* `--debug` 输出 cURL 命令,显示执行命令的时候发起的请求
* `--no-sync` 发出请求之前不同步集群信息
* `--output, -o 'simple'` 输出内容的格式 (`simple` 为原始信息,`json` 为进行json格式解码,易读性好一些)
diff --git a/etcd/etcdctl.md b/etcd/etcdctl.md
index e9d398a74..29c0f0d9f 100644
--- a/etcd/etcdctl.md
+++ b/etcd/etcdctl.md
@@ -1,4 +1,4 @@
-## 使用 etcdctl
+# 使用 etcdctl
`etcdctl` 是一个命令行客户端,它能提供一些简洁的命令,供用户直接跟 `etcd` 服务打交道,而无需基于 `HTTP API` 方式。这在某些情况下将很方便,例如用户对服务进行测试或者手动修改数据库内容。我们也推荐在刚接触 `etcd` 时通过 `etcdctl` 命令来熟悉相关的操作,这些操作跟 `HTTP API` 实际上是对应的。
@@ -81,7 +81,7 @@ OPTIONS:
-w, --write-out="simple" set the output format (fields, json, protobuf, simple, table)
```
-### 数据库操作
+## 数据库操作
数据库操作围绕对键值和目录的 CRUD (符合 REST 风格的一套操作:Create)完整生命周期的管理。
@@ -89,14 +89,14 @@ etcd 在键的组织上采用了层次化的空间结构(类似于文件系统
>注:CRUD 即 Create, Read, Update, Delete,是符合 REST 风格的一套 API 操作。
-#### put
+### put
```bash
$ etcdctl put /testdir/testkey "Hello world"
OK
```
-#### get
+### get
获取指定键的值。例如
@@ -114,7 +114,7 @@ hello
`--consistent` 将请求发给主节点,保证获取内容的一致性
-#### del
+### del
删除某个键值。例如
@@ -123,9 +123,9 @@ $ etcdctl del testkey
1
```
-### 非数据库操作
+## 非数据库操作
-#### watch
+### watch
监测一个键值的变化,一旦键值发生更新,就会输出最新的值。
@@ -138,7 +138,7 @@ testkey
2
```
-#### member
+### member
通过 `list`、`add`、`update`、`remove` 命令列出、添加、更新、删除 etcd 实例到 etcd 集群中。
diff --git a/etcd/install.md b/etcd/install.md
index 472865d48..5366f1ec2 100644
--- a/etcd/install.md
+++ b/etcd/install.md
@@ -1,10 +1,10 @@
-## 安装
+# 安装
`etcd` 基于 `Go` 语言实现,因此,用户可以从 [项目主页](https://github.com/etcd-io/etcd) 下载源代码自行编译,也可以下载编译好的二进制文件,甚至直接使用制作好的 `Docker` 镜像文件来体验。
>注意:本章节内容基于 etcd `3.4.x` 版本
-### 二进制文件方式下载
+## 二进制文件方式下载
编译好的二进制文件都在 [github.com/etcd-io/etcd/releases](https://github.com/etcd-io/etcd/releases/) 页面,用户可以选择需要的版本,或通过下载工具下载。
@@ -12,6 +12,10 @@
```bash
$ curl -L https://github.com/etcd-io/etcd/releases/download/v3.4.0/etcd-v3.4.0-linux-amd64.tar.gz -o etcd-v3.4.0-linux-amd64.tar.gz
+
+# 国内用户可以使用以下方式加快下载
+$ curl -L https://download.fastgit.org/etcd-io/etcd/releases/download/v3.4.0/etcd-v3.4.0-linux-amd64.tar.gz -o etcd-v3.4.0-linux-amd64.tar.gz
+
$ tar xzvf etcd-v3.4.0-linux-amd64.tar.gz
$ cd etcd-v3.4.0-linux-amd64
```
@@ -56,7 +60,7 @@ hello world
说明 etcd 服务已经成功启动了。
-### Docker 镜像方式运行
+## Docker 镜像方式运行
镜像名称为 `quay.io/coreos/etcd`,可以通过下面的命令启动 `etcd` 服务监听到 `2379` 和 `2380` 端口。
@@ -84,7 +88,7 @@ quay.io/coreos/etcd:v3.4.0 \
打开新的终端按照上一步的方法测试 `etcd` 是否成功启动。
-### macOS 中运行
+## macOS 中运行
```bash
$ brew install etcd
diff --git a/etcd/intro.md b/etcd/intro.md
index 186209192..23e1caa4f 100644
--- a/etcd/intro.md
+++ b/etcd/intro.md
@@ -1,6 +1,6 @@
-## 什么是 etcd
+# 什么是 etcd
-![](_images/etcd_logo.png)
+![](./_images/etcd_logo.png)
`etcd` 是 `CoreOS` 团队于 2013 年 6 月发起的开源项目,它的目标是构建一个高可用的分布式键值(`key-value`)数据库,基于 `Go` 语言实现。我们知道,在分布式系统中,各种服务的配置信息的管理分享,服务的发现是一个很基本同时也是很重要的问题。`CoreOS` 项目就希望基于 `etcd` 来解决这一问题。
diff --git a/ide/README.md b/ide/README.md
new file mode 100644
index 000000000..a0bb743e3
--- /dev/null
+++ b/ide/README.md
@@ -0,0 +1,3 @@
+# 在 IDE 中使用 Docker
+
+使用 IDE 进行开发,往往要求本地安装好工具链。一些 IDE 支持 Docker 容器中的工具链,这样充分利用了 Docker 的优点,而无需在本地安装。
diff --git a/ide/vsCode.md b/ide/vsCode.md
new file mode 100644
index 000000000..762077619
--- /dev/null
+++ b/ide/vsCode.md
@@ -0,0 +1,5 @@
+# VS Code 中使用 Docker
+
+## 将 Docker 容器作为远程开发环境
+
+无需本地安装开发工具,直接将 Docker 容器作为开发环境,具体参考 [官方文档](https://code.visualstudio.com/docs/remote/containers)。
diff --git a/image/build.md b/image/build.md
index ed2ca60e0..64ad73d43 100644
--- a/image/build.md
+++ b/image/build.md
@@ -1,4 +1,4 @@
-## 使用 Dockerfile 定制镜像
+# 使用 Dockerfile 定制镜像
从刚才的 `docker commit` 的学习中,我们可以了解到,镜像的定制实际上就是定制每一层所添加的配置、文件。如果我们可以把每一层修改、安装、构建、操作的命令都写入一个脚本,用这个脚本来构建、定制镜像,那么之前提及的无法重复的问题、镜像构建透明性的问题、体积的问题就都会解决。这个脚本就是 Dockerfile。
@@ -16,14 +16,14 @@ $ touch Dockerfile
其内容为:
-```dockerfile
+```docker
FROM nginx
RUN echo 'Hello, Docker!
' > /usr/share/nginx/html/index.html
```
这个 Dockerfile 很简单,一共就两行。涉及到了两条指令,`FROM` 和 `RUN`。
-### FROM 指定基础镜像
+## FROM 指定基础镜像
所谓定制镜像,那一定是以一个镜像为基础,在其上进行定制。就像我们之前运行了一个 `nginx` 镜像的容器,再进行修改一样,基础镜像是必须指定的。而 `FROM` 就是指定 **基础镜像**,因此一个 `Dockerfile` 中 `FROM` 是必备的指令,并且必须是第一条指令。
@@ -33,22 +33,22 @@ RUN echo 'Hello, Docker!
' > /usr/share/nginx/html/index.html
除了选择现有镜像为基础镜像外,Docker 还存在一个特殊的镜像,名为 `scratch`。这个镜像是虚拟的概念,并不实际存在,它表示一个空白的镜像。
-```dockerfile
+```docker
FROM scratch
...
```
如果你以 `scratch` 为基础镜像的话,意味着你不以任何镜像为基础,接下来所写的指令将作为镜像第一层开始存在。
-不以任何系统为基础,直接将可执行文件复制进镜像的做法并不罕见,比如 [`swarm`](https://hub.docker.com/_/swarm/)、[`etcd`](https://quay.io/repository/coreos/etcd)。对于 Linux 下静态编译的程序来说,并不需要有操作系统提供运行时支持,所需的一切库都已经在可执行文件里了,因此直接 `FROM scratch` 会让镜像体积更加小巧。使用 [Go 语言](https://golang.org/) 开发的应用很多会使用这种方式来制作镜像,这也是为什么有人认为 Go 是特别适合容器微服务架构的语言的原因之一。
+不以任何系统为基础,直接将可执行文件复制进镜像的做法并不罕见,对于 Linux 下静态编译的程序来说,并不需要有操作系统提供运行时支持,所需的一切库都已经在可执行文件里了,因此直接 `FROM scratch` 会让镜像体积更加小巧。使用 [Go 语言](https://golang.google.cn/) 开发的应用很多会使用这种方式来制作镜像,这也是有人认为 Go 是特别适合容器微服务架构的语言的原因之一。
-### RUN 执行命令
+## RUN 执行命令
`RUN` 指令是用来执行命令行命令的。由于命令行的强大能力,`RUN` 指令在定制镜像时是最常用的指令之一。其格式有两种:
* *shell* 格式:`RUN <命令>`,就像直接在命令行中输入的命令一样。刚才写的 Dockerfile 中的 `RUN` 指令就是这种格式。
-```Dockerfile
+```docker
RUN echo 'Hello, Docker!
' > /usr/share/nginx/html/index.html
```
@@ -56,7 +56,7 @@ RUN echo 'Hello, Docker!
' > /usr/share/nginx/html/index.html
既然 `RUN` 就像 Shell 脚本一样可以执行命令,那么我们是否就可以像 Shell 脚本一样把每个命令对应一个 RUN 呢?比如这样:
-```dockerfile
+```docker
FROM debian:stretch
RUN apt-get update
@@ -77,10 +77,10 @@ RUN make -C /usr/src/redis install
上面的 `Dockerfile` 正确的写法应该是这样:
-```dockerfile
+```docker
FROM debian:stretch
-RUN buildDeps='gcc libc6-dev make wget' \
+RUN set -x; buildDeps='gcc libc6-dev make wget' \
&& apt-get update \
&& apt-get install -y $buildDeps \
&& wget -O redis.tar.gz "http://download.redis.io/releases/redis-5.0.3.tar.gz" \
@@ -94,7 +94,7 @@ RUN buildDeps='gcc libc6-dev make wget' \
&& apt-get purge -y --auto-remove $buildDeps
```
-首先,之前所有的命令只有一个目的,就是编译、安装 redis 可执行文件。因此没有必要建立很多层,这只是一层的事情。因此,这里没有使用很多个 `RUN` 对一一对应不同的命令,而是仅仅使用一个 `RUN` 指令,并使用 `&&` 将各个所需命令串联起来。将之前的 7 层,简化为了 1 层。在撰写 Dockerfile 的时候,要经常提醒自己,这并不是在写 Shell 脚本,而是在定义每一层该如何构建。
+首先,之前所有的命令只有一个目的,就是编译、安装 redis 可执行文件。因此没有必要建立很多层,这只是一层的事情。因此,这里没有使用很多个 `RUN` 一一对应不同的命令,而是仅仅使用一个 `RUN` 指令,并使用 `&&` 将各个所需命令串联起来。将之前的 7 层,简化为了 1 层。在撰写 Dockerfile 的时候,要经常提醒自己,这并不是在写 Shell 脚本,而是在定义每一层该如何构建。
并且,这里为了格式化还进行了换行。Dockerfile 支持 Shell 类的行尾添加 `\` 的命令换行方式,以及行首 `#` 进行注释的格式。良好的格式,比如换行、缩进、注释等,会让维护、排障更为容易,这是一个比较好的习惯。
@@ -102,7 +102,7 @@ RUN buildDeps='gcc libc6-dev make wget' \
很多人初学 Docker 制作出了很臃肿的镜像的原因之一,就是忘记了每一层构建的最后一定要清理掉无关文件。
-### 构建镜像
+## 构建镜像
好了,让我们再回到之前定制的 nginx 镜像的 Dockerfile 来。现在我们明白了这个 Dockerfile 的内容,那么让我们来构建这个镜像吧。
@@ -130,7 +130,7 @@ docker build [选项] <上下文路径/URL/->
在这里我们指定了最终镜像的名称 `-t nginx:v3`,构建成功后,我们可以像之前运行 `nginx:v2` 那样来运行这个镜像,其结果会和 `nginx:v2` 一样。
-### 镜像构建上下文(Context)
+## 镜像构建上下文(Context)
如果注意,会看到 `docker build` 命令最后有一个 `.`。`.` 表示当前目录,而 `Dockerfile` 就在当前目录,因此不少初学者以为这个路径是在指定 `Dockerfile` 所在路径,这么理解其实是不准确的。如果对应上面的命令格式,你可能会发现,这是在指定 **上下文路径**。那么什么是上下文呢?
@@ -142,7 +142,7 @@ docker build [选项] <上下文路径/URL/->
如果在 `Dockerfile` 中这么写:
-```Dockerfile
+```docker
COPY ./package.json /app/
```
@@ -170,26 +170,32 @@ Sending build context to Docker daemon 2.048 kB
当然,一般大家习惯性的会使用默认的文件名 `Dockerfile`,以及会将其置于镜像构建上下文目录中。
-### 其它 `docker build` 的用法
+## 其它 `docker build` 的用法
-#### 直接用 Git repo 进行构建
+### 直接用 Git repo 进行构建
或许你已经注意到了,`docker build` 还支持从 URL 构建,比如可以直接从 Git repo 中构建:
```bash
-$ docker build https://github.com/twang2218/gitlab-ce-zh.git#:11.1
-
-Sending build context to Docker daemon 2.048 kB
-Step 1 : FROM gitlab/gitlab-ce:11.1.0-ce.0
-11.1.0-ce.0: Pulling from gitlab/gitlab-ce
-aed15891ba52: Already exists
-773ae8583d14: Already exists
-...
+# $env:DOCKER_BUILDKIT=0
+# export DOCKER_BUILDKIT=0
+
+$ docker build -t hello-world https://github.com/docker-library/hello-world.git#master:amd64/hello-world
+
+Step 1/3 : FROM scratch
+ --->
+Step 2/3 : COPY hello /
+ ---> ac779757d46e
+Step 3/3 : CMD ["/hello"]
+ ---> Running in d2a513a760ed
+Removing intermediate container d2a513a760ed
+ ---> 038ad4142d2b
+Successfully built 038ad4142d2b
```
-这行命令指定了构建所需的 Git repo,并且指定默认的 `master` 分支,构建目录为 `/11.1/`,然后 Docker 就会自己去 `git clone` 这个项目、切换到指定分支、并进入到指定目录后开始构建。
+这行命令指定了构建所需的 Git repo,并且指定分支为 `master`,构建目录为 `/amd64/hello-world/`,然后 Docker 就会自己去 `git clone` 这个项目、切换到指定分支、并进入到指定目录后开始构建。
-#### 用给定的 tar 压缩包构建
+### 用给定的 tar 压缩包构建
```bash
$ docker build http://server/context.tar.gz
@@ -197,7 +203,7 @@ $ docker build http://server/context.tar.gz
如果所给出的 URL 不是个 Git repo,而是个 `tar` 压缩包,那么 Docker 引擎会下载这个包,并自动解压缩,以其作为上下文,开始构建。
-#### 从标准输入中读取 Dockerfile 进行构建
+### 从标准输入中读取 Dockerfile 进行构建
```bash
docker build - < Dockerfile
@@ -211,7 +217,7 @@ cat Dockerfile | docker build -
如果标准输入传入的是文本文件,则将其视为 `Dockerfile`,并开始构建。这种形式由于直接从标准输入中读取 Dockerfile 的内容,它没有上下文,因此不可以像其他方法那样可以将本地文件 `COPY` 进镜像之类的事情。
-#### 从标准输入中读取上下文压缩包进行构建
+### 从标准输入中读取上下文压缩包进行构建
```bash
$ docker build - < context.tar.gz
diff --git a/image/commit.md b/image/commit.md
index 37664cb68..19f4fdc3c 100644
--- a/image/commit.md
+++ b/image/commit.md
@@ -1,8 +1,7 @@
+# 利用 commit 理解镜像构成
>注意:如果您是初学者,您可以暂时跳过后面的内容,直接学习 [容器](../container) 一节。
-## 利用 commit 理解镜像构成
-
注意: `docker commit` 命令除了学习之外,还有一些特殊的应用场合,比如被入侵后保存现场等。但是,不要使用 `docker commit` 定制镜像,定制镜像应该使用 `Dockerfile` 来完成。如果你想要定制镜像请查看下一小节。
镜像是容器的基础,每次执行 `docker run` 的时候都会指定哪个镜像作为容器运行的基础。在之前的例子中,我们所使用的都是来自于 Docker Hub 的镜像。直接使用这些镜像是可以满足一定的需求,而当这些镜像无法直接满足需求时,我们就需要定制这些镜像。接下来的几节就将讲解如何定制镜像。
@@ -17,11 +16,11 @@ $ docker run --name webserver -d -p 80:80 nginx
这条命令会用 `nginx` 镜像启动一个容器,命名为 `webserver`,并且映射了 80 端口,这样我们可以用浏览器去访问这个 `nginx` 服务器。
- 如果是在 Linux 本机运行的 Docker,或者如果使用的是 Docker Desktop for Mac/Windows,那么可以直接访问:;如果使用的是 Docker Toolbox,或者是在虚拟机、云服务器上安装的 Docker,则需要将 `localhost` 换为虚拟机地址或者实际云服务器地址。
+ 如果是在本机运行的 Docker,那么可以直接访问:`http://localhost` ,如果是在虚拟机、云服务器上安装的 Docker,则需要将 `localhost` 换为虚拟机地址或者实际云服务器地址。
直接用浏览器访问的话,我们会看到默认的 Nginx 欢迎页面。
-
+![](./_images/images-mac-example-nginx.png)
现在,假设我们非常不喜欢这个欢迎页面,我们希望改成欢迎 Docker 的文字,我们可以使用 `docker exec` 命令进入容器,修改其内容。
@@ -38,7 +37,7 @@ exit
现在我们再刷新浏览器的话,会发现内容被改变了。
-
+![](./_images/images-create-nginx-docker.png)
我们修改了容器的文件,也就是改动了容器的存储层。我们可以通过 `docker diff` 命令看到具体的改动。
@@ -92,7 +91,8 @@ $ docker image ls nginx
REPOSITORY TAG IMAGE ID CREATED SIZE
nginx v2 07e334659748 9 seconds ago 181.5 MB
nginx 1.11 05a60462f8ba 12 days ago 181.5 MB
-nginx latest e43d811ce2f4 4 weeks ago 181.5 MB```
+nginx latest e43d811ce2f4 4 weeks ago 181.5 MB
+```
我们还可以用 `docker history` 具体查看镜像内的历史记录,如果比较 `nginx:latest` 的历史记录,我们会发现新增了我们刚刚提交的这一层。
@@ -116,16 +116,16 @@ e43d811ce2f4 4 weeks ago /bin/sh -c #(nop) CMD ["nginx" "-g" "da
docker run --name web2 -d -p 81:80 nginx:v2
```
-这里我们命名为新的服务为 `web2`,并且映射到 `81` 端口。如果是 Docker Desktop for Mac/Windows 或 Linux 桌面的话,我们就可以直接访问 看到结果,其内容应该和之前修改后的 `webserver` 一样。
+这里我们命名为新的服务为 `web2`,并且映射到 `81` 端口。访问 `http://localhost:81` 看到结果,其内容应该和之前修改后的 `webserver` 一样。
至此,我们第一次完成了定制镜像,使用的是 `docker commit` 命令,手动操作给旧的镜像添加了新的一层,形成新的镜像,对镜像多层存储应该有了更直观的感觉。
-### 慎用 `docker commit`
+## 慎用 `docker commit`
使用 `docker commit` 命令虽然可以比较直观的帮助理解镜像分层存储的概念,但是实际环境中并不会这样使用。
-首先,如果仔细观察之前的 `docker diff webserver` 的结果,你会发现除了真正想要修改的 `/usr/share/nginx/html/index.html` 文件外,由于命令的执行,还有很多文件被改动或添加了。这还仅仅是最简单的操作,如果是安装软件包、编译构建,那会有大量的无关内容被添加进来,如果不小心清理,将会导致镜像极为臃肿。
+首先,如果仔细观察之前的 `docker diff webserver` 的结果,你会发现除了真正想要修改的 `/usr/share/nginx/html/index.html` 文件外,由于命令的执行,还有很多文件被改动或添加了。这还仅仅是最简单的操作,如果是安装软件包、编译构建,那会有大量的无关内容被添加进来,将会导致镜像极为臃肿。
-此外,使用 `docker commit` 意味着所有对镜像的操作都是黑箱操作,生成的镜像也被称为 **黑箱镜像**,换句话说,就是除了制作镜像的人知道执行过什么命令、怎么生成的镜像,别人根本无从得知。而且,即使是这个制作镜像的人,过一段时间后也无法记清具体在操作的。虽然 `docker diff` 或许可以告诉得到一些线索,但是远远不到可以确保生成一致镜像的地步。这种黑箱镜像的维护工作是非常痛苦的。
+此外,使用 `docker commit` 意味着所有对镜像的操作都是黑箱操作,生成的镜像也被称为 **黑箱镜像**,换句话说,就是除了制作镜像的人知道执行过什么命令、怎么生成的镜像,别人根本无从得知。而且,即使是这个制作镜像的人,过一段时间后也无法记清具体的操作。这种黑箱镜像的维护工作是非常痛苦的。
而且,回顾之前提及的镜像所使用的分层存储的概念,除当前层外,之前的每一层都是不会发生改变的,换句话说,任何修改的结果仅仅是在当前层进行标记、添加、修改,而不会改动上一层。如果使用 `docker commit` 制作镜像,以及后期修改的话,每一次修改都会让镜像更加臃肿一次,所删除的上一层的东西并不会丢失,会一直如影随形的跟着这个镜像,即使根本无法访问到。这会让镜像更加臃肿。
diff --git a/image/demo/buildkit/Dockerfile b/image/demo/buildkit/Dockerfile
index 7e16bbf63..18cf69ce9 100644
--- a/image/demo/buildkit/Dockerfile
+++ b/image/demo/buildkit/Dockerfile
@@ -4,7 +4,7 @@ WORKDIR /app
COPY package.json /app/
-RUN npm i --registry=https://registry.npm.taobao.org \
+RUN npm i --registry=https://registry.npmmirror.com \
&& rm -rf ~/.npm
COPY src /app/src
diff --git a/image/demo/buildkit/Dockerfile.buildkit b/image/demo/buildkit/Dockerfile.buildkit
index effcfc9d6..9bbe3993f 100644
--- a/image/demo/buildkit/Dockerfile.buildkit
+++ b/image/demo/buildkit/Dockerfile.buildkit
@@ -8,7 +8,7 @@ COPY package.json /app/
RUN --mount=type=cache,target=/app/node_modules,id=my_app_npm_module,sharing=locked \
--mount=type=cache,target=/root/.npm,id=npm_cache \
- npm i --registry=https://registry.npm.taobao.org
+ npm i --registry=https://registry.npmmirror.com
COPY src /app/src
diff --git a/image/demo/multi-arch/Dockerfile b/image/demo/multi-arch/Dockerfile
new file mode 100644
index 000000000..9fbaba74e
--- /dev/null
+++ b/image/demo/multi-arch/Dockerfile
@@ -0,0 +1,5 @@
+FROM --platform=$TARGETPLATFORM alpine
+
+RUN uname -a > /os.txt
+
+CMD cat /os.txt
diff --git a/image/demo/multistage-builds/Dockerfile b/image/demo/multistage-builds/Dockerfile
index 1475e9e4b..d1492bc8d 100644
--- a/image/demo/multistage-builds/Dockerfile
+++ b/image/demo/multistage-builds/Dockerfile
@@ -1,4 +1,4 @@
-FROM golang:1.9-alpine as builder
+FROM golang:alpine as builder
RUN apk --no-cache add git
diff --git a/image/demo/multistage-builds/Dockerfile.build b/image/demo/multistage-builds/Dockerfile.build
index 60e97bac6..48d620abe 100644
--- a/image/demo/multistage-builds/Dockerfile.build
+++ b/image/demo/multistage-builds/Dockerfile.build
@@ -1,4 +1,4 @@
-FROM golang:1.9-alpine
+FROM golang:alpine
RUN apk --no-cache add git
diff --git a/image/demo/multistage-builds/Dockerfile.one b/image/demo/multistage-builds/Dockerfile.one
index 79694e3c6..ed996af45 100644
--- a/image/demo/multistage-builds/Dockerfile.one
+++ b/image/demo/multistage-builds/Dockerfile.one
@@ -1,4 +1,4 @@
-FROM golang:1.9-alpine
+FROM golang:alpine
RUN apk --no-cache add git ca-certificates
diff --git a/image/dockerfile/README.md b/image/dockerfile/README.md
index fa4d01f98..15f5d4fc5 100644
--- a/image/dockerfile/README.md
+++ b/image/dockerfile/README.md
@@ -1,3 +1,3 @@
-## Dockerfile 指令详解
+# Dockerfile 指令详解
我们已经介绍了 `FROM`,`RUN`,还提及了 `COPY`, `ADD`,其实 `Dockerfile` 功能很强大,它提供了十多个指令。下面我们继续讲解其他的指令。
diff --git a/image/dockerfile/add.md b/image/dockerfile/add.md
index 3c3a2dcf7..4970b1034 100644
--- a/image/dockerfile/add.md
+++ b/image/dockerfile/add.md
@@ -1,4 +1,4 @@
-### ADD 更高级的复制文件
+# ADD 更高级的复制文件
`ADD` 指令和 `COPY` 的格式和性质基本一致。但是在 `COPY` 基础上增加了一些功能。
@@ -8,7 +8,7 @@
在某些情况下,这个自动解压缩的功能非常有用,比如官方镜像 `ubuntu` 中:
-```Dockerfile
+```docker
FROM scratch
ADD ubuntu-xenial-core-cloudimg-amd64-root.tar.gz /
...
@@ -24,7 +24,7 @@ ADD ubuntu-xenial-core-cloudimg-amd64-root.tar.gz /
在使用该指令的时候还可以加上 `--chown=:` 选项来改变文件的所属用户及所属组。
-```Dockerfile
+```docker
ADD --chown=55:mygroup files* /mydir/
ADD --chown=bin files* /mydir/
ADD --chown=1 files* /mydir/
diff --git a/image/dockerfile/arg.md b/image/dockerfile/arg.md
index fb7be3d80..8ec413fe0 100644
--- a/image/dockerfile/arg.md
+++ b/image/dockerfile/arg.md
@@ -1,4 +1,4 @@
-### ARG 构建参数
+# ARG 构建参数
格式:`ARG <参数名>[=<默认值>]`
@@ -6,4 +6,63 @@
`Dockerfile` 中的 `ARG` 指令是定义参数名称,以及定义其默认值。该默认值可以在构建命令 `docker build` 中用 `--build-arg <参数名>=<值>` 来覆盖。
-在 1.13 之前的版本,要求 `--build-arg` 中的参数名,必须在 `Dockerfile` 中用 `ARG` 定义过了,换句话说,就是 `--build-arg` 指定的参数,必须在 `Dockerfile` 中使用了。如果对应参数没有被使用,则会报错退出构建。从 1.13 开始,这种严格的限制被放开,不再报错退出,而是显示警告信息,并继续构建。这对于使用 CI 系统,用同样的构建流程构建不同的 `Dockerfile` 的时候比较有帮助,避免构建命令必须根据每个 Dockerfile 的内容修改。
+灵活的使用 `ARG` 指令,能够在不修改 Dockerfile 的情况下,构建出不同的镜像。
+
+ARG 指令有生效范围,如果在 `FROM` 指令之前指定,那么只能用于 `FROM` 指令中。
+
+```docker
+ARG DOCKER_USERNAME=library
+
+FROM ${DOCKER_USERNAME}/alpine
+
+RUN set -x ; echo ${DOCKER_USERNAME}
+```
+
+使用上述 Dockerfile 会发现无法输出 `${DOCKER_USERNAME}` 变量的值,要想正常输出,你必须在 `FROM` 之后再次指定 `ARG`
+
+```docker
+# 只在 FROM 中生效
+ARG DOCKER_USERNAME=library
+
+FROM ${DOCKER_USERNAME}/alpine
+
+# 要想在 FROM 之后使用,必须再次指定
+ARG DOCKER_USERNAME=library
+
+RUN set -x ; echo ${DOCKER_USERNAME}
+```
+
+对于多阶段构建,尤其要注意这个问题
+
+```docker
+# 这个变量在每个 FROM 中都生效
+ARG DOCKER_USERNAME=library
+
+FROM ${DOCKER_USERNAME}/alpine
+
+RUN set -x ; echo 1
+
+FROM ${DOCKER_USERNAME}/alpine
+
+RUN set -x ; echo 2
+```
+
+对于上述 Dockerfile 两个 `FROM` 指令都可以使用 `${DOCKER_USERNAME}`,对于在各个阶段中使用的变量都必须在每个阶段分别指定:
+
+```docker
+ARG DOCKER_USERNAME=library
+
+FROM ${DOCKER_USERNAME}/alpine
+
+# 在FROM 之后使用变量,必须在每个阶段分别指定
+ARG DOCKER_USERNAME=library
+
+RUN set -x ; echo ${DOCKER_USERNAME}
+
+FROM ${DOCKER_USERNAME}/alpine
+
+# 在FROM 之后使用变量,必须在每个阶段分别指定
+ARG DOCKER_USERNAME=library
+
+RUN set -x ; echo ${DOCKER_USERNAME}
+```
diff --git a/image/dockerfile/cmd.md b/image/dockerfile/cmd.md
index d21c61184..b4354ff9e 100644
--- a/image/dockerfile/cmd.md
+++ b/image/dockerfile/cmd.md
@@ -1,4 +1,4 @@
-### CMD 容器启动命令
+# CMD 容器启动命令
`CMD` 指令的格式和 `RUN` 相似,也是两种格式:
@@ -14,13 +14,13 @@
如果使用 `shell` 格式的话,实际的命令会被包装为 `sh -c` 的参数的形式进行执行。比如:
-```Dockerfile
+```docker
CMD echo $HOME
```
在实际执行中,会将其变更为:
-```Dockerfile
+```docker
CMD [ "sh", "-c", "echo $HOME" ]
```
@@ -32,7 +32,7 @@ Docker 不是虚拟机,容器中的应用都应该以前台执行,而不是
一些初学者将 `CMD` 写为:
-```Dockerfile
+```docker
CMD service nginx start
```
@@ -44,6 +44,6 @@ CMD service nginx start
正确的做法是直接执行 `nginx` 可执行文件,并且要求以前台形式运行。比如:
-```Dockerfile
+```docker
CMD ["nginx", "-g", "daemon off;"]
```
diff --git a/image/dockerfile/copy.md b/image/dockerfile/copy.md
index 53914a46a..1f03fe9e1 100644
--- a/image/dockerfile/copy.md
+++ b/image/dockerfile/copy.md
@@ -1,4 +1,4 @@
-### COPY 复制文件
+# COPY 复制文件
格式:
@@ -9,13 +9,13 @@
`COPY` 指令将从构建上下文目录中 `<源路径>` 的文件/目录复制到新的一层的镜像内的 `<目标路径>` 位置。比如:
-```Dockerfile
+```docker
COPY package.json /usr/src/app/
```
`<源路径>` 可以是多个,甚至可以是通配符,其通配符规则要满足 Go 的 [`filepath.Match`](https://golang.org/pkg/path/filepath/#Match) 规则,如:
-```Dockerfile
+```docker
COPY hom* /mydir/
COPY hom?.txt /mydir/
```
@@ -26,9 +26,11 @@ COPY hom?.txt /mydir/
在使用该指令的时候还可以加上 `--chown=:` 选项来改变文件的所属用户及所属组。
-```Dockerfile
+```docker
COPY --chown=55:mygroup files* /mydir/
COPY --chown=bin files* /mydir/
COPY --chown=1 files* /mydir/
COPY --chown=10:11 files* /mydir/
```
+
+如果源路径为文件夹,复制的时候不是直接复制该文件夹,而是将文件夹中的内容复制到目标路径。
diff --git a/image/dockerfile/entrypoint.md b/image/dockerfile/entrypoint.md
index 07e79e034..d7b6e065e 100644
--- a/image/dockerfile/entrypoint.md
+++ b/image/dockerfile/entrypoint.md
@@ -1,4 +1,4 @@
-### ENTRYPOINT 入口点
+# ENTRYPOINT 入口点
`ENTRYPOINT` 的格式和 `RUN` 指令格式一样,分为 `exec` 格式和 `shell` 格式。
@@ -16,12 +16,12 @@
假设我们需要一个得知自己当前公网 IP 的镜像,那么可以先用 `CMD` 来实现:
-```Dockerfile
+```docker
FROM ubuntu:18.04
RUN apt-get update \
&& apt-get install -y curl \
&& rm -rf /var/lib/apt/lists/*
-CMD [ "curl", "-s", "https://ip.cn" ]
+CMD [ "curl", "-s", "http://myip.ipip.net" ]
```
假如我们使用 `docker build -t myip .` 来构建镜像的话,如果我们需要查询当前公网 IP,只需要执行:
@@ -38,22 +38,22 @@ $ docker run myip -i
docker: Error response from daemon: invalid header field value "oci runtime error: container_linux.go:247: starting container process caused \"exec: \\\"-i\\\": executable file not found in $PATH\"\n".
```
-我们可以看到可执行文件找不到的报错,`executable file not found`。之前我们说过,跟在镜像名后面的是 `command`,运行时会替换 `CMD` 的默认值。因此这里的 `-i` 替换了原来的 `CMD`,而不是添加在原来的 `curl -s https://ip.cn` 后面。而 `-i` 根本不是命令,所以自然找不到。
+我们可以看到可执行文件找不到的报错,`executable file not found`。之前我们说过,跟在镜像名后面的是 `command`,运行时会替换 `CMD` 的默认值。因此这里的 `-i` 替换了原来的 `CMD`,而不是添加在原来的 `curl -s http://myip.ipip.net` 后面。而 `-i` 根本不是命令,所以自然找不到。
那么如果我们希望加入 `-i` 这参数,我们就必须重新完整的输入这个命令:
```bash
-$ docker run myip curl -s https://ip.cn -i
+$ docker run myip curl -s http://myip.ipip.net -i
```
这显然不是很好的解决方案,而使用 `ENTRYPOINT` 就可以解决这个问题。现在我们重新用 `ENTRYPOINT` 来实现这个镜像:
-```Dockerfile
+```docker
FROM ubuntu:18.04
RUN apt-get update \
&& apt-get install -y curl \
&& rm -rf /var/lib/apt/lists/*
-ENTRYPOINT [ "curl", "-s", "https://ip.cn" ]
+ENTRYPOINT [ "curl", "-s", "http://myip.ipip.net" ]
```
这次我们再来尝试直接使用 `docker run myip -i`:
@@ -91,7 +91,7 @@ Connection: keep-alive
这些准备工作是和容器 `CMD` 无关的,无论 `CMD` 为什么,都需要事先进行一个预处理的工作。这种情况下,可以写一个脚本,然后放入 `ENTRYPOINT` 中去执行,而这个脚本会将接到的参数(也就是 ``)作为命令,在脚本最后执行。比如官方镜像 `redis` 中就是这么做的:
-```Dockerfile
+```docker
FROM alpine:3.4
...
RUN addgroup -S redis && adduser -S -G redis redis
@@ -109,8 +109,8 @@ CMD [ "redis-server" ]
...
# allow the container to be started with `--user`
if [ "$1" = 'redis-server' -a "$(id -u)" = '0' ]; then
- chown -R redis .
- exec su-exec redis "$0" "$@"
+ find . \! -user redis -exec chown redis '{}' +
+ exec gosu redis "$0" "$@"
fi
exec "$@"
diff --git a/image/dockerfile/env.md b/image/dockerfile/env.md
index 58108bdfb..ca3936228 100644
--- a/image/dockerfile/env.md
+++ b/image/dockerfile/env.md
@@ -1,4 +1,4 @@
-### ENV 设置环境变量
+# ENV 设置环境变量
格式有两种:
@@ -7,7 +7,7 @@
这个指令很简单,就是设置环境变量而已,无论是后面的其它指令,如 `RUN`,还是运行时的应用,都可以直接使用这里定义的环境变量。
-```Dockerfie
+```docker
ENV VERSION=1.0 DEBUG=on \
NAME="Happy Feet"
```
@@ -16,7 +16,7 @@ ENV VERSION=1.0 DEBUG=on \
定义了环境变量,那么在后续的指令中,就可以使用这个环境变量。比如在官方 `node` 镜像 `Dockerfile` 中,就有类似这样的代码:
-```Dockerfile
+```docker
ENV NODE_VERSION 7.2.0
RUN curl -SLO "https://nodejs.org/dist/v$NODE_VERSION/node-v$NODE_VERSION-linux-x64.tar.xz" \
@@ -30,6 +30,6 @@ RUN curl -SLO "https://nodejs.org/dist/v$NODE_VERSION/node-v$NODE_VERSION-linux-
在这里先定义了环境变量 `NODE_VERSION`,其后的 `RUN` 这层里,多次使用 `$NODE_VERSION` 来进行操作定制。可以看到,将来升级镜像构建版本的时候,只需要更新 `7.2.0` 即可,`Dockerfile` 构建维护变得更轻松了。
-下列指令可以支持环境变量展开: `ADD`、`COPY`、`ENV`、`EXPOSE`、`LABEL`、`USER`、`WORKDIR`、`VOLUME`、`STOPSIGNAL`、`ONBUILD`。
+下列指令可以支持环境变量展开: `ADD`、`COPY`、`ENV`、`EXPOSE`、`FROM`、`LABEL`、`USER`、`WORKDIR`、`VOLUME`、`STOPSIGNAL`、`ONBUILD`、`RUN`。
可以从这个指令列表里感觉到,环境变量可以使用的地方很多,很强大。通过环境变量,我们可以让一份 `Dockerfile` 制作更多的镜像,只需使用不同的环境变量即可。
diff --git a/image/dockerfile/expose.md b/image/dockerfile/expose.md
index eb707b039..48005f9d7 100644
--- a/image/dockerfile/expose.md
+++ b/image/dockerfile/expose.md
@@ -1,7 +1,7 @@
-### EXPOSE 声明端口
+# EXPOSE 声明端口
格式为 `EXPOSE <端口1> [<端口2>...]`。
-`EXPOSE` 指令是声明运行时容器提供服务端口,这只是一个声明,在运行时并不会因为这个声明应用就会开启这个端口的服务。在 Dockerfile 中写入这样的声明有两个好处,一个是帮助镜像使用者理解这个镜像服务的守护端口,以方便配置映射;另一个用处则是在运行时使用随机端口映射时,也就是 `docker run -P` 时,会自动随机映射 `EXPOSE` 的端口。
+`EXPOSE` 指令是声明容器运行时提供服务的端口,这只是一个声明,在容器运行时并不会因为这个声明应用就会开启这个端口的服务。在 Dockerfile 中写入这样的声明有两个好处,一个是帮助镜像使用者理解这个镜像服务的守护端口,以方便配置映射;另一个用处则是在运行时使用随机端口映射时,也就是 `docker run -P` 时,会自动随机映射 `EXPOSE` 的端口。
要将 `EXPOSE` 和在运行时使用 `-p <宿主端口>:<容器端口>` 区分开来。`-p`,是映射宿主端口和容器端口,换句话说,就是将容器的对应端口服务公开给外界访问,而 `EXPOSE` 仅仅是声明容器打算使用什么端口而已,并不会自动在宿主进行端口映射。
diff --git a/image/dockerfile/healthcheck.md b/image/dockerfile/healthcheck.md
index 7daa2e3d9..2684347dd 100644
--- a/image/dockerfile/healthcheck.md
+++ b/image/dockerfile/healthcheck.md
@@ -1,4 +1,4 @@
-### HEALTHCHECK 健康检查
+# HEALTHCHECK 健康检查
格式:
@@ -25,7 +25,7 @@
假设我们有个镜像是个最简单的 Web 服务,我们希望增加健康检查来判断其 Web 服务是否在正常工作,我们可以用 `curl` 来帮助判断,其 `Dockerfile` 的 `HEALTHCHECK` 可以这么写:
-```Dockerfile
+```docker
FROM nginx
RUN apt-get update && apt-get install -y curl && rm -rf /var/lib/apt/lists/*
HEALTHCHECK --interval=5s --timeout=3s \
diff --git a/image/dockerfile/label.md b/image/dockerfile/label.md
new file mode 100644
index 000000000..1f816de64
--- /dev/null
+++ b/image/dockerfile/label.md
@@ -0,0 +1,17 @@
+# LABEL 指令
+
+`LABEL` 指令用来给镜像以键值对的形式添加一些元数据(metadata)。
+
+```docker
+LABEL = = = ...
+```
+
+我们还可以用一些标签来申明镜像的作者、文档地址等:
+
+```docker
+LABEL org.opencontainers.image.authors="yeasy"
+
+LABEL org.opencontainers.image.documentation="https://yeasy.gitbooks.io"
+```
+
+具体可以参考 https://github.com/opencontainers/image-spec/blob/master/annotations.md
diff --git a/image/dockerfile/onbuild.md b/image/dockerfile/onbuild.md
index 0c2e02257..50aa80325 100644
--- a/image/dockerfile/onbuild.md
+++ b/image/dockerfile/onbuild.md
@@ -1,4 +1,4 @@
-### ONBUILD 为他人做嫁衣裳
+# ONBUILD 为他人做嫁衣裳
格式:`ONBUILD <其它指令>`。
@@ -8,7 +8,7 @@
假设我们要制作 Node.js 所写的应用的镜像。我们都知道 Node.js 使用 `npm` 进行包管理,所有依赖、配置、启动信息等会放到 `package.json` 文件里。在拿到程序代码后,需要先进行 `npm install` 才可以获得所有需要的依赖。然后就可以通过 `npm start` 来启动应用。因此,一般来说会这样写 `Dockerfile`:
-```Dockerfile
+```docker
FROM node:slim
RUN mkdir /app
WORKDIR /app
@@ -24,7 +24,7 @@ CMD [ "npm", "start" ]
那么我们可不可以做一个基础镜像,然后各个项目使用这个基础镜像呢?这样基础镜像更新,各个项目不用同步 `Dockerfile` 的变化,重新构建后就继承了基础镜像的更新?好吧,可以,让我们看看这样的结果。那么上面的这个 `Dockerfile` 就会变为:
-```Dockerfile
+```docker
FROM node:slim
RUN mkdir /app
WORKDIR /app
@@ -33,7 +33,7 @@ CMD [ "npm", "start" ]
这里我们把项目相关的构建指令拿出来,放到子项目里去。假设这个基础镜像的名字为 `my-node` 的话,各个项目内的自己的 `Dockerfile` 就变为:
-```Dockerfile
+```docker
FROM my-node
COPY ./package.json /app
RUN [ "npm", "install" ]
@@ -46,7 +46,7 @@ COPY . /app/
`ONBUILD` 可以解决这个问题。让我们用 `ONBUILD` 重新写一下基础镜像的 `Dockerfile`:
-```Dockerfile
+```docker
FROM node:slim
RUN mkdir /app
WORKDIR /app
@@ -58,7 +58,7 @@ CMD [ "npm", "start" ]
这次我们回到原始的 `Dockerfile`,但是这次将项目相关的指令加上 `ONBUILD`,这样在构建基础镜像的时候,这三行并不会被执行。然后各个项目的 `Dockerfile` 就变成了简单地:
-```Dockerfile
+```docker
FROM my-node
```
diff --git a/image/dockerfile/references.md b/image/dockerfile/references.md
index f726792d3..b9edb4fd5 100644
--- a/image/dockerfile/references.md
+++ b/image/dockerfile/references.md
@@ -1,6 +1,6 @@
-### 参考文档
+# 参考文档
-* `Dockerfie` 官方文档:https://docs.docker.com/engine/reference/builder/
+* `Dockerfile` 官方文档:https://docs.docker.com/engine/reference/builder/
* `Dockerfile` 最佳实践文档:https://docs.docker.com/develop/develop-images/dockerfile_best-practices/
diff --git a/image/dockerfile/shell.md b/image/dockerfile/shell.md
new file mode 100644
index 000000000..c207c39dc
--- /dev/null
+++ b/image/dockerfile/shell.md
@@ -0,0 +1,33 @@
+# SHELL 指令
+
+格式:`SHELL ["executable", "parameters"]`
+
+`SHELL` 指令可以指定 `RUN` `ENTRYPOINT` `CMD` 指令的 shell,Linux 中默认为 `["/bin/sh", "-c"]`
+
+```docker
+SHELL ["/bin/sh", "-c"]
+
+RUN lll ; ls
+
+SHELL ["/bin/sh", "-cex"]
+
+RUN lll ; ls
+```
+
+两个 `RUN` 运行同一命令,第二个 `RUN` 运行的命令会打印出每条命令并当遇到错误时退出。
+
+当 `ENTRYPOINT` `CMD` 以 shell 格式指定时,`SHELL` 指令所指定的 shell 也会成为这两个指令的 shell
+
+```docker
+SHELL ["/bin/sh", "-cex"]
+
+# /bin/sh -cex "nginx"
+ENTRYPOINT nginx
+```
+
+```docker
+SHELL ["/bin/sh", "-cex"]
+
+# /bin/sh -cex "nginx"
+CMD nginx
+```
diff --git a/image/dockerfile/user.md b/image/dockerfile/user.md
index 68af82200..272c4f5af 100644
--- a/image/dockerfile/user.md
+++ b/image/dockerfile/user.md
@@ -1,12 +1,12 @@
-### USER 指定当前用户
+# USER 指定当前用户
格式:`USER <用户名>[:<用户组>]`
`USER` 指令和 `WORKDIR` 相似,都是改变环境状态并影响以后的层。`WORKDIR` 是改变工作目录,`USER` 则是改变之后层的执行 `RUN`, `CMD` 以及 `ENTRYPOINT` 这类命令的身份。
-当然,和 `WORKDIR` 一样,`USER` 只是帮助你切换到指定用户而已,这个用户必须是事先建立好的,否则无法切换。
+注意,`USER` 只是帮助你切换到指定用户而已,这个用户必须是事先建立好的,否则无法切换。
-```Dockerfile
+```docker
RUN groupadd -r redis && useradd -r -g redis redis
USER redis
RUN [ "redis-server" ]
@@ -14,11 +14,11 @@ RUN [ "redis-server" ]
如果以 `root` 执行的脚本,在执行期间希望改变身份,比如希望以某个已经建立好的用户来运行某个服务进程,不要使用 `su` 或者 `sudo`,这些都需要比较麻烦的配置,而且在 TTY 缺失的环境下经常出错。建议使用 [`gosu`](https://github.com/tianon/gosu)。
-```Dockerfile
+```docker
# 建立 redis 用户,并使用 gosu 换另一个用户执行命令
RUN groupadd -r redis && useradd -r -g redis redis
# 下载 gosu
-RUN wget -O /usr/local/bin/gosu "https://github.com/tianon/gosu/releases/download/1.7/gosu-amd64" \
+RUN wget -O /usr/local/bin/gosu "https://github.com/tianon/gosu/releases/download/1.12/gosu-amd64" \
&& chmod +x /usr/local/bin/gosu \
&& gosu nobody true
# 设置 CMD,并以另外的用户执行
diff --git a/image/dockerfile/volume.md b/image/dockerfile/volume.md
index 59dca9c4d..0e8731c05 100644
--- a/image/dockerfile/volume.md
+++ b/image/dockerfile/volume.md
@@ -1,4 +1,4 @@
-### VOLUME 定义匿名卷
+# VOLUME 定义匿名卷
格式为:
@@ -7,14 +7,14 @@
之前我们说过,容器运行时应该尽量保持容器存储层不发生写操作,对于数据库类需要保存动态数据的应用,其数据库文件应该保存于卷(volume)中,后面的章节我们会进一步介绍 Docker 卷的概念。为了防止运行时用户忘记将动态文件所保存目录挂载为卷,在 `Dockerfile` 中,我们可以事先指定某些目录挂载为匿名卷,这样在运行时如果用户不指定挂载,其应用也可以正常运行,不会向容器存储层写入大量数据。
-```Dockerfile
+```docker
VOLUME /data
```
-这里的 `/data` 目录就会在运行时自动挂载为匿名卷,任何向 `/data` 中写入的信息都不会记录进容器存储层,从而保证了容器存储层的无状态化。当然,运行时可以覆盖这个挂载设置。比如:
+这里的 `/data` 目录就会在容器运行时自动挂载为匿名卷,任何向 `/data` 中写入的信息都不会记录进容器存储层,从而保证了容器存储层的无状态化。当然,运行容器时可以覆盖这个挂载设置。比如:
```bash
-docker run -d -v mydata:/data xxxx
+$ docker run -d -v mydata:/data xxxx
```
在这行命令中,就使用了 `mydata` 这个命名卷挂载到了 `/data` 这个位置,替代了 `Dockerfile` 中定义的匿名卷的挂载配置。
diff --git a/image/dockerfile/workdir.md b/image/dockerfile/workdir.md
index 642281215..b8bae25d5 100644
--- a/image/dockerfile/workdir.md
+++ b/image/dockerfile/workdir.md
@@ -1,4 +1,4 @@
-### WORKDIR 指定工作目录
+# WORKDIR 指定工作目录
格式为 `WORKDIR <工作目录路径>`。
@@ -16,3 +16,21 @@ RUN echo "hello" > world.txt
之前说过每一个 `RUN` 都是启动一个容器、执行命令、然后提交存储层文件变更。第一层 `RUN cd /app` 的执行仅仅是当前进程的工作目录变更,一个内存上的变化而已,其结果不会造成任何文件变更。而到第二层的时候,启动的是一个全新的容器,跟第一层的容器更完全没关系,自然不可能继承前一层构建过程中的内存变化。
因此如果需要改变以后各层的工作目录的位置,那么应该使用 `WORKDIR` 指令。
+
+```docker
+WORKDIR /app
+
+RUN echo "hello" > world.txt
+```
+
+如果你的 `WORKDIR` 指令使用的相对路径,那么所切换的路径与之前的 `WORKDIR` 有关:
+
+```docker
+WORKDIR /a
+WORKDIR b
+WORKDIR c
+
+RUN pwd
+```
+
+`RUN pwd` 的工作目录为 `/a/b/c`。
diff --git a/image/internal.md b/image/internal.md
index 8cb7ccf95..d36b209d6 100644
--- a/image/internal.md
+++ b/image/internal.md
@@ -1,4 +1,4 @@
-## 镜像的实现原理
+# 镜像的实现原理
Docker 镜像是怎么实现增量的修改和维护的?
@@ -6,4 +6,4 @@ Docker 镜像是怎么实现增量的修改和维护的?
通常 Union FS 有两个用途, 一方面可以实现不借助 LVM、RAID 将多个 disk 挂到同一个目录下,另一个更常用的就是将一个只读的分支和一个可写的分支联合在一起,Live CD 正是基于此方法可以允许在镜像不变的基础上允许用户在其上进行一些写操作。
-Docker 在 AUFS 上构建的容器也是利用了类似的原理。
+Docker 在 OverlayFS 上构建的容器也是利用了类似的原理。
diff --git a/image/list.md b/image/list.md
index d3f60b22f..d43d9eda1 100644
--- a/image/list.md
+++ b/image/list.md
@@ -1,4 +1,4 @@
-## 列出镜像
+# 列出镜像
要想列出已经下载下来的镜像,可以使用 `docker image ls` 命令。
@@ -9,21 +9,21 @@ redis latest 5f515359c7f8 5 days ago
nginx latest 05a60462f8ba 5 days ago 181 MB
mongo 3.2 fe9198c04d62 5 days ago 342 MB
00285df0df87 5 days ago 342 MB
-ubuntu 18.04 f753707788c5 4 weeks ago 127 MB
-ubuntu latest f753707788c5 4 weeks ago 127 MB
+ubuntu 18.04 329ed837d508 3 days ago 63.3MB
+ubuntu bionic 329ed837d508 3 days ago 63.3MB
```
列表包含了 `仓库名`、`标签`、`镜像 ID`、`创建时间` 以及 `所占用的空间`。
-其中仓库名、标签在之前的基础概念章节已经介绍过了。**镜像 ID** 则是镜像的唯一标识,一个镜像可以对应多个 **标签**。因此,在上面的例子中,我们可以看到 `ubuntu:18.04` 和 `ubuntu:latest` 拥有相同的 ID,因为它们对应的是同一个镜像。
+其中仓库名、标签在之前的基础概念章节已经介绍过了。**镜像 ID** 则是镜像的唯一标识,一个镜像可以对应多个 **标签**。因此,在上面的例子中,我们可以看到 `ubuntu:18.04` 和 `ubuntu:bionic` 拥有相同的 ID,因为它们对应的是同一个镜像。
-### 镜像体积
+## 镜像体积
-如果仔细观察,会注意到,这里标识的所占用空间和在 Docker Hub 上看到的镜像大小不同。比如,`ubuntu:18.04` 镜像大小,在这里是 `127 MB`,但是在 [Docker Hub](https://hub.docker.com/r/library/ubuntu/tags/) 显示的却是 `50 MB`。这是因为 Docker Hub 中显示的体积是压缩后的体积。在镜像下载和上传过程中镜像是保持着压缩状态的,因此 Docker Hub 所显示的大小是网络传输中更关心的流量大小。而 `docker image ls` 显示的是镜像下载到本地后,展开的大小,准确说,是展开后的各层所占空间的总和,因为镜像到本地后,查看空间的时候,更关心的是本地磁盘空间占用的大小。
+如果仔细观察,会注意到,这里标识的所占用空间和在 Docker Hub 上看到的镜像大小不同。比如,`ubuntu:18.04` 镜像大小,在这里是 `63.3MB`,但是在 [Docker Hub](https://hub.docker.com/layers/ubuntu/library/ubuntu/bionic/images/sha256-32776cc92b5810ce72e77aca1d949de1f348e1d281d3f00ebcc22a3adcdc9f42?context=explore) 显示的却是 `25.47 MB`。这是因为 Docker Hub 中显示的体积是压缩后的体积。在镜像下载和上传过程中镜像是保持着压缩状态的,因此 Docker Hub 所显示的大小是网络传输中更关心的流量大小。而 `docker image ls` 显示的是镜像下载到本地后,展开的大小,准确说,是展开后的各层所占空间的总和,因为镜像到本地后,查看空间的时候,更关心的是本地磁盘空间占用的大小。
另外一个需要注意的问题是,`docker image ls` 列表中的镜像体积总和并非是所有镜像实际硬盘消耗。由于 Docker 镜像是多层存储结构,并且可以继承、复用,因此不同镜像可能会因为使用相同的基础镜像,从而拥有共同的层。由于 Docker 使用 Union FS,相同的层只需要保存一份即可,因此实际镜像硬盘占用空间很可能要比这个列表镜像大小的总和要小的多。
-你可以通过以下命令来便捷的查看镜像、容器、数据卷所占用的空间。
+你可以通过 `docker system df` 命令来便捷的查看镜像、容器、数据卷所占用的空间。
```bash
$ docker system df
@@ -35,7 +35,7 @@ Local Volumes 9 0 652.2MB
Build Cache 0B 0B
```
-### 虚悬镜像
+## 虚悬镜像
上面的镜像列表中,还可以看到一个特殊的镜像,这个镜像既没有仓库名,也没有标签,均为 ``。:
@@ -57,7 +57,7 @@ REPOSITORY TAG IMAGE ID CREATED
$ docker image prune
```
-### 中间层镜像
+## 中间层镜像
为了加速镜像构建、重复利用资源,Docker 会利用 **中间层镜像**。所以在使用一段时间后,可能会看到一些依赖的中间层镜像。默认的 `docker image ls` 列表中只会显示顶层镜像,如果希望显示包括中间层镜像在内的所有镜像的话,需要加 `-a` 参数。
@@ -67,7 +67,7 @@ $ docker image ls -a
这样会看到很多无标签的镜像,与之前的虚悬镜像不同,这些无标签的镜像很多都是中间层镜像,是其它镜像所依赖的镜像。这些无标签镜像不应该删除,否则会导致上层镜像因为依赖丢失而出错。实际上,这些镜像也没必要删除,因为之前说过,相同的层只会存一遍,而这些镜像是别的镜像的依赖,因此并不会因为它们被列出来而多存了一份,无论如何你也会需要它们。只要删除那些依赖它们的镜像后,这些依赖的中间层镜像也会被连带删除。
-### 列出部分镜像
+## 列出部分镜像
不加任何参数的情况下,`docker image ls` 会列出所有顶层镜像,但是有时候我们只希望列出部分镜像。`docker image ls` 有好几个参数可以帮助做到这个事情。
@@ -76,8 +76,8 @@ $ docker image ls -a
```bash
$ docker image ls ubuntu
REPOSITORY TAG IMAGE ID CREATED SIZE
-ubuntu 18.04 f753707788c5 4 weeks ago 127 MB
-ubuntu latest f753707788c5 4 weeks ago 127 MB
+ubuntu 18.04 329ed837d508 3 days ago 63.3MB
+ubuntu bionic 329ed837d508 3 days ago 63.3MB
```
列出特定的某个镜像,也就是说指定仓库名和标签
@@ -85,7 +85,7 @@ ubuntu latest f753707788c5 4 weeks ago
```bash
$ docker image ls ubuntu:18.04
REPOSITORY TAG IMAGE ID CREATED SIZE
-ubuntu 18.04 f753707788c5 4 weeks ago 127 MB
+ubuntu 18.04 329ed837d508 3 days ago 63.3MB
```
除此以外,`docker image ls` 还支持强大的过滤器参数 `--filter`,或者简写 `-f`。之前我们已经看到了使用过滤器来列出虚悬镜像的用法,它还有更多的用法。比如,我们希望看到在 `mongo:3.2` 之后建立的镜像,可以用下面的命令:
@@ -106,7 +106,7 @@ $ docker image ls -f label=com.example.version=0.1
...
```
-### 以特定格式显示
+## 以特定格式显示
默认情况下,`docker image ls` 会输出一个完整的表格,但是我们并非所有时候都会需要这些内容。比如,刚才删除虚悬镜像的时候,我们需要利用 `docker image ls` 把所有的虚悬镜像的 ID 列出来,然后才可以交给 `docker image rm` 命令作为参数来删除指定的这些镜像,这个时候就用到了 `-q` 参数。
@@ -116,14 +116,13 @@ $ docker image ls -q
05a60462f8ba
fe9198c04d62
00285df0df87
-f753707788c5
-f753707788c5
-1e0c3dd64ccd
+329ed837d508
+329ed837d508
```
`--filter` 配合 `-q` 产生出指定范围的 ID 列表,然后送给另一个 `docker` 命令作为参数,从而针对这组实体成批的进行某种操作的做法在 Docker 命令行使用过程中非常常见,不仅仅是镜像,将来我们会在各个命令中看到这类搭配以完成很强大的功能。因此每次在文档看到过滤器后,可以多注意一下它们的用法。
-另外一些时候,我们可能只是对表格的结构不满意,希望自己组织列;或者不希望有标题,这样方便其它程序解析结果等,这就用到了 [Go 的模板语法](https://gohugo.io/templates/go-templates/)。
+另外一些时候,我们可能只是对表格的结构不满意,希望自己组织列;或者不希望有标题,这样方便其它程序解析结果等,这就用到了 [Go 的模板语法](https://gohugo.io/templates/introduction/)。
比如,下面的命令会直接列出镜像结果,并且只包含镜像ID和仓库名:
@@ -133,9 +132,8 @@ $ docker image ls --format "{{.ID}}: {{.Repository}}"
05a60462f8ba: nginx
fe9198c04d62: mongo
00285df0df87:
-f753707788c5: ubuntu
-f753707788c5: ubuntu
-1e0c3dd64ccd: ubuntu
+329ed837d508: ubuntu
+329ed837d508: ubuntu
```
或者打算以表格等距显示,并且有标题行,和默认一样,不过自己定义列:
@@ -147,6 +145,6 @@ IMAGE ID REPOSITORY TAG
05a60462f8ba nginx latest
fe9198c04d62 mongo 3.2
00285df0df87
-f753707788c5 ubuntu 18.04
-f753707788c5 ubuntu latest
+329ed837d508 ubuntu 18.04
+329ed837d508 ubuntu bionic
```
diff --git a/image/manifest.md b/image/manifest.md
index 0c98c7860..b55d749ca 100644
--- a/image/manifest.md
+++ b/image/manifest.md
@@ -1,12 +1,12 @@
-## 构建多种系统架构支持的 Docker 镜像 -- docker manifest 命令详解
+# 构建多种系统架构支持的 Docker 镜像 -- docker manifest 命令详解
我们知道使用镜像创建一个容器,该镜像必须与 Docker 宿主机系统架构一致,例如 `Linux x86_64` 架构的系统中只能使用 `Linux x86_64` 的镜像创建容器。
-> macOS 除外,其使用了 [binfmt_misc](https://docs.docker.com/docker-for-mac/multi-arch/) 提供了多种架构支持,在 macOS 系统上 (x86_64) 可以运行 arm 等其他架构的镜像。
+> Windows、macOS 除外,其使用了 [binfmt_misc](https://docs.docker.com/docker-for-mac/multi-arch/) 提供了多种架构支持,在 Windows、macOS 系统上 (x86_64) 可以运行 arm 等其他架构的镜像。
例如我们在 `Linux x86_64` 中构建一个 `username/test` 镜像。
-```Dockerfile
+```docker
FROM alpine
CMD echo 1
@@ -24,32 +24,16 @@ $ docker run -it --rm username/test
这样做显得很繁琐,那么有没有一种方法让 Docker 引擎根据系统架构自动拉取对应的镜像呢?
-我们发现在 `Linux x86_64` 和 `Linux arm64v8` 架构的计算机中执行 `$ docker run golang:alpine go version` 时我们发现可以正确的运行。
+我们发现在 `Linux x86_64` 和 `Linux arm64v8` 架构的计算机中分别使用 `golang:alpine` 镜像运行容器 `$ docker run golang:alpine go version` 时,容器能够正常的运行。
这是什么原因呢?
-原因就是 `golang:alpine` 官方镜像有一个 [`manifest` 列表](https://docs.docker.com/registry/spec/manifest-v2-2/)。
+原因就是 `golang:alpine` 官方镜像有一个 [`manifest` 列表 (`manifest list`)](https://docs.docker.com/registry/spec/manifest-v2-2/)。
当用户获取一个镜像时,Docker 引擎会首先查找该镜像是否有 `manifest` 列表,如果有的话 Docker 引擎会按照 Docker 运行环境(系统及架构)查找出对应镜像(例如 `golang:alpine`)。如果没有的话会直接获取镜像(例如上例中我们构建的 `username/test`)。
我们可以使用 `$ docker manifest inspect golang:alpine` 查看这个 `manifest` 列表的结构。
-由于该命令属于实验特性,必须设置如下 **环境变量** 之后才能使用:
-
-```bash
-# Linux、macOS
-
-$ export DOCKER_CLI_EXPERIMENTAL=enabled
-
-# Windows
-
-$ set $env:DOCKER_CLI_EXPERIMENTAL=enabled
-```
-
-> 以上是设置环境变量的临时方法,若使环境变量永久生效请读者自行设置。
-
-设置之后,执行结果如下
-
```bash
$ docker manifest inspect golang:alpine
```
@@ -123,11 +107,11 @@ $ docker manifest inspect golang:alpine
下面介绍如何使用 `$ docker manifest` 命令创建并推送 `manifest` 列表到 Docker Hub。
-### 构建镜像
+## 构建镜像
首先在 `Linux x86_64` 构建 `username/x8664-test` 镜像。并在 `Linux arm64v8` 中构建 `username/arm64v8-test` 镜像,构建好之后推送到 Docker Hub。
-### 创建 `manifest` 列表
+## 创建 `manifest` 列表
```bash
# $ docker manifest create MANIFEST_LIST MANIFEST [MANIFEST...]
@@ -136,9 +120,9 @@ $ docker manifest create username/test \
username/arm64v8-test
```
-当要修改一个 `manifest` 列表时,可以加入 `-a,--amend` 参数。
+当要修改一个 `manifest` 列表时,可以加入 `-a` 或 `--amend` 参数。
-### 设置 `manifest` 列表
+## 设置 `manifest` 列表
```bash
# $ docker manifest annotate [OPTIONS] MANIFEST_LIST MANIFEST
@@ -153,13 +137,13 @@ $ docker manifest annotate username/test \
这样就配置好了 `manifest` 列表。
-### 查看 `manifest` 列表
+## 查看 `manifest` 列表
```bash
$ docker manifest inspect username/test
```
-### 推送 `manifest` 列表
+## 推送 `manifest` 列表
最后我们可以将其推送到 Docker Hub。
@@ -167,12 +151,12 @@ $ docker manifest inspect username/test
$ docker manifest push username/test
```
-### 测试
+## 测试
我们在 `Linux x86_64` `Linux arm64v8` 中分别执行 `$ docker run -it --rm username/test` 命令,发现可以正确的执行。
-### 官方博客
+## 官方博客
详细了解 `manifest` 可以阅读官方博客。
-* https://blog.docker.com/2017/11/multi-arch-all-the-things/
+* https://www.docker.com/blog/multi-arch-all-the-things/
diff --git a/image/multistage-builds/README.md b/image/multistage-builds/README.md
index 59c37071e..9d55980a9 100644
--- a/image/multistage-builds/README.md
+++ b/image/multistage-builds/README.md
@@ -1,10 +1,10 @@
-## 多阶段构建
+# 多阶段构建
-### 之前的做法
+## 之前的做法
在 Docker 17.05 版本之前,我们构建 Docker 镜像时,通常会采用两种方式:
-#### 全部放入一个 Dockerfile
+### 全部放入一个 Dockerfile
一种方式是将所有的构建过程编包含在一个 `Dockerfile` 中,包括项目及其依赖库的编译、测试、打包等流程,这里可能会带来的一些问题:
@@ -26,8 +26,8 @@ func main(){
编写 `Dockerfile.one` 文件
-```dockerfile
-FROM golang:1.9-alpine
+```docker
+FROM golang:alpine
RUN apk --no-cache add git ca-certificates
@@ -50,14 +50,14 @@ CMD ["./app"]
$ docker build -t go/helloworld:1 -f Dockerfile.one .
```
-#### 分散到多个 Dockerfile
+### 分散到多个 Dockerfile
另一种方式,就是我们事先在一个 `Dockerfile` 将项目及其依赖库编译测试打包好后,再将其拷贝到运行环境中,这种方式需要我们编写两个 `Dockerfile` 和一些编译脚本才能将其两个阶段自动整合起来,这种方式虽然可以很好地规避第一种方式存在的风险,但明显部署过程较复杂。
例如,编写 `Dockerfile.build` 文件
-```dockerfile
-FROM golang:1.9-alpine
+```docker
+FROM golang:alpine
RUN apk --no-cache add git
@@ -71,7 +71,7 @@ RUN go get -d -v github.com/go-sql-driver/mysql \
编写 `Dockerfile.copy` 文件
-```dockerfile
+```docker
FROM alpine:latest
RUN apk --no-cache add ca-certificates
@@ -119,14 +119,14 @@ go/helloworld 2 f7cf3465432c 22 seconds ago 6.47MB
go/helloworld 1 f55d3e16affc 2 minutes ago 295MB
```
-### 使用多阶段构建
+## 使用多阶段构建
为解决以上问题,Docker v17.05 开始支持多阶段构建 (`multistage builds`)。使用多阶段构建我们就可以很容易解决前面提到的问题,并且只需要编写一个 `Dockerfile`:
例如,编写 `Dockerfile` 文件
-```dockerfile
-FROM golang:1.9-alpine as builder
+```docker
+FROM golang:alpine as builder
RUN apk --no-cache add git
@@ -168,12 +168,12 @@ go/helloworld 1 f55d3e16affc 2 minutes ago 295MB
很明显使用多阶段构建的镜像体积小,同时也完美解决了上边提到的问题。
-#### 只构建某一阶段的镜像
+### 只构建某一阶段的镜像
我们可以使用 `as` 来为某一阶段命名,例如
-```dockerfile
-FROM golang:1.9-alpine as builder
+```docker
+FROM golang:alpine as builder
```
例如当我们只想构建 `builder` 阶段的镜像时,增加 `--target=builder` 参数即可
@@ -182,10 +182,10 @@ FROM golang:1.9-alpine as builder
$ docker build --target builder -t username/imagename:tag .
```
-#### 构建时从其他镜像复制文件
+### 构建时从其他镜像复制文件
上面例子中我们使用 `COPY --from=0 /go/src/github.com/go/helloworld/app .` 从上一阶段的镜像中复制文件,我们也可以复制任意镜像中的文件。
-```dockerfile
+```docker
$ COPY --from=nginx:latest /etc/nginx/nginx.conf /nginx.conf
```
diff --git a/image/multistage-builds/example/laravel/.dockerignore b/image/multistage-builds/example/laravel/.dockerignore
index fed61e775..8516a3a06 100644
--- a/image/multistage-builds/example/laravel/.dockerignore
+++ b/image/multistage-builds/example/laravel/.dockerignore
@@ -1,9 +1,14 @@
.idea/
.git/
+
vendor/
+
node_modules/
+
public/js/
public/css/
+public/mix-manifest.json
+
yarn-error.log
bootstrap/cache/*
diff --git a/image/multistage-builds/example/laravel/Dockerfile b/image/multistage-builds/example/laravel/Dockerfile
index 2f6913411..ab455accd 100644
--- a/image/multistage-builds/example/laravel/Dockerfile
+++ b/image/multistage-builds/example/laravel/Dockerfile
@@ -2,13 +2,15 @@ FROM node:alpine as frontend
COPY package.json /app/
-RUN cd /app \
+RUN set -x ; cd /app \
&& npm install --registry=https://registry.npm.taobao.org
-COPY webpack.mix.js /app/
-COPY resources/assets/ /app/resources/assets/
+COPY webpack.mix.js webpack.config.js tailwind.config.js /app/
+COPY resources/ /app/resources/
-RUN cd /app \
+RUN set -x ; cd /app \
+ && touch artisan \
+ && mkdir -p public \
&& npm run production
FROM composer as composer
@@ -16,7 +18,7 @@ FROM composer as composer
COPY database/ /app/database/
COPY composer.json /app/
-RUN cd /app \
+RUN set -x ; cd /app \
&& composer config -g repo.packagist composer https://mirrors.aliyun.com/composer/ \
&& composer install \
--ignore-platform-reqs \
@@ -25,7 +27,7 @@ RUN cd /app \
--no-scripts \
--prefer-dist
-FROM php:7.2-fpm-alpine as laravel
+FROM php:7.4-fpm-alpine as laravel
ARG LARAVEL_PATH=/app/laravel
@@ -33,17 +35,17 @@ COPY --from=composer /app/vendor/ ${LARAVEL_PATH}/vendor/
COPY . ${LARAVEL_PATH}
COPY --from=frontend /app/public/js/ ${LARAVEL_PATH}/public/js/
COPY --from=frontend /app/public/css/ ${LARAVEL_PATH}/public/css/
-COPY --from=frontend /app/mix-manifest.json ${LARAVEL_PATH}/mix-manifest.json
+COPY --from=frontend /app/public/mix-manifest.json ${LARAVEL_PATH}/public/mix-manifest.json
-RUN cd ${LARAVEL_PATH} \
- && php artisan package:discover \
+RUN set -x ; cd ${LARAVEL_PATH} \
&& mkdir -p storage \
&& mkdir -p storage/framework/cache \
&& mkdir -p storage/framework/sessions \
&& mkdir -p storage/framework/testing \
&& mkdir -p storage/framework/views \
&& mkdir -p storage/logs \
- && chmod -R 777 storage
+ && chmod -R 777 storage \
+ && php artisan package:discover
FROM nginx:alpine as nginx
diff --git a/image/multistage-builds/laravel.md b/image/multistage-builds/laravel.md
index e8c8f10ac..2053cc0ed 100644
--- a/image/multistage-builds/laravel.md
+++ b/image/multistage-builds/laravel.md
@@ -1,8 +1,8 @@
-## 实战多阶段构建 Laravel 镜像
+# 实战多阶段构建 Laravel 镜像
-> 本节适用于 PHP 开发者阅读。
+> 本节适用于 PHP 开发者阅读。`Laravel` 基于 8.x 版本,各个版本的文件结构可能会有差异,请根据实际自行修改。
-### 准备
+## 准备
新建一个 `Laravel` 项目或在已有的 `Laravel` 项目根目录下新建 `Dockerfile` `.dockerignore` `laravel.conf` 文件。
@@ -11,10 +11,15 @@
```bash
.idea/
.git/
+
vendor/
+
node_modules/
+
public/js/
public/css/
+public/mix-manifest.json
+
yarn-error.log
bootstrap/cache/*
@@ -46,36 +51,38 @@ server {
}
```
-### 前端构建
+## 前端构建
第一阶段进行前端构建。
-```dockerfile
+```docker
FROM node:alpine as frontend
COPY package.json /app/
-RUN cd /app \
- && npm install --registry=https://registry.npm.taobao.org
+RUN set -x ; cd /app \
+ && npm install --registry=https://registry.npmmirror.com
-COPY webpack.mix.js /app/
-COPY resources/assets/ /app/resources/assets/
+COPY webpack.mix.js webpack.config.js tailwind.config.js /app/
+COPY resources/ /app/resources/
-RUN cd /app \
+RUN set -x ; cd /app \
+ && touch artisan \
+ && mkdir -p public \
&& npm run production
```
-### 安装 Composer 依赖
+## 安装 Composer 依赖
第二阶段安装 Composer 依赖。
-```dockerfile
+```docker
FROM composer as composer
COPY database/ /app/database/
COPY composer.json composer.lock /app/
-RUN cd /app \
+RUN set -x ; cd /app \
&& composer config -g repo.packagist composer https://mirrors.aliyun.com/composer/ \
&& composer install \
--ignore-platform-reqs \
@@ -85,12 +92,12 @@ RUN cd /app \
--prefer-dist
```
-### 整合以上阶段所生成的文件
+## 整合以上阶段所生成的文件
第三阶段对以上阶段生成的文件进行整合。
-```dockerfile
-FROM php:7.2-fpm-alpine as laravel
+```docker
+FROM php:7.4-fpm-alpine as laravel
ARG LARAVEL_PATH=/app/laravel
@@ -98,22 +105,22 @@ COPY --from=composer /app/vendor/ ${LARAVEL_PATH}/vendor/
COPY . ${LARAVEL_PATH}
COPY --from=frontend /app/public/js/ ${LARAVEL_PATH}/public/js/
COPY --from=frontend /app/public/css/ ${LARAVEL_PATH}/public/css/
-COPY --from=frontend /app/mix-manifest.json ${LARAVEL_PATH}/mix-manifest.json
+COPY --from=frontend /app/public/mix-manifest.json ${LARAVEL_PATH}/public/mix-manifest.json
-RUN cd ${LARAVEL_PATH} \
- && php artisan package:discover \
+RUN set -x ; cd ${LARAVEL_PATH} \
&& mkdir -p storage \
&& mkdir -p storage/framework/cache \
&& mkdir -p storage/framework/sessions \
&& mkdir -p storage/framework/testing \
&& mkdir -p storage/framework/views \
&& mkdir -p storage/logs \
- && chmod -R 777 storage
+ && chmod -R 777 storage \
+ && php artisan package:discover
```
-### 最后一个阶段构建 NGINX 镜像
+## 最后一个阶段构建 NGINX 镜像
-```dockerfile
+```docker
FROM nginx:alpine as nginx
ARG LARAVEL_PATH=/app/laravel
@@ -122,7 +129,7 @@ COPY laravel.conf /etc/nginx/conf.d/
COPY --from=laravel ${LARAVEL_PATH}/public ${LARAVEL_PATH}/public
```
-### 构建 Laravel 及 Nginx 镜像
+## 构建 Laravel 及 Nginx 镜像
使用 `docker build` 命令构建镜像。
@@ -132,7 +139,7 @@ $ docker build -t my/laravel --target=laravel .
$ docker build -t my/nginx --target=nginx .
```
-### 启动容器并测试
+## 启动容器并测试
新建 Docker 网络
@@ -143,39 +150,43 @@ $ docker network create laravel
启动 laravel 容器, `--name=laravel` 参数设定的名字必须与 `nginx` 配置文件中的 `fastcgi_pass laravel:9000;` 一致
```bash
-$ docker run -it --rm --name=laravel --network=laravel my/laravel
+$ docker run -dit --rm --name=laravel --network=laravel my/laravel
```
启动 nginx 容器
```bash
-$ docker run -it --rm --network=laravel -p 8080:80 my/nginx
+$ docker run -dit --rm --network=laravel -p 8080:80 my/nginx
```
浏览器访问 `127.0.0.1:8080` 可以看到 Laravel 项目首页。
> 也许 Laravel 项目依赖其他外部服务,例如 redis、MySQL,请自行启动这些服务之后再进行测试,本小节不再赘述。
-### 生产环境优化
+## 生产环境优化
本小节内容为了方便测试,将配置文件直接放到了镜像中,实际在使用时 **建议** 将配置文件作为 `config` 或 `secret` 挂载到容器中,请读者自行学习 `Swarm mode` 或 `Kubernetes` 的相关内容。
-### 附录
+由于篇幅所限本小节只是简单列出,更多内容可以参考 https://github.com/khs1994-docker/laravel-demo 项目。
+
+## 附录
完整的 `Dockerfile` 文件如下。
-```dockerfile
+```docker
FROM node:alpine as frontend
COPY package.json /app/
-RUN cd /app \
- && npm install --registry=https://registry.npm.taobao.org
+RUN set -x ; cd /app \
+ && npm install --registry=https://registry.npmmirror.com
-COPY webpack.mix.js /app/
-COPY resources/assets/ /app/resources/assets/
+COPY webpack.mix.js webpack.config.js tailwind.config.js /app/
+COPY resources/ /app/resources/
-RUN cd /app \
+RUN set -x ; cd /app \
+ && touch artisan \
+ && mkdir -p public \
&& npm run production
FROM composer as composer
@@ -183,7 +194,7 @@ FROM composer as composer
COPY database/ /app/database/
COPY composer.json /app/
-RUN cd /app \
+RUN set -x ; cd /app \
&& composer config -g repo.packagist composer https://mirrors.aliyun.com/composer/ \
&& composer install \
--ignore-platform-reqs \
@@ -192,7 +203,7 @@ RUN cd /app \
--no-scripts \
--prefer-dist
-FROM php:7.2-fpm-alpine as laravel
+FROM php:7.4-fpm-alpine as laravel
ARG LARAVEL_PATH=/app/laravel
@@ -200,17 +211,17 @@ COPY --from=composer /app/vendor/ ${LARAVEL_PATH}/vendor/
COPY . ${LARAVEL_PATH}
COPY --from=frontend /app/public/js/ ${LARAVEL_PATH}/public/js/
COPY --from=frontend /app/public/css/ ${LARAVEL_PATH}/public/css/
-COPY --from=frontend /app/mix-manifest.json ${LARAVEL_PATH}/mix-manifest.json
+COPY --from=frontend /app/public/mix-manifest.json ${LARAVEL_PATH}/public/mix-manifest.json
-RUN cd ${LARAVEL_PATH} \
- && php artisan package:discover \
+RUN set -x ; cd ${LARAVEL_PATH} \
&& mkdir -p storage \
&& mkdir -p storage/framework/cache \
&& mkdir -p storage/framework/sessions \
&& mkdir -p storage/framework/testing \
&& mkdir -p storage/framework/views \
&& mkdir -p storage/logs \
- && chmod -R 777 storage
+ && chmod -R 777 storage \
+ && php artisan package:discover
FROM nginx:alpine as nginx
diff --git a/image/other.md b/image/other.md
index 8a9414795..f139f5d20 100644
--- a/image/other.md
+++ b/image/other.md
@@ -1,14 +1,14 @@
-## 其它制作镜像的方式
+# 其它制作镜像的方式
除了标准的使用 `Dockerfile` 生成镜像的方法外,由于各种特殊需求和历史原因,还提供了一些其它方法用以生成镜像。
-### 从 rootfs 压缩包导入
+## 从 rootfs 压缩包导入
格式:`docker import [选项] <文件>||- [<仓库名>[:<标签>]]`
压缩包可以是本地文件、远程 Web 文件,甚至是从标准输入中得到。压缩包将会在镜像 `/` 目录展开,并直接作为镜像第一层提交。
-比如我们想要创建一个 [OpenVZ](https://openvz.org) 的 Ubuntu 16.04 [模板](https://openvz.org/Download/template/precreated)的镜像:
+比如我们想要创建一个 [OpenVZ](https://openvz.org) 的 Ubuntu 16.04 [模板](https://wiki.openvz.org/Download/template/precreated)的镜像:
```bash
$ docker import \
@@ -37,11 +37,11 @@ IMAGE CREATED CREATED BY SIZE
f477a6e18e98 About a minute ago 214.9 MB Imported from http://download.openvz.org/template/precreated/ubuntu-16.04-x86_64.tar.gz
```
-### `docker save` 和 `docker load`
+## Docker 镜像的导入和导出 `docker save` 和 `docker load`
Docker 还提供了 `docker save` 和 `docker load` 命令,用以将镜像保存为一个文件,然后传输到另一个位置上,再加载进来。这是在没有 Docker Registry 时的做法,现在已经不推荐,镜像迁移应该直接使用 Docker Registry,无论是直接使用 Docker Hub 还是使用内网私有 Registry 都可以。
-#### 保存镜像
+### 保存镜像
使用 `docker save` 命令可以将镜像保存为归档文件。
diff --git a/image/pull.md b/image/pull.md
index 7733f70b6..f9d29a412 100644
--- a/image/pull.md
+++ b/image/pull.md
@@ -1,16 +1,16 @@
-## 获取镜像
+# 获取镜像
-之前提到过,[Docker Hub](https://hub.docker.com/explore/) 上有大量的高质量的镜像可以用,这里我们就说一下怎么获取这些镜像。
+之前提到过,[Docker Hub](https://hub.docker.com/search?q=&type=image) 上有大量的高质量的镜像可以用,这里我们就说一下怎么获取这些镜像。
从 Docker 镜像仓库获取镜像的命令是 `docker pull`。其命令格式为:
```bash
-docker pull [选项] [Docker Registry 地址[:端口号]/]仓库名[:标签]
+$ docker pull [选项] [Docker Registry 地址[:端口号]/]仓库名[:标签]
```
具体的选项可以通过 `docker pull --help` 命令看到,这里我们说一下镜像名称的格式。
-* Docker 镜像仓库地址:地址的格式一般是 `<域名/IP>[:端口号]`。默认地址是 Docker Hub。
+* Docker 镜像仓库地址:地址的格式一般是 `<域名/IP>[:端口号]`。默认地址是 Docker Hub(`docker.io`)。
* 仓库名:如之前所说,这里的仓库名是两段式名称,即 `<用户名>/<软件名>`。对于 Docker Hub,如果不给出用户名,则默认为 `library`,也就是官方镜像。
比如:
@@ -18,16 +18,15 @@ docker pull [选项] [Docker Registry 地址[:端口号]/]仓库名[:标签]
```bash
$ docker pull ubuntu:18.04
18.04: Pulling from library/ubuntu
-bf5d46315322: Pull complete
-9f13e0ac480c: Pull complete
-e8988b5b3097: Pull complete
-40af181810e7: Pull complete
-e6f7c7e5c03e: Pull complete
-Digest: sha256:147913621d9cdea08853f6ba9116c2e27a3ceffecf3b492983ae97c3d643fbbe
+92dc2a97ff99: Pull complete
+be13a9d27eb8: Pull complete
+c8299583700a: Pull complete
+Digest: sha256:4bc3ae6596938cb0d9e5ac51a1152ec9dcac2a1c50829c74abd9c4361e321b26
Status: Downloaded newer image for ubuntu:18.04
+docker.io/library/ubuntu:18.04
```
-上面的命令中没有给出 Docker 镜像仓库地址,因此将会从 Docker Hub 获取镜像。而镜像名称是 `ubuntu:18.04`,因此将会获取官方镜像 `library/ubuntu` 仓库中标签为 `18.04` 的镜像。
+上面的命令中没有给出 Docker 镜像仓库地址,因此将会从 Docker Hub (`docker.io`)获取镜像。而镜像名称是 `ubuntu:18.04`,因此将会获取官方镜像 `library/ubuntu` 仓库中标签为 `18.04` 的镜像。`docker pull` 命令的输出结果最后一行给出了镜像的完整名称,即: `docker.io/library/ubuntu:18.04`。
从下载过程中可以看到我们之前提及的分层存储的概念,镜像是由多层存储所构成。下载也是一层层的去下载,并非单一文件。下载过程中给出了每一层的 ID 的前 12 位。并且下载结束后,给出该镜像完整的 `sha256` 的摘要,以确保下载一致性。
@@ -35,14 +34,12 @@ Status: Downloaded newer image for ubuntu:18.04
*如果从 Docker Hub 下载镜像非常缓慢,可以参照 [镜像加速器](/install/mirror.md) 一节配置加速器。*
-### 运行
+## 运行
有了镜像后,我们就能够以这个镜像为基础启动并运行一个容器。以上面的 `ubuntu:18.04` 为例,如果我们打算启动里面的 `bash` 并且进行交互式操作的话,可以执行下面的命令。
```bash
-$ docker run -it --rm \
- ubuntu:18.04 \
- bash
+$ docker run -it --rm ubuntu:18.04 bash
root@e7009c6ce357:/# cat /etc/os-release
NAME="Ubuntu"
diff --git a/image/rm.md b/image/rm.md
index d0870be49..026a51ce7 100644
--- a/image/rm.md
+++ b/image/rm.md
@@ -1,4 +1,4 @@
-## 删除本地镜像
+# 删除本地镜像
如果要删除本地的镜像,可以使用 `docker image rm` 命令,其格式为:
@@ -6,7 +6,7 @@
$ docker image rm [选项] <镜像1> [<镜像2> ...]
```
-### 用 ID、镜像名、摘要删除镜像
+## 用 ID、镜像名、摘要删除镜像
其中,`<镜像>` 可以是 `镜像短 ID`、`镜像长 ID`、`镜像名` 或者 `镜像摘要`。
@@ -58,7 +58,7 @@ $ docker image rm node@sha256:b4f0e0bdeb578043c1ea6862f0d40cc4afe32a4a582f3be235
Untagged: node@sha256:b4f0e0bdeb578043c1ea6862f0d40cc4afe32a4a582f3be235a3b164422be228
```
-### Untagged 和 Deleted
+## Untagged 和 Deleted
如果观察上面这几个命令的运行输出信息的话,你会注意到删除行为分为两类,一类是 `Untagged`,另一类是 `Deleted`。我们之前介绍过,镜像的唯一标识是其 ID 和摘要,而一个镜像可以有多个标签。
@@ -68,7 +68,7 @@ Untagged: node@sha256:b4f0e0bdeb578043c1ea6862f0d40cc4afe32a4a582f3be235a3b16442
除了镜像依赖以外,还需要注意的是容器对镜像的依赖。如果有用这个镜像启动的容器存在(即使容器没有运行),那么同样不可以删除这个镜像。之前讲过,容器是以镜像为基础,再加一层容器存储层,组成这样的多层存储结构去运行的。因此该镜像如果被这个容器所依赖的,那么删除必然会导致故障。如果这些容器是不需要的,应该先将它们删除,然后再来删除镜像。
-### 用 docker image ls 命令来配合
+## 用 docker image ls 命令来配合
像其它可以承接多个实体的命令一样,可以使用 `docker image ls -q` 来配合使用 `docker image rm`,这样可以成批的删除希望删除的镜像。我们在“镜像列表”章节介绍过很多过滤镜像列表的方式都可以拿过来使用。
@@ -85,15 +85,3 @@ $ docker image rm $(docker image ls -q -f before=mongo:3.2)
```
充分利用你的想象力和 Linux 命令行的强大,你可以完成很多非常赞的功能。
-
-### CentOS/RHEL 的用户需要注意的事项
-
-> 以下内容仅适用于 Docker CE 18.09 以下版本,在 Docker CE 18.09 版本中默认使用的是 `overlay2` 驱动。
-
-~~在 Ubuntu/Debian 上有 `UnionFS` 可以使用,如 `aufs` 或者 `overlay2`,而 CentOS 和 RHEL 的内核中没有相关驱动。因此对于这类系统,一般使用 `devicemapper` 驱动利用 LVM 的一些机制来模拟分层存储。这样的做法除了性能比较差外,稳定性一般也不好,而且配置相对复杂。Docker 安装在 CentOS/RHEL 上后,会默认选择 `devicemapper`,但是为了简化配置,其 `devicemapper` 是跑在一个稀疏文件模拟的块设备上,也被称为 `loop-lvm`。这样的选择是因为不需要额外配置就可以运行 Docker,这是自动配置唯一能做到的事情。但是 `loop-lvm` 的做法非常不好,其稳定性、性能更差,无论是日志还是 `docker info` 中都会看到警告信息。官方文档有明确的文章讲解了如何配置块设备给 `devicemapper` 驱动做存储层的做法,这类做法也被称为配置 `direct-lvm`。~~
-
-~~除了前面说到的问题外,`devicemapper` + `loop-lvm` 还有一个缺陷,因为它是稀疏文件,所以它会不断增长。用户在使用过程中会注意到 `/var/lib/docker/devicemapper/devicemapper/data` 不断增长,而且无法控制。很多人会希望删除镜像或者可以解决这个问题,结果发现效果并不明显。原因就是这个稀疏文件的空间释放后基本不进行垃圾回收的问题。因此往往会出现即使删除了文件内容,空间却无法回收,随着使用这个稀疏文件一直在不断增长。~~
-
-~~所以对于 CentOS/RHEL 的用户来说,在没有办法使用 `UnionFS` 的情况下,一定要配置 `direct-lvm` 给 `devicemapper`,无论是为了性能、稳定性还是空间利用率。~~
-
-~~*或许有人注意到了 CentOS 7 中存在被 backports 回来的 `overlay` 驱动,不过 CentOS 里的这个驱动达不到生产环境使用的稳定程度,所以不推荐使用。*~~
diff --git a/install/README.md b/install/README.md
index 915f7f0d8..cfa04d0c1 100644
--- a/install/README.md
+++ b/install/README.md
@@ -1,7 +1,5 @@
# 安装 Docker
-Docker 分为 CE 和 EE 两大版本。CE 即社区版(免费,支持周期 7 个月),EE 即企业版,强调安全,付费使用,支持周期 24 个月。
+Docker 分为 `stable` `test` 和 `nightly` 三个更新频道。
-Docker CE 分为 **stable**, **test**, 和 **nightly** 三个更新频道。每六个月发布一个 **stable** 版本 (18.09, 19.03, 19.09...)。
-
-官方网站上有各种环境下的 [安装指南](https://docs.docker.com/engine/installation/),这里主要介绍 Docker CE 在 Linux 、Windows 10 (PC) 和 macOS 上的安装。
+官方网站上有各种环境下的 [安装指南](https://docs.docker.com/get-docker/),这里主要介绍 Docker 在 `Linux` 、`Windows 10` 和 `macOS` 上的安装。
diff --git a/install/_images/image-20200412202617411.png b/install/_images/image-20200412202617411.png
new file mode 100644
index 000000000..fb5caf252
Binary files /dev/null and b/install/_images/image-20200412202617411.png differ
diff --git a/install/_images/install-mac-success.png b/install/_images/install-mac-success.png
deleted file mode 100644
index 62e8b9aad..000000000
Binary files a/install/_images/install-mac-success.png and /dev/null differ
diff --git a/install/_images/install-win-docker-app-search.png b/install/_images/install-win-docker-app-search.png
index 02d8afaa7..42361f611 100644
Binary files a/install/_images/install-win-docker-app-search.png and b/install/_images/install-win-docker-app-search.png differ
diff --git a/install/_images/install-win-success-popup-cloud.png b/install/_images/install-win-success-popup-cloud.png
deleted file mode 100644
index 083cd76ea..000000000
Binary files a/install/_images/install-win-success-popup-cloud.png and /dev/null differ
diff --git a/install/centos.md b/install/centos.md
index 8c986a700..690cb9995 100644
--- a/install/centos.md
+++ b/install/centos.md
@@ -1,14 +1,14 @@
-## CentOS 安装 Docker CE
+# CentOS 安装 Docker
>警告:切勿在没有配置 Docker YUM 源的情况下直接使用 yum 命令安装 Docker.
-### 准备工作
+## 准备工作
-#### 系统要求
+### 系统要求
-Docker CE 支持 64 位版本 CentOS 7,并且要求内核版本不低于 3.10。 CentOS 7 满足最低内核的要求,但由于内核版本比较低,部分功能(如 `overlay2` 存储层驱动)无法使用,并且部分功能可能不太稳定。
+Docker 支持 64 位版本 CentOS 7/8,并且要求内核版本不低于 3.10。 CentOS 7 满足最低内核的要求,但由于内核版本比较低,部分功能(如 `overlay2` 存储层驱动)无法使用,并且部分功能可能不太稳定。
-#### 卸载旧版本
+### 卸载旧版本
旧版本的 Docker 称为 `docker` 或者 `docker-engine`,使用以下命令卸载旧版本:
@@ -25,14 +25,12 @@ $ sudo yum remove docker \
docker-engine
```
-### 使用 yum 安装
+## 使用 yum 安装
执行以下命令安装依赖包:
```bash
-$ sudo yum install -y yum-utils \
- device-mapper-persistent-data \
- lvm2
+$ sudo yum install -y yum-utils
```
鉴于国内网络问题,强烈建议使用国内源,官方源请在注释中查看。
@@ -42,8 +40,9 @@ $ sudo yum install -y yum-utils \
```bash
$ sudo yum-config-manager \
--add-repo \
- https://mirrors.ustc.edu.cn/docker-ce/linux/centos/docker-ce.repo
+ https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
+$ sudo sed -i 's/download.docker.com/mirrors.aliyun.com\/docker-ce/g' /etc/yum.repos.d/docker-ce.repo
# 官方源
# $ sudo yum-config-manager \
@@ -51,46 +50,62 @@ $ sudo yum-config-manager \
# https://download.docker.com/linux/centos/docker-ce.repo
```
-如果需要测试版本的 Docker CE 请使用以下命令:
+如果需要测试版本的 Docker 请执行以下命令:
```bash
$ sudo yum-config-manager --enable docker-ce-test
```
-如果需要每日构建版本的 Docker CE 请使用以下命令:
+### 安装 Docker
+
+更新 `yum` 软件源缓存,并安装 `docker-ce`。
```bash
-$ sudo yum-config-manager --enable docker-ce-nightly
+$ sudo yum install docker-ce docker-ce-cli containerd.io
```
-#### 安装 Docker CE
+## CentOS8 额外设置
-更新 `yum` 软件源缓存,并安装 `docker-ce`。
+由于 CentOS8 防火墙使用了 `nftables`,但 Docker 尚未支持 `nftables`, 我们可以使用如下设置使用 `iptables`:
+
+更改 `/etc/firewalld/firewalld.conf`
+
+```bash
+# FirewallBackend=nftables
+FirewallBackend=iptables
+```
+
+或者执行如下命令:
```bash
-$ sudo yum makecache fast
-$ sudo yum install docker-ce
+$ firewall-cmd --permanent --zone=trusted --add-interface=docker0
+
+$ firewall-cmd --reload
```
-### 使用脚本自动安装
+## 使用脚本自动安装
+
+在测试或开发环境中 Docker 官方为了简化安装流程,提供了一套便捷的安装脚本,CentOS 系统上可以使用这套脚本安装,另外可以通过 `--mirror` 选项使用国内源进行安装:
-在测试或开发环境中 Docker 官方为了简化安装流程,提供了一套便捷的安装脚本,CentOS 系统上可以使用这套脚本安装:
+> 若你想安装测试版的 Docker, 请从 test.docker.com 获取脚本
```bash
+# $ curl -fsSL test.docker.com -o get-docker.sh
$ curl -fsSL get.docker.com -o get-docker.sh
$ sudo sh get-docker.sh --mirror Aliyun
+# $ sudo sh get-docker.sh --mirror AzureChinaCloud
```
-执行这个命令后,脚本就会自动的将一切准备工作做好,并且把 Docker CE 的 Edge 版本安装在系统中。
+执行这个命令后,脚本就会自动的将一切准备工作做好,并且把 Docker 的稳定(stable)版本安装在系统中。
-### 启动 Docker CE
+## 启动 Docker
```bash
$ sudo systemctl enable docker
$ sudo systemctl start docker
```
-### 建立 docker 用户组
+## 建立 docker 用户组
默认情况下,`docker` 命令会使用 [Unix socket](https://en.wikipedia.org/wiki/Unix_domain_socket) 与 Docker 引擎通讯。而只有 `root` 用户和 `docker` 组的用户才可以访问 Docker 引擎的 Unix socket。出于安全考虑,一般 Linux 系统上不会直接使用 `root` 用户。因此,更好地做法是将需要使用 `docker` 的用户加入 `docker` 用户组。
@@ -108,15 +123,15 @@ $ sudo usermod -aG docker $USER
退出当前终端并重新登录,进行如下测试。
-### 测试 Docker 是否安装正确
+## 测试 Docker 是否安装正确
```bash
-$ docker run hello-world
+$ docker run --rm hello-world
Unable to find image 'hello-world:latest' locally
latest: Pulling from library/hello-world
-d1725b59e92d: Pull complete
-Digest: sha256:0add3ace90ecb4adbf7777e9aacf18357296e799f81cabc9fde470971e499788
+b8dfde127a29: Pull complete
+Digest: sha256:308866a43596e83578c7dfa15e27a73011bdd402185a84c5cd7f32a88b501a24
Status: Downloaded newer image for hello-world:latest
Hello from Docker!
@@ -143,13 +158,13 @@ For more examples and ideas, visit:
若能正常输出以上信息,则说明安装成功。
-### 镜像加速
+## 镜像加速
如果在使用过程中发现拉取 Docker 镜像十分缓慢,可以配置 Docker [国内镜像加速](mirror.md)。
-### 添加内核参数
+## 添加内核参数
-如果在 CentOS 使用 Docker CE 看到下面的这些警告信息:
+如果在 CentOS 使用 Docker 看到下面的这些警告信息:
```bash
WARNING: bridge-nf-call-iptables is disabled
@@ -171,6 +186,8 @@ EOF
$ sudo sysctl -p
```
-### 参考文档
+## 参考文档
* [Docker 官方 CentOS 安装文档](https://docs.docker.com/install/linux/docker-ce/centos/)。
+* https://firewalld.org/2018/07/nftables-backend
+* https://github.com/moby/libnetwork/issues/2496
diff --git a/install/debian.md b/install/debian.md
index fa7f7fa5e..506086cb4 100644
--- a/install/debian.md
+++ b/install/debian.md
@@ -1,17 +1,17 @@
-## Debian 安装 Docker CE
+# Debian 安装 Docker
>警告:切勿在没有配置 Docker APT 源的情况下直接使用 apt 命令安装 Docker.
-### 准备工作
+## 准备工作
-#### 系统要求
+### 系统要求
-Docker CE 支持以下版本的 [Debian](https://www.debian.org/intro/about) 操作系统:
+Docker 支持以下版本的 [Debian](https://www.debian.org/intro/about) 操作系统:
-* Buster 10
-* Stretch 9
+* Debian Bullseye 11
+* Debian Buster 10
-#### 卸载旧版本
+### 卸载旧版本
旧版本的 Docker 称为 `docker` 或者 `docker-engine`,使用以下命令卸载旧版本:
@@ -21,7 +21,7 @@ $ sudo apt-get remove docker \
docker.io
```
-### 使用 APT 安装
+## 使用 APT 安装
由于 apt 源使用 HTTPS 以确保软件下载过程中不被篡改。因此,我们首先需要添加使用 HTTPS 传输的软件包以及 CA 证书。
@@ -32,9 +32,8 @@ $ sudo apt-get install \
apt-transport-https \
ca-certificates \
curl \
- gnupg2 \
- lsb-release \
- software-properties-common
+ gnupg \
+ lsb-release
```
鉴于国内网络问题,强烈建议使用国内源,官方源请在注释中查看。
@@ -42,59 +41,65 @@ $ sudo apt-get install \
为了确认所下载软件包的合法性,需要添加软件源的 GPG 密钥。
```bash
-$ curl -fsSL https://mirrors.ustc.edu.cn/docker-ce/linux/debian/gpg | sudo apt-key add -
+$ curl -fsSL https://mirrors.aliyun.com/docker-ce/linux/debian/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg
# 官方源
-# $ curl -fsSL https://download.docker.com/linux/debian/gpg | sudo apt-key add -
+# $ curl -fsSL https://download.docker.com/linux/debian/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg
```
-然后,我们需要向 `source.list` 中添加 Docker CE 软件源:
+然后,我们需要向 `sources.list` 中添加 Docker 软件源:
+
+> 在一些基于 Debian 的 Linux 发行版中 `$(lsb_release -cs)` 可能不会返回 Debian 的版本代号,例如 [Kail Linux](https://www.kali.org/docs/policy/kali-linux-relationship-with-debian/)、 [BunsenLabs Linux](https://www.bunsenlabs.org/)。在这些发行版中我们需要将下面命令中的 `$(lsb_release -cs)` 替换为 https://mirrors.aliyun.com/docker-ce/linux/debian/dists/ 中支持的 Debian 版本代号,例如 `buster`。
```bash
-$ sudo add-apt-repository \
- "deb [arch=amd64] https://mirrors.ustc.edu.cn/docker-ce/linux/debian \
- $(lsb_release -cs) \
- stable"
+$ echo \
+ "deb [arch=amd64 signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://mirrors.aliyun.com/docker-ce/linux/debian \
+ $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
+
# 官方源
-# $ sudo add-apt-repository \
-# "deb [arch=amd64] https://download.docker.com/linux/debian \
-# $(lsb_release -cs) \
-# stable"
+# $ echo \
+# "deb [arch=amd64 signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/debian \
+# $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
+
```
->以上命令会添加稳定版本的 Docker CE APT 源,如果需要测试或每日构建版本的 Docker CE 请将 stable 改为 test 或者 nightly。
+>以上命令会添加稳定版本的 Docker APT 源,如果需要测试版本的 Docker 请将 stable 改为 test。
-#### 安装 Docker CE
+### 安装 Docker
更新 apt 软件包缓存,并安装 `docker-ce`。
```bash
$ sudo apt-get update
-$ sudo apt-get install docker-ce
+$ sudo apt-get install docker-ce docker-ce-cli containerd.io
```
-### 使用脚本自动安装
+## 使用脚本自动安装
+
+在测试或开发环境中 Docker 官方为了简化安装流程,提供了一套便捷的安装脚本,Debian 系统上可以使用这套脚本安装,另外可以通过 `--mirror` 选项使用国内源进行安装:
-在测试或开发环境中 Docker 官方为了简化安装流程,提供了一套便捷的安装脚本,Debian 系统上可以使用这套脚本安装:
+> 若你想安装测试版的 Docker, 请从 test.docker.com 获取脚本
```bash
+# $ curl -fsSL test.docker.com -o get-docker.sh
$ curl -fsSL get.docker.com -o get-docker.sh
$ sudo sh get-docker.sh --mirror Aliyun
+# $ sudo sh get-docker.sh --mirror AzureChinaCloud
```
-执行这个命令后,脚本就会自动的将一切准备工作做好,并且把 Docker CE 的 Edge 版本安装在系统中。
+执行这个命令后,脚本就会自动的将一切准备工作做好,并且把 Docker 的稳定(stable)版本安装在系统中。
-### 启动 Docker CE
+## 启动 Docker
```bash
$ sudo systemctl enable docker
$ sudo systemctl start docker
```
-### 建立 docker 用户组
+## 建立 docker 用户组
默认情况下,`docker` 命令会使用 [Unix socket](https://en.wikipedia.org/wiki/Unix_domain_socket) 与 Docker 引擎通讯。而只有 `root` 用户和 `docker` 组的用户才可以访问 Docker 引擎的 Unix socket。出于安全考虑,一般 Linux 系统上不会直接使用 `root` 用户。因此,更好地做法是将需要使用 `docker` 的用户加入 `docker` 用户组。
@@ -112,15 +117,15 @@ $ sudo usermod -aG docker $USER
退出当前终端并重新登录,进行如下测试。
-### 测试 Docker 是否安装正确
+## 测试 Docker 是否安装正确
```bash
-$ docker run hello-world
+$ docker run --rm hello-world
Unable to find image 'hello-world:latest' locally
latest: Pulling from library/hello-world
-d1725b59e92d: Pull complete
-Digest: sha256:0add3ace90ecb4adbf7777e9aacf18357296e799f81cabc9fde470971e499788
+b8dfde127a29: Pull complete
+Digest: sha256:308866a43596e83578c7dfa15e27a73011bdd402185a84c5cd7f32a88b501a24
Status: Downloaded newer image for hello-world:latest
Hello from Docker!
@@ -147,10 +152,10 @@ For more examples and ideas, visit:
若能正常输出以上信息,则说明安装成功。
-### 镜像加速
+## 镜像加速
如果在使用过程中发现拉取 Docker 镜像十分缓慢,可以配置 Docker [国内镜像加速](mirror.md)。
-### 参考文档
+## 参考文档
* [Docker 官方 Debian 安装文档](https://docs.docker.com/install/linux/docker-ce/debian/)
diff --git a/install/experimental.md b/install/experimental.md
new file mode 100644
index 000000000..d32844eab
--- /dev/null
+++ b/install/experimental.md
@@ -0,0 +1,17 @@
+# 开启实验特性
+
+一些 docker 命令或功能仅当 **实验特性** 开启时才能使用,请按照以下方法进行设置。
+
+## Docker CLI 的实验特性
+
+从 `v20.10` 版本开始,Docker CLI 所有实验特性的命令均默认开启,无需再进行配置或设置系统环境变量。
+
+## 开启 dockerd 的实验特性
+
+编辑 `/etc/docker/daemon.json`,新增如下条目
+
+```json
+{
+ "experimental": true
+}
+```
diff --git a/install/fedora.md b/install/fedora.md
index 0f235e99c..32f223475 100644
--- a/install/fedora.md
+++ b/install/fedora.md
@@ -1,18 +1,17 @@
-## Fedora 安装 Docker CE
+# Fedora 安装 Docker
>警告:切勿在没有配置 Docker dnf 源的情况下直接使用 dnf 命令安装 Docker.
-### 准备工作
+## 准备工作
-#### 系统要求
+### 系统要求
-Docker CE 支持以下版本的 [Fedora](https://fedoraproject.org/) 操作系统:
+Docker 支持以下版本的 [Fedora](https://getfedora.org/) 操作系统:
-* 28
-* 29
-* 30
+* 33
+* 34
-#### 卸载旧版本
+### 卸载旧版本
旧版本的 Docker 称为 `docker` 或者 `docker-engine`,使用以下命令卸载旧版本:
@@ -29,7 +28,7 @@ $ sudo dnf remove docker \
docker-engine
```
-### 使用 dnf 安装
+## 使用 dnf 安装
执行以下命令安装依赖包:
@@ -44,8 +43,9 @@ $ sudo dnf -y install dnf-plugins-core
```bash
$ sudo dnf config-manager \
--add-repo \
- https://mirrors.ustc.edu.cn/docker-ce/linux/fedora/docker-ce.repo
+ https://mirrors.aliyun.com/docker-ce/linux/fedora/docker-ce.repo
+$ sudo sed -i 's/download.docker.com/mirrors.aliyun.com\/docker-ce/g' /etc/yum.repos.d/docker-ce.repo
# 官方源
# $ sudo dnf config-manager \
@@ -53,31 +53,25 @@ $ sudo dnf config-manager \
# https://download.docker.com/linux/fedora/docker-ce.repo
```
-如果需要测试版本的 Docker CE 请使用以下命令:
+如果需要测试版本的 Docker 请使用以下命令:
```bash
$ sudo dnf config-manager --set-enabled docker-ce-test
```
-如果需要每日构建版本的 Docker CE 请使用以下命令:
-
-```bash
-$ sudo dnf config-manager --set-enabled docker-ce-nightly
-```
-
-你也可以禁用测试版本的 Docker CE
+你也可以禁用测试版本的 Docker
```bash
$ sudo dnf config-manager --set-disabled docker-ce-test
```
-#### 安装 Docker CE
+### 安装 Docker
更新 `dnf` 软件源缓存,并安装 `docker-ce`。
```bash
$ sudo dnf update
-$ sudo dnf install docker-ce
+$ sudo dnf install docker-ce docker-ce-cli containerd.io
```
你也可以使用以下命令安装指定版本的 Docker
@@ -90,25 +84,29 @@ docker-ce.x86_64 18.06.1.ce-3.fc28 docker-ce-stable
$ sudo dnf -y install docker-ce-18.06.1.ce
```
-### 使用脚本自动安装
+## 使用脚本自动安装
+
+在测试或开发环境中 Docker 官方为了简化安装流程,提供了一套便捷的安装脚本,Debian 系统上可以使用这套脚本安装,另外可以通过 `--mirror` 选项使用国内源进行安装:
-在测试或开发环境中 Docker 官方为了简化安装流程,提供了一套便捷的安装脚本,Debian 系统上可以使用这套脚本安装:
+> 若你想安装测试版的 Docker, 请从 test.docker.com 获取脚本
```bash
+# $ curl -fsSL test.docker.com -o get-docker.sh
$ curl -fsSL get.docker.com -o get-docker.sh
$ sudo sh get-docker.sh --mirror Aliyun
+# $ sudo sh get-docker.sh --mirror AzureChinaCloud
```
-执行这个命令后,脚本就会自动的将一切准备工作做好,并且把 Docker CE 最新版本安装在系统中。
+执行这个命令后,脚本就会自动的将一切准备工作做好,并且把 Docker 最新稳定(stable)版本安装在系统中。
-### 启动 Docker CE
+## 启动 Docker
```bash
$ sudo systemctl enable docker
$ sudo systemctl start docker
```
-### 建立 docker 用户组
+## 建立 docker 用户组
默认情况下,`docker` 命令会使用 [Unix socket](https://en.wikipedia.org/wiki/Unix_domain_socket) 与 Docker 引擎通讯。而只有 `root` 用户和 `docker` 组的用户才可以访问 Docker 引擎的 Unix socket。出于安全考虑,一般 Linux 系统上不会直接使用 `root` 用户。因此,更好地做法是将需要使用 `docker` 的用户加入 `docker` 用户组。
@@ -126,15 +124,15 @@ $ sudo usermod -aG docker $USER
退出当前终端并重新登录,进行如下测试。
-### 测试 Docker 是否安装正确
+## 测试 Docker 是否安装正确
```bash
-$ docker run hello-world
+$ docker run --rm hello-world
Unable to find image 'hello-world:latest' locally
latest: Pulling from library/hello-world
-d1725b59e92d: Pull complete
-Digest: sha256:0add3ace90ecb4adbf7777e9aacf18357296e799f81cabc9fde470971e499788
+b8dfde127a29: Pull complete
+Digest: sha256:308866a43596e83578c7dfa15e27a73011bdd402185a84c5cd7f32a88b501a24
Status: Downloaded newer image for hello-world:latest
Hello from Docker!
@@ -161,10 +159,10 @@ For more examples and ideas, visit:
若能正常输出以上信息,则说明安装成功。
-### 镜像加速
+## 镜像加速
如果在使用过程中发现拉取 Docker 镜像十分缓慢,可以配置 Docker [国内镜像加速](mirror.md)。
-### 参考文档
+## 参考文档
* [Docker 官方 Fedora 安装文档](https://docs.docker.com/install/linux/docker-ce/fedora)。
diff --git a/install/mac.md b/install/mac.md
index 44a571b6a..46463f2b8 100644
--- a/install/mac.md
+++ b/install/mac.md
@@ -1,54 +1,48 @@
-## macOS 安装 Docker Desktop CE
+# macOS 安装 Docker
-### 系统要求
+## 系统要求
-[Docker Desktop for Mac](https://docs.docker.com/docker-for-mac/) 要求系统最低为 macOS El Capitan 10.11。
+[Docker Desktop for Mac](https://docs.docker.com/docker-for-mac/) 要求系统最低为 macOS 必须是 10.15 或更高版本, Catalina、Big Sur 或者 Monterey,建议升级到最新版本的 macOS。
-### 安装
+## 安装
-#### 使用 Homebrew 安装
+### 使用 Homebrew 安装
-[Homebrew](https://brew.sh/) 的 [Cask](https://caskroom.github.io/) 已经支持 Docker Desktop for Mac,因此可以很方便的使用 Homebrew Cask 来进行安装:
+[Homebrew](https://brew.sh/) 的 [Cask](https://github.com/Homebrew/homebrew-cask) 已经支持 Docker Desktop for Mac,因此可以很方便的使用 Homebrew Cask 来进行安装:
```bash
-$ brew cask install docker
+$ brew install --cask docker
```
-#### 手动下载安装
+### 手动下载安装
-如果需要手动下载,请点击以下链接下载 [Stable](https://download.docker.com/mac/stable/Docker.dmg) 或 [Edge](https://download.docker.com/mac/edge/Docker.dmg) 版本的 Docker Desktop for Mac。
+如果需要手动下载,请点击以下 [链接](https://desktop.docker.com/mac/main/amd64/Docker.dmg) 下载 Docker Desktop for Mac。
-如同 macOS 其它软件一样,安装也非常简单,双击下载的 `.dmg` 文件,然后将那只叫 [Moby](https://blog.docker.com/2013/10/call-me-moby-dock/) 的鲸鱼图标拖拽到 `Application` 文件夹即可(其间需要输入用户密码)。
+> 如果你的电脑搭载的是 M1 芯片(`arm64` 架构),请点击以下 [链接](https://desktop.docker.com/mac/main/arm64/Docker.dmg) 下载 Docker Desktop for Mac。你可以在 [官方文档](https://docs.docker.com/docker-for-mac/apple-silicon/) 查阅已知的问题。
-![](_images/install-mac-dmg.png)
+如同 macOS 其它软件一样,安装也非常简单,双击下载的 `.dmg` 文件,然后将那只叫 [Moby](https://www.docker.com/blog/call-me-moby-dock/) 的鲸鱼图标拖拽到 `Application` 文件夹即可(其间需要输入用户密码)。
-### 运行
+![](./_images/install-mac-dmg.png)
+
+## 运行
从应用中找到 Docker 图标并点击运行。
-![](_images/install-mac-apps.png)
+![](./_images/install-mac-apps.png)
运行之后,会在右上角菜单栏看到多了一个鲸鱼图标,这个图标表明了 Docker 的运行状态。
-![](_images/install-mac-menubar.png)
-
-第一次点击图标,可能会看到这个安装成功的界面,点击 "Got it!" 可以关闭这个窗口。
-
-![](_images/install-mac-success.png)
+![](./_images/install-mac-menubar.png)
-以后每次点击鲸鱼图标会弹出操作菜单。
+每次点击鲸鱼图标会弹出操作菜单。
-![](_images/install-mac-menu.png)
+![](./_images/install-mac-menu.png)
-启动终端后,通过命令可以检查安装后的 Docker 版本。
+之后,你可以在终端通过命令检查安装后的 Docker 版本。
```bash
$ docker --version
-Docker version 19.03.1, build 74b1e89
-$ docker-compose --version
-docker-compose version 1.24.1, build 4667896b
-$ docker-machine --version
-docker-machine version 0.16.1, build cce350d7
+Docker version 20.10.0, build 7287ab3
```
如果 `docker version`、`docker info` 都正常的话,可以尝试运行一个 [Nginx 服务器](https://hub.docker.com/_/nginx/):
@@ -59,7 +53,7 @@ $ docker run -d -p 80:80 --name webserver nginx
服务运行后,可以访问 ,如果看到了 "Welcome to nginx!",就说明 Docker Desktop for Mac 安装成功了。
-![](_images/install-mac-example-nginx.png)
+![](./_images/install-mac-example-nginx.png)
要停止 Nginx 服务器并删除执行下面的命令:
@@ -68,10 +62,10 @@ $ docker stop webserver
$ docker rm webserver
```
-### 镜像加速
+## 镜像加速
如果在使用过程中发现拉取 Docker 镜像十分缓慢,可以配置 Docker [国内镜像加速](mirror.md)。
-### 参考链接
+## 参考链接
* [官方文档](https://docs.docker.com/docker-for-mac/install/)
diff --git a/install/mirror.md b/install/mirror.md
index 25ee0f65a..0a2ebfed4 100644
--- a/install/mirror.md
+++ b/install/mirror.md
@@ -1,26 +1,36 @@
-## 镜像加速器
+# 镜像加速器
国内从 Docker Hub 拉取镜像有时会遇到困难,此时可以配置镜像加速器。国内很多云服务商都提供了国内加速器服务,例如:
-* [Azure 中国镜像 `https://dockerhub.azk8s.cn`](https://github.com/Azure/container-service-for-azure-china/blob/master/aks/README.md#22-container-registry-proxy)
-* [阿里云加速器(需登录账号获取)](https://cr.console.aliyun.com/cn-hangzhou/mirrors)
-* [七牛云加速器 `https://reg-mirror.qiniu.com`](https://kirk-enterprise.github.io/hub-docs/#/user-guide/mirror)
+* [阿里云加速器(点击管理控制台 -> 登录账号(淘宝账号) -> 右侧镜像工具 -> 镜像加速器 -> 复制加速器地址)](https://www.aliyun.com/product/acr?source=5176.11533457&userCode=8lx5zmtu)
+* [网易云加速器 `https://hub-mirror.c.163.com`](https://www.163yun.com/help/documents/56918246390157312)
+* [百度云加速器 `https://mirror.baidubce.com`](https://cloud.baidu.com/doc/CCE/s/Yjxppt74z#%E4%BD%BF%E7%94%A8dockerhub%E5%8A%A0%E9%80%9F%E5%99%A8)
+
+**由于镜像服务可能出现宕机,建议同时配置多个镜像。各个镜像站测试结果请到 [docker-practice/docker-registry-cn-mirror-test](https://github.com/docker-practice/docker-registry-cn-mirror-test/actions) 查看。**
+
+> 国内各大云服务商(腾讯云、阿里云、百度云)均提供了 Docker 镜像加速服务,建议根据运行 Docker 的云平台选择对应的镜像加速服务,具体请参考本页最后一小节。
+
+本节我们以 [网易云](https://www.163yun.com/) 镜像服务 `https://hub-mirror.c.163.com` 为例进行介绍。
-> 由于镜像服务可能出现宕机,建议同时配置多个镜像。
+## Ubuntu 16.04+、Debian 8+、CentOS 7+
-> 国内各大云服务商均提供了 Docker 镜像加速服务,建议根据运行 Docker 的云平台选择对应的镜像加速服务,具体请参考官方文档。
+目前主流 Linux 发行版均已使用 [systemd](https://systemd.io/) 进行服务管理,这里介绍如何在使用 systemd 的 Linux 发行版中配置镜像加速器。
-我们以 Azure 中国镜像 `https://dockerhub.azk8s.cn` 为例进行介绍。
+请首先执行以下命令,查看是否在 `docker.service` 文件中配置过镜像地址。
-### Ubuntu 16.04+、Debian 8+、CentOS 7
+```bash
+$ systemctl cat docker | grep '\-\-registry\-mirror'
+```
-对于使用 [systemd](https://www.freedesktop.org/wiki/Software/systemd/) 的系统,请在 `/etc/docker/daemon.json` 中写入如下内容(如果文件不存在请新建该文件)
+如果该命令有输出,那么请执行 `$ systemctl cat docker` 查看 `ExecStart=` 出现的位置,修改对应的文件内容去掉 `--registry-mirror` 参数及其值,并按接下来的步骤进行配置。
+
+如果以上命令没有任何输出,那么就可以在 `/etc/docker/daemon.json` 中写入如下内容(如果文件不存在请新建该文件):
```json
{
"registry-mirrors": [
- "https://dockerhub.azk8s.cn",
- "https://reg-mirror.qiniu.com"
+ "https://hub-mirror.c.163.com",
+ "https://mirror.baidubce.com"
]
}
```
@@ -34,31 +44,69 @@ $ sudo systemctl daemon-reload
$ sudo systemctl restart docker
```
->注意:如果您之前查看旧教程,修改了 `docker.service` 文件内容,请去掉您添加的内容(`--registry-mirror=https://dockerhub.azk8s.cn`)。
+## Windows 10
-### Windows 10
+对于使用 `Windows 10` 的用户,在任务栏托盘 Docker 图标内右键菜单选择 `Settings`,打开配置窗口后在左侧导航菜单选择 `Docker Engine`,在右侧像下边一样编辑 json 文件,之后点击 `Apply & Restart` 保存后 Docker 就会重启并应用配置的镜像地址了。
-对于使用 Windows 10 的系统,在系统右下角托盘 Docker 图标内右键菜单选择 `Settings`,打开配置窗口后左侧导航菜单选择 `Daemon`。在 `Registry mirrors` 一栏中填写加速器地址 `https://dockerhub.azk8s.cn`,之后点击 `Apply` 保存后 Docker 就会重启并应用配置的镜像地址了。
+```json
+{
+ "registry-mirrors": [
+ "https://hub-mirror.c.163.com",
+ "https://mirror.baidubce.com"
+ ]
+}
+```
-### macOS
+## macOS
-对于使用 macOS 的用户,在任务栏点击 Docker Desktop 应用图标 -> Perferences... -> Daemon -> Registry mirrors。在列表中填写加速器地址 `https://dockerhub.azk8s.cn`。修改完成之后,点击 `Apply & Restart` 按钮,Docker 就会重启并应用配置的镜像地址了。
+对于使用 macOS 的用户,在任务栏点击 Docker Desktop 应用图标 -> `Perferences`,在左侧导航菜单选择 `Docker Engine`,在右侧像下边一样编辑 json 文件。修改完成之后,点击 `Apply & Restart` 按钮,Docker 就会重启并应用配置的镜像地址了。
-### 检查加速器是否生效
+```json
+{
+ "registry-mirrors": [
+ "https://hub-mirror.c.163.com",
+ "https://mirror.baidubce.com"
+ ]
+}
+```
+
+## 检查加速器是否生效
执行 `$ docker info`,如果从结果中看到了如下内容,说明配置成功。
```bash
Registry Mirrors:
- https://dockerhub.azk8s.cn/
+ https://hub-mirror.c.163.com/
```
-### gcr.io 镜像
+## `k8s.gcr.io` 镜像
-国内无法直接获取 `gcr.io/*` 镜像,我们可以将 `gcr.io//:` 替换为 `gcr.azk8s.cn//:` ,例如
+可以登录 [阿里云 容器镜像服务](https://www.aliyun.com/product/acr?source=5176.11533457&userCode=8lx5zmtu&type=copy) **镜像中心** -> **镜像搜索** 查找。
+
+例如 `k8s.gcr.io/coredns:1.6.7` 镜像可以用 `registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:1.6.7` 代替。
+
+一般情况下有如下对应关系:
```bash
-# $ docker pull gcr.io/google_containers/hyperkube-amd64:v1.9.2
+# $ docker pull k8s.gcr.io/xxx
-$ docker pull gcr.azk8s.cn/google_containers/hyperkube-amd64:v1.9.2
+$ docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/xxx
```
+
+## 不再提供服务的镜像
+
+某些镜像不再提供服务,添加无用的镜像加速器,会拖慢镜像拉取速度,你可以从镜像配置列表中删除它们。
+
+* https://dockerhub.azk8s.cn **已转为私有**
+* https://reg-mirror.qiniu.com
+* https://registry.docker-cn.com
+
+建议 **watch(页面右上角)** [镜像测试](https://github.com/docker-practice/docker-registry-cn-mirror-test) 这个 GitHub 仓库,我们会在此更新各个镜像地址的状态。
+
+## 云服务商
+
+某些云服务商提供了 **仅供内部** 访问的镜像服务,当您的 Docker 运行在云平台时可以选择它们。
+
+* [Azure 中国镜像 `https://dockerhub.azk8s.cn`](https://github.com/Azure/container-service-for-azure-china/blob/master/aks/README.md#22-container-registry-proxy)
+
+* [腾讯云 `https://mirror.ccs.tencentyun.com`](https://cloud.tencent.com/act/cps/redirect?redirect=10058&cps_key=3a5255852d5db99dcd5da4c72f05df61)
diff --git a/install/offline.md b/install/offline.md
new file mode 100644
index 000000000..d01e47629
--- /dev/null
+++ b/install/offline.md
@@ -0,0 +1,249 @@
+# 离线部署Docker
+
+[TOC]
+
+生产环境中一般都是没有公网资源的,本文介绍如何在生产服务器上离线部署`Docker`
+
+
+
+括号内的字母表示该操作需要在哪些服务器上执行
+
+
+
+## Centos7 离线安装Docker
+
+### YUM本地文件安装(推荐)
+
+推荐这种方式,是因为在生产环境种一般会选定某个指定的文档软件版本使用。
+
+#### 查询可用的软件版本(A)
+
+```bash
+#下载清华的镜像源文件
+wget -O /etc/yum.repos.d/docker-ce.repo https://download.docker.com/linux/centos/docker-ce.repo
+
+sudo sed -i 's+download.docker.com+mirrors.tuna.tsinghua.edu.cn/docker-ce+' /etc/yum.repos.d/docker-ce.repo
+
+yum update
+```
+
+```bash
+sudo yum list docker-ce --showduplicates|sort -r
+
+Loading mirror speeds from cached hostfile
+Loaded plugins: fastestmirror
+docker-ce.x86_64 3:19.03.8-3.el7 docker-ce-stable
+docker-ce.x86_64 3:19.03.7-3.el7 docker-ce-stable
+docker-ce.x86_64 3:19.03.6-3.el7 docker-ce-stable
+docker-ce.x86_64 3:19.03.5-3.el7 docker-ce-stable
+docker-ce.x86_64 3:19.03.4-3.el7 docker-ce-stable
+docker-ce.x86_64 3:19.03.3-3.el7 docker-ce-stable
+docker-ce.x86_64 3:19.03.2-3.el7 docker-ce-stable
+docker-ce.x86_64 3:19.03.1-3.el7 docker-ce-stable
+....
+```
+
+#### 下载到指定文件夹(A)
+
+```bash
+sudo yum install --downloadonly --downloaddir=/tmp/docker-19.03 docker-ce-19.03.8-3.el7 docker-ce-cli-19.03.8-3.el7
+```
+
+```bash
+Dependencies Resolved
+
+====================================================================================================================================================================================
+ Package Arch Version Repository Size
+====================================================================================================================================================================================
+Installing:
+ docker-ce x86_64 3:19.03.8-3.el7 docker 25 M
+Installing for dependencies:
+ container-selinux noarch 2:2.107-3.el7 extras 39 k
+ containerd.io x86_64 1.2.13-3.1.el7 docker 23 M
+ docker-ce-cli x86_64 1:19.03.8-3.el7 docker 40 M
+
+Transaction Summary
+====================================================================================================================================================================================
+Install 1 Package (+3 Dependent packages)
+
+Total download size: 87 M
+Installed size: 363 M
+Background downloading packages, then exiting:
+(1/4): container-selinux-2.107-3.el7.noarch.rpm | 39 kB 00:00:00
+(2/4): containerd.io-1.2.13-3.1.el7.x86_64.rpm | 23 MB 00:00:00
+(3/4): docker-ce-19.03.8-3.el7.x86_64.rpm | 25 MB 00:00:00
+(4/4): docker-ce-cli-19.03.8-3.el7.x86_64.rpm | 40 MB 00:00:00
+------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
+Total 118 MB/s | 87 MB 00:00:00
+exiting because "Download Only" specified
+```
+#### 复制到目标服务器之后进入文件夹安装(C-N)
+
+```bash
+yum install *.rpm
+```
+
+#### 锁定软件版本(C-N)
+
+##### 下载锁定版本软件
+可参考下文的网络源搭建
+```bash
+sudo yum install yum-plugin-versionlock
+```
+
+##### 锁定软件版本
+
+```bash
+sudo yum versionlock add docker
+```
+
+##### 查看锁定列表
+
+```bash
+sudo yum versionlock list
+```
+
+```bash
+Loaded plugins: fastestmirror, versionlock
+3:docker-ce-18.09.9-3.el7.*
+versionlock list done
+```
+
+##### 锁定后无法再更新
+
+```bash
+sudo yum install docker-ce
+Loaded plugins: fastestmirror, versionlock
+Loading mirror speeds from cached hostfile
+Excluding 1 update due to versionlock (use "yum versionlock status" to show it)
+Package 3:docker-ce-18.09.9-3.el7.x86_64 already installed and latest version
+Nothing to do
+```
+
+##### 解锁指定软件
+
+```bash
+sudo yum versionlock delete docker-ce
+```
+
+```bash
+Loaded plugins: fastestmirror, versionlock
+Deleting versionlock for: 3:docker-ce-18.09.9-3.el7.*
+versionlock deleted: 1
+```
+
+##### 解锁所有软件
+
+```bash
+sudo yum versionlock delete all
+```
+
+
+
+### YUM 本地源服务器搭建安装Docker
+
+#### 挂载 ISO 镜像搭建本地 File 源(AB)
+
+```bash
+# 删除其他网络源
+rm -f /etc/yum.repo.d/*
+# 挂载光盘或者iso镜像
+mount /dev/cdrom /mnt
+```
+
+```bash
+# 添加本地源
+cat >/etc/yum.repos.d/local_files.repo<< EOF
+[Local_Files]
+name=Local_Files
+baseurl=file:///mnt
+enable=1
+gpgcheck=0
+gpgkey=file:///mnt/RPM-GPG-KEY-CentOS-7
+EOF
+```
+
+```bash
+# 测试刚才的本地源,安装createrepo软件
+yum clean all
+yum install createrepo -y
+```
+
+
+
+#### 根据本地文件搭建BASE网络源(B)
+
+```bash
+# 安装apache 服务器
+yum install httpd -y
+# 挂载光盘
+mount /dev/cdrom /mnt
+# 新建centos目录
+mkdir /var/www/html/base
+# 复制光盘内的文件到刚才新建的目录
+cp -R /mnt/Packages/* /var/www/html/base/
+createrepo /var/www/html/centos/
+systemctl enable httpd
+systemctl start httpd
+```
+
+#### 下载Docker-CE 镜像仓库(A)
+
+在有网络的服务器上下载Docker-ce镜像
+
+```bash
+# 下载清华的镜像源文件
+wget -O /etc/yum.repos.d/docker-ce.repo https://download.docker.com/linux/centos/docker-ce.repo
+sudo sed -i 's+download.docker.com+mirrors.tuna.tsinghua.edu.cn/docker-ce+' /etc/yum.repos.d/docker-ce.repo
+```
+
+```bash
+# 新建 docker-ce目录
+mkdir /tmp/docker-ce/
+# 把镜像源同步到镜像文件中
+reposync -r docker-ce-stable -p /tmp/docker-ce/
+```
+
+#### 创建仓库索引(B)
+
+把下载的 docker-ce 文件夹复制到离线的服务器
+
+```bash
+# 把docker-ce 文件夹复制到/var/www/html/docker-ce
+# 重建索引
+createrepo /var/www/html/docker-ce/
+```
+
+#### YUM 客户端设置(C...N)
+
+```bash
+rm -f /etc/yum.repo.d/*
+cat >/etc/yum.repos.d/local_files.repo<< EOF
+[local_base]
+name=local_base
+# 改成B服务器地址
+baseurl=http://x.x.x.x/base
+enable=1
+gpgcheck=0
+proxy=_none_
+[docker_ce]
+name=docker_ce
+# 改成B服务器地址
+baseurl=http://x.x.x.x/base
+enable=1
+gpgcheck=0
+proxy=_none_
+EOF
+
+```
+
+#### Docker 安装(C...N)
+
+```bash
+sudo yum makecache fast
+sudo yum install docker-ce docker-ce-cli containerd.io
+sudo systemctl enable docker
+```
+
+
+
diff --git a/install/raspberry-pi.md b/install/raspberry-pi.md
index 4a15a035e..ccbd2c0e3 100644
--- a/install/raspberry-pi.md
+++ b/install/raspberry-pi.md
@@ -1,18 +1,18 @@
-## 树莓派卡片电脑安装 Docker CE
+# 树莓派卡片电脑安装 Docker
>警告:切勿在没有配置 Docker APT 源的情况下直接使用 apt 命令安装 Docker.
-### 系统要求
+## 系统要求
-Docker CE 不仅支持 `x86_64` 架构的计算机,同时也支持 `ARM` 架构的计算机,本小节内容以树莓派单片电脑为例讲解 `ARM` 架构安装 Docker CE。
+Docker 不仅支持 `x86_64` 架构的计算机,同时也支持 `ARM` 架构的计算机,本小节内容以树莓派单片电脑为例讲解 `ARM` 架构安装 Docker。
-Docker CE 支持以下版本的 [Raspbian](https://www.raspberrypi.org/downloads/raspbian/) 操作系统:
+Docker 支持以下版本的 [Raspberry Pi OS](https://www.raspberrypi.org/software/operating-systems/) 操作系统:
-* Raspbian Stretch
+* Raspberry Pi OS Buster
-*注:* `Raspbian` 是树莓派的开发与维护机构 [树莓派基金会](http://www.raspberrypi.org/) 推荐用于树莓派的首选系统,其基于 `Debian`。
+*注:* `Raspberry Pi OS` 由树莓派的开发与维护机构 [树莓派基金会](https://www.raspberrypi.org/) 官方支持,并推荐用作树莓派的首选系统,其基于 `Debian`。
-### 使用 APT 安装
+## 使用 APT 安装
由于 apt 源使用 HTTPS 以确保软件下载过程中不被篡改。因此,我们首先需要添加使用 HTTPS 传输的软件包以及 CA 证书。
@@ -33,18 +33,18 @@ $ sudo apt-get install \
为了确认所下载软件包的合法性,需要添加软件源的 GPG 密钥。
```bash
-$ curl -fsSL https://mirrors.ustc.edu.cn/docker-ce/linux/raspbian/gpg | sudo apt-key add -
+$ curl -fsSL https://mirrors.aliyun.com/docker-ce/linux/raspbian/gpg | sudo apt-key add -
# 官方源
# $ curl -fsSL https://download.docker.com/linux/raspbian/gpg | sudo apt-key add -
```
-然后,我们需要向 `source.list` 中添加 Docker CE 软件源:
+然后,我们需要向 `sources.list` 中添加 Docker 软件源:
```bash
$ sudo add-apt-repository \
- "deb [arch=armhf] https://mirrors.ustc.edu.cn/docker-ce/linux/raspbian \
+ "deb [arch=armhf] https://mirrors.aliyun.com/docker-ce/linux/raspbian \
$(lsb_release -cs) \
stable"
@@ -56,9 +56,9 @@ $ sudo add-apt-repository \
# stable"
```
->以上命令会添加稳定版本的 Docker CE APT 源,如果需要测试或每日构建版本的 Docker CE 请将 stable 改为 test 或者 nightly。
+>以上命令会添加稳定版本的 Docker APT 源,如果需要测试版本的 Docker 请将 stable 改为 test。
-#### 安装 Docker CE
+### 安装 Docker
更新 apt 软件包缓存,并安装 `docker-ce`。
@@ -68,25 +68,29 @@ $ sudo apt-get update
$ sudo apt-get install docker-ce
```
-### 使用脚本自动安装
+## 使用脚本自动安装
-在测试或开发环境中 Docker 官方为了简化安装流程,提供了一套便捷的安装脚本,Raspbian 系统上可以使用这套脚本安装:
+在测试或开发环境中 Docker 官方为了简化安装流程,提供了一套便捷的安装脚本,Raspberry Pi OS 系统上可以使用这套脚本安装,另外可以通过 `--mirror` 选项使用国内源进行安装:
+
+> 若你想安装测试版的 Docker, 请从 test.docker.com 获取脚本
```bash
+# $ curl -fsSL test.docker.com -o get-docker.sh
$ curl -fsSL get.docker.com -o get-docker.sh
$ sudo sh get-docker.sh --mirror Aliyun
+# $ sudo sh get-docker.sh --mirror AzureChinaCloud
```
-执行这个命令后,脚本就会自动的将一切准备工作做好,并且把 Docker CE 的 Edge 版本安装在系统中。
+执行这个命令后,脚本就会自动的将一切准备工作做好,并且把 Docker 的稳定(stable)版本安装在系统中。
-### 启动 Docker CE
+## 启动 Docker
```bash
$ sudo systemctl enable docker
$ sudo systemctl start docker
```
-### 建立 docker 用户组
+## 建立 docker 用户组
默认情况下,`docker` 命令会使用 [Unix socket](https://en.wikipedia.org/wiki/Unix_domain_socket) 与 Docker 引擎通讯。而只有 `root` 用户和 `docker` 组的用户才可以访问 Docker 引擎的 Unix socket。出于安全考虑,一般 Linux 系统上不会直接使用 `root` 用户。因此,更好地做法是将需要使用 `docker` 的用户加入 `docker` 用户组。
@@ -104,15 +108,15 @@ $ sudo usermod -aG docker $USER
退出当前终端并重新登录,进行如下测试。
-### 测试 Docker 是否安装正确
+## 测试 Docker 是否安装正确
```bash
-$ docker run arm32v7/hello-world
+$ docker run --rm hello-world
Unable to find image 'hello-world:latest' locally
latest: Pulling from library/hello-world
-d1725b59e92d: Pull complete
-Digest: sha256:0add3ace90ecb4adbf7777e9aacf18357296e799f81cabc9fde470971e499788
+4ee5c797bcd7: Pull complete
+Digest: sha256:308866a43596e83578c7dfa15e27a73011bdd402185a84c5cd7f32a88b501a24
Status: Downloaded newer image for hello-world:latest
Hello from Docker!
@@ -121,7 +125,7 @@ This message shows that your installation appears to be working correctly.
To generate this message, Docker took the following steps:
1. The Docker client contacted the Docker daemon.
2. The Docker daemon pulled the "hello-world" image from the Docker Hub.
- (amd64)
+ (arm32v7)
3. The Docker daemon created a new container from that image which runs the
executable that produces the output you are currently reading.
4. The Docker daemon streamed that output to the Docker client, which sent it
@@ -139,8 +143,8 @@ For more examples and ideas, visit:
若能正常输出以上信息,则说明安装成功。
-*注意:* ARM 平台不能使用 `x86` 镜像,查看 Raspbian 可使用镜像请访问 [arm32v7](https://hub.docker.com/u/arm32v7/)。
+*注意:* ARM 平台不能使用 `x86` 镜像,查看 Raspberry Pi OS 可使用镜像请访问 [arm32v7](https://hub.docker.com/u/arm32v7/) 或者 [arm64v8](https://hub.docker.com/u/arm64v8/)。
-### 镜像加速
+## 镜像加速
如果在使用过程中发现拉取 Docker 镜像十分缓慢,可以配置 Docker [国内镜像加速](mirror.md)。
diff --git a/install/ubuntu.md b/install/ubuntu.md
index ad6e20060..45d5cca06 100644
--- a/install/ubuntu.md
+++ b/install/ubuntu.md
@@ -1,21 +1,21 @@
-## Ubuntu 安装 Docker CE
+# Ubuntu 安装 Docker
>警告:切勿在没有配置 Docker APT 源的情况下直接使用 apt 命令安装 Docker.
-### 准备工作
+## 准备工作
-#### 系统要求
+### 系统要求
-Docker CE 支持以下版本的 [Ubuntu](https://www.ubuntu.com/server) 操作系统:
+Docker 支持以下版本的 [Ubuntu](https://ubuntu.com/server) 操作系统:
-* Disco 19.04
-* Cosmic 18.10
-* Bionic 18.04 (LTS)
-* Xenial 16.04 (LTS)
+* Ubuntu Hirsute 21.04
+* Ubuntu Groovy 20.10
+* Ubuntu Focal 20.04 (LTS)
+* Ubuntu Bionic 18.04 (LTS)
-Docker CE 可以安装在 64 位的 x86 平台或 ARM 平台上。Ubuntu 发行版中,LTS(Long-Term-Support)长期支持版本,会获得 5 年的升级维护支持,这样的版本会更稳定,因此在生产环境中推荐使用 LTS 版本。
+Docker 可以安装在 64 位的 x86 平台或 ARM 平台上。Ubuntu 发行版中,LTS(Long-Term-Support)长期支持版本,会获得 5 年的升级维护支持,这样的版本会更稳定,因此在生产环境中推荐使用 LTS 版本。
-#### 卸载旧版本
+### 卸载旧版本
旧版本的 Docker 称为 `docker` 或者 `docker-engine`,使用以下命令卸载旧版本:
@@ -25,7 +25,7 @@ $ sudo apt-get remove docker \
docker.io
```
-### 使用 APT 安装
+## 使用 APT 安装
由于 `apt` 源使用 HTTPS 以确保软件下载过程中不被篡改。因此,我们首先需要添加使用 HTTPS 传输的软件包以及 CA 证书。
@@ -36,7 +36,8 @@ $ sudo apt-get install \
apt-transport-https \
ca-certificates \
curl \
- software-properties-common
+ gnupg \
+ lsb-release
```
鉴于国内网络问题,强烈建议使用国内源,官方源请在注释中查看。
@@ -44,60 +45,62 @@ $ sudo apt-get install \
为了确认所下载软件包的合法性,需要添加软件源的 `GPG` 密钥。
```bash
-$ curl -fsSL https://mirrors.ustc.edu.cn/docker-ce/linux/ubuntu/gpg | sudo apt-key add -
+$ curl -fsSL https://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg
# 官方源
-# $ curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
+# $ curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg
```
-然后,我们需要向 `source.list` 中添加 Docker 软件源
+然后,我们需要向 `sources.list` 中添加 Docker 软件源
```bash
-$ sudo add-apt-repository \
- "deb [arch=amd64] https://mirrors.ustc.edu.cn/docker-ce/linux/ubuntu \
- $(lsb_release -cs) \
- stable"
+$ echo \
+ "deb [arch=amd64 signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://mirrors.aliyun.com/docker-ce/linux/ubuntu \
+ $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
# 官方源
-# $ sudo add-apt-repository \
-# "deb [arch=amd64] https://download.docker.com/linux/ubuntu \
-# $(lsb_release -cs) \
-# stable"
+# $ echo \
+# "deb [arch=amd64 signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu \
+# $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
```
->以上命令会添加稳定版本的 Docker CE APT 镜像源,如果需要测试或每日构建版本的 Docker CE 请将 stable 改为 test 或者 nightly。
+>以上命令会添加稳定版本的 Docker APT 镜像源,如果需要测试版本的 Docker 请将 stable 改为 test。
-#### 安装 Docker CE
+### 安装 Docker
更新 apt 软件包缓存,并安装 `docker-ce`:
```bash
$ sudo apt-get update
-$ sudo apt-get install docker-ce
+$ sudo apt-get install docker-ce docker-ce-cli containerd.io
```
-### 使用脚本自动安装
+## 使用脚本自动安装
-在测试或开发环境中 Docker 官方为了简化安装流程,提供了一套便捷的安装脚本,Ubuntu 系统上可以使用这套脚本安装:
+在测试或开发环境中 Docker 官方为了简化安装流程,提供了一套便捷的安装脚本,Ubuntu 系统上可以使用这套脚本安装,另外可以通过 `--mirror` 选项使用国内源进行安装:
+
+> 若你想安装测试版的 Docker, 请从 test.docker.com 获取脚本
```bash
+# $ curl -fsSL test.docker.com -o get-docker.sh
$ curl -fsSL get.docker.com -o get-docker.sh
$ sudo sh get-docker.sh --mirror Aliyun
+# $ sudo sh get-docker.sh --mirror AzureChinaCloud
```
-执行这个命令后,脚本就会自动的将一切准备工作做好,并且把 Docker CE 的 Edge 版本安装在系统中。
+执行这个命令后,脚本就会自动的将一切准备工作做好,并且把 Docker 的稳定(stable)版本安装在系统中。
-### 启动 Docker CE
+## 启动 Docker
```bash
$ sudo systemctl enable docker
$ sudo systemctl start docker
```
-### 建立 docker 用户组
+## 建立 docker 用户组
默认情况下,`docker` 命令会使用 [Unix socket](https://en.wikipedia.org/wiki/Unix_domain_socket) 与 Docker 引擎通讯。而只有 `root` 用户和 `docker` 组的用户才可以访问 Docker 引擎的 Unix socket。出于安全考虑,一般 Linux 系统上不会直接使用 `root` 用户。因此,更好地做法是将需要使用 `docker` 的用户加入 `docker` 用户组。
@@ -115,15 +118,15 @@ $ sudo usermod -aG docker $USER
退出当前终端并重新登录,进行如下测试。
-### 测试 Docker 是否安装正确
+## 测试 Docker 是否安装正确
```bash
-$ docker run hello-world
+$ docker run --rm hello-world
Unable to find image 'hello-world:latest' locally
latest: Pulling from library/hello-world
-d1725b59e92d: Pull complete
-Digest: sha256:0add3ace90ecb4adbf7777e9aacf18357296e799f81cabc9fde470971e499788
+b8dfde127a29: Pull complete
+Digest: sha256:308866a43596e83578c7dfa15e27a73011bdd402185a84c5cd7f32a88b501a24
Status: Downloaded newer image for hello-world:latest
Hello from Docker!
@@ -150,10 +153,10 @@ For more examples and ideas, visit:
若能正常输出以上信息,则说明安装成功。
-### 镜像加速
+## 镜像加速
如果在使用过程中发现拉取 Docker 镜像十分缓慢,可以配置 Docker [国内镜像加速](mirror.md)。
-### 参考文档
+## 参考文档
* [Docker 官方 Ubuntu 安装文档](https://docs.docker.com/install/linux/docker-ce/ubuntu/)
diff --git a/install/windows.md b/install/windows.md
index 2caa7601c..377877182 100644
--- a/install/windows.md
+++ b/install/windows.md
@@ -1,33 +1,46 @@
-## Windows 10 PC 安装 Docker Desktop CE
+# Windows 10 安装 Docker
-### 系统要求
+## 系统要求
-[Docker Desktop for Windows](https://docs.docker.com/docker-for-windows/install/) 支持 64 位版本的 Windows 10 Pro,且必须开启 Hyper-V。
+[Docker Desktop for Windows](https://docs.docker.com/docker-for-windows/install/) 支持 64 位版本的 Windows 10 Pro,且必须开启 Hyper-V(若版本为 v1903 及以上则无需开启 Hyper-V),或者 64 位版本的 Windows 10 Home v1903 及以上版本。
-### 安装
+## 安装
-点击以下链接下载 [Stable](https://download.docker.com/win/stable/Docker%20Desktop%20Installer.exe) 或 [Edge](https://download.docker.com/win/edge/Docker%20Desktop%20Installer.exe) 版本的 Docker Desktop for Windows。
+**手动下载安装**
+
+点击以下 [链接](https://desktop.docker.com/win/main/amd64/Docker%20Desktop%20Installer.exe) 下载 Docker Desktop for Windows。
下载好之后双击 `Docker Desktop Installer.exe` 开始安装。
-### 运行
+**使用 [winget](https://docs.microsoft.com/zh-cn/windows/package-manager/) 安装**
+
+```powershell
+$ winget install Docker.DockerDesktop
+```
+
+## 在 WSL2 运行 Docker
+
+若你的 Windows 版本为 Windows 10 专业版或家庭版 v1903 及以上版本可以使用 WSL2 运行 Docker,具体请查看 [Docker Desktop WSL 2 backend](https://docs.docker.com/docker-for-windows/wsl/)。
+
+## 运行
-在 Windows 搜索栏输入 Docker 点击 Docker for Windows 开始运行。
+在 Windows 搜索栏输入 **Docker** 点击 **Docker Desktop** 开始运行。
-![](_images/install-win-docker-app-search.png)
+![](./_images/install-win-docker-app-search.png)
-Docker CE 启动之后会在 Windows 任务栏出现鲸鱼图标。
+Docker 启动之后会在 Windows 任务栏出现鲸鱼图标。
-![](_images/install-win-taskbar-circle.png)
+![](./_images/install-win-taskbar-circle.png)
-等待片刻,点击 Got it 开始使用 Docker CE。
+等待片刻,当鲸鱼图标静止时,说明 Docker 启动成功,之后你可以打开 PowerShell 使用 Docker。
-![](_images/install-win-success-popup-cloud.png)
+> 推荐使用 [Windows Terminal](https://docs.microsoft.com/zh-cn/windows/terminal/get-started) 在终端使用 Docker。
-### 镜像加速
+## 镜像加速
如果在使用过程中发现拉取 Docker 镜像十分缓慢,可以配置 Docker [国内镜像加速](mirror.md)。
-### 参考链接
+## 参考链接
* [官方文档](https://docs.docker.com/docker-for-windows/install/)
+* [WSL 2 Support is coming to Windows 10 Versions 1903 and 1909](https://devblogs.microsoft.com/commandline/wsl-2-support-is-coming-to-windows-10-versions-1903-and-1909/)
diff --git a/introduction/README.md b/introduction/README.md
index 55f5dac92..61aec6ab7 100644
--- a/introduction/README.md
+++ b/introduction/README.md
@@ -1,7 +1,8 @@
# 简介
-本章将带领你进入 Docker 的世界。
-什么是 Docker?
+本章将带领你进入 **Docker** 的世界。
+
+什么是 **Docker**?
用它会带来什么样的好处?
diff --git a/introduction/what.md b/introduction/what.md
index 84060c501..534739fa7 100644
--- a/introduction/what.md
+++ b/introduction/what.md
@@ -1,10 +1,10 @@
-## 什么是 Docker
+# 什么是 Docker
-Docker 最初是 dotCloud 公司创始人 Solomon Hykes 在法国期间发起的一个公司内部项目,它是基于 dotCloud 公司多年云服务技术的一次革新,并于 [2013 年 3 月以 Apache 2.0 授权协议开源][docker-soft],主要项目代码在 [GitHub](https://github.com/moby/moby) 上进行维护。Docker 项目后来还加入了 Linux 基金会,并成立推动 [开放容器联盟(OCI)](https://www.opencontainers.org/)。
+**Docker** 最初是 `dotCloud` 公司创始人 [Solomon Hykes](https://github.com/shykes) 在法国期间发起的一个公司内部项目,它是基于 `dotCloud` 公司多年云服务技术的一次革新,并于 [2013 年 3 月以 Apache 2.0 授权协议开源][docker-soft],主要项目代码在 [GitHub](https://github.com/moby/moby) 上进行维护。`Docker` 项目后来还加入了 Linux 基金会,并成立推动 [开放容器联盟(OCI)](https://opencontainers.org/)。
-Docker 自开源后受到广泛的关注和讨论,至今其 [GitHub 项目](https://github.com/moby/moby) 已经超过 5 万 2 千个星标和一万多个 fork。甚至由于 Docker 项目的火爆,在 2013 年底,[dotCloud 公司决定改名为 Docker](https://blog.docker.com/2013/10/dotcloud-is-becoming-docker-inc/)。Docker 最初是在 Ubuntu 12.04 上开发实现的;Red Hat 则从 RHEL 6.5 开始对 Docker 进行支持;Google 也在其 PaaS 产品中广泛应用 Docker。
+**Docker** 自开源后受到广泛的关注和讨论,至今其 [GitHub 项目](https://github.com/moby/moby) 已经超过 5 万 7 千个星标和一万多个 `fork`。甚至由于 `Docker` 项目的火爆,在 `2013` 年底,[dotCloud 公司决定改名为 Docker](https://www.docker.com/blog/dotcloud-is-becoming-docker-inc/)。`Docker` 最初是在 `Ubuntu 12.04` 上开发实现的;`Red Hat` 则从 `RHEL 6.5` 开始对 `Docker` 进行支持;`Google` 也在其 `PaaS` 产品中广泛应用 `Docker`。
-Docker 使用 Google 公司推出的 [Go 语言](https://golang.org/) 进行开发实现,基于 Linux 内核的 [cgroup](https://zh.wikipedia.org/wiki/Cgroups),[namespace](https://en.wikipedia.org/wiki/Linux_namespaces),以及 [AUFS](https://en.wikipedia.org/wiki/Aufs) 类的 [Union FS](https://en.wikipedia.org/wiki/Union_mount) 等技术,对进程进行封装隔离,属于 [操作系统层面的虚拟化技术](https://en.wikipedia.org/wiki/Operating-system-level_virtualization)。由于隔离的进程独立于宿主和其它的隔离的进程,因此也称其为容器。最初实现是基于 [LXC](https://linuxcontainers.org/lxc/introduction/),从 0.7 版本以后开始去除 LXC,转而使用自行开发的 [libcontainer](https://github.com/docker/libcontainer),从 1.11 开始,则进一步演进为使用 [runC](https://github.com/opencontainers/runc) 和 [containerd](https://github.com/containerd/containerd)。
+**Docker** 使用 `Google` 公司推出的 [Go 语言](https://golang.google.cn/) 进行开发实现,基于 `Linux` 内核的 [cgroup](https://zh.wikipedia.org/wiki/Cgroups),[namespace](https://en.wikipedia.org/wiki/Linux_namespaces),以及 [OverlayFS](https://docs.docker.com/storage/storagedriver/overlayfs-driver/) 类的 [Union FS](https://en.wikipedia.org/wiki/Union_mount) 等技术,对进程进行封装隔离,属于 [操作系统层面的虚拟化技术](https://en.wikipedia.org/wiki/Operating-system-level_virtualization)。由于隔离的进程独立于宿主和其它的隔离的进程,因此也称其为容器。最初实现是基于 [LXC](https://linuxcontainers.org/lxc/introduction/),从 `0.7` 版本以后开始去除 `LXC`,转而使用自行开发的 [libcontainer](https://github.com/docker/libcontainer),从 `1.11` 版本开始,则进一步演进为使用 [runC](https://github.com/opencontainers/runc) 和 [containerd](https://github.com/containerd/containerd)。
![Docker 架构](https://docs.microsoft.com/en-us/virtualization/windowscontainers/deploy-containers/media/docker-on-linux.png)
@@ -12,12 +12,12 @@ Docker 使用 Google 公司推出的 [Go 语言](https://golang.org/) 进行开
> `containerd` 是一个守护程序,它管理容器生命周期,提供了在一个节点上执行容器和管理镜像的最小功能集。
-Docker 在容器的基础上,进行了进一步的封装,从文件系统、网络互联到进程隔离等等,极大的简化了容器的创建和维护。使得 Docker 技术比虚拟机技术更为轻便、快捷。
+**Docker** 在容器的基础上,进行了进一步的封装,从文件系统、网络互联到进程隔离等等,极大的简化了容器的创建和维护。使得 `Docker` 技术比虚拟机技术更为轻便、快捷。
-下面的图片比较了 Docker 和传统虚拟化方式的不同之处。传统虚拟机技术是虚拟出一套硬件后,在其上运行一个完整操作系统,在该系统上再运行所需应用进程;而容器内的应用进程直接运行于宿主的内核,容器内没有自己的内核,而且也没有进行硬件虚拟。因此容器要比传统虚拟机更为轻便。
+下面的图片比较了 **Docker** 和传统虚拟化方式的不同之处。传统虚拟机技术是虚拟出一套硬件后,在其上运行一个完整操作系统,在该系统上再运行所需应用进程;而容器内的应用进程直接运行于宿主的内核,容器内没有自己的内核,而且也没有进行硬件虚拟。因此容器要比传统虚拟机更为轻便。
-![传统虚拟化](_images/virtualization.png)
+![传统虚拟化](./_images/virtualization.png)
-![Docker](_images/docker.png)
+![Docker](./_images/docker.png)
[docker-soft]:https://en.wikipedia.org/wiki/Docker_(software)
diff --git a/introduction/why.md b/introduction/why.md
index 0f7ae0823..df6ce2c11 100644
--- a/introduction/why.md
+++ b/introduction/why.md
@@ -1,36 +1,36 @@
-## 为什么要使用 Docker?
+# 为什么要使用 Docker?
-作为一种新兴的虚拟化方式,Docker 跟传统的虚拟化方式相比具有众多的优势。
+作为一种新兴的虚拟化方式,`Docker` 跟传统的虚拟化方式相比具有众多的优势。
-### 更高效的利用系统资源
+## 更高效的利用系统资源
-由于容器不需要进行硬件虚拟以及运行完整操作系统等额外开销,Docker 对系统资源的利用率更高。无论是应用执行速度、内存损耗或者文件存储速度,都要比传统虚拟机技术更高效。因此,相比虚拟机技术,一个相同配置的主机,往往可以运行更多数量的应用。
+由于容器不需要进行硬件虚拟以及运行完整操作系统等额外开销,`Docker` 对系统资源的利用率更高。无论是应用执行速度、内存损耗或者文件存储速度,都要比传统虚拟机技术更高效。因此,相比虚拟机技术,一个相同配置的主机,往往可以运行更多数量的应用。
-### 更快速的启动时间
+## 更快速的启动时间
-传统的虚拟机技术启动应用服务往往需要数分钟,而 Docker 容器应用,由于直接运行于宿主内核,无需启动完整的操作系统,因此可以做到秒级、甚至毫秒级的启动时间。大大的节约了开发、测试、部署的时间。
+传统的虚拟机技术启动应用服务往往需要数分钟,而 `Docker` 容器应用,由于直接运行于宿主内核,无需启动完整的操作系统,因此可以做到秒级、甚至毫秒级的启动时间。大大的节约了开发、测试、部署的时间。
-### 一致的运行环境
+## 一致的运行环境
-开发过程中一个常见的问题是环境一致性问题。由于开发环境、测试环境、生产环境不一致,导致有些 bug 并未在开发过程中被发现。而 Docker 的镜像提供了除内核外完整的运行时环境,确保了应用运行环境一致性,从而不会再出现 *「这段代码在我机器上没问题啊」* 这类问题。
+开发过程中一个常见的问题是环境一致性问题。由于开发环境、测试环境、生产环境不一致,导致有些 bug 并未在开发过程中被发现。而 `Docker` 的镜像提供了除内核外完整的运行时环境,确保了应用运行环境一致性,从而不会再出现 *「这段代码在我机器上没问题啊」* 这类问题。
-### 持续交付和部署
+## 持续交付和部署
对开发和运维([DevOps](https://zh.wikipedia.org/wiki/DevOps))人员来说,最希望的就是一次创建或配置,可以在任意地方正常运行。
-使用 Docker 可以通过定制应用镜像来实现持续集成、持续交付、部署。开发人员可以通过 [Dockerfile](../image/dockerfile/) 来进行镜像构建,并结合 [持续集成(Continuous Integration)](https://en.wikipedia.org/wiki/Continuous_integration) 系统进行集成测试,而运维人员则可以直接在生产环境中快速部署该镜像,甚至结合 [持续部署(Continuous Delivery/Deployment)](https://en.wikipedia.org/wiki/Continuous_delivery) 系统进行自动部署。
+使用 `Docker` 可以通过定制应用镜像来实现持续集成、持续交付、部署。开发人员可以通过 [Dockerfile](../image/dockerfile/) 来进行镜像构建,并结合 [持续集成(Continuous Integration)](https://en.wikipedia.org/wiki/Continuous_integration) 系统进行集成测试,而运维人员则可以直接在生产环境中快速部署该镜像,甚至结合 [持续部署(Continuous Delivery/Deployment)](https://en.wikipedia.org/wiki/Continuous_delivery) 系统进行自动部署。
-而且使用 `Dockerfile` 使镜像构建透明化,不仅仅开发团队可以理解应用运行环境,也方便运维团队理解应用运行所需条件,帮助更好的生产环境中部署该镜像。
+而且使用 [`Dockerfile`](../image/build.md) 使镜像构建透明化,不仅仅开发团队可以理解应用运行环境,也方便运维团队理解应用运行所需条件,帮助更好的生产环境中部署该镜像。
-### 更轻松的迁移
+## 更轻松的迁移
-由于 Docker 确保了执行环境的一致性,使得应用的迁移更加容易。Docker 可以在很多平台上运行,无论是物理机、虚拟机、公有云、私有云,甚至是笔记本,其运行结果是一致的。因此用户可以很轻易的将在一个平台上运行的应用,迁移到另一个平台上,而不用担心运行环境的变化导致应用无法正常运行的情况。
+由于 `Docker` 确保了执行环境的一致性,使得应用的迁移更加容易。`Docker` 可以在很多平台上运行,无论是物理机、虚拟机、公有云、私有云,甚至是笔记本,其运行结果是一致的。因此用户可以很轻易的将在一个平台上运行的应用,迁移到另一个平台上,而不用担心运行环境的变化导致应用无法正常运行的情况。
-### 更轻松的维护和扩展
+## 更轻松的维护和扩展
-Docker 使用的分层存储以及镜像的技术,使得应用重复部分的复用更为容易,也使得应用的维护更新更加简单,基于基础镜像进一步扩展镜像也变得非常简单。此外,Docker 团队同各个开源项目团队一起维护了一大批高质量的 [官方镜像](https://hub.docker.com/search/?type=image&image_filter=official),既可以直接在生产环境使用,又可以作为基础进一步定制,大大的降低了应用服务的镜像制作成本。
+`Docker` 使用的分层存储以及镜像的技术,使得应用重复部分的复用更为容易,也使得应用的维护更新更加简单,基于基础镜像进一步扩展镜像也变得非常简单。此外,`Docker` 团队同各个开源项目团队一起维护了一大批高质量的 [官方镜像](https://hub.docker.com/search/?type=image&image_filter=official),既可以直接在生产环境使用,又可以作为基础进一步定制,大大的降低了应用服务的镜像制作成本。
-### 对比传统虚拟机总结
+## 对比传统虚拟机总结
| 特性 | 容器 | 虚拟机 |
| :-------- | :-------- | :---------- |
diff --git a/kubernetes/qdvanced.md b/kubernetes/advanced.md
similarity index 100%
rename from kubernetes/qdvanced.md
rename to kubernetes/advanced.md
diff --git a/kubernetes/concepts.md b/kubernetes/concepts.md
index ab3185b3b..402d0d41d 100644
--- a/kubernetes/concepts.md
+++ b/kubernetes/concepts.md
@@ -1,6 +1,6 @@
# 基本概念
-![](_images/kubernetes_design.jpg)
+![](./_images/kubernetes_design.jpg)
* 节点(`Node`):一个节点是一个运行 Kubernetes 中的主机。
* 容器组(`Pod`):一个 Pod 对应于由若干容器组成的一个容器组,同个组内的容器共享一个存储卷(volume)。
@@ -11,10 +11,10 @@
* 标签(`labels`):标签是用来连接一组对象的,比如容器组。标签可以被用来组织和选择子对象。
* 接口权限(`accessing_the_api`):端口,IP 地址和代理的防火墙规则。
* web 界面(`ux`):用户可以通过 web 界面操作 Kubernetes。
-* 命令行操作(`cli`):`kubecfg`命令。
-
+* 命令行操作(`cli`):`kubectl`命令。
## 节点
+
在 `Kubernetes` 中,节点是实际工作的点,节点可以是虚拟机或者物理机器,依赖于一个集群环境。每个节点都有一些必要的服务以运行容器组,并且它们都可以通过主节点来管理。必要服务包括 Docker,kubelet 和代理服务。
### 容器状态
@@ -62,7 +62,7 @@ Kubernetes 校验节点可用依赖于 ID。在当前的版本中,有两个接
* 集群范围内节点同步
* 单节点生命周期管理
-节点控制有一个同步轮寻,主要监听所有云平台的虚拟实例,会根据节点状态创建和删除。可以通过 `--node_sync_period`标志来控制该轮寻。如果一个实例已经创建,节点控制将会为其创建一个结构。同样的,如果一个节点被删除,节点控制也会删除该结构。在 Kubernetes 启动时可用通过 `--machines`标记来显示指定节点。同样可以使用 `kubectl` 来一条一条的添加节点,两者是相同的。通过设置 `--sync_nodes=false`标记来禁止集群之间的节点同步,你也可以使用 api/kubectl 命令行来增删节点。
+节点控制有一个同步轮询,主要监听所有云平台的虚拟实例,会根据节点状态创建和删除。可以通过 `--node_sync_period`标志来控制该轮询。如果一个实例已经创建,节点控制将会为其创建一个结构。同样的,如果一个节点被删除,节点控制也会删除该结构。在 Kubernetes 启动时可用通过 `--machines`标记来显示指定节点。同样可以使用 `kubectl` 来一条一条的添加节点,两者是相同的。通过设置 `--sync_nodes=false`标记来禁止集群之间的节点同步,你也可以使用 api/kubectl 命令行来增删节点。
## 容器组
@@ -83,11 +83,11 @@ Kubernetes 校验节点可用依赖于 ID。在当前的版本中,有两个接
### 容器组管理
-容器组是一个运用管理和部署的高层次抽象,同时也是一组容器的接口。容器组是部署、水平放缩的最小单位。
+容器组是一个应用管理和部署的高层次抽象,同时也是一组容器的接口。容器组是部署、水平放缩的最小单位。
### 容器组的使用
-容器组可以通过组合来构建复杂的运用,其本来的意义包含:
+容器组可以通过组合来构建复杂的应用,其本来的意义包含:
* 内容管理,文件和数据加载以及本地缓存管理等。
* 日志和检查点备份,压缩,快照等。
@@ -101,7 +101,7 @@ Kubernetes 校验节点可用依赖于 ID。在当前的版本中,有两个接
* 1.透明化。为了使容器组中的容器保持一致的基础设施和服务,比如进程管理和资源监控。这样设计是为了用户的便利性。
* 2.解偶软件之间的依赖。每个容器都可能重新构建和发布,Kubernetes 必须支持热发布和热更新(将来)。
-* 3.方便使用。用户不必运行独立的程序管理,也不用担心每个运用程序的退出状态。
+* 3.方便使用。用户不必运行独立的程序管理,也不用担心每个应用程序的退出状态。
* 4.高效。考虑到基础设施有更多的职责,容器必须要轻量化。
### 容器组的生命状态
diff --git a/kubernetes/design.md b/kubernetes/design.md
index 804402ab3..70bec9c3c 100644
--- a/kubernetes/design.md
+++ b/kubernetes/design.md
@@ -13,7 +13,7 @@
下面这张图完整展示了 Kubernetes 的运行原理。
-![Kubernetes 架构](_images/k8s_architecture.png)
+![Kubernetes 架构](./_images/k8s_architecture.png)
可见,Kubernetes 首先是一套分布式系统,由多个节点组成,节点分为两类:一类是属于管理平面的主节点/控制节点(Master Node);一类是属于运行平面的工作节点(Worker Node)。
@@ -26,7 +26,7 @@
主节点上需要提供如下的管理服务:
-* `apiserver` 是整个系统的对外接口,提供一套 RESTful 的 [Kubernetes API](https://github.com/kubernetes/kubernetes/tree/master/docs/api-reference),供客户端和其它组件调用;
+* `apiserver` 是整个系统的对外接口,提供一套 RESTful 的 [Kubernetes API](https://kubernetes.io/zh/docs/concepts/overview/kubernetes-api/),供客户端和其它组件调用;
* `scheduler` 负责对资源进行调度,分配某个 pod 到某个节点上。是 pluggable 的,意味着很容易选择其它实现方式;
* `controller-manager` 负责管理控制器,包括 endpoint-controller(刷新服务和 pod 的关联信息)和 replication-controller(维护某个 pod 的复制为配置的数值)。
@@ -41,4 +41,4 @@
* kubelet 是工作节点执行操作的 agent,负责具体的容器生命周期管理,根据从数据库中获取的信息来管理容器,并上报 pod 运行状态等;
* kube-proxy 是一个简单的网络访问代理,同时也是一个 Load Balancer。它负责将访问到某个服务的请求具体分配给工作节点上的 Pod(同一类标签)。
-![Proxy 代理对服务的请求](_images/kube-proxy.png)
+![Proxy 代理对服务的请求](./_images/kube-proxy.png)
diff --git a/kubernetes/intro.md b/kubernetes/intro.md
index 5666fc997..b80bd6b40 100644
--- a/kubernetes/intro.md
+++ b/kubernetes/intro.md
@@ -1,8 +1,8 @@
# 项目简介
-![](_images/kubernetes_logo.png)
+![](./_images/kubernetes_logo.png)
-Kubernetes 是 Google 团队发起的开源项目,它的目标是管理跨多个主机的容器,提供基本的部署,维护以及运用伸缩,主要实现语言为 Go 语言。Kubernetes 是:
+Kubernetes 是 Google 团队发起的开源项目,它的目标是管理跨多个主机的容器,提供基本的部署,维护以及应用伸缩,主要实现语言为 Go 语言。Kubernetes 是:
* 易学:轻量级,简单,容易理解
* 便携:支持公有云,私有云,混合云,以及多种云平台
diff --git a/kubernetes/kubectl.md b/kubernetes/kubectl/README.md
similarity index 99%
rename from kubernetes/kubectl.md
rename to kubernetes/kubectl/README.md
index 5fd34079e..19e16a9ff 100644
--- a/kubernetes/kubectl.md
+++ b/kubernetes/kubectl/README.md
@@ -1,4 +1,5 @@
# kubectl 使用
+
[kubectl](https://github.com/kubernetes/kubernetes) 是 Kubernetes 自带的客户端,可以用它来直接操作 Kubernetes。
使用格式有两种:
diff --git a/kubernetes/quickstart.md b/kubernetes/quickstart.md
deleted file mode 100644
index a68f2fd44..000000000
--- a/kubernetes/quickstart.md
+++ /dev/null
@@ -1,91 +0,0 @@
-# 快速上手
-
-目前,Kubernetes 支持在多种环境下的安装,包括本地主机(Fedora)、云服务(Google GAE、AWS 等)。然而最快速体验 Kubernetes 的方式显然是本地通过 Docker 的方式来启动相关进程。
-
-下图展示了在单节点使用 Docker 快速部署一套 Kubernetes 的拓扑。
-
-![在 Docker 中启动 Kubernetes](_images/k8s-singlenode-docker.png)
-
-Kubernetes 依赖 Etcd 服务来维护所有主节点的状态。
-
-## 启动 Etcd 服务。
-
-```bash
-docker run --net=host -d gcr.io/google_containers/etcd:2.0.9 /usr/local/bin/etcd --addr=127.0.0.1:4001 --bind-addr=0.0.0.0:4001 --data-dir=/var/etcd/data
-```
-
-## 启动主节点
-
-启动 kubelet。
-
-```bash
-docker run --net=host -d -v /var/run/docker.sock:/var/run/docker.sock gcr.io/google_containers/hyperkube:v0.17.0 /hyperkube kubelet --api_servers=http://localhost:8080 --v=2 --address=0.0.0.0 --enable_server --hostname_override=127.0.0.1 --config=/etc/kubernetes/manifests
-```
-
-## 启动服务代理
-
-```bash
-docker run -d --net=host --privileged gcr.io/google_containers/hyperkube:v0.17.0 /hyperkube proxy --master=http://127.0.0.1:8080 --v=2
-```
-
-## 测试状态
-
-在本地访问 `8080` 端口,可以获取到如下的结果:
-
-```bash
-$ curl 127.0.0.1:8080
-{
- "paths": [
- "/api",
- "/api/v1beta1",
- "/api/v1beta2",
- "/api/v1beta3",
- "/healthz",
- "/healthz/ping",
- "/logs/",
- "/metrics",
- "/static/",
- "/swagger-ui/",
- "/swaggerapi/",
- "/validate",
- "/version"
- ]
-}
-```
-
-## 查看服务
-
-所有服务启动后,查看本地实际运行的 Docker 容器,有如下几个。
-
-```bash
-CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
-ee054db2516c gcr.io/google_containers/hyperkube:v0.17.0 "/hyperkube schedule 2 days ago Up 1 days k8s_scheduler.509f29c9_k8s-master-127.0.0.1_default_9941e5170b4365bd4aa91f122ba0c061_e97037f5
-3b0f28de07a2 gcr.io/google_containers/hyperkube:v0.17.0 "/hyperkube apiserve 2 days ago Up 1 days k8s_apiserver.245e44fa_k8s-master-127.0.0.1_default_9941e5170b4365bd4aa91f122ba0c061_6ab5c23d
-2eaa44ecdd8e gcr.io/google_containers/hyperkube:v0.17.0 "/hyperkube controll 2 days ago Up 1 days k8s_controller-manager.33f83d43_k8s-master-127.0.0.1_default_9941e5170b4365bd4aa91f122ba0c061_1a60106f
-30aa7163cbef gcr.io/google_containers/hyperkube:v0.17.0 "/hyperkube proxy -- 2 days ago Up 1 days jolly_davinci
-a2f282976d91 gcr.io/google_containers/pause:0.8.0 "/pause" 2 days ago Up 2 days k8s_POD.e4cc795_k8s-master-127.0.0.1_default_9941e5170b4365bd4aa91f122ba0c061_e8085b1f
-c060c52acc36 gcr.io/google_containers/hyperkube:v0.17.0 "/hyperkube kubelet 2 days ago Up 1 days serene_nobel
-cc3cd263c581 gcr.io/google_containers/etcd:2.0.9 "/usr/local/bin/etcd 2 days ago Up 1 days happy_turing
-```
-
-这些服务大概分为三类:主节点服务、工作节点服务和其它服务。
-
-### 主节点服务
-
-* `apiserver` 是整个系统的对外接口,提供 RESTful 方式供客户端和其它组件调用;
-
-* `scheduler` 负责对资源进行调度,分配某个 pod 到某个节点上;
-
-* `controller-manager` 负责管理控制器,包括 endpoint-controller(刷新服务和 pod 的关联信息)和 replication-controller(维护某个 pod 的复制为配置的数值)。
-
-### 工作节点服务
-
-* `kubelet` 是工作节点执行操作的 agent,负责具体的容器生命周期管理,根据从数据库中获取的信息来管理容器,并上报 pod 运行状态等;
-
-* `proxy` 为 pod 上的服务提供访问的代理。
-
-### 其它服务
-
-* Etcd 是所有状态的存储数据库;
-
-* `gcr.io/google_containers/pause:0.8.0` 是 Kubernetes 启动后自动 pull 下来的测试镜像。
diff --git a/kubernetes/setup/README.md b/kubernetes/setup/README.md
new file mode 100644
index 000000000..4275d0da1
--- /dev/null
+++ b/kubernetes/setup/README.md
@@ -0,0 +1,11 @@
+# 部署 Kubernetes
+
+目前,Kubernetes 支持在多种环境下使用,包括本地主机(Ubuntu、Debian、CentOS、Fedora 等)、云服务([腾讯云](https://cloud.tencent.com/act/cps/redirect?redirect=10058&cps_key=3a5255852d5db99dcd5da4c72f05df61)、[阿里云](https://www.aliyun.com/product/kubernetes?source=5176.11533457&userCode=8lx5zmtu&type=copy)、[百度云](https://cloud.baidu.com/product/cce.html) 等)。
+
+你可以使用以下几种方式部署 Kubernetes:
+
+* kubeadm
+* docker-desktop
+* k3s
+
+接下来的小节会对以上几种方式进行详细介绍。
diff --git a/kubernetes/setup/dashboard.md b/kubernetes/setup/dashboard.md
new file mode 100644
index 000000000..0c51b1cc7
--- /dev/null
+++ b/kubernetes/setup/dashboard.md
@@ -0,0 +1,45 @@
+# Kubernetes Dashboard
+
+[Kubernetes Dashboard](https://github.com/kubernetes/dashboard) 是基于网页的 Kubernetes 用户界面。
+
+![](https://d33wubrfki0l68.cloudfront.net/349824f68836152722dab89465835e604719caea/6e0b7/images/docs/ui-dashboard.png)
+
+## 部署
+
+执行以下命令即可部署 Dashboard:
+
+```bash
+kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.0/aio/deploy/recommended.yaml
+```
+
+## 访问
+
+通过命令行代理访问,执行以下命令:
+
+```bash
+$ kubectl proxy
+```
+
+到 http://localhost:8001/api/v1/namespaces/kubernetes-dashboard/services/https:kubernetes-dashboard:/proxy/ 即可访问。
+
+## 登录
+
+目前,Dashboard 仅支持使用 Bearer 令牌登录。下面教大家如何创建该令牌:
+
+```bash
+$ kubectl create sa dashboard-admin -n kube-system
+
+$ kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin
+
+$ ADMIN_SECRET=$(kubectl get secrets -n kube-system | grep dashboard-admin | awk '{print $1}')
+
+$ DASHBOARD_LOGIN_TOKEN=$(kubectl describe secret -n kube-system ${ADMIN_SECRET} | grep -E '^token' | awk '{print $2}')
+
+echo ${DASHBOARD_LOGIN_TOKEN}
+```
+
+将结果粘贴到登录页面,即可登录。
+
+## 参考文档
+
+* [官方文档](https://kubernetes.io/zh/docs/tasks/access-application-cluster/web-ui-dashboard/)
diff --git a/kubernetes/setup/docker-desktop.md b/kubernetes/setup/docker-desktop.md
new file mode 100644
index 000000000..a26c50ae8
--- /dev/null
+++ b/kubernetes/setup/docker-desktop.md
@@ -0,0 +1,21 @@
+# Docker Desktop 启用 Kubernetes
+
+使用 Docker Desktop 可以很方便的启用 Kubernetes,由于国内获取不到 `k8s.gcr.io` 镜像,我们必须首先解决这一问题。
+
+## 获取 `k8s.gcr.io` 镜像
+
+由于国内拉取不到 `k8s.gcr.io` 镜像,我们可以使用开源项目 [AliyunContainerService/k8s-for-docker-desktop](https://github.com/AliyunContainerService/k8s-for-docker-desktop) 来获取所需的镜像。
+
+## 启用 Kubernetes
+
+在 Docker Desktop 设置页面,点击 `Kubernetes`,选择 `Enable Kubernetes`,稍等片刻,看到左下方 `Kubernetes` 变为 `running`,Kubernetes 启动成功。
+
+![](https://github.com/AliyunContainerService/k8s-for-docker-desktop/raw/master/images/k8s.png)
+
+## 测试
+
+```bash
+$ kubectl version
+```
+
+如果正常输出信息,则证明 Kubernetes 成功启动。
diff --git a/kubernetes/setup/k3s.md b/kubernetes/setup/k3s.md
new file mode 100644
index 000000000..e69de29bb
diff --git a/kubernetes/setup/kind.md b/kubernetes/setup/kind.md
new file mode 100644
index 000000000..e69de29bb
diff --git a/kubernetes/setup/kubeadm-docker.md b/kubernetes/setup/kubeadm-docker.md
new file mode 100644
index 000000000..9f5b0a222
--- /dev/null
+++ b/kubernetes/setup/kubeadm-docker.md
@@ -0,0 +1,187 @@
+# 使用 kubeadm 部署 kubernetes(使用 Docker)
+
+`kubeadm` 提供了 `kubeadm init` 以及 `kubeadm join` 这两个命令作为快速创建 `kubernetes` 集群的最佳实践。
+
+## 安装 Docker
+
+参考 [安装 Docker](../../install) 一节安装 Docker。
+
+## 安装 **kubelet** **kubeadm** **kubectl**
+
+### Ubuntu/Debian
+
+```bash
+$ apt-get update && apt-get install -y apt-transport-https
+$ curl https://mirrors.aliyun.com/kubernetes/apt/doc/apt-key.gpg | apt-key add -
+
+$ cat < 执行可能出现错误,例如缺少依赖包,根据提示安装即可。
+
+执行成功会输出
+
+```bash
+...
+[addons] Applied essential addon: CoreDNS
+I1116 12:35:13.270407 86677 request.go:538] Throttling request took 181.409184ms, request: POST:https://192.168.199.100:6443/api/v1/namespaces/kube-system/serviceaccounts
+I1116 12:35:13.470292 86677 request.go:538] Throttling request took 186.088112ms, request: POST:https://192.168.199.100:6443/api/v1/namespaces/kube-system/configmaps
+[addons] Applied essential addon: kube-proxy
+
+Your Kubernetes control-plane has initialized successfully!
+
+To start using your cluster, you need to run the following as a regular user:
+
+ mkdir -p $HOME/.kube
+ sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
+ sudo chown $(id -u):$(id -g) $HOME/.kube/config
+
+You should now deploy a pod network to the cluster.
+Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
+ https://kubernetes.io/docs/concepts/cluster-administration/addons/
+
+Then you can join any number of worker nodes by running the following on each as root:
+
+kubeadm join 192.168.199.100:6443 --token cz81zt.orsy9gm9v649e5lf \
+ --discovery-token-ca-cert-hash sha256:5edb316fd0d8ea2792cba15cdf1c899a366f147aa03cba52d4e5c5884ad836fe
+```
+
+### node 工作节点
+
+在 **另一主机** 重复 **部署** 小节以前的步骤,安装配置好 kubelet。根据提示,加入到集群。
+
+```bash
+$ kubeadm join 192.168.199.100:6443 --token cz81zt.orsy9gm9v649e5lf \
+ --discovery-token-ca-cert-hash sha256:5edb316fd0d8ea2792cba15cdf1c899a366f147aa03cba52d4e5c5884ad836fe
+```
+
+## 查看服务
+
+所有服务启动后,查看本地实际运行的 Docker 容器。这些服务大概分为三类:主节点服务、工作节点服务和其它服务。
+
+### 主节点服务
+
+* `apiserver` 是整个系统的对外接口,提供 RESTful 方式供客户端和其它组件调用;
+
+* `scheduler` 负责对资源进行调度,分配某个 pod 到某个节点上;
+
+* `controller-manager` 负责管理控制器,包括 endpoint-controller(刷新服务和 pod 的关联信息)和 replication-controller(维护某个 pod 的复制为配置的数值)。
+
+### 工作节点服务
+
+* `proxy` 为 pod 上的服务提供访问的代理。
+
+### 其它服务
+
+* Etcd 是所有状态的存储数据库;
+
+## 使用
+
+将 `/etc/kubernetes/admin.conf` 复制到 `~/.kube/config`
+
+执行 `$ kubectl get all -A` 查看启动的服务。
+
+由于未部署 CNI 插件,CoreDNS 未正常启动。如何使用 Kubernetes,请参考后续章节。
+
+## 部署 CNI
+
+这里以 `flannel` 为例进行介绍。
+
+### flannel
+
+检查 podCIDR 设置
+
+```bash
+$ kubectl get node -o yaml | grep CIDR
+
+# 输出
+ podCIDR: 10.244.0.0/16
+ podCIDRs:
+```
+
+```bash
+$ kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/v0.11.0/Documentation/kube-flannel.yml
+```
+
+## master 节点默认不能运行 pod
+
+如果用 `kubeadm` 部署一个单节点集群,默认情况下无法使用,请执行以下命令解除限制
+
+```bash
+$ kubectl taint nodes --all node-role.kubernetes.io/master-
+
+# 恢复默认值
+# $ kubectl taint nodes NODE_NAME node-role.kubernetes.io/master=true:NoSchedule
+```
+
+## 参考文档
+
+* [官方文档](https://kubernetes.io/zh/docs/setup/production-environment/tools/kubeadm/install-kubeadm/)
diff --git a/kubernetes/setup/kubeadm.md b/kubernetes/setup/kubeadm.md
new file mode 100644
index 000000000..6176d6ce6
--- /dev/null
+++ b/kubernetes/setup/kubeadm.md
@@ -0,0 +1,397 @@
+# 使用 kubeadm 部署 kubernetes(CRI 使用 containerd)
+
+`kubeadm` 提供了 `kubeadm init` 以及 `kubeadm join` 这两个命令作为快速创建 `kubernetes` 集群的最佳实践。
+
+## 安装 containerd
+
+参考 [安装 Docker](../../install) 一节添加 apt/yum 源,之后执行如下命令。
+
+```bash
+# debian 系
+$ sudo apt install containerd.io
+
+# rhel 系
+$ sudo yum install containerd.io
+```
+
+## 配置 containerd
+
+新建 `/etc/systemd/system/cri-containerd.service` 文件
+
+```
+[Unit]
+Description=containerd container runtime for kubernetes
+Documentation=https://containerd.io
+After=network.target local-fs.target
+
+[Service]
+ExecStartPre=-/sbin/modprobe overlay
+ExecStart=/usr/bin/containerd --config //etc/cri-containerd/config.toml
+
+Type=notify
+Delegate=yes
+KillMode=process
+Restart=always
+RestartSec=5
+# Having non-zero Limit*s causes performance problems due to accounting overhead
+# in the kernel. We recommend using cgroups to do container-local accounting.
+LimitNPROC=infinity
+LimitCORE=infinity
+LimitNOFILE=infinity
+# Comment TasksMax if your systemd version does not supports it.
+# Only systemd 226 and above support this version.
+TasksMax=infinity
+OOMScoreAdjust=-999
+
+[Install]
+WantedBy=multi-user.target
+```
+
+新建 `/etc/cri-containerd/config.toml` containerd 配置文件
+
+```toml
+version = 2
+# persistent data location
+root = "/var/lib/cri-containerd"
+# runtime state information
+state = "/run/cri-containerd"
+plugin_dir = ""
+disabled_plugins = []
+required_plugins = []
+# set containerd's OOM score
+oom_score = 0
+
+[grpc]
+ address = "/run/cri-containerd/cri-containerd.sock"
+ tcp_address = ""
+ tcp_tls_cert = ""
+ tcp_tls_key = ""
+ # socket uid
+ uid = 0
+ # socket gid
+ gid = 0
+ max_recv_message_size = 16777216
+ max_send_message_size = 16777216
+
+[debug]
+ address = ""
+ format = "json"
+ uid = 0
+ gid = 0
+ level = ""
+
+[metrics]
+ address = "127.0.0.1:1338"
+ grpc_histogram = false
+
+[cgroup]
+ path = ""
+
+[timeouts]
+ "io.containerd.timeout.shim.cleanup" = "5s"
+ "io.containerd.timeout.shim.load" = "5s"
+ "io.containerd.timeout.shim.shutdown" = "3s"
+ "io.containerd.timeout.task.state" = "2s"
+
+[plugins]
+ [plugins."io.containerd.gc.v1.scheduler"]
+ pause_threshold = 0.02
+ deletion_threshold = 0
+ mutation_threshold = 100
+ schedule_delay = "0s"
+ startup_delay = "100ms"
+ [plugins."io.containerd.grpc.v1.cri"]
+ disable_tcp_service = true
+ stream_server_address = "127.0.0.1"
+ stream_server_port = "0"
+ stream_idle_timeout = "4h0m0s"
+ enable_selinux = false
+ selinux_category_range = 1024
+ sandbox_image = "registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.5"
+ stats_collect_period = 10
+ # systemd_cgroup = false
+ enable_tls_streaming = false
+ max_container_log_line_size = 16384
+ disable_cgroup = false
+ disable_apparmor = false
+ restrict_oom_score_adj = false
+ max_concurrent_downloads = 3
+ disable_proc_mount = false
+ unset_seccomp_profile = ""
+ tolerate_missing_hugetlb_controller = true
+ disable_hugetlb_controller = true
+ ignore_image_defined_volumes = false
+ [plugins."io.containerd.grpc.v1.cri".containerd]
+ snapshotter = "overlayfs"
+ default_runtime_name = "runc"
+ no_pivot = false
+ disable_snapshot_annotations = false
+ discard_unpacked_layers = false
+ [plugins."io.containerd.grpc.v1.cri".containerd.runtimes]
+ [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc]
+ runtime_type = "io.containerd.runc.v2"
+ pod_annotations = []
+ container_annotations = []
+ privileged_without_host_devices = false
+ base_runtime_spec = ""
+ [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc.options]
+ # SystemdCgroup enables systemd cgroups.
+ SystemdCgroup = true
+ # BinaryName is the binary name of the runc binary.
+ # BinaryName = "runc"
+ # BinaryName = "crun"
+ # NoPivotRoot disables pivot root when creating a container.
+ # NoPivotRoot = false
+
+ # NoNewKeyring disables new keyring for the container.
+ # NoNewKeyring = false
+
+ # ShimCgroup places the shim in a cgroup.
+ # ShimCgroup = ""
+
+ # IoUid sets the I/O's pipes uid.
+ # IoUid = 0
+
+ # IoGid sets the I/O's pipes gid.
+ # IoGid = 0
+
+ # Root is the runc root directory.
+ Root = ""
+
+ # CriuPath is the criu binary path.
+ # CriuPath = ""
+
+ # CriuImagePath is the criu image path
+ # CriuImagePath = ""
+
+ # CriuWorkPath is the criu work path.
+ # CriuWorkPath = ""
+ [plugins."io.containerd.grpc.v1.cri".cni]
+ bin_dir = "/opt/cni/bin"
+ conf_dir = "/etc/cni/net.d"
+ max_conf_num = 1
+ conf_template = ""
+ [plugins."io.containerd.grpc.v1.cri".registry]
+ config_path = "/etc/cri-containerd/certs.d"
+ [plugins."io.containerd.grpc.v1.cri".registry.headers]
+ # Foo = ["bar"]
+ [plugins."io.containerd.grpc.v1.cri".image_decryption]
+ key_model = ""
+ [plugins."io.containerd.grpc.v1.cri".x509_key_pair_streaming]
+ tls_cert_file = ""
+ tls_key_file = ""
+ [plugins."io.containerd.internal.v1.opt"]
+ path = "/opt/cri-containerd"
+ [plugins."io.containerd.internal.v1.restart"]
+ interval = "10s"
+ [plugins."io.containerd.metadata.v1.bolt"]
+ content_sharing_policy = "shared"
+ [plugins."io.containerd.monitor.v1.cgroups"]
+ no_prometheus = false
+ [plugins."io.containerd.runtime.v2.task"]
+ platforms = ["linux/amd64"]
+ [plugins."io.containerd.service.v1.diff-service"]
+ default = ["walking"]
+ [plugins."io.containerd.snapshotter.v1.devmapper"]
+ root_path = ""
+ pool_name = ""
+ base_image_size = ""
+ async_remove = false
+```
+
+## 安装 **kubelet** **kubeadm** **kubectl** **cri-tools** **kubernetes-cni**
+
+### Ubuntu/Debian
+
+```bash
+$ apt-get update && apt-get install -y apt-transport-https
+$ curl https://mirrors.aliyun.com/kubernetes/apt/doc/apt-key.gpg | apt-key add -
+
+$ cat < 执行可能出现错误,例如缺少依赖包,根据提示安装即可。
+
+执行成功会输出
+
+```bash
+...
+[addons] Applied essential addon: CoreDNS
+I1116 12:35:13.270407 86677 request.go:538] Throttling request took 181.409184ms, request: POST:https://192.168.199.100:6443/api/v1/namespaces/kube-system/serviceaccounts
+I1116 12:35:13.470292 86677 request.go:538] Throttling request took 186.088112ms, request: POST:https://192.168.199.100:6443/api/v1/namespaces/kube-system/configmaps
+[addons] Applied essential addon: kube-proxy
+
+Your Kubernetes control-plane has initialized successfully!
+
+To start using your cluster, you need to run the following as a regular user:
+
+ mkdir -p $HOME/.kube
+ sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
+ sudo chown $(id -u):$(id -g) $HOME/.kube/config
+
+You should now deploy a pod network to the cluster.
+Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
+ https://kubernetes.io/docs/concepts/cluster-administration/addons/
+
+Then you can join any number of worker nodes by running the following on each as root:
+
+kubeadm join 192.168.199.100:6443 --token cz81zt.orsy9gm9v649e5lf \
+ --discovery-token-ca-cert-hash sha256:5edb316fd0d8ea2792cba15cdf1c899a366f147aa03cba52d4e5c5884ad836fe
+```
+
+### node 工作节点
+
+在 **另一主机** 重复 **部署** 小节以前的步骤,安装配置好 kubelet。根据提示,加入到集群。
+
+```bash
+$ systemctl enable cri-containerd
+
+$ systemctl start cri-containerd
+
+$ kubeadm join 192.168.199.100:6443 \
+ --token cz81zt.orsy9gm9v649e5lf \
+ --discovery-token-ca-cert-hash sha256:5edb316fd0d8ea2792cba15cdf1c899a366f147aa03cba52d4e5c5884ad836fe \
+ --cri-socket /run/cri-containerd/cri-containerd.sock
+```
+
+## 查看服务
+
+所有服务启动后,通过 `crictl` 查看本地实际运行的容器。这些服务大概分为三类:主节点服务、工作节点服务和其它服务。
+
+```bash
+CONTAINER_RUNTIME_ENDPOINT=/run/cri-containerd/cri-containerd.sock crictl ps -a
+```
+
+### 主节点服务
+
+* `apiserver` 是整个系统的对外接口,提供 RESTful 方式供客户端和其它组件调用;
+
+* `scheduler` 负责对资源进行调度,分配某个 pod 到某个节点上;
+
+* `controller-manager` 负责管理控制器,包括 endpoint-controller(刷新服务和 pod 的关联信息)和 replication-controller(维护某个 pod 的复制为配置的数值)。
+
+### 工作节点服务
+
+* `proxy` 为 pod 上的服务提供访问的代理。
+
+### 其它服务
+
+* Etcd 是所有状态的存储数据库;
+
+## 使用
+
+将 `/etc/kubernetes/admin.conf` 复制到 `~/.kube/config`
+
+执行 `$ kubectl get all -A` 查看启动的服务。
+
+由于未部署 CNI 插件,CoreDNS 未正常启动。如何使用 Kubernetes,请参考后续章节。
+
+## 部署 CNI
+
+这里以 `flannel` 为例进行介绍。
+
+### flannel
+
+检查 podCIDR 设置
+
+```bash
+$ kubectl get node -o yaml | grep CIDR
+
+# 输出
+ podCIDR: 10.244.0.0/16
+ podCIDRs:
+```
+
+```bash
+$ kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/v0.11.0/Documentation/kube-flannel.yml
+```
+
+## master 节点默认不能运行 pod
+
+如果用 `kubeadm` 部署一个单节点集群,默认情况下无法使用,请执行以下命令解除限制
+
+```bash
+$ kubectl taint nodes --all node-role.kubernetes.io/master-
+
+# 恢复默认值
+# $ kubectl taint nodes NODE_NAME node-role.kubernetes.io/master=true:NoSchedule
+```
+
+## 参考文档
+
+* [官方文档](https://kubernetes.io/zh/docs/setup/production-environment/tools/kubeadm/install-kubeadm/)
+* [Container runtimes](https://kubernetes.io/docs/setup/production-environment/container-runtimes/#containerd)
diff --git a/kubernetes/setup/systemd.md b/kubernetes/setup/systemd.md
new file mode 100644
index 000000000..a3ae99f3b
--- /dev/null
+++ b/kubernetes/setup/systemd.md
@@ -0,0 +1,3 @@
+# 一步步部署 kubernetes 集群
+
+可以参考 [opsnull/follow-me-install-kubernetes-cluster](https://github.com/opsnull/follow-me-install-kubernetes-cluster) 项目一步步部署 kubernetes 集群。
diff --git a/machine/README.md b/machine/README.md
deleted file mode 100644
index ebc1c3e21..000000000
--- a/machine/README.md
+++ /dev/null
@@ -1,9 +0,0 @@
-# Docker Machine 项目
-
-![](https://docs.docker.com/machine/img/machine.png)
-
-Docker Machine 是 Docker 官方编排(Orchestration)项目之一,负责在多种平台上快速安装 Docker 环境。
-
-Docker Machine 项目基于 Go 语言实现,目前在 [Github](https://github.com/docker/machine) 上进行维护。
-
-本章将介绍 Docker Machine 的安装及使用。
diff --git a/machine/install.md b/machine/install.md
deleted file mode 100644
index 24afd532a..000000000
--- a/machine/install.md
+++ /dev/null
@@ -1,33 +0,0 @@
-## 安装
-
-Docker Machine 可以在多种操作系统平台上安装,包括 Linux、macOS,以及 Windows。
-
-### macOS、Windows
-
-`Docker Desktop for Mac/Windows` 自带 `docker-machine` 二进制包,安装之后即可使用。
-
-查看版本信息。
-
-```bash
-$ docker-machine -v
-docker-machine version 0.16.1, build cce350d7
-```
-
-### Linux
-
-在 Linux 上的也安装十分简单,从 [官方 GitHub Release](https://github.com/docker/machine/releases) 处直接下载编译好的二进制文件即可。
-
-例如,在 Linux 64 位系统上直接下载对应的二进制包。
-
-```bash
-$ sudo curl -L https://github.com/docker/machine/releases/download/v0.16.1/docker-machine-`uname -s`-`uname -m` > /usr/local/bin/docker-machine
-
-$ sudo chmod +x /usr/local/bin/docker-machine
-```
-
-完成后,查看版本信息。
-
-```bash
-$ docker-machine -v
-docker-machine version 0.16.1, build cce350d7
-```
diff --git a/machine/usage.md b/machine/usage.md
deleted file mode 100644
index 3330fafd9..000000000
--- a/machine/usage.md
+++ /dev/null
@@ -1,149 +0,0 @@
-## 使用
-
-Docker Machine 支持多种后端驱动,包括虚拟机、本地主机和云平台等。
-
-### 创建本地主机实例
-
-#### Virtualbox 驱动
-
-使用 `virtualbox` 类型的驱动,创建一台 Docker 主机,命名为 test。
-
-```bash
-$ docker-machine create -d virtualbox test
-```
-
-你也可以在创建时加上如下参数,来配置主机或者主机上的 Docker。
-
-`--engine-opt dns=114.114.114.114` 配置 Docker 的默认 DNS
-
-`--engine-registry-mirror https://registry.docker-cn.com` 配置 Docker 的仓库镜像
-
-`--virtualbox-memory 2048` 配置主机内存
-
-`--virtualbox-cpu-count 2` 配置主机 CPU
-
-更多参数请使用 `docker-machine create --driver virtualbox --help` 命令查看。
-
-#### macOS xhyve 驱动
-
-`xhyve` 驱动 GitHub: https://github.com/zchee/docker-machine-driver-xhyve
-
-[`xhyve`](https://github.com/mist64/xhyve) 是 macOS 上轻量化的虚拟引擎,使用其创建的 Docker Machine 较 `VirtualBox` 驱动创建的运行效率要高。
-
-```bash
-$ brew install docker-machine-driver-xhyve
-
-$ docker-machine create \
- -d xhyve \
- # --xhyve-boot2docker-url ~/.docker/machine/cache/boot2docker.iso \
- --engine-opt dns=114.114.114.114 \
- --engine-registry-mirror https://registry.docker-cn.com \
- --xhyve-memory-size 2048 \
- --xhyve-rawdisk \
- --xhyve-cpu-count 2 \
- xhyve
-```
-
->注意:非首次创建时建议加上 `--xhyve-boot2docker-url ~/.docker/machine/cache/boot2docker.iso` 参数,避免每次创建时都从 GitHub 下载 ISO 镜像。
-
-更多参数请使用 `docker-machine create --driver xhyve --help` 命令查看。
-
-#### Windows 10
-
-Windows 10 安装 Docker Desktop for Windows 之后不能再安装 VirtualBox,也就不能使用 `virtualbox` 驱动来创建 Docker Machine,我们可以选择使用 `hyperv` 驱动。
-
-> 注意,必须事先在 `Hyper-V` 管理器中新建一个 **外部虚拟交换机** 执行下面的命令时,使用 `--hyperv-virtual-switch=MY_SWITCH` 指定虚拟交换机名称
-
-```bash
-$ docker-machine create --driver hyperv --hyperv-virtual-switch=MY_SWITCH vm
-```
-
-更多参数请使用 `docker-machine create --driver hyperv --help` 命令查看。
-
-### 使用介绍
-
-创建好主机之后,查看主机
-
-```bash
-$ docker-machine ls
-
-NAME ACTIVE DRIVER STATE URL SWARM DOCKER ERRORS
-test - virtualbox Running tcp://192.168.99.187:2376 v17.10.0-ce
-```
-
-创建主机成功后,可以通过 `env` 命令来让后续操作对象都是目标主机。
-
-```bash
-$ docker-machine env test
-```
-
-后续根据提示在命令行输入命令之后就可以操作 test 主机。
-
-也可以通过 `SSH` 登录到主机。
-
-```bash
-$ docker-machine ssh test
-
-docker@test:~$ docker --version
-Docker version 17.10.0-ce, build f4ffd25
-```
-
-连接到主机之后你就可以在其上使用 Docker 了。
-
-### 官方支持驱动
-
-通过 `-d` 选项可以选择支持的驱动类型。
-
-* amazonec2
-* azure
-* digitalocean
-* exoscale
-* generic
-* google
-* hyperv
-* none
-* openstack
-* rackspace
-* softlayer
-* virtualbox
-* vmwarevcloudair
-* vmwarefusion
-* vmwarevsphere
-
-### 第三方驱动
-
-请到 [第三方驱动列表](https://github.com/docker/docker.github.io/blob/master/machine/AVAILABLE_DRIVER_PLUGINS.md) 查看
-
-
-### 操作命令
-
-* `active` 查看活跃的 Docker 主机
-* `config` 输出连接的配置信息
-* `create` 创建一个 Docker 主机
-* `env` 显示连接到某个主机需要的环境变量
-* `inspect` 输出主机更多信息
-* `ip` 获取主机地址
-* `kill` 停止某个主机
-* `ls` 列出所有管理的主机
-* `provision` 重新设置一个已存在的主机
-* `regenerate-certs` 为某个主机重新生成 TLS 认证信息
-* `restart` 重启主机
-* `rm` 删除某台主机
-* `ssh` SSH 到主机上执行命令
-* `scp` 在主机之间复制文件
-* `mount` 挂载主机目录到本地
-* `start` 启动一个主机
-* `status` 查看主机状态
-* `stop` 停止一个主机
-* `upgrade` 更新主机 Docker 版本为最新
-* `url` 获取主机的 URL
-* `version` 输出 docker-machine 版本信息
-* `help` 输出帮助信息
-
-每个命令,又带有不同的参数,可以通过
-
-```bash
-$ docker-machine COMMAND --help
-```
-
-来查看具体的用法。
diff --git a/manifest b/manifest
index f577b1ec6..ba77f7836 100644
--- a/manifest
+++ b/manifest
@@ -1,7 +1,11 @@
-DOCKER_VERSION=19.03.1
-DOCKER_COMPOSE_VERSION=1.24.1
-DOCKER_MACHINE_VERSION=0.16.1
+DOCKER_VERSION=20.10.0
+DOCKER_COMPOSE_VERSION=1.27.4
ETCD_VERSION=3.4.0
KUBERNETES_VERSION=1.14.3
+KUBERNETES_DASHBOARD=2.0.0
UBUNTU=18.04
DEBIAN=9
+NGINX_VERSION=1.18.x
+NODE_VERSION=14.x
+PHP_VERSION=7.x
+REDIS_VERSION=6.x
diff --git a/mesos/README.md b/mesos/README.md
deleted file mode 100644
index ec9b7f4e1..000000000
--- a/mesos/README.md
+++ /dev/null
@@ -1,6 +0,0 @@
-# Mesos - 优秀的集群资源调度平台
-Mesos 项目是源自 UC Berkeley 的对集群资源进行抽象和管理的开源项目,类似于操作系统内核,用户可以使用它很容易地实现分布式应用的自动化调度。
-
-同时,Mesos 自身也很好地结合和主持了 Docker 等相关容器技术,基于 Mesos 已有的大量应用框架,可以实现用户应用的快速上线。
-
-本章将介绍 Mesos 项目的安装、使用、配置以及核心的原理知识。
\ No newline at end of file
diff --git a/mesos/_images/marathon.png b/mesos/_images/marathon.png
deleted file mode 100644
index 130c6649f..000000000
Binary files a/mesos/_images/marathon.png and /dev/null differ
diff --git a/mesos/_images/marathon_basic0.png b/mesos/_images/marathon_basic0.png
deleted file mode 100644
index 2b8f920a0..000000000
Binary files a/mesos/_images/marathon_basic0.png and /dev/null differ
diff --git a/mesos/_images/mesos-architecture.png b/mesos/_images/mesos-architecture.png
deleted file mode 100644
index 9a0a8de21..000000000
Binary files a/mesos/_images/mesos-architecture.png and /dev/null differ
diff --git a/mesos/_images/mesos.png b/mesos/_images/mesos.png
deleted file mode 100644
index c3ad76271..000000000
Binary files a/mesos/_images/mesos.png and /dev/null differ
diff --git a/mesos/architecture.md b/mesos/architecture.md
deleted file mode 100644
index 22b1d8538..000000000
--- a/mesos/architecture.md
+++ /dev/null
@@ -1,83 +0,0 @@
-## 原理与架构
-
-首先,再次需要强调 Mesos 自身只是一个资源调度框架,并非一整套完整的应用管理平台,所以只有 Mesos 自己是不能干活的。但是基于 Mesos,可以比较容易地为各种应用管理框架或者中间件平台(作为 Mesos 的应用)提供分布式运行能力;同时多个框架也可以同时运行在一个 Mesos 集群中,提高整体的资源使用效率。
-
-Mesos 对自己定位范围的划分,使得它要完成的任务很明确,其它任务框架也可以很容易的与它进行整合。
-
-### 架构
-下面这张基本架构图来自 Mesos 官方。
-
-![mesos 的基本架构](_images/mesos-architecture.png)
-
-可以看出,Mesos 采用了经典的主-从(master-slave)架构,其中主节点(管理节点)可以使用 zookeeper 来做 HA。
-
-Mesos master 服务将运行在主节点上,Mesos slave 服务则需要运行在各个计算任务节点上。
-
-负责完成具体任务的应用框架们,跟 Mesos master 进行交互,来申请资源。
-
-### 基本单元
-Mesos 中有三个基本的组件:管理服务(master)、任务服务(slave)以及应用框架(framework)。
-
-#### 管理服务 - master
-跟大部分分布式系统中类似,主节点起到管理作用,将看到全局的信息,负责不同应用框架之间的资源调度和逻辑控制。应用框架需要注册到管理服务上才能被使用。
-
-用户和应用需要通过主节点提供的 API 来获取集群状态和操作集群资源。
-
-#### 任务服务 - slave
-负责汇报本从节点上的资源状态(空闲资源、运行状态等等)给主节点,并负责隔离本地资源来执行主节点分配的具体任务。
-
-隔离机制目前包括各种容器机制,包括 LXC、Docker 等。
-
-#### 应用框架 - framework
-应用框架是实际干活的,包括两个主要组件:
-
-* 调度器(scheduler):注册到主节点,等待分配资源;
-* 执行器(executor):在从节点上执行框架指定的任务(框架也可以使用 Mesos 自带的执行器,包括 shell 脚本执行器和 Docker 执行器)。
-
-应用框架可以分两种:一种是对资源的需求是会扩展的(比如 Hadoop、Spark 等),申请后还可能调整;一种是对资源需求大小是固定的(MPI 等),一次申请即可。
-
-### 调度
-对于一个资源调度框架来说,最核心的就是调度机制,怎么能快速高效地完成对某个应用框架资源的分配,是核心竞争力所在。最理想情况下(大部分时候都无法实现),最好是能猜到应用们的实际需求,实现最大化的资源使用率。
-
-Mesos 为了实现尽量优化的调度,采取了两层(two-layer)的调度算法。
-
-#### 算法基本过程
-调度的基本思路很简单,master 先全局调度一大块资源给某个 framework,framework 自己再实现内部的细粒度调度,决定哪个任务用多少资源。两层调度简化了 Mesos master 自身的调度过程,通过将复杂的细粒度调度交由 framework 实现,避免了 Mesos master 成为性能瓶颈。
-
-调度机制支持插件机制来实现不同的策略。默认是 Dominant Resource Fairness(DRF)。
-
-*注:DRF 算法细节可以参考论文《Dominant Resource Fairness: Fair Allocation of Multiple Resource Types》。其核心思想是对不同类型资源的多个请求,计算请求的主资源类型,然后根据主资源进行公平分配。*
-
-#### 调度过程
-调度通过 offer 发送的方式进行交互。一个 offer 是一组资源,例如 `<1 CPU, 2 GB Mem>`。
-
-基本调度过程如下:
-
-* 首先,slave 节点会周期性汇报自己可用的资源给 master;
-* 某个时候,master 收到应用框架发来的资源请求,根据调度策略,计算出来一个资源 offer 给 framework;
-* framework 收到 offer 后可以决定要不要,如果接受的话,返回一个描述,说明自己希望如何使用和分配这些资源来运行某些任务(可以说明只希望使用部分资源,则多出来的会被 master 收回);
-* 最后,master 则根据 framework 答复的具体分配情况发送给 slave,以使用 framework 的 executor 来按照分配的资源策略执行任务。
-
-具体给出一个例子,某从节点向主节点汇报自己有 `<4 CPU, 8 GB Mem>` 的空闲资源,同时,主节点看到某个应用框架请求 `<3 CPU, 6 GB Mem>`,就创建一个 offer `` 把满足的资源发给应用框架。应用框架(的调度器)收到 offer 后觉得可以接受,就回复主节点,并告诉主节点希望运行两个任务:一个占用 `<1 CPU, 2 GB Mem>`,一个占用 一个占用 `<2 CPU, 4 GB Mem>`。主节点收到任务信息后分配任务到从节点上进行运行(实际上是应用框架的执行器来负责执行任务)。任务运行结束后资源可以被释放出来。
-
-剩余的资源还可以继续分配给其他应用框架或任务。
-
-应用框架在收到 offer 后,如果 offer 不满足自己的偏好(例如希望继续使用上次的 slave 节点),则可以选择拒绝 offer,等待 master 发送新的 offer 过来。另外,可以通过过滤器机制来加快资源的分配过程。
-
-#### 过滤器
-framework 可以通过过滤器机制告诉 master 它的资源偏好,比如希望分配过来的 offer 有哪个资源,或者至少有多少资源等。
-
-过滤器可以避免某些应用资源长期分配不到所需要的资源的情况,加速整个资源分配的交互过程。
-
-#### 回收机制
-为了避免某些任务长期占用集群中资源,Mesos 也支持回收机制。
-
-主节点可以定期回收计算节点上的任务所占用的资源,可以动态调整长期任务和短期任务的分布。
-
-### HA
-
-从架构上看,最为核心的节点是 master 节点。除了使用 ZooKeeper 来解决单点失效问题之外,Mesos 的 master 节点自身还提供了很高的鲁棒性。
-
-Mesos master 节点在重启后,可以动态通过 slave 和 framework 发来的消息重建内部状态,虽然可能导致一定的时延,但这避免了传统控制节点对数据库的依赖。
-
-当然,为了减少 master 节点的负载过大,在集群中 slave 节点数目较多的时候,要避免把各种通知的周期配置的过短。实践中,可以通过部署多个 Mesos 集群来保持单个集群的规模不要过大。
diff --git a/mesos/configuration.md b/mesos/configuration.md
deleted file mode 100644
index bacec5daa..000000000
--- a/mesos/configuration.md
+++ /dev/null
@@ -1,172 +0,0 @@
-## Mesos 配置项解析
-
-Mesos 支持在运行时通过命令行参数形式提供的配置项。如果是通过系统服务方式启动,也支持以配置文件或环境变量方式给出。当然,实际上最终是提取为命令行参数传递给启动命令。
-
-Mesos 的配置项分为三种类型:通用项(master 和 slave 都支持),只有 master 支持的,以及只有 slave 支持的。
-
-Mesos 配置项比较多,下面对一些重点配置进行描述。少数为必备项,意味着必须给出配置值;另外一些是可选配置,自己带有默认值。
-
-### 通用项
-通用项数量不多,主要涉及到服务绑定地址和日志信息等,包括:
-
-* `--advertise_ip=VALUE` 可以通过该地址访问到服务,比如应用框架访问到 master 节点;
-* `--advertise_port=VALUE` 可以通过该端口访问到服务;
-* `--external_log_file=VALUE` 指定存储日志的外部文件,可通过 Web 界面查看;
-* `--firewall_rules=VALUE` endpoint 防火墙规则,`VALUE` 可以是 JSON 格式或者存有 JSON 格式的文件路径;
-* `--ip=VALUE` 服务绑定到的IP 地址,用来监听外面过来的请求;
-* `--log_dir=VALUE` 日志文件路径,如果为空(默认值)则不存储日志到本地;
-* `--logbufsecs=VALUE` buffer 多少秒的日志,然后写入本地;
-* `--logging_level=VALUE` 日志记录的最低级别;
-* `--port=VALUE` 绑定监听的端口,master 默认是 5050,slave 默认是 5051。
-
-### master 专属配置项
-这些配置项是针对主节点上的 Mesos master 服务的,围绕高可用、注册信息、对应用框架的资源管理等。用户应该根据本地主节点资源情况来合理的配置这些选项。
-
-用户可以通过 `mesos-master --help` 命令来获取所有支持的配置项信息。
-
-必须指定的配置项有三个:
-
-* `--quorum=VALUE` 必备项,使用基于 replicated-Log 的注册表(即利用 ZooKeeper 实现 HA)时,参与投票时的最少节点个数;
-* `--work_dir=VALUE` 必备项,注册表持久化信息存储位置;
-* `--zk=VALUE` 如果主节点为 HA 模式,此为必备项,指定 ZooKeepr 的服务地址,支持多个地址,之间用逗号隔离,例如 `zk://username:password@host1:port1,host2:port2,.../path`。还可以为存有路径信息的文件路径。
-
-
-可选的配置项有:
-
-* `--acls=VALUE` ACL 规则或所在文件;
-* `--allocation_interval=VALUE` 执行 allocation 的间隔,默认为 1sec;
-* `--allocator=VALUE` 分配机制,默认为 HierarchicalDRF;
-* `--[no-]authenticate` 是否允许非认证过的 framework 注册;
-* `--[no-]authenticate_slaves` 是否允许非认证过的 slaves 注册;
-* `--authenticators=VALUE` 对 framework 或 salves 进行认证时的实现机制;
-* `--cluster=VALUE` 集群别名,显示在 Web 界面上供用户识别的;
-* `--credentials=VALUE` 存储加密后凭证的文件的路径;
-* `--external_log_file=VALUE` 采用外部的日志文件;
-* `--framework_sorter=VALUE` 给定 framework 之间的资源分配策略;
-* `--hooks=VALUE` master 中安装的 hook 模块;
-* `--hostname=VALUE` master 节点使用的主机名,不配置则从系统中获取;
-* `--[no-]log_auto_initialize` 是否自动初始化注册表需要的 replicated 日志;
-* `--modules=VALUE` 要加载的模块,支持文件路径或者 JSON;
-* `--offer_timeout=VALUE` offer 撤销的超时;
-* `--rate_limits=VALUE` framework 的速率限制,即 query per second (qps);
-* `--recovery_slave_removal_limit=VALUE` 限制注册表恢复后可以移除或停止的 slave 数目,超出后 master 会失败,默认是 100%;
-* `--slave_removal_rate_limit=VALUE slave` 没有完成健康度检查时候被移除的速率上限,例如 1/10mins 代表每十分钟最多有一个;
-* `--registry=VALUE` 注册表信息的持久化策略,默认为 `replicated_log` 存放本地,还可以为 `in_memory` 放在内存中;
-* `--registry_fetch_timeout=VALUE` 访问注册表失败超时;
-* `--registry_store_timeout=VALUE` 存储注册表失败超时;
-* `--[no-]registry_strict` 是否按照注册表中持久化信息执行操作,默认为 false;
-* `--roles=VALUE` 集群中 framework 可以所属的分配角色;
-* `--[no-]root_submissions` root 是否可以提交 framework,默认为 true;
-* `--slave_reregister_timeout=VALUE` 新的 lead master 节点选举出来后,多久之内所有的 slave 需要注册,超时的 salve 将被移除并关闭,默认为 10mins;
-* `--user_sorter=VALUE` 在用户之间分配资源的策略,默认为 drf;
-* `--webui_dir=VALUE` webui 实现的文件目录所在,默认为 `/usr/local/share/mesos/webui`;
-* `--weights=VALUE` 各个角色的权重;
-* `--whitelist=VALUE` 文件路径,包括发送 offer 的 slave 名单,默认为 None;
-* `--zk_session_timeout=VALUE` session 超时,默认为 10secs;
-* `--max_executors_per_slave=VALUE` 配置了 `--with-network-isolator` 时可用,限制每个 slave 同时执行任务个数。
-
-下面给出一个由三个节点组成的 master 集群典型配置,工作目录指定为 `/tmp/mesos`,集群名称为 `mesos_cluster`。
-
-```sh
-mesos-master \
---zk=zk://10.0.0.2:2181,10.0.0.3:2181,10.0.0.4:2181/mesos \
---quorum=2 \
---work_dir=/tmp/mesos \
---cluster=mesos_cluster
-```
-
-
-### slave 专属配置项
-slave 节点支持的配置项是最多的,因为它所完成的事情也最复杂。这些配置项既包括跟主节点打交道的一些参数,也包括对本地资源的配置,包括隔离机制、本地任务的资源限制等。
-
-用户可以通过 `mesos-slave --help` 命令来获取所有支持的配置项信息。
-
-必备项就一个:
-
-* `--master=VALUE` 必备项,master 所在地址,或对应 ZooKeeper 服务地址,或文件路径,可以是列表。
-
-以下为可选配置项:
-
-* `--attributes=VALUE` 机器属性;
-* `--authenticatee=VALUE` 跟 master 进行认证时候的认证机制;
-* `--[no-]cgroups_enable_cfs` 采用 CFS 进行带宽限制时候对 CPU 资源进行限制,默认为 false;
-* `--cgroups_hierarchy=VALUE` cgroups 的目录根位置,默认为 `/sys/fs/cgroup`;
-* `--[no-]cgroups_limit_swap` 限制内存和 swap,默认为 false,只限制内存;
-* `--cgroups_root=VALUE` 根 cgroups 的名称,默认为 mesos;
-* `--container_disk_watch_interval=VALUE` 为容器进行硬盘配额查询的时间间隔;
-* `--containerizer_path=VALUE` 采用外部隔离机制(`--isolation=external`)时候,外部容器机制执行文件路径;
-* `--containerizers=VALUE` 可用的容器实现机制,包括 mesos、external、docker;
-* `--credential=VALUE` 加密后凭证,或者所在文件路径;
-* `--default_container_image=VALUE` 采用外部容器机制时,任务缺省使用的镜像;
-* `--default_container_info=VALUE` 容器信息的缺省值;
-* `--default_role=VALUE` 资源缺省分配的角色;
-* `--disk_watch_interval=VALUE` 硬盘使用情况的周期性检查间隔,默认为 1mins;
-* `--docker=VALUE` docker 执行文件的路径;
-* `--docker_remove_delay=VALUE` 删除容器之前的等待时间,默认为 6hrs;
-* `--[no-]docker_kill_orphans` 清除孤儿容器,默认为 true;
-* `--docker_sock=VALUE` docker sock 地址,默认为 `/var/run/docker.sock`;
-* `--docker_mesos_image=VALUE` 运行 slave 的 docker 镜像,如果被配置,docker 会假定 slave 运行在一个 docker 容器里;
-* `--docker_sandbox_directory=VALUE` sandbox 映射到容器里的哪个路径;
-* `--docker_stop_timeout=VALUE` 停止实例后等待多久执行 kill 操作,默认为 0secs;
-* `--[no-]enforce_container_disk_quota` 是否启用容器配额限制,默认为 false;
-* `--executor_registration_timeout=VALUE` 执行应用最多可以等多久再注册到 slave,否则停止它,默认为 1mins;
-* `--executor_shutdown_grace_period=VALUE` 执行应用停止后,等待多久,默认为 5secs;
-* `--external_log_file=VALUE` 外部日志文件;
-* `--fetcher_cache_size=VALUE` fetcher 的 cache 大小,默认为 2 GB;
-* `--fetcher_cache_dir=VALUE` fetcher cache 文件存放目录,默认为 /tmp/mesos/fetch;
-* `--frameworks_home=VALUE` 执行应用前添加的相对路径,默认为空;
-* `--gc_delay=VALUE` 多久清理一次执行应用目录,默认为 1weeks;
-* `--gc_disk_headroom=VALUE` 调整计算最大执行应用目录年龄的硬盘留空量,默认为 0.1;
-* `--hadoop_home=VALUE` hadoop 安装目录,默认为空,会自动查找 HADOOP_HOME 或者从系统路径中查找;
-* `--hooks=VALUE` 安装在 master 中的 hook 模块列表;
-* `--hostname=VALUE` slave 节点使用的主机名;
-* `--isolation=VALUE` 隔离机制,例如 `posix/cpu,posix/mem`(默认)或者 `cgroups/cpu,cgroups/mem`、`external` 等;
-* `--launcher_dir=VALUE` mesos 可执行文件的路径,默认为 `/usr/local/lib/mesos`;
-* `--image_providers=VALUE` 支持的容器镜像机制,例如 'APPC,DOCKER';
-* `--oversubscribed_resources_interval=VALUE` slave 节点定期汇报超配资源状态的周期;
-* `--modules=VALUE` 要加载的模块,支持文件路径或者 JSON;
-* `--perf_duration=VALUE` perf 采样时长,必须小于 perf_interval,默认为 10secs;
-* `--perf_events=VALUE` perf 采样的事件;
-* `--perf_interval=VALUE` perf 采样的时间间隔;
-* `--qos_controller=VALUE` 超配机制中保障 QoS 的控制器名;
-* `--qos_correction_interval_min=VALUE` Qos 控制器纠正超配资源的最小间隔,默认为 0secs;
-* `--recover=VALUE` 回复后是否重连旧的执行应用,reconnect(默认值)是重连,cleanup 清除旧的执行器并退出;
-* `--recovery_timeout=VALUE` slave 恢复时的超时,太久则所有相关的执行应用将自行退出,默认为 15mins;
-* `--registration_backoff_factor=VALUE` 跟 master 进行注册时候的重试时间间隔算法的因子,默认为 1secs,采用随机指数算法,最长 1mins;
-* `--resource_monitoring_interval=VALUE` 周期性监测执行应用资源使用情况的间隔,默认为 1secs;
-* `--resources=VALUE` 每个 slave 可用的资源,比如主机端口默认为 [31000, 32000];
-* `--[no-]revocable_cpu_low_priority` 运行在可撤销 CPU 上容器将拥有较低优先级,默认为 true。
-* `--slave_subsystems=VALUE` slave 运行在哪些 cgroup 子系统中,包括 memory,cpuacct 等,缺省为空;
-* `--[no-]strict` 是否认为所有错误都不可忽略,默认为 true;
-* `--[no-]switch_user` 用提交任务的用户身份来运行,默认为 true;
-* `--work_dir=VALUE` framework 的工作目录,默认为 /tmp/mesos。
-
-下面这些选项需要配置 `--with-network-isolator` 一起使用(编译时需要启用 ` --with-network-isolator` 参数)。
-
-* `--ephemeral_ports_per_container=VALUE` 分配给一个容器的临时端口的最大数目,需要为 2 的整数幂(默认为 1024);
-* `--eth0_name=VALUE` public 网络的接口名称,如果不指定,根据主机路由进行猜测;
-* `--lo_name=VALUE` loopback 网卡名称;
-* `--egress_rate_limit_per_container=VALUE` 每个容器的输出流量限制速率限制(采用 fq_codel 算法来限速),单位是字节每秒;
-* `--[no-]-egress_unique_flow_per_container` 是否把不同容器的流量当作彼此不同的流,避免彼此影响(默认为 false);
-* `--[no-]network_enable_socket_statistics` 是否采集每个容器的 socket 统计信息,默认为 false。
-
-下面给出一个典型的 slave 配置,容器为 Docker,监听在 `10.0.0.10` 地址;节点上限制 16 个 CPU、64 GB 内存,容器的非临时端口范围指定为 [31000-32000],临时端口范围指定为 [32768-57344];每个容器临时端口最多为 512 个,并且外出流量限速为 50 MB/s。
-
-```sh
-mesos-slave \
---master=zk://10.0.0.2:2181,10.0.0.3:2181,10.0.0.4:2181/mesos \
---containerizers=docker \
---ip=10.0.0.10 \
---isolation=cgroups/cpu,cgroups/mem,network/port_mapping \
---resources=cpus:16;mem:64000;ports:[31000-32000];ephemeral_ports:[32768-57344] \
---ephemeral_ports_per_container=512 \
---egress_rate_limit_per_container=50000KB \
---egress_unique_flow_per_container
-```
-
-为了避免主机分配的临时端口跟我们指定的临时端口范围冲突,需要在主机节点上进行配置。
-```sh
-$ echo "57345 61000" > /proc/sys/net/ipv4/ip_local_port_range
-```
-
-*注:非临时端口是 Mesos 分配给框架,绑定到任务使用的,端口号往往有明确意义;临时端口是系统分配的,往往不太关心具体端口号。*
diff --git a/mesos/framework.md b/mesos/framework.md
deleted file mode 100644
index 2430d4a10..000000000
--- a/mesos/framework.md
+++ /dev/null
@@ -1,89 +0,0 @@
-## 常见应用框架
-
-应用框架是实际干活的,可以理解为 Mesos 之上跑的 `应用`。应用框架注册到 Mesos master 服务上即可使用。
-
-用户大部分时候,只需要跟应用框架打交道。因此,选择合适的应用框架十分关键。
-
-Mesos 目前支持的应用框架分为四大类:长期运行任务(以及 PaaS)、大数据处理、批量调度、数据存储。
-
-随着 Mesos 自身的发展,越来越多的框架开始支持 Mesos,下面总结了目前常用的一些框架。
-
-### 长期运行的服务
-
-#### [Aurora](http://aurora.incubator.apache.org)
-
-利用 Mesos 调度安排的任务,保证任务一直在运行。
-
-提供 REST 接口,客户端和 webUI(8081 端口)
-
-#### [Marathon](https://github.com/mesosphere/marathon)
-
-一个私有 PaaS 平台,保证运行的应用不被中断。
-
-如果任务停止了,会自动重启一个新的相同任务。
-
-支持任务为任意 bash 命令,以及容器。
-
-提供 REST 接口,客户端和 webUI(8080 端口)
-
-#### [Singularity](https://github.com/HubSpot/Singularity)
-
-一个私有 PaaS 平台。
-
-调度器,运行长期的任务和一次性任务。
-
-提供 REST 接口,客户端和 webUI(7099、8080 端口),支持容器。
-
-### 大数据处理
-#### [Cray Chapel](https://github.com/nqn/mesos-chapel)
-
-支持 Chapel 并行编程语言的运行框架。
-
-#### [Dpark](https://github.com/douban/dpark)
-
-Spark 的 Python 实现。
-
-#### [Hadoop](https://github.com/mesos/hadoop)
-
-经典的 map-reduce 模型的实现。
-
-#### [Spark](http://spark.apache.org)
-
-跟 Hadoop 类似,但处理迭代类型任务会更好的使用内存做中间状态缓存,速度要快一些。
-
-#### [Storm](https://github.com/mesos/storm)
-
-分布式流计算,可以实时处理数据流。
-
-### 批量调度
-#### [Chronos](https://github.com/airbnb/chronos)
-
-Cron 的分布式实现,负责任务调度,支持容错。
-
-#### [Jenkins](https://github.com/jenkinsci/mesos-plugin)
-
-大名鼎鼎的 CI 引擎。使用 mesos-jenkins 插件,可以将 jenkins 的任务被 Mesos 集群来动态调度执行。
-
-#### [JobServer](http://www.grandlogic.com/content/html_docs/jobserver.html)
-
-基于 Java 的调度任务和数据处理引擎。
-
-#### [GoDocker](https://bitbucket.org/osallou/go-docker)
-
-基于 Docker 容器的集群维护工具。提供用户接口,除了支持 Mesos,还支持 Kubernetes、Swarm 等。
-
-### 数据存储
-
-#### [ElasticSearch](https://github.com/mesos/elasticsearch)
-
-功能十分强大的分布式数据搜索引擎。
-
-一方面通过分布式集群实现可靠的数据库,一方面提供灵活的 API,对数据进行整合和分析。ElasticSearch + LogStash + Kibana 目前合成为 ELK 工具栈。
-
-#### [Hypertable](https://code.google.com/p/hypertable)
-
-高性能的分布式数据库,支持结构化或者非结构化的数据存储。
-
-#### [Tachyon](http://tachyon-project.org/)
-
-内存为中心的分布式存储系统,利用内存访问的高速提供高性能。
diff --git a/mesos/installation.md b/mesos/installation.md
deleted file mode 100644
index 0a60a1857..000000000
--- a/mesos/installation.md
+++ /dev/null
@@ -1,387 +0,0 @@
-## Mesos 安装与使用
-以 Mesos 结合 Marathon 应用框架为例,来看下如何快速搭建一套 Mesos 平台。
-
-Marathon 是可以跟 Mesos 一起协作的一个 framework,基于 Scala 实现,可以实现保持应用的持续运行。
-
-另外,Mesos 默认利用 ZooKeeper 来进行多个主节点之间的选举,以及从节点发现主节点的过程。一般在生产环境中,需要启动多个 Mesos master 服务(推荐 3 或 5 个),并且推荐使用 supervisord 等进程管理器来自动保持服务的运行。
-
-ZooKeeper 是一个分布式集群中信息同步的工具,通过自动在多个节点中选举 `leader`,保障多个节点之间的某些信息保持一致性。
-
-### 安装
-安装主要需要 mesos、zookeeper 和 marathon 三个软件包。
-
-Mesos 也采用了经典的主-从结构,一般包括若干主节点和大量从节点。其中,mesos master 服务和 zookeeper 需要部署到所有的主节点,mesos slave 服务需要部署到所有从节点。marathon 可以部署到主节点。
-
-安装可以通过源码编译、软件源或者 Docker 镜像方式进行,下面分别进行介绍。
-
-#### 源码编译
-
-源码编译方式可以保障获取到最新版本,但编译过程比较费时间。
-
-首先,从 apache.org 开源网站下载最新的源码。
-
-```sh
-$ git clone https://git-wip-us.apache.org/repos/asf/mesos.git
-```
-
-其中,主要代码在 `src` 目录下,应用框架代码在 `frameworks` 目录下,文档在 `docs` 目录下,`include ` 中包括了跟 Mesos 打交道使用的一些 API 定义头文件。
-
-安装依赖,主要包括 Java 运行环境、Linux 上的自动编译环境等。
-
-```sh
-$ sudo apt-get update
-$ sudo apt-get install -y openjdk-8-jdk autoconf libtool \
-build-essential python-dev python-boto libcurl4-nss-dev \
-libsasl2-dev maven libapr1-dev libsvn-dev
-```
-
-后面就是常规 C++ 项目的方法,configure 之后利用 Makefile 进行编译和安装。
-
-```sh
-$ cd mesos
-$ ./bootstrap
-$ mkdir build
-$ cd build && ../configure --with-network-isolator
-$ make
-$ make check && sudo make install
-```
-
-#### 软件源安装
-
-通过软件源方式进行安装相对会省时间,但往往不是最新版本。
-
-这里以 Ubuntu 系统为例,首先添加软件源地址。
-
-```sh
-$ sudo apt-key adv --keyserver keyserver.ubuntu.com --recv E56151BF
-$ DISTRO=$(lsb_release -is | tr '[:upper:]' '[:lower:]')
-$ CODENAME=$(lsb_release -cs)
-$ echo "deb http://repos.mesosphere.io/${DISTRO} ${CODENAME} main" | \
-sudo tee /etc/apt/sources.list.d/mesosphere.list
-```
-
-刷新本地软件仓库信息并安装 zookeeper、mesos、marathon 三个软件包。
-
-```sh
-$ sudo apt-get -y update && sudo apt-get -y install zookeeper mesos marathon
-```
-
-注意,Marathon 最新版本需要 jdk 1.8+ 的支持。如果系统中有多个 Java 版本,需要检查配置默认的 JDK 版本符合要求。
-
-```sh
-$ sudo update-alternatives --config java
-```
-
-安装 Mesos 成功后,会在 `/usr/sbin/` 下面发现 `mesos-master` 和 `mesos-slave` 两个二进制文件,分别对应主节点上需要运行的管理服务和从节点上需要运行的任务服务。
-
-用户可以手动运行二进制文件启动服务,也可以通过 `service` 命令来方便进行管理。
-
-例如,在主节点上重启 Mesos 管理服务:
-
-```sh
-$ sudo service mesos-master restart
-```
-
-通过 `service` 命令来管理,实际上是通过调用 `/usr/bin/mesos-init-wrapper` 脚本文件进行处理。
-
-#### [基于 Docker](https://github.com/sekka1/mesosphere-docker)
-
-需要如下三个镜像。
-
-* ZooKeeper:https://registry.hub.docker.com/u/garland/zookeeper/
-* Mesos:https://registry.hub.docker.com/u/garland/mesosphere-docker-mesos-master/
-* Marathon:https://registry.hub.docker.com/u/garland/mesosphere-docker-marathon/
-
-其中 mesos-master 镜像在后面将分别作为 master 和 slave 角色进行使用。
-
-首先,拉取三个镜像。
-
-```sh
-$ docker pull garland/zookeeper
-$ docker pull garland/mesosphere-docker-mesos-master
-$ docker pull garland/mesosphere-docker-marathon
-```
-
-导出主节点机器的地址到环境变量。
-
-```sh
-$ HOST_IP=10.0.0.2
-```
-
-在主节点上启动 Zookeepr 容器。
-
-```sh
-docker run -d \
--p 2181:2181 \
--p 2888:2888 \
--p 3888:3888 \
-garland/zookeeper
-```
-
-在主节点上启动 Mesos Master 服务容器。
-
-```sh
-docker run --net="host" \
--p 5050:5050 \
--e "MESOS_HOSTNAME=${HOST_IP}" \
--e "MESOS_IP=${HOST_IP}" \
--e "MESOS_ZK=zk://${HOST_IP}:2181/mesos" \
--e "MESOS_PORT=5050" \
--e "MESOS_LOG_DIR=/var/log/mesos" \
--e "MESOS_QUORUM=1" \
--e "MESOS_REGISTRY=in_memory" \
--e "MESOS_WORK_DIR=/var/lib/mesos" \
--d \
-garland/mesosphere-docker-mesos-master
-```
-
-在主节点上启动 Marathon。
-
-```sh
-docker run \
--d \
--p 8080:8080 \
-garland/mesosphere-docker-marathon --master zk://${HOST_IP}:2181/mesos --zk zk://${HOST_IP}:2181/marathon
-```
-
-在从节点上启动 Mesos slave 容器。
-
-```sh
-docker run -d \
---name mesos_slave_1 \
---entrypoint="mesos-slave" \
--e "MESOS_MASTER=zk://${HOST_IP}:2181/mesos" \
--e "MESOS_LOG_DIR=/var/log/mesos" \
--e "MESOS_LOGGING_LEVEL=INFO" \
-garland/mesosphere-docker-mesos-master:latest
-```
-
-接下来,可以通过访问本地 8080 端口来使用 Marathon 启动任务了。
-
-
-### 配置说明
-
-下面以本地通过软件源方式安装为例,解释如何修改各个配置文件。
-
-#### ZooKeepr
-
-ZooKeepr 是一个分布式应用的协调工具,用来管理多个主节点的选举和冗余,监听在 2181 端口。推荐至少布置三个主节点来被 ZooKeeper 维护。
-
-配置文件默认都在 `/etc/zookeeper/conf/` 目录下。比较关键的配置文件有两个:`myid` 和 `zoo.cfg`。
-
-myid 文件会记录加入 ZooKeeper 集群的节点的序号(1-255之间)。`/var/lib/zookeeper/myid` 文件其实也是软连接到了该文件。
-
-比如配置某节点序号为 1,则需要在该节点上执行:
-
-```sh
-$ echo 1 | sudo dd of=/etc/zookeeper/conf/myid
-```
-
-节点序号在 ZooKeeper 集群中必须唯一,不能出现多个拥有相同序号的节点。
-
-另外,需要修改 zoo.cfg 文件,该文件是主配置文件,主要需要添加上加入 ZooKeeper 集群的机器的序号和对应监听地址。
-
-例如,现在 ZooKeeper 集群中有三个节点,地址分别为 `10.0.0.2`、`10.0.0.3`、`10.0.0.4`,序号分别配置为 `2`、`3`、`4`。
-
-则配置如下的三行:
-
-```sh
-server.2=10.0.0.2:2888:3888
-server.3=10.0.0.3:2888:3888
-server.4=10.0.0.4:2888:3888
-```
-
-其中第一个端口 2888 负责从节点连接到主节点的;第二个端口 3888 则负责主节点进行选举时候通信。
-
-也可以用主机名形式,则需要各个节点 `/etc/hosts` 文件中都记录地址到主机名对应的映射关系。
-
-完成配置后,启动 ZooKeeper 服务。
-
-```sh
-$ sudo service zookeeper start
-```
-
-#### Mesos
-
-Mesos 的默认配置目录有三个:
-
-* /etc/mesos/:主节点和从节点都会读取的配置文件,最关键的是 zk 文件存放主节点的信息;
-* /etc/mesos-master/:只有主节点会读取的配置,等价于启动 mesos-master 命令时候的默认选项;
-* /etc/mesos-slave/:只有从节点会读取的配置,等价于启动 mesos-master 命令时候的默认选项。
-
-最关键的是需要在所有节点上修改 `/etc/mesos/zk`,写入主节点集群的 ZooKeeper 地址列表,例如:
-
-```sh
-zk://10.0.0.2:2181,10.0.0.3:2181,10.0.0.4:2181/mesos
-```
-
-此外,`/etc/default/mesos`、`/etc/default/mesos-master`、`/etc/default/mesos-slave` 这三个文件中可以存放一些环境变量定义,Mesos 服务启动之前,会将这些环境变量导入进来作为启动参数。格式为 `MESOS_OPTION_NAME`。
-
-下面分别说明在主节点和从节点上的配置。
-
-##### 主节点
-
-一般只需要关注 `/etc/mesos-master/` 目录下的文件。默认情况下目录下为空。
-
-该目录下文件命名和内容需要跟 mesos-master 支持的命令行选项一一对应。可以通过 `mesos-master --help` 命令查看支持的选项。
-
-例如某个文件 `key` 中内容为 `value`,则在 mesos-master 服务启动的时候,会自动添加参数 `--key=value` 给二进制命令。
-
-例如,mesos-master 服务默认监听在 loopback 端口,即 `127.0.0.1:5050`,我们需要修改主节点监听的地址,则可以创建 /etc/mesos-master/ip 文件,在其中写入主节点监听的外部地址。
-
-为了正常启动 mesos-master 服务,还需要指定 `work_dir` 参数(表示应用框架的工作目录)的值,可以通过创建 /etc/mesos-master/work_dir 文件,在其中写入目录,例如 ` /var/lib/mesos`。工作目录下会生成一个 `replicated_log` 目录,会存有各种同步状态的持久化信息。
-
-以及指定 quorum 参数的值,该参数用来表示 ZooKeeper 集群中要求最少参加表决的节点数目。一般设置为比 ZooKeeper 集群中节点个数的半数多一些(比如三个节点的话,可以配置为 `2`)。
-
-此外,要修改 Mesos 集群的名称,可以创建 `/etc/mesos-master/cluster` 文件,在其中写入集群的别名,例如 `MesosCluster`。
-
-总结下,建议在 `/etc/mesos-master` 目录下,配置至少四个参数文件:`ip`、`quorum`、`work_dir`、`cluster`。
-
-修改配置之后,需要启动服务即可生效。
-```sh
-$ sudo service mesos-master start
-```
-
-更多选项可以参考后面的配置项解析章节。
-
-主节点服务启动后,则可以在从节点上启动 mesos-slave 服务来加入主节点的管理。
-
-##### 从节点
-一般只需要关注 `/etc/mesos-slave/` 目录下的文件。默认情况下目录下为空。
-
-文件命名和内容也是跟主节点类似,对应二进制文件支持的命令行参数。
-
-建议在从节点上,创建 `/etc/mesos-slave/ip` 文件,在其中写入跟主节点通信的地址。
-
-修改配置之后,也需要重新启动服务。
-
-```sh
-$ sudo service mesos-slave start
-```
-
-更多选项可以参考后面的配置项解析章节。
-
-#### Marathon
-Marathon 作为 Mesos 的一个应用框架,配置要更为简单,必需的配置项有 `--master` 和 `--zk`。
-
-安装完成后,会在 /usr/bin 下多一个 marathon shell 脚本,为启动 marathon 时候执行的命令。
-
-配置目录为 `/etc/marathon/conf`(需要手动创建),此外默认配置文件在 `/etc/default/marathon`。
-
-我们手动创建配置目录,并添加配置项(文件命名和内容跟 Mesos 风格一致),让 Marathon 能连接到已创建的 Mesos 集群中。
-
-```sh
-$ sudo mkdir -p /etc/marathon/conf
-$ sudo cp /etc/mesos/zk /etc/marathon/conf/master
-```
-
-同时,让 Marathon 也将自身的状态信息保存到 ZooKeeper 中。创建 `/etc/marathon/conf/zk` 文件,添加 ZooKeeper 地址和路径。
-
-```sh
-zk://10.0.0.2:2181,10.0.0.2:2181,10.0.0.2:2181/marathon
-```
-
-启动 marathon 服务。
-
-```sh
-$ sudo service marathon start
-```
-
-### 访问 Mesos 图形界面
-
-Mesos 自带了 Web 图形界面,可以方便用户查看集群状态。
-
-用户在 Mesos 主节点服务和从节点服务都启动后,可以通过浏览器访问主节点 5050 端口,看到类似如下界面,已经有两个 slave 节点加入了。
-
-![mesos 界面查看加入的 slave 节点](_images/mesos.png)
-
-通过 Slaves 标签页能看到加入集群的从节点的信息。
-
-如果没有启动 Marathon 服务,在 Frameworks 标签页下将看不到任何内容。
-
-### 访问 Marathon 图形界面
-
-Marathon 服务启动成功后,在 Mesos 的 web 界面的 Frameworks 标签页下面将能看到名称为 marathon 的框架出现。
-
-同时可以通过浏览器访问 8080 端口,看到 Marathon 自己的管理界面。
-
-![marathon 图形管理界面](_images/marathon.png)
-
-此时,可以通过界面或者 REST API 来创建一个应用,Marathon 会保持该应用的持续运行。
-
-![marathon 查看任务支持的参数](_images/marathon_basic0.png)
-
-通过界面方式可以看到各任务支持的参数(包括资源、命令、环境变量、健康检查等),同时可以很容易地修改任务运行实例数进行扩展,非常适合进行测试。
-
-如果要更自动化地使用 Marathon,则需要通过它的 REST API 进行操作。
-
-一般的,启动新任务需要先创建一个定义模板(JSON 格式),然后发到指定的 API。
-
-例如,示例任务 basic-0 的定义模板为:
-
-```json
-{
- "id": "basic-0",
- "cmd": "while [ true ] ; do echo 'Hello Marathon' ; sleep 5 ; done",
- "cpus": 0.1,
- "mem": 10.0,
- "instances": 1
-}
-```
-
-该任务申请资源为 0.1 个单核 CPU 资源和 10 MB 的内存资源,具体命令为每隔五秒钟用 shell 打印一句 `Hello Marathon`。
-
-可以通过如下命令发出 basic-0 任务到 Marathon 框架,框架会分配任务到某个满足条件的从节点上,成功会返回一个 json 对象,描述任务的详细信息。
-
-```sh
-$ curl -X POST http://marathon_host:8080/v2/apps -d @basic-0.json -H "Content-type: application/json"
-{"id":"/basic-0","cmd":"while [ true ] ; do echo 'Hello Marathon' ; sleep 5 ; done","args":null,"user":null,"env":{},"instances":1,"cpus":0.1,"mem":10,"disk":0,"executor":"","constraints":[],"uris":[],"storeUrls":[],"ports":[0],"requirePorts":false,"backoffSeconds":1,"backoffFactor":1.15,"maxLaunchDelaySeconds":3600,"container":null,"healthChecks":[],"dependencies":[],"upgradeStrategy":{"minimumHealthCapacity":1,"maximumOverCapacity":1},"labels":{},"acceptedResourceRoles":null,"version":"2015-12-28T05:33:05.805Z","tasksStaged":0,"tasksRunning":0,"tasksHealthy":0,"tasksUnhealthy":0,"deployments":[{"id":"3ec3fbd5-11e4-479f-bd17-813d33e43e0c"}],"tasks":[]}%
-```
-
-Marathon 的更多 REST API 可以参考本地自带的文档:`http://marathon_host:8080/api-console/index.html`。
-
-此时,如果运行任务的从节点出现故障,任务会自动在其它可用的从节点上启动。
-
-此外,目前也已经支持基于 Docker 容器的任务。需要先在 Mesos slave 节点上为 slave 服务配置 `--containerizers=docker,mesos` 参数。
-
-例如如下面的示例任务:
-
-```json
-{
- "id": "basic-3",
- "cmd": "python3 -m http.server 8080",
- "cpus": 0.5,
- "mem": 32.0,
- "container": {
- "type": "DOCKER",
- "volumes": [],
- "docker": {
- "image": "python:3",
- "network": "BRIDGE",
- "portMappings": [
- {
- "containerPort": 8080,
- "hostPort": 31000,
- "servicePort": 0,
- "protocol": "tcp"
- }
- ],
- "privileged": false,
- "parameters": [],
- "forcePullImage": true
- }
- }
-}
-```
-
-该任务启动一个 `python:3` 容器,执行 `python3 -m http.server 8080` 命令,作为一个简单的 web 服务,实际端口会映射到宿主机的 31000 端口。
-
-注意区分 hostPort 和 servicePort,前者代表任务映射到的本地可用端口(可用范围由 Mesos slave 汇报,默认为 31000 ~ 32000);后者作为服务管理的端口,可以被用作一些服务发行机制使用进行转发,在整个 Marathon 集群中是唯一的。
-
-任务执行后,也可以在对应 slave 节点上通过 Docker 命令查看容器运行情况,容器将以 `mesos-SLAVE_ID` 开头。
-
-```sh
-$ docker container ls
-CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
-1226b4ec8d7d python:3 "/bin/sh -c 'python3 " 3 days ago Up 3 days 0.0.0.0:10000->8080/tcp mesos-06db0fba-49dc-4d28-ad87-6c2d5a020866-S10.b581149e-2c43-46a2-b652-1a0bc10204b3
-```
diff --git a/mesos/intro.md b/mesos/intro.md
deleted file mode 100644
index a33a5b769..000000000
--- a/mesos/intro.md
+++ /dev/null
@@ -1,20 +0,0 @@
-## 简介
-Mesos 最初由 UC Berkeley 的 AMP 实验室于 2009 年发起,遵循 Apache 协议,目前已经成立了 Mesosphere 公司进行运营。Mesos 可以将整个数据中心的资源(包括 CPU、内存、存储、网络等)进行抽象和调度,使得多个应用同时运行在集群中分享资源,并无需关心资源的物理分布情况。
-
-如果把数据中心中的集群资源看做一台服务器,那么 Mesos 要做的事情,其实就是今天操作系统内核的职责:抽象资源 + 调度任务。Mesos 项目是 Mesosphere 公司 Datacenter Operating System (DCOS) 产品的核心部件。
-
-Mesos 项目主要由 C++ 语言编写,项目官方地址为 [https://mesos.apache.org](https://mesos.apache.org),代码仍在快速演化中,已经发布了正式版 1.0.0 版本。
-
-Mesos 拥有许多引人注目的特性,包括:
-* 支持数万个节点的大规模场景(Apple、Twitter、eBay 等公司实践);
-* 支持多种应用框架,包括 Marathon、Singularity、Aurora 等;
-* 支持 HA(基于 ZooKeeper 实现);
-* 支持 Docker、LXC 等容器机制进行任务隔离;
-* 提供了多个流行语言的 API,包括 Python、Java、C++ 等;
-* 自带了简洁易用的 WebUI,方便用户直接进行操作。
-
-值得注意的是,Mesos 自身只是一个资源抽象的平台,要使用它往往需要结合运行其上的分布式应用(在 Mesos 中被称作框架,framework),比如 Hadoop、Spark 等可以进行分布式计算的大数据处理应用;比如 Marathon 可以实现 PaaS,快速部署应用并自动保持运行;比如 ElasticSearch 可以索引海量数据,提供灵活的整合和查询能力……
-
-大部分时候,用户只需要跟这些框架打交道即可,完全无需关心底下的资源调度情况,因为 Mesos 已经自动帮你实现了。这大大方便了上层应用的开发和运维。
-
-当然,用户也可以基于 Mesos 打造自己的分布式应用框架。
diff --git a/mesos/monitor.md b/mesos/monitor.md
deleted file mode 100644
index 641b38db0..000000000
--- a/mesos/monitor.md
+++ /dev/null
@@ -1,110 +0,0 @@
-## 日志与监控
-
-Mesos 自身提供了强大的日志和监控功能,某些应用框架也提供了针对框架中任务的监控能力。通过这些接口,用户可以实时获知集群的各种状态。
-
-### 日志配置
-日志文件默认在 `/var/log/mesos` 目录下,根据日志等级带有不同后缀。
-
-用户可以通过日志来调试使用中碰到的问题。
-
-一般的,推荐使用 `--log_dir` 选项来指定日志存放路径,并通过日志分析引擎来进行监控。
-
-
-### 监控
-
-Mesos 提供了方便的监控接口,供用户查看集群中各个节点的状态。
-
-#### 主节点
-通过 `http://MASTER_NODE:5050/metrics/snapshot` 地址可以获取到 Mesos 主节点的各种状态统计信息,包括资源(CPU、硬盘、内存)使用、系统状态、从节点、应用框架、任务状态等。
-
-例如查看主节点 `10.0.0.2` 的状态信息,并用 jq 来解析返回的 json 对象。
-
-```sh
-$ curl -s http://10.0.0.2:5050/metrics/snapshot |jq .
-{
- "system/mem_total_bytes": 4144713728,
- "system/mem_free_bytes": 153071616,
- "system/load_5min": 0.37,
- "system/load_1min": 0.6,
- "system/load_15min": 0.29,
- "system/cpus_total": 4,
- "registrar/state_store_ms/p9999": 45.4096616192,
- "registrar/state_store_ms/p999": 45.399272192,
- "registrar/state_store_ms/p99": 45.29537792,
- "registrar/state_store_ms/p95": 44.8336256,
- "registrar/state_store_ms/p90": 44.2564352,
- "registrar/state_store_ms/p50": 34.362368,
- ...
- "master/recovery_slave_removals": 1,
- "master/slave_registrations": 0,
- "master/slave_removals": 0,
- "master/slave_removals/reason_registered": 0,
- "master/slave_removals/reason_unhealthy": 0,
- "master/slave_removals/reason_unregistered": 0,
- "master/slave_reregistrations": 2,
- "master/slave_shutdowns_canceled": 0,
- "master/slave_shutdowns_completed": 1,
- "master/slave_shutdowns_scheduled": 1
-}
-```
-
-#### 从节点
-
-通过 `http://SLAVE_NODE:5051/metrics/snapshot` 地址可以获取到 Mesos 从节点的各种状态统计信息,包括资源、系统状态、各种消息状态等。
-
-例如查看从节点 `10.0.0.10` 的状态信息。
-
-```sh
-$ curl -s http://10.0.0.10:5051/metrics/snapshot |jq .
-{
- "system/mem_total_bytes": 16827785216,
- "system/mem_free_bytes": 3377315840,
- "system/load_5min": 0.11,
- "system/load_1min": 0.16,
- "system/load_15min": 0.13,
- "system/cpus_total": 8,
- "slave/valid_status_updates": 11,
- "slave/valid_framework_messages": 0,
- "slave/uptime_secs": 954125.458927872,
- "slave/tasks_starting": 0,
- "slave/tasks_staging": 0,
- "slave/tasks_running": 1,
- "slave/tasks_lost": 0,
- "slave/tasks_killed": 2,
- "slave/tasks_finished": 0,
- "slave/executors_preempted": 0,
- "slave/executor_directory_max_allowed_age_secs": 403050.709525191,
- "slave/disk_used": 0,
- "slave/disk_total": 88929,
- "slave/disk_revocable_used": 0,
- "slave/disk_revocable_total": 0,
- "slave/disk_revocable_percent": 0,
- "slave/disk_percent": 0,
- "containerizer/mesos/container_destroy_errors": 0,
- "slave/container_launch_errors": 6,
- "slave/cpus_percent": 0.025,
- "slave/cpus_revocable_percent": 0,
- "slave/cpus_revocable_total": 0,
- "slave/cpus_revocable_used": 0,
- "slave/cpus_total": 8,
- "slave/cpus_used": 0.2,
- "slave/executors_registering": 0,
- "slave/executors_running": 1,
- "slave/executors_terminated": 8,
- "slave/executors_terminating": 0,
- "slave/frameworks_active": 1,
- "slave/invalid_framework_messages": 0,
- "slave/invalid_status_updates": 0,
- "slave/mem_percent": 0.00279552715654952,
- "slave/mem_revocable_percent": 0,
- "slave/mem_revocable_total": 0,
- "slave/mem_revocable_used": 0,
- "slave/mem_total": 15024,
- "slave/mem_used": 42,
- "slave/recovery_errors": 0,
- "slave/registered": 1,
- "slave/tasks_failed": 6
-}
-```
-
-另外,通过 `http://MASTER_NODE:5050/monitor/statistics.json` 地址可以看到该从节点上容器网络相关的统计数据,包括进出流量、丢包数、队列情况等。获取方法同上,在此不再演示。
\ No newline at end of file
diff --git a/mesos/summary.md b/mesos/summary.md
deleted file mode 100644
index 53d589162..000000000
--- a/mesos/summary.md
+++ /dev/null
@@ -1,7 +0,0 @@
-## 本章小结
-
-本章讲解了 Mesos 的安装使用、基本原理和架构,以及支持 Mesos 的重要应用框架。Mesos 最初设计为资源调度器,然而其灵活的设计和对上层框架的优秀支持,使得它可以很好的支持大规模的分布式应用场景。结合 Docker,Mesos 可以很容易部署一套私有的容器云。
-
-除了核心功能之外,Mesos 在设计上有许多值得借鉴之处,比如它清晰的定位、简洁的架构、细致的参数、高度容错的可靠,还有对限速、监控等的支持等。
-
-Mesos 作为一套成熟的开源项目,可以很好的被应用和集成到生产环境中。但它的定位集中在资源调度,往往需要结合应用框架或二次开发。
\ No newline at end of file
diff --git a/network/dns.md b/network/dns.md
index a84f90ea1..f13bbb7c8 100644
--- a/network/dns.md
+++ b/network/dns.md
@@ -1,4 +1,4 @@
-## 配置 DNS
+# 配置 DNS
如何自定义配置容器的主机名和 DNS 呢?秘诀就是 Docker 利用虚拟文件来挂载容器的 3 个相关配置文件。
diff --git a/network/linking.md b/network/linking.md
index a4319a537..e24ebd9bd 100644
--- a/network/linking.md
+++ b/network/linking.md
@@ -1,10 +1,10 @@
-## 容器互联
+# 容器互联
如果你之前有 `Docker` 使用经验,你可能已经习惯了使用 `--link` 参数来使容器互联。
随着 Docker 网络的完善,强烈建议大家将容器加入自定义的 Docker 网络来连接多个容器,而不是使用 `--link` 参数。
-### 新建网络
+## 新建网络
下面先创建一个新的 Docker 网络。
@@ -14,7 +14,7 @@ $ docker network create -d bridge my-net
`-d` 参数指定 Docker 网络类型,有 `bridge` `overlay`。其中 `overlay` 网络类型用于 [Swarm mode](../swarm_mode/),在本小节中你可以忽略它。
-### 连接容器
+## 连接容器
运行一个容器并连接到新建的 `my-net` 网络
@@ -62,6 +62,6 @@ PING busybox1 (172.19.0.2): 56 data bytes
这样,`busybox1` 容器和 `busybox2` 容器建立了互联关系。
-### Docker Compose
+## Docker Compose
如果你有多个容器之间需要互相连接,推荐使用 [Docker Compose](../compose)。
diff --git a/network/port_mapping.md b/network/port_mapping.md
index 59b0690cc..022287aef 100644
--- a/network/port_mapping.md
+++ b/network/port_mapping.md
@@ -1,73 +1,71 @@
-## 外部访问容器
+# 外部访问容器
容器中可以运行一些网络应用,要让外部也可以访问这些应用,可以通过 `-P` 或 `-p` 参数来指定端口映射。
-当使用 `-P` 标记时,Docker 会随机映射一个 `49000~49900` 的端口到内部容器开放的网络端口。
+当使用 `-P` 标记时,Docker 会随机映射一个端口到内部容器开放的网络端口。
-使用 `docker container ls` 可以看到,本地主机的 49155 被映射到了容器的 5000 端口。此时访问本机的 49155 端口即可访问容器内 web 应用提供的界面。
+使用 `docker container ls` 可以看到,本地主机的 32768 被映射到了容器的 80 端口。此时访问本机的 32768 端口即可访问容器内 NGINX 默认页面。
```bash
-$ docker run -d -P training/webapp python app.py
+$ docker run -d -P nginx:alpine
$ docker container ls -l
-CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
-bc533791f3f5 training/webapp:latest python app.py 5 seconds ago Up 2 seconds 0.0.0.0:49155->5000/tcp nostalgic_morse
+CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
+fae320d08268 nginx:alpine "/docker-entrypoint.…" 24 seconds ago Up 20 seconds 0.0.0.0:32768->80/tcp bold_mcnulty
```
-同样的,可以通过 `docker logs` 命令来查看应用的信息。
+同样的,可以通过 `docker logs` 命令来查看访问记录。
```bash
-$ docker logs -f nostalgic_morse
-* Running on http://0.0.0.0:5000/
-10.0.2.2 - - [23/May/2014 20:16:31] "GET / HTTP/1.1" 200 -
-10.0.2.2 - - [23/May/2014 20:16:31] "GET /favicon.ico HTTP/1.1" 404 -
+$ docker logs fa
+172.17.0.1 - - [25/Aug/2020:08:34:04 +0000] "GET / HTTP/1.1" 200 612 "-" "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:80.0) Gecko/20100101 Firefox/80.0" "-"
```
`-p` 则可以指定要映射的端口,并且,在一个指定端口上只可以绑定一个容器。支持的格式有 `ip:hostPort:containerPort | ip::containerPort | hostPort:containerPort`。
-### 映射所有接口地址
+## 映射所有接口地址
-使用 `hostPort:containerPort` 格式本地的 5000 端口映射到容器的 5000 端口,可以执行
+使用 `hostPort:containerPort` 格式本地的 80 端口映射到容器的 80 端口,可以执行
```bash
-$ docker run -d -p 5000:5000 training/webapp python app.py
+$ docker run -d -p 80:80 nginx:alpine
```
此时默认会绑定本地所有接口上的所有地址。
-### 映射到指定地址的指定端口
+## 映射到指定地址的指定端口
可以使用 `ip:hostPort:containerPort` 格式指定映射使用一个特定地址,比如 localhost 地址 127.0.0.1
```bash
-$ docker run -d -p 127.0.0.1:5000:5000 training/webapp python app.py
+$ docker run -d -p 127.0.0.1:80:80 nginx:alpine
```
-### 映射到指定地址的任意端口
+## 映射到指定地址的任意端口
-使用 `ip::containerPort` 绑定 localhost 的任意端口到容器的 5000 端口,本地主机会自动分配一个端口。
+使用 `ip::containerPort` 绑定 localhost 的任意端口到容器的 80 端口,本地主机会自动分配一个端口。
```bash
-$ docker run -d -p 127.0.0.1::5000 training/webapp python app.py
+$ docker run -d -p 127.0.0.1::80 nginx:alpine
```
还可以使用 `udp` 标记来指定 `udp` 端口
```bash
-$ docker run -d -p 127.0.0.1:5000:5000/udp training/webapp python app.py
+$ docker run -d -p 127.0.0.1:80:80/udp nginx:alpine
```
-### 查看映射端口配置
+## 查看映射端口配置
使用 `docker port` 来查看当前映射的端口配置,也可以查看到绑定的地址
```bash
-$ docker port nostalgic_morse 5000
-127.0.0.1:49155.
+$ docker port fa 80
+0.0.0.0:32768
```
注意:
-* 容器有自己的内部网络和 ip 地址(使用 `docker inspect` 可以获取所有的变量,Docker 还可以有一个可变的网络配置。)
+* 容器有自己的内部网络和 ip 地址(使用 `docker inspect` 查看,Docker 还可以有一个可变的网络配置。)
* `-p` 标记可以多次使用来绑定多个端口
@@ -75,8 +73,7 @@ $ docker port nostalgic_morse 5000
```bash
$ docker run -d \
- -p 5000:5000 \
- -p 3000:80 \
- training/webapp \
- python app.py
+ -p 80:80 \
+ -p 443:443 \
+ nginx:alpine
```
diff --git a/opensource/README.md b/opensource/README.md
deleted file mode 100644
index d9f54502a..000000000
--- a/opensource/README.md
+++ /dev/null
@@ -1,3 +0,0 @@
-# Docker 开源项目
-
-本章介绍 Docker 开源的项目。随着 Docker 功能的越来越多,Docker 也加快了开源的步伐,Docker 未来会将引擎拆分为更多开放组件,对用于组装 Docker 产品的各种新型工具与组件进行开源并供技术社区使用。
diff --git a/opensource/linuxkit.md b/opensource/linuxkit.md
deleted file mode 100644
index a4513c0e6..000000000
--- a/opensource/linuxkit.md
+++ /dev/null
@@ -1,51 +0,0 @@
-## LinuxKit
-
-`LinuxKit` 这个工具可以将多个 Docker 镜像组成一个最小化、可自由定制的 Linux 系统,最后的生成的系统只有几十 M 大小,可以很方便的在云端进行部署。
-
-下面我们在 macOS 上通过实例,来编译并运行一个全部由 Docker 镜像组成的包含 nginx 服务的 Linux 系统。
-
-### 安装 Linuxkit
-
-```bash
-$ brew tap linuxkit/linuxkit
-
-$ brew install --HEAD linuxkit
-```
-
-### 克隆源代码
-
-```bash
-$ git clone -b master --depth=1 https://github.com/linuxkit/linuxkit.git
-
-$ cd linuxkit
-```
-
-### 编译 Linux 系统
-
-LinuxKit 通过 `yaml` 文件配置。
-
-我们来查看 `linuxkit.yml` 文件,了解各个字段的作用。
-
-`kernel` 字段定义了内核版本。
-
-`init` 字段中配置系统启动时的初始化顺序。
-
-`onboot` 字段配置系统级的服务。
-
-`services` 字段配置镜像启动后运行的服务。
-
-`files` 字段配置制作镜像时打包入镜像中的文件。
-
-```bash
-$ linuxkit build linuxkit.yml
-```
-
-### 启动 Linux 系统
-
-编译成功后,接下来启动这个 Linux 系统。
-
-```bash
-$ linuxkit run -publish 8080:80/tcp linuxkit
-```
-
-接下来在浏览器中打开 `127.0.0.1:8080` 即可看到 nginx 默认页面。
diff --git a/package.json b/package.json
new file mode 100644
index 000000000..a35560b87
--- /dev/null
+++ b/package.json
@@ -0,0 +1,32 @@
+{
+ "name": "docker_practice",
+ "version": "1.0.0",
+ "description": "docker_practice",
+ "main": "index.js",
+ "devDependencies": {
+ "chalk": "^4.1.1",
+ "commander": "^7.2.0",
+ "esm": "^3.0.0",
+ "vuepress": "1.8.2",
+ "vuepress-plugin-container": "^2.1.5",
+ "vuepress-theme-hope": "^1.0.0"
+ },
+ "scripts": {
+ "test": "echo \"Error: no test specified\" && exit 1",
+ "gitbook:help": "gitbook help",
+ "gitbook:build": "gitbook build",
+ "gitbook:serve": "gitbook serve",
+ "vuepress:build": "npx vuepress build",
+ "vuepress": "npx vuepress"
+ },
+ "repository": {
+ "type": "git",
+ "url": "git+https://github.com/yeasy/docker_practice.git"
+ },
+ "author": "",
+ "license": "ISC",
+ "bugs": {
+ "url": "https://github.com/yeasy/docker_practice/issues"
+ },
+ "homepage": "https://github.com/yeasy/docker_practice#readme"
+}
diff --git a/podman/README.md b/podman/README.md
new file mode 100644
index 000000000..1930d0454
--- /dev/null
+++ b/podman/README.md
@@ -0,0 +1,23 @@
+# podman
+
+[`podman`](https://github.com/containers/podman) 是一个无守护程序与 docker 命令兼容的下一代 Linux 容器工具。
+
+## 安装
+
+```bash
+$ sudo yum -y install podman
+```
+
+## 使用
+
+`podman` 与 docker 命令完全兼容,只需将 `docker` 替换为 `podman` 即可,例如运行一个容器:
+
+```bash
+# $ docker run -d -p 80:80 nginx:alpine
+
+$ podman run -d -p 80:80 nginx:alpine
+```
+
+## 参考
+
+* https://developers.redhat.com/blog/2019/02/21/podman-and-buildah-for-docker-users/
diff --git a/repository/README.md b/repository/README.md
index d705fa9bb..52df443a6 100644
--- a/repository/README.md
+++ b/repository/README.md
@@ -2,6 +2,6 @@
仓库(`Repository`)是集中存放镜像的地方。
-一个容易混淆的概念是注册服务器(`Registry`)。实际上注册服务器是管理仓库的具体服务器,每个服务器上可以有多个仓库,而每个仓库下面有多个镜像。从这方面来说,仓库可以被认为是一个具体的项目或目录。例如对于仓库地址 `dl.dockerpool.com/ubuntu` 来说,`dl.dockerpool.com` 是注册服务器地址,`ubuntu` 是仓库名。
+一个容易混淆的概念是注册服务器(`Registry`)。实际上注册服务器是管理仓库的具体服务器,每个服务器上可以有多个仓库,而每个仓库下面有多个镜像。从这方面来说,仓库可以被认为是一个具体的项目或目录。例如对于仓库地址 `docker.io/ubuntu` 来说,`docker.io` 是注册服务器地址,`ubuntu` 是仓库名。
大部分时候,并不需要严格区分这两者的概念。
diff --git a/repository/dockerhub.md b/repository/dockerhub.md
index 2284b9cbd..cf0569372 100644
--- a/repository/dockerhub.md
+++ b/repository/dockerhub.md
@@ -1,18 +1,18 @@
-## Docker Hub
+# Docker Hub
-目前 Docker 官方维护了一个公共仓库 [Docker Hub](https://hub.docker.com/),其中已经包括了数量超过 15,000 的镜像。大部分需求都可以通过在 Docker Hub 中直接下载镜像来实现。
+目前 Docker 官方维护了一个公共仓库 [Docker Hub](https://hub.docker.com/),其中已经包括了数量超过 [2,650,000](https://hub.docker.com/search/?type=image) 的镜像。大部分需求都可以通过在 Docker Hub 中直接下载镜像来实现。
-### 注册
+## 注册
你可以在 https://hub.docker.com 免费注册一个 Docker 账号。
-### 登录
+## 登录
可以通过执行 `docker login` 命令交互式的输入用户名及密码来完成在命令行界面登录 Docker Hub。
你可以通过 `docker logout` 退出登录。
-### 拉取镜像
+## 拉取镜像
你可以通过 `docker search` 命令来查找官方仓库中的镜像,并利用 `docker pull` 命令来将它下载到本地。
@@ -20,21 +20,21 @@
```bash
$ docker search centos
-NAME DESCRIPTION STARS OFFICIAL AUTOMATED
-centos The official build of CentOS. 465 [OK]
-tianon/centos CentOS 5 and 6, created using rinse instea... 28
-blalor/centos Bare-bones base CentOS 6.5 image 6 [OK]
-saltstack/centos-6-minimal 6 [OK]
-tutum/centos-6.4 DEPRECATED. Use tutum/centos:6.4 instead. ... 5 [OK]
+NAME DESCRIPTION STARS OFFICIAL AUTOMATED
+centos The official build of CentOS. 6449 [OK]
+ansible/centos7-ansible Ansible on Centos7 132 [OK]
+consol/centos-xfce-vnc Centos container with "headless" VNC session… 126 [OK]
+jdeathe/centos-ssh OpenSSH / Supervisor / EPEL/IUS/SCL Repos - … 117 [OK]
+centos/systemd systemd enabled base container. 96 [OK]
```
-可以看到返回了很多包含关键字的镜像,其中包括镜像名字、描述、收藏数(表示该镜像的受关注程度)、是否官方创建(OFFICIAL)、是否自动构建 (AUTOMATED)。
+可以看到返回了很多包含关键字的镜像,其中包括镜像名字、描述、收藏数(表示该镜像的受关注程度)、是否官方创建(`OFFICIAL`)、是否自动构建 (`AUTOMATED`)。
根据是否是官方提供,可将镜像分为两类。
一种是类似 `centos` 这样的镜像,被称为基础镜像或根镜像。这些基础镜像由 Docker 公司创建、验证、支持、提供。这样的镜像往往使用单个单词作为名字。
-还有一种类型,比如 `tianon/centos` 镜像,它是由 Docker Hub 的注册用户创建并维护的,往往带有用户名称前缀。可以通过前缀 `username/` 来指定使用某个用户提供的镜像,比如 tianon 用户。
+还有一种类型,比如 `ansible/centos7-ansible` 镜像,它是由 Docker Hub 的注册用户创建并维护的,往往带有用户名称前缀。可以通过前缀 `username/` 来指定使用某个用户提供的镜像,比如 ansible 用户。
另外,在查找的时候通过 `--filter=stars=N` 参数可以指定仅显示收藏数量为 `N` 以上的镜像。
@@ -42,14 +42,15 @@ tutum/centos-6.4 DEPRECATED. Use tutum/centos:6.4
```bash
$ docker pull centos
-Pulling repository centos
-0b443ba03958: Download complete
-539c0211cd76: Download complete
-511136ea3c5a: Download complete
-7064731afe90: Download complete
+Using default tag: latest
+latest: Pulling from library/centos
+7a0437f04f83: Pull complete
+Digest: sha256:5528e8b1b1719d34604c87e11dcd1c0a20bedf46e83b5632cdeac91b8c04efc1
+Status: Downloaded newer image for centos:latest
+docker.io/library/centos:latest
```
-### 推送镜像
+## 推送镜像
用户也可以在登录后通过 `docker push` 命令来将自己的镜像推送到 Docker Hub。
@@ -72,19 +73,21 @@ NAME DESCRIPTION STARS
username/ubuntu
```
-### 自动构建
+## 自动构建
-自动构建(Automated Builds)功能对于需要经常升级镜像内程序来说,十分方便。
+> 2021 年 7 月 26 日之后,该项功能仅限[付费用户](https://www.docker.com/blog/changes-to-docker-hub-autobuilds/)使用。
+
+自动构建(`Automated Builds`)可以自动触发构建镜像,方便升级镜像。
有时候,用户构建了镜像,安装了某个软件,当软件发布新版本则需要手动更新镜像。
-而自动构建允许用户通过 Docker Hub 指定跟踪一个目标网站(支持 [GitHub](https://github.com) 或 [BitBucket](https://bitbucket.org))上的项目,一旦项目发生新的提交 (commit)或者创建了新的标签(tag),Docker Hub 会自动构建镜像并推送到 Docker Hub 中。
+而自动构建允许用户通过 Docker Hub 指定跟踪一个目标网站(支持 [GitHub](https://github.com) 或 [BitBucket](https://bitbucket.org))上的项目,一旦项目发生新的提交 (`commit`)或者创建了新的标签(`tag`),Docker Hub 会自动构建镜像并推送到 Docker Hub 中。
要配置自动构建,包括如下的步骤:
* 登录 Docker Hub;
-* 在 Docker Hub 点击右上角头像,在账号设置(Account Settings)中关联(Linked Accounts)目标网站;
+* 在 Docker Hub 点击右上角头像,在账号设置(`Account Settings`)中关联(`Linked Accounts`)目标网站;
* 在 Docker Hub 中新建或选择已有的仓库,在 `Builds` 选项卡中选择 `Configure Automated Builds`;
diff --git a/repository/nexus3_registry.md b/repository/nexus3_registry.md
index 45a6ae669..de3c0d524 100644
--- a/repository/nexus3_registry.md
+++ b/repository/nexus3_registry.md
@@ -1,8 +1,8 @@
-## Nexus3.x 的私有仓库
+# Nexus3.x 的私有仓库
-使用 Docker 官方的 Registry 创建的仓库面临一些维护问题。比如某些镜像删除以后空间默认是不会回收的,需要一些命令去回收空间然后重启 Registry 程序。在企业中把内部的一些工具包放入 Nexus 中是比较常见的做法,最新版本 `Nexus3.x` 全面支持 Docker 的私有镜像。所以使用 [`Nexus3.x`](https://www.sonatype.com/download-oss-sonatype/) 一个软件来管理 `Docker` , `Maven` , `Yum` , `PyPI` 等是一个明智的选择。
+使用 Docker 官方的 Registry 创建的仓库面临一些维护问题。比如某些镜像删除以后空间默认是不会回收的,需要一些命令去回收空间然后重启 Registry。在企业中把内部的一些工具包放入 `Nexus` 中是比较常见的做法,最新版本 `Nexus3.x` 全面支持 Docker 的私有镜像。所以使用 [`Nexus3.x`](https://www.sonatype.com/product/repository-oss-download) 一个软件来管理 `Docker` , `Maven` , `Yum` , `PyPI` 等是一个明智的选择。
-### 启动 Nexus 容器
+## 启动 Nexus 容器
```bash
$ docker run -d --name nexus3 --restart=always \
@@ -11,22 +11,45 @@ $ docker run -d --name nexus3 --restart=always \
sonatype/nexus3
```
-等待 3-5 分钟,如果 `nexus3` 容器没有异常退出,那么你可以使用浏览器打开 `http://YourIP:8081` 访问 Nexus 了。
+首次运行需等待 3-5 分钟,你可以使用 `docker logs nexus3 -f` 查看日志:
-第一次启动 Nexus 的默认帐号是 `admin` 密码是 `admin123` 登录以后点击页面上方的齿轮按钮进行设置。
+```bash
+$ docker logs nexus3 -f
+
+2021-03-11 15:31:21,990+0000 INFO [jetty-main-1] *SYSTEM org.sonatype.nexus.bootstrap.jetty.JettyServer -
+-------------------------------------------------
+
+Started Sonatype Nexus OSS 3.30.0-01
+
+-------------------------------------------------
+
+```
+
+如果你看到以上内容,说明 `Nexus` 已经启动成功,你可以使用浏览器打开 `http://YourIP:8081` 访问 `Nexus` 了。
+
+首次运行请通过以下命令获取初始密码:
+
+```bash
+$ docker exec nexus3 cat /nexus-data/admin.password
+
+9266139e-41a2-4abb-92ec-e4142a3532cb
+```
+
+首次启动 Nexus 的默认帐号是 `admin` ,密码则是上边命令获取到的,点击右上角登录,首次登录需更改初始密码。
+
+登录之后可以点击页面上方的齿轮按钮按照下面的方法进行设置。
-### 创建仓库
+## 创建仓库
创建一个私有仓库的方法: `Repository->Repositories` 点击右边菜单 `Create repository` 选择 `docker (hosted)`
-* Name: 仓库的名称
-* HTTP: 仓库单独的访问端口
-* Enable Docker V1 API: 如果需要同时支持 V1 版本请勾选此项(不建议勾选)。
-* Hosted -> Deployment pollcy: 请选择 Allow redeploy 否则无法上传 Docker 镜像。
+* **Name**: 仓库的名称
+* **HTTP**: 仓库单独的访问端口(例如:**5001**)
+* **Hosted -> Deployment pollcy**: 请选择 **Allow redeploy** 否则无法上传 Docker 镜像。
-其它的仓库创建方法请各位自己摸索,还可以创建一个 docker (proxy) 类型的仓库链接到 DockerHub 上。再创建一个 docker (group) 类型的仓库把刚才的 hosted 与 proxy 添加在一起。主机在访问的时候默认下载私有仓库中的镜像,如果没有将链接到 DockerHub 中下载并缓存到 Nexus 中。
+其它的仓库创建方法请各位自己摸索,还可以创建一个 `docker (proxy)` 类型的仓库链接到 DockerHub 上。再创建一个 `docker (group)` 类型的仓库把刚才的 `hosted` 与 `proxy` 添加在一起。主机在访问的时候默认下载私有仓库中的镜像,如果没有将链接到 DockerHub 中下载并缓存到 Nexus 中。
-### 添加访问权限
+## 添加访问权限
菜单 `Security->Realms` 把 Docker Bearer Token Realm 移到右边的框中保存。
@@ -34,7 +57,7 @@ $ docker run -d --name nexus3 --restart=always \
添加用户:菜单 `Security->Users`->`Create local user` 在 `Roles` 选项中选中刚才创建的规则移动到右边的窗口保存。
-### NGINX 加密代理
+## NGINX 加密代理
证书的生成请参见 [`私有仓库高级配置`](registry_auth.md) 里面证书生成一节。
@@ -43,7 +66,7 @@ NGINX 示例配置如下
```nginx
upstream register
{
- server "YourHostName OR IP":5001; #端口为上面添加的私有镜像仓库是设置的 HTTP 选项的端口号
+ server "YourHostName OR IP":5001; #端口为上面添加私有镜像仓库时设置的 HTTP 选项的端口号
check interval=3000 rise=2 fall=10 timeout=1000 type=http;
check_http_send "HEAD / HTTP/1.0\r\n\r\n";
check_http_expect_alive http_4xx;
@@ -89,11 +112,11 @@ server {
}
```
-### Docker 主机访问镜像仓库
+## Docker 主机访问镜像仓库
-如果不启用 SSL 加密可以通过前面章节的方法添加信任地址到 Docker 的配置文件中然后重启 Docker
+如果不启用 SSL 加密可以通过 [前面章节](./registry.md) 的方法添加非 https 仓库地址到 Docker 的配置文件中然后重启 Docker。
-使用 SSL 加密以后程序需要访问就不能采用修改配置的访问了。具体方法如下:
+使用 SSL 加密以后程序需要访问就不能采用修改配置的方式了。具体方法如下:
```bash
$ openssl s_client -showcerts -connect YourDomainName OR HostIP:443 /dev/null|openssl x509 -outform PEM >ca.crt
@@ -101,4 +124,4 @@ $ cat ca.crt | sudo tee -a /etc/ssl/certs/ca-certificates.crt
$ systemctl restart docker
```
-使用 `docker login YourDomainName OR HostIP` 进行测试,用户名密码填写上面 Nexus 中生成的。
+使用 `docker login YourDomainName OR HostIP` 进行测试,用户名密码填写上面 Nexus 中设置的。
diff --git a/repository/registry.md b/repository/registry.md
index 9b11e1caa..20fce3ace 100644
--- a/repository/registry.md
+++ b/repository/registry.md
@@ -1,4 +1,4 @@
-## 私有仓库
+# 私有仓库
有时候使用 Docker Hub 这样的公共仓库可能不方便,用户可以创建一个本地仓库供私人使用。
@@ -6,11 +6,11 @@
[`docker-registry`](https://docs.docker.com/registry/) 是官方提供的工具,可以用于构建私有的镜像仓库。本文内容基于 [`docker-registry`](https://github.com/docker/distribution) v2.x 版本。
-### 安装运行 docker-registry
+## 安装运行 docker-registry
-#### 容器运行
+### 容器运行
-你可以通过获取官方 `registry` 镜像来运行。
+你可以使用官方 `registry` 镜像来运行。
```bash
$ docker run -d -p 5000:5000 --restart=always --name registry registry
@@ -25,7 +25,7 @@ $ docker run -d \
registry
```
-### 在私有仓库上传、搜索、下载镜像
+## 在私有仓库上传、搜索、下载镜像
创建好私有仓库之后,就可以使用 `docker tag` 来标记一个镜像,然后推送它到仓库。例如私有仓库地址为 `127.0.0.1:5000`。
@@ -91,20 +91,21 @@ REPOSITORY TAG IMAGE ID CREAT
127.0.0.1:5000/ubuntu:latest latest ba5877dc9bec 6 weeks ago 192.7 MB
```
-### 注意事项
+## 配置非 https 仓库地址
如果你不想使用 `127.0.0.1:5000` 作为仓库地址,比如想让本网段的其他主机也能把镜像推送到私有仓库。你就得把例如 `192.168.199.100:5000` 这样的内网地址作为私有仓库地址,这时你会发现无法成功推送镜像。
这是因为 Docker 默认不允许非 `HTTPS` 方式推送镜像。我们可以通过 Docker 的配置选项来取消这个限制,或者查看下一节配置能够通过 `HTTPS` 访问的私有仓库。
-#### Ubuntu 16.04+, Debian 8+, centos 7
+### Ubuntu 16.04+, Debian 8+, centos 7
对于使用 `systemd` 的系统,请在 `/etc/docker/daemon.json` 中写入如下内容(如果文件不存在请新建该文件)
```json
{
- "registry-mirror": [
- "https://registry.docker-cn.com"
+ "registry-mirrors": [
+ "https://hub-mirror.c.163.com",
+ "https://mirror.baidubce.com"
],
"insecure-registries": [
"192.168.199.100:5000"
@@ -114,6 +115,6 @@ REPOSITORY TAG IMAGE ID CREAT
>注意:该文件必须符合 `json` 规范,否则 Docker 将不能启动。
-### 其他
+## 其他
-对于 Docker Desktop for Windows 、 Docker Desktop for Mac 在设置中编辑 `daemon.json` 增加和上边一样的字符串即可。
+对于 Docker Desktop for Windows 、 Docker Desktop for Mac 在设置中的 `Docker Engine` 中进行编辑 ,增加和上边一样的字符串即可。
diff --git a/repository/registry_auth.md b/repository/registry_auth.md
index 9b5054400..2776bfea6 100644
--- a/repository/registry_auth.md
+++ b/repository/registry_auth.md
@@ -1,10 +1,10 @@
-## 私有仓库高级配置
+# 私有仓库高级配置
上一节我们搭建了一个具有基础功能的私有仓库,本小节我们来使用 `Docker Compose` 搭建一个拥有权限认证、TLS 的私有仓库。
新建一个文件夹,以下步骤均在该文件夹中进行。
-### 准备站点证书
+## 准备站点证书
如果你拥有一个域名,国内各大云服务商均提供免费的站点证书。你也可以使用 `openssl` 自行签发证书。
@@ -82,7 +82,7 @@ $ openssl x509 -req -days 750 -in "site.csr" -sha256 \
新建 `ssl` 文件夹并将 `docker.domain.com.key` `docker.domain.com.crt` `root-ca.crt` 这三个文件移入,删除其他文件。
-### 配置私有仓库
+## 配置私有仓库
私有仓库默认的配置文件位于 `/etc/docker/registry/config.yml`,我们先在本地编辑 `config.yml`,之后挂载到容器中。
@@ -124,20 +124,20 @@ health:
threshold: 3
```
-### 生成 http 认证文件
+## 生成 http 认证文件
```bash
$ mkdir auth
$ docker run --rm \
--entrypoint htpasswd \
- registry \
+ httpd:alpine \
-Bbn username password > auth/nginx.htpasswd
```
> 将上面的 `username` `password` 替换为你自己的用户名和密码。
-### 编辑 `docker-compose.yml`
+## 编辑 `docker-compose.yml`
```yaml
version: '3'
@@ -155,7 +155,7 @@ volumes:
registry-data:
```
-### 修改 hosts
+## 修改 hosts
编辑 `/etc/hosts`
@@ -163,7 +163,7 @@ volumes:
127.0.0.1 docker.domain.com
```
-### 启动
+## 启动
```bash
$ docker-compose up -d
@@ -171,7 +171,7 @@ $ docker-compose up -d
这样我们就搭建好了一个具有权限认证、TLS 的私有仓库,接下来我们测试其功能是否正常。
-### 测试私有仓库功能
+## 测试私有仓库功能
由于自行签发的 CA 根证书不被系统信任,所以我们需要将 CA 根证书 `ssl/root-ca.crt` 移入 `/etc/docker/certs.d/docker.domain.com` 文件夹中。
@@ -213,6 +213,6 @@ no basic auth credentials
发现会提示没有登录,不能将镜像推送到私有仓库中。
-### 注意事项
+## 注意事项
如果你本机占用了 `443` 端口,你可以配置 [Nginx 代理](https://docs.docker.com/registry/recipes/nginx/),这里不再赘述。
diff --git a/security/README.md b/security/README.md
index fab030317..c183e6a63 100644
--- a/security/README.md
+++ b/security/README.md
@@ -1,4 +1,5 @@
# 安全
+
评估 Docker 的安全性时,主要考虑三个方面:
* 由内核的命名空间和控制组机制提供的容器内在安全
diff --git a/security/control_group.md b/security/control_group.md
index 0940a3073..338f5f958 100644
--- a/security/control_group.md
+++ b/security/control_group.md
@@ -1,4 +1,5 @@
-## 控制组
+# 控制组
+
控制组是 Linux 容器机制的另外一个关键组件,负责实现资源的审计和限制。
它提供了很多有用的特性;以及确保各个容器可以公平地分享主机的内存、CPU、磁盘 IO 等资源;当然,更重要的是,控制组确保了当容器内的资源使用产生压力时不会连累主机系统。
diff --git a/security/daemon_sec.md b/security/daemon_sec.md
index c1b4057d6..81c862700 100644
--- a/security/daemon_sec.md
+++ b/security/daemon_sec.md
@@ -1,4 +1,5 @@
-## Docker服务端的防护
+# Docker服务端的防护
+
运行一个容器或应用程序的核心是通过 Docker 服务端。Docker 服务的运行目前需要 root 权限,因此其安全性十分关键。
首先,确保只有可信的用户才可以访问 Docker 服务。Docker 允许用户在主机和容器间共享文件夹,同时不需要限制容器的访问权限,这就容易让容器突破资源限制。例如,恶意用户启动容器的时候将主机的根目录`/`映射到容器的 `/host` 目录中,那么容器理论上就可以对主机的文件系统进行任意修改了。这听起来很疯狂?但是事实上几乎所有虚拟化系统都允许类似的资源共享,而没法禁止用户共享主机根文件系统到虚拟机系统。
@@ -7,12 +8,12 @@
为了加强对服务端的保护,Docker 的 REST API(客户端用来跟服务端通信)在 0.5.2 之后使用本地的 Unix 套接字机制替代了原先绑定在 127.0.0.1 上的 TCP 套接字,因为后者容易遭受跨站脚本攻击。现在用户使用 Unix 权限检查来加强套接字的访问安全。
-用户仍可以利用 HTTP 提供 REST API 访问。建议使用安全机制,确保只有可信的网络或 VPN,或证书保护机制(例如受保护的 stunnel 和 ssl 认证)下的访问可以进行。此外,还可以使用 HTTPS 和证书来加强保护。
+用户仍可以利用 HTTP 提供 REST API 访问。建议使用安全机制,确保只有可信的网络或 VPN,或证书保护机制(例如受保护的 stunnel 和 ssl 认证)下的访问可以进行。此外,还可以使用 [ HTTPS 和证书](https://docs.docker.com/engine/security/https/) 来加强保护。
最近改进的 Linux 命名空间机制将可以实现使用非 root 用户来运行全功能的容器。这将从根本上解决了容器和主机之间共享文件系统而引起的安全问题。
终极目标是改进 2 个重要的安全特性:
-* 将容器的 root 用户映射到本地主机上的非 root 用户,减轻容器和主机之间因权限提升而引起的安全问题;
-* 允许 Docker 服务端在非 root 权限下运行,利用安全可靠的子进程来代理执行需要特权权限的操作。这些子进程将只允许在限定范围内进行操作,例如仅仅负责虚拟网络设定或文件系统管理、配置操作等。
+* 将容器的 root 用户 [映射到本地主机上的非 root 用户](https://docs.docker.com/engine/security/userns-remap/),减轻容器和主机之间因权限提升而引起的安全问题;
+* 允许 Docker 服务端在 [非 root 权限(rootless 模式)](https://docs.docker.com/engine/security/rootless/) 下运行,利用安全可靠的子进程来代理执行需要特权权限的操作。这些子进程将只允许在限定范围内进行操作,例如仅仅负责虚拟网络设定或文件系统管理、配置操作等。
最后,建议采用专用的服务器来运行 Docker 和相关的管理服务(例如管理服务比如 ssh 监控和进程监控、管理工具 nrpe、collectd 等)。其它的业务服务都放到容器中去运行。
diff --git a/security/kernel_capability.md b/security/kernel_capability.md
index bbe3a5236..8d48b277c 100644
--- a/security/kernel_capability.md
+++ b/security/kernel_capability.md
@@ -1,6 +1,6 @@
-## 内核能力机制
+# 内核能力机制
-能力机制(Capability)是 Linux 内核一个强大的特性,可以提供细粒度的权限访问控制。
+[能力机制(Capability)](https://man7.org/linux/man-pages/man7/capabilities.7.html) 是 Linux 内核一个强大的特性,可以提供细粒度的权限访问控制。
Linux 内核自 2.2 版本起就支持能力机制,它将权限划分为更加细粒度的操作能力,既可以作用在进程上,也可以作用在文件上。
例如,一个 Web 服务进程只需要绑定一个低于 1024 的端口的权限,并不需要 root 权限。那么它只需要被授权 `net_bind_service` 能力即可。此外,还有很多其他的类似能力来避免进程获取 root 权限。
@@ -22,5 +22,5 @@ Linux 内核自 2.2 版本起就支持能力机制,它将权限划分为更加
这样,就算攻击者在容器中取得了 root 权限,也不能获得本地主机的较高权限,能进行的破坏也有限。
-默认情况下,Docker采用白名单机制,禁用必需功能之外的其它权限。
+默认情况下,Docker采用 [白名单](https://github.com/moby/moby/blob/master/oci/caps/defaults.go) 机制,禁用必需功能之外的其它权限。
当然,用户也可以根据自身需求来为 Docker 容器启用额外的权限。
diff --git a/security/kernel_ns.md b/security/kernel_ns.md
index 1ce607c37..b14e4c27e 100644
--- a/security/kernel_ns.md
+++ b/security/kernel_ns.md
@@ -1,4 +1,5 @@
-## 内核命名空间
+# 内核命名空间
+
Docker 容器和 LXC 容器很相似,所提供的安全特性也差不多。当用 `docker run` 启动一个容器时,在后台 Docker 为容器创建了一个独立的命名空间和控制组集合。
命名空间提供了最基础也是最直接的隔离,在容器中运行的进程不会被运行在主机上的进程和其它容器发现和作用。
diff --git a/security/other_feature.md b/security/other_feature.md
index 5b70b5fb1..2486cfe57 100644
--- a/security/other_feature.md
+++ b/security/other_feature.md
@@ -1,5 +1,6 @@
-## 其它安全特性
-除了能力机制之外,还可以利用一些现有的安全机制来增强使用 Docker 的安全性,例如 TOMOYO, AppArmor, SELinux, GRSEC 等。
+# 其它安全特性
+
+除了能力机制之外,还可以利用一些现有的安全机制来增强使用 Docker 的安全性,例如 TOMOYO, AppArmor, Seccomp, SELinux, GRSEC 等。
Docker 当前默认只启用了能力机制。用户可以采用多种方案来加强 Docker 主机的安全,例如:
* 在内核中启用 GRSEC 和 PAX,这将增加很多编译和运行时的安全检查;通过地址随机化避免恶意探测等。并且,启用该特性不需要 Docker 进行任何配置。
diff --git a/security/summary.md b/security/summary.md
index 0b2b52890..ac789925d 100644
--- a/security/summary.md
+++ b/security/summary.md
@@ -1,4 +1,5 @@
-## 总结
+# 总结
+
总体来看,Docker 容器还是十分安全的,特别是在容器内不使用 root 权限来运行进程的话。
-另外,用户可以使用现有工具,比如 Apparmor, SELinux, GRSEC 来增强安全性;甚至自己在内核中实现更复杂的安全机制。
+另外,用户可以使用现有工具,比如 [Apparmor](https://docs.docker.com/engine/security/apparmor/), [Seccomp](https://docs.docker.com/engine/security/seccomp/), SELinux, GRSEC 来增强安全性;甚至自己在内核中实现更复杂的安全机制。
diff --git a/swarm/README.md b/swarm/README.md
deleted file mode 100644
index 5518654f9..000000000
--- a/swarm/README.md
+++ /dev/null
@@ -1,7 +0,0 @@
-# Docker 三剑客之 Docker Swarm
-
-Docker Swarm 是 Docker 官方三剑客项目之一,提供 Docker 容器集群服务,是 Docker 官方对容器云生态进行支持的核心方案。
-
-使用它,用户可以将多个 Docker 主机封装为单个大型的虚拟 Docker 主机,快速打造一套容器云平台。
-
-注意:Docker 1.12.0+ [Swarm mode](https://docs.docker.com/engine/swarm/) 已经内嵌入 Docker 引擎,成为了 docker 子命令 `docker swarm`,绝大多数用户已经开始使用 `Swarm mode`,Docker 引擎 API 已经删除 Docker Swarm。为避免大家混淆旧的 `Docker Swarm` 与新的 `Swarm mode`,旧的 `Docker Swarm` 内容已经删除,请查看 `Swarm mode` 一节。
diff --git a/swarm_mode/config.md b/swarm_mode/config.md
index 484e94349..a18e5a1cf 100644
--- a/swarm_mode/config.md
+++ b/swarm_mode/config.md
@@ -1,4 +1,4 @@
-## 在 Swarm 集群中管理配置数据
+# 在 Swarm 集群中管理配置数据
在动态的、大规模的分布式集群上,管理和分发配置文件也是很重要的工作。传统的配置文件分发方式(如配置文件放入镜像中,设置环境变量,volume 动态挂载等)都降低了镜像的通用性。
@@ -8,7 +8,7 @@
这里我们以在 Swarm 集群中部署 `redis` 服务为例。
-### 创建 config
+## 创建 config
新建 `redis.conf` 文件
@@ -24,7 +24,7 @@ port 6380
$ docker config create redis.conf redis.conf
```
-### 查看 config
+## 查看 config
使用 `docker config ls` 命令来查看 `config`
@@ -35,7 +35,7 @@ ID NAME CREATED UPDATED
yod8fx8iiqtoo84jgwadp86yk redis.conf 4 seconds ago 4 seconds ago
```
-### 创建 redis 服务
+## 创建 redis 服务
```bash
$ docker service create \
diff --git a/swarm_mode/create.md b/swarm_mode/create.md
index 4e35b6174..c40a7cc93 100644
--- a/swarm_mode/create.md
+++ b/swarm_mode/create.md
@@ -1,23 +1,13 @@
-## 创建 Swarm 集群
+# 创建 Swarm 集群
阅读 [基本概念](overview.md) 一节我们知道 `Swarm` 集群由 **管理节点** 和 **工作节点** 组成。本节我们来创建一个包含一个管理节点和两个工作节点的最小 `Swarm` 集群。
-### 初始化集群
+## 初始化集群
-在 [`Docker Machine`](../machine) 一节中我们了解到 `Docker Machine` 可以在数秒内创建一个虚拟的 Docker 主机,下面我们使用它来创建三个 Docker 主机,并加入到集群中。
-
-我们首先创建一个 Docker 主机作为管理节点。
-
-```bash
-$ docker-machine create -d virtualbox manager
-```
-
-我们使用 `docker swarm init` 在管理节点初始化一个 `Swarm` 集群。
+在已经安装好 Docker 的主机上执行如下命令:
```bash
-$ docker-machine ssh manager
-
-docker@manager:~$ docker swarm init --advertise-addr 192.168.99.100
+$ docker swarm init --advertise-addr 192.168.99.100
Swarm initialized: current node (dxn1zf6l61qsb1josjja83ngz) is now a manager.
To add a worker to this swarm, run the following command:
@@ -33,37 +23,19 @@ To add a manager to this swarm, run 'docker swarm join-token manager' and follow
> 执行 `docker swarm init` 命令的节点自动成为管理节点。
-### 增加工作节点
-
-上一步我们初始化了一个 `Swarm` 集群,拥有了一个管理节点,下面我们继续创建两个 Docker 主机作为工作节点,并加入到集群中。
-
-```bash
-$ docker-machine create -d virtualbox worker1
-
-$ docker-machine ssh worker1
+## 增加工作节点
-docker@worker1:~$ docker swarm join \
- --token SWMTKN-1-49nj1cmql0jkz5s954yi3oex3nedyz0fb0xx14ie39trti4wxv-8vxv8rssmk743ojnwacrr2e7c \
- 192.168.99.100:2377
-
-This node joined a swarm as a worker.
-```
+上一步我们初始化了一个 `Swarm` 集群,拥有了一个管理节点,下面我们继续在两个 Docker 主机中分别执行如下命令,创建工作节点并加入到集群中。
```bash
-$ docker-machine create -d virtualbox worker2
-
-$ docker-machine ssh worker2
-
-docker@worker1:~$ docker swarm join \
+$ docker swarm join \
--token SWMTKN-1-49nj1cmql0jkz5s954yi3oex3nedyz0fb0xx14ie39trti4wxv-8vxv8rssmk743ojnwacrr2e7c \
192.168.99.100:2377
This node joined a swarm as a worker.
```
->注意:一些细心的读者可能通过 `docker-machine create --help` 查看到 `--swarm*` 等一系列参数。该参数是用于旧的 `Docker Swarm`,与本章所讲的 `Swarm mode` 没有关系。
-
-### 查看集群
+## 查看集群
经过上边的两步,我们已经拥有了一个最小的 `Swarm` 集群,包含一个管理节点和两个工作节点。
diff --git a/swarm_mode/deploy.md b/swarm_mode/deploy.md
index 9d46c3720..2c22679cc 100644
--- a/swarm_mode/deploy.md
+++ b/swarm_mode/deploy.md
@@ -1,8 +1,8 @@
-## 部署服务
+# 部署服务
我们使用 `docker service` 命令来管理 `Swarm` 集群中的服务,该命令只能在管理节点运行。
-### 新建服务
+## 新建服务
现在我们在上一节创建的 `Swarm` 集群中运行一个名为 `nginx` 服务。
@@ -10,9 +10,9 @@
$ docker service create --replicas 3 -p 80:80 --name nginx nginx:1.13.7-alpine
```
-现在我们使用浏览器,输入任意节点 IP ,即可看到 nginx 默认页面。
+现在我们使用浏览器,输入任意节点 IP ,即可看到 nginx 默认页面。
-### 查看服务
+## 查看服务
使用 `docker service ls` 来查看当前 `Swarm` 集群运行的服务。
@@ -44,7 +44,7 @@ nginx.1.pjfzd39buzlt@swarm2 | 10.255.0.2 - - [25/Nov/2017:02:10:27 +0000] "GE
nginx.1.pjfzd39buzlt@swarm2 | 2017/11/25 02:10:27 [error] 5#5: *1 open() "/usr/share/nginx/html/favicon.ico" failed (2: No such file or directory), client: 10.255.0.2, server: localhost, request: "GET /favicon.ico HTTP/1.1", host: "192.168.99.101"
```
-### 服务伸缩
+## 服务伸缩
我们可以使用 `docker service scale` 对一个服务运行的容器数量进行伸缩。
@@ -60,7 +60,7 @@ $ docker service scale nginx=5
$ docker service scale nginx=2
```
-### 删除服务
+## 删除服务
使用 `docker service rm` 来从 `Swarm` 集群移除某个服务。
diff --git a/swarm_mode/overview.md b/swarm_mode/overview.md
index d3f5264a6..cd853afe3 100644
--- a/swarm_mode/overview.md
+++ b/swarm_mode/overview.md
@@ -1,10 +1,10 @@
-## 基本概念
+# 基本概念
`Swarm` 是使用 [`SwarmKit`](https://github.com/docker/swarmkit/) 构建的 Docker 引擎内置(原生)的集群管理和编排工具。
使用 `Swarm` 集群之前需要了解以下几个概念。
-### 节点
+## 节点
运行 Docker 的主机可以主动初始化一个 `Swarm` 集群或者加入一个已存在的 `Swarm` 集群,这样这个运行 Docker 的主机就成为一个 `Swarm` 集群的节点 (`node`) 。
@@ -18,7 +18,7 @@
![](https://docs.docker.com/engine/swarm/images/swarm-diagram.png)
-### 服务和任务
+## 服务和任务
任务 (`Task`)是 `Swarm` 中的最小的调度单位,目前来说就是一个单一的容器。
diff --git a/swarm_mode/rolling_update.md b/swarm_mode/rolling_update.md
index 767be2064..560b0ae5f 100644
--- a/swarm_mode/rolling_update.md
+++ b/swarm_mode/rolling_update.md
@@ -1,4 +1,4 @@
-## SWarm mode 与滚动升级
+# SWarm mode 与滚动升级
在 [部署服务](deploy.md) 一节中我们使用 `nginx:1.13.7-alpine` 镜像部署了一个名为 `nginx` 的服务。
@@ -24,7 +24,7 @@ $ docker service update \
更多选项可以通过 `docker service update -h` 命令查看。
-### 服务回退
+## 服务回退
现在假设我们发现 `nginx` 服务的镜像升级到 `nginx:1.13.12-alpine` 出现了一些问题,我们可以使用命令一键回退。
diff --git a/swarm_mode/secret.md b/swarm_mode/secret.md
index 4d8476568..3c30f34b5 100644
--- a/swarm_mode/secret.md
+++ b/swarm_mode/secret.md
@@ -1,4 +1,4 @@
-## 在 Swarm 集群中管理敏感数据
+# 在 Swarm 集群中管理敏感数据
在动态的、大规模的分布式集群上,管理和分发 `密码`、`证书` 等敏感信息是极其重要的工作。传统的密钥分发方式(如密钥放入镜像中,设置环境变量,volume 动态挂载等)都存在着潜在的巨大的安全风险。
@@ -10,7 +10,7 @@ Docker 目前已经提供了 `secrets` 管理功能,用户可以在 Swarm 集
这里我们以在 Swarm 集群中部署 `mysql` 和 `wordpress` 服务为例。
-### 创建 secret
+## 创建 secret
我们使用 `docker secret create` 命令以管道符的形式创建 `secret`
@@ -20,7 +20,7 @@ $ openssl rand -base64 20 | docker secret create mysql_password -
$ openssl rand -base64 20 | docker secret create mysql_root_password -
```
-### 查看 secret
+## 查看 secret
使用 `docker secret ls` 命令来查看 `secret`
@@ -32,7 +32,7 @@ l1vinzevzhj4goakjap5ya409 mysql_password 41 seconds ago 41 seconds
yvsczlx9votfw3l0nz5rlidig mysql_root_password 12 seconds ago 12 seconds ago
```
-### 创建 MySQL 服务
+## 创建 MySQL 服务
创建服务相关命令已经在前边章节进行了介绍,这里直接列出命令。
@@ -62,7 +62,7 @@ $ docker service create \
--network mysql_private \
--publish target=30000,port=80 \
--mount type=volume,source=wpdata,destination=/var/www/html \
- --secret source=mysql_password,target=wp_db_password,mode=0400 \
+ --secret source=mysql_password,target=wp_db_password,mode=0444 \
-e WORDPRESS_DB_USER="wordpress" \
-e WORDPRESS_DB_PASSWORD_FILE="/run/secrets/wp_db_password" \
-e WORDPRESS_DB_HOST="mysql:3306" \
diff --git a/swarm_mode/stack.md b/swarm_mode/stack.md
index 66561f47e..a7d1ebd04 100644
--- a/swarm_mode/stack.md
+++ b/swarm_mode/stack.md
@@ -1,4 +1,4 @@
-## 在 Swarm 集群中使用 compose 文件
+# 在 Swarm 集群中使用 compose 文件
正如之前使用 `docker-compose.yml` 来一次配置、启动多个容器,在 `Swarm` 集群中也可以使用 `compose` 文件 (`docker-compose.yml`) 来配置、启动多个服务。
@@ -60,7 +60,7 @@ networks:
在 `Swarm` 集群中使用 `docker-compose.yml` 我们用 `docker stack` 命令,下面我们对该命令进行详细讲解。
-### 部署服务
+## 部署服务
部署服务使用 `docker stack deploy`,其中 `-c` 参数指定 compose 文件名。
@@ -74,7 +74,7 @@ $ docker stack deploy -c docker-compose.yml wordpress
在浏览器新的标签页输入 `任一节点IP` 即可看到 `WordPress` 安装界面,安装完成之后,输入 `任一节点IP` 即可看到 `WordPress` 页面。
-### 查看服务
+## 查看服务
```bash
$ docker stack ls
@@ -82,7 +82,7 @@ NAME SERVICES
wordpress 3
```
-### 移除服务
+## 移除服务
要移除服务,使用 `docker stack down`
diff --git a/underly/arch.md b/underly/arch.md
index 508ce5da9..64318e499 100644
--- a/underly/arch.md
+++ b/underly/arch.md
@@ -1,10 +1,10 @@
-## 基本架构
+# 基本架构
Docker 采用了 `C/S` 架构,包括客户端和服务端。Docker 守护进程 (`Daemon`)作为服务端接受来自客户端的请求,并处理这些请求(创建、运行、分发容器)。
客户端和服务端既可以运行在一个机器上,也可通过 `socket` 或者 `RESTful API` 来进行通信。
-![Docker 基本架构](_images/docker_arch.png)
+![Docker 基本架构](./_images/docker_arch.png)
Docker 守护进程一般在宿主主机后台运行,等待接收来自客户端的消息。
diff --git a/underly/cgroups.md b/underly/cgroups.md
index 6ccd703d9..e7d5fd8f7 100644
--- a/underly/cgroups.md
+++ b/underly/cgroups.md
@@ -1,4 +1,4 @@
-## 控制组
+# 控制组
控制组([cgroups](https://en.wikipedia.org/wiki/Cgroups))是 Linux 内核的一个特性,主要用来对共享资源进行隔离、限制、审计等。只有能控制分配到容器的资源,才能避免当多个容器同时运行时的对系统资源的竞争。
diff --git a/underly/container_format.md b/underly/container_format.md
index d634e30e6..1f943aad1 100644
--- a/underly/container_format.md
+++ b/underly/container_format.md
@@ -1,5 +1,3 @@
-## 容器格式
+# 容器格式
-最初,Docker 采用了 `LXC` 中的容器格式。从 0.7 版本以后开始去除 LXC,转而使用自行开发的 [libcontainer](https://github.com/docker/libcontainer),从 1.11 开始,则进一步演进为使用 [runC](https://github.com/opencontainers/runc) 和 [containerd](https://containerd.tools/)。
-
-对更多容器格式的支持,还在进一步的发展中。
+最初,Docker 采用了 `LXC` 中的容器格式。从 0.7 版本以后开始去除 LXC,转而使用自行开发的 [libcontainer](https://github.com/docker/libcontainer),从 1.11 开始,则进一步演进为使用 [runC](https://github.com/opencontainers/runc) 和 [containerd](https://github.com/containerd/containerd)。
diff --git a/underly/namespace.md b/underly/namespace.md
index 35cf38653..ef81aae11 100644
--- a/underly/namespace.md
+++ b/underly/namespace.md
@@ -1,22 +1,23 @@
-## 命名空间
+# 命名空间
+
命名空间是 Linux 内核一个强大的特性。每个容器都有自己单独的命名空间,运行在其中的应用都像是在独立的操作系统中运行一样。命名空间保证了容器之间彼此互不影响。
-### pid 命名空间
-不同用户的进程就是通过 pid 命名空间隔离开的,且不同命名空间中可以有相同 pid。所有的 LXC 进程在 Docker 中的父进程为Docker进程,每个 LXC 进程具有不同的命名空间。同时由于允许嵌套,因此可以很方便的实现嵌套的 Docker 容器。
+## pid 命名空间
+不同用户的进程就是通过 pid 命名空间隔离开的,且不同命名空间中可以有相同 pid。所有的 LXC 进程在 Docker 中的父进程为 Docker 进程,每个 LXC 进程具有不同的命名空间。同时由于允许嵌套,因此可以很方便的实现嵌套的 Docker 容器。
-### net 命名空间
-有了 pid 命名空间, 每个命名空间中的 pid 能够相互隔离,但是网络端口还是共享 host 的端口。网络隔离是通过 net 命名空间实现的, 每个 net 命名空间有独立的 网络设备, IP 地址, 路由表, /proc/net 目录。这样每个容器的网络就能隔离开来。Docker 默认采用 veth 的方式,将容器中的虚拟网卡同 host 上的一 个Docker 网桥 docker0 连接在一起。
+## net 命名空间
+有了 pid 命名空间,每个命名空间中的 pid 能够相互隔离,但是网络端口还是共享 host 的端口。网络隔离是通过 net 命名空间实现的, 每个 net 命名空间有独立的 网络设备,IP 地址,路由表,/proc/net 目录。这样每个容器的网络就能隔离开来。Docker 默认采用 veth 的方式,将容器中的虚拟网卡同 host 上的一 个Docker 网桥 docker0 连接在一起。
-### ipc 命名空间
-容器中进程交互还是采用了 Linux 常见的进程间交互方法(interprocess communication - IPC), 包括信号量、消息队列和共享内存等。然而同 VM 不同的是,容器的进程间交互实际上还是 host 上具有相同 pid 命名空间中的进程间交互,因此需要在 IPC 资源申请时加入命名空间信息,每个 IPC 资源有一个唯一的 32 位 id。
+## ipc 命名空间
+容器中进程交互还是采用了 Linux 常见的进程间交互方法(interprocess communication - IPC), 包括信号量、消息队列和共享内存等。然而同 VM 不同的是,容器的进程间交互实际上还是 host 上具有相同 pid 命名空间中的进程间交互,因此需要在 IPC 资源申请时加入命名空间信息,每个 IPC 资源有一个唯一的 32 位 id。
-### mnt 命名空间
+## mnt 命名空间
类似 chroot,将一个进程放到一个特定的目录执行。mnt 命名空间允许不同命名空间的进程看到的文件结构不同,这样每个命名空间 中的进程所看到的文件目录就被隔离开了。同 chroot 不同,每个命名空间中的容器在 /proc/mounts 的信息只包含所在命名空间的 mount point。
-### uts 命名空间
-UTS("UNIX Time-sharing System") 命名空间允许每个容器拥有独立的 hostname 和 domain name, 使其在网络上可以被视作一个独立的节点而非 主机上的一个进程。
+## uts 命名空间
+UTS("UNIX Time-sharing System") 命名空间允许每个容器拥有独立的 hostname 和 domain name, 使其在网络上可以被视作一个独立的节点而非 主机上的一个进程。
-### user 命名空间
-每个容器可以有不同的用户和组 id, 也就是说可以在容器内用容器内部的用户执行程序而非主机上的用户。
+## user 命名空间
+每个容器可以有不同的用户和组 id, 也就是说可以在容器内用容器内部的用户执行程序而非主机上的用户。
*注:更多关于 Linux 上命名空间的信息,请阅读 [这篇文章](https://blog.scottlowe.org/2013/09/04/introducing-linux-network-namespaces/)。
diff --git a/underly/network.md b/underly/network.md
index 4a0c20097..cec496c93 100644
--- a/underly/network.md
+++ b/underly/network.md
@@ -1,8 +1,8 @@
-## Docker 网络实现
+# Docker 网络实现
Docker 的网络实现其实就是利用了 Linux 上的网络命名空间和虚拟网络设备(特别是 veth pair)。建议先熟悉了解这两部分的基本概念再阅读本章。
-### 基本原理
+## 基本原理
首先,要实现网络通信,机器需要至少一个网络接口(物理接口或虚拟接口)来收发数据包;此外,如果不同子网之间要进行通信,需要路由机制。
Docker 中的网络接口默认都是虚拟的接口。虚拟接口的优势之一是转发效率较高。
@@ -10,7 +10,7 @@ Linux 通过在内核中进行数据复制来实现虚拟接口之间的数据
Docker 容器网络就利用了这项技术。它在本地主机和容器内分别创建一个虚拟接口,并让它们彼此连通(这样的一对接口叫做 `veth pair`)。
-### 创建网络参数
+## 创建网络参数
Docker 创建一个容器的时候,会执行如下操作:
* 创建一对虚拟接口,分别放到本地主机和新容器中;
* 本地主机一端桥接到默认的 docker0 或指定网桥上,并具有一个唯一的名字,如 veth65f9;
@@ -25,7 +25,7 @@ Docker 创建一个容器的时候,会执行如下操作:
* `--net=container:NAME_or_ID` 让 Docker 将新建容器的进程放到一个已存在容器的网络栈中,新容器进程有自己的文件系统、进程列表和资源限制,但会和已存在的容器共享 IP 地址和端口等网络资源,两者进程可以直接通过 `lo` 环回接口通信。
* `--net=none` 让 Docker 将新容器放到隔离的网络栈中,但是不进行网络配置。之后,用户可以自己进行配置。
-### 网络配置细节
+## 网络配置细节
用户使用 `--net=none` 后,可以自行配置网络,让容器达到跟平常一样具有访问网络的权限。通过这个过程,可以了解 Docker 配置网络的细节。
首先,启动一个 `/bin/bash` 容器,指定 `--net=none` 参数。
diff --git a/underly/ufs.md b/underly/ufs.md
index d9251a21e..fb01da17d 100644
--- a/underly/ufs.md
+++ b/underly/ufs.md
@@ -1,4 +1,4 @@
-## 联合文件系统
+# 联合文件系统
联合文件系统([UnionFS](https://en.wikipedia.org/wiki/UnionFS))是一种分层、轻量级并且高性能的文件系统,它支持对文件系统的修改作为一次提交来一层层的叠加,同时可以将不同目录挂载到同一个虚拟文件系统下(unite several directories into a single virtual filesystem)。
@@ -6,7 +6,7 @@
另外,不同 Docker 容器就可以共享一些基础的文件系统层,同时再加上自己独有的改动层,大大提高了存储的效率。
-Docker 中使用的 AUFS(AnotherUnionFS)就是一种联合文件系统。 `AUFS` 支持为每一个成员目录(类似 Git 的分支)设定只读(readonly)、读写(readwrite)和写出(whiteout-able)权限, 同时 `AUFS` 里有一个类似分层的概念, 对只读权限的分支可以逻辑上进行增量地修改(不影响只读部分的)。
+Docker 中使用的 AUFS(Advanced Multi-Layered Unification Filesystem)就是一种联合文件系统。 `AUFS` 支持为每一个成员目录(类似 Git 的分支)设定只读(readonly)、读写(readwrite)和写出(whiteout-able)权限, 同时 `AUFS` 里有一个类似分层的概念, 对只读权限的分支可以逻辑上进行增量地修改(不影响只读部分的)。
Docker 目前支持的联合文件系统包括 `OverlayFS`, `AUFS`, `Btrfs`, `VFS`, `ZFS` 和 `Device Mapper`。
@@ -14,9 +14,9 @@ Docker 目前支持的联合文件系统包括 `OverlayFS`, `AUFS`, `Btrfs`, `VF
|Linux 发行版 | Docker 推荐使用的存储驱动 |
| :-- | :-- |
-|Docker CE on Ubuntu | `overlay2` (16.04 +) |
-|Docker CE on Debian | `overlay2` (Debian Stretch), `aufs`, `devicemapper` |
-|Docker CE on CentOS | `overlay2` |
-|Docker CE on Fedora | `overlay2` |
+|Docker on Ubuntu | `overlay2` (16.04 +) |
+|Docker on Debian | `overlay2` (Debian Stretch), `aufs`, `devicemapper` |
+|Docker on CentOS | `overlay2` |
+|Docker on Fedora | `overlay2` |
-在可能的情况下,推荐使用 `overlay2` 存储驱动,`overlay2` 是目前 Docker 默认的存储驱动,以前则是 `aufs`。你可以通过配置来使用以上提到的其他类型的存储驱动。
+在可能的情况下,[推荐](https://docs.docker.com/storage/storagedriver/select-storage-driver/) 使用 `overlay2` 存储驱动,`overlay2` 是目前 Docker 默认的存储驱动,以前则是 `aufs`。你可以通过配置来使用以上提到的其他类型的存储驱动。