1. Devops/

docker-swarm 教程:部署篇

·1234 字·6 分钟· loading
docker devops
demo007x
作者
demo007x

docker-swarm 教程:部署篇
#

ip规划:

Manager: Manager: 172.16.95.137

Node1: 172.16.95.138

Node2: 172.16.95.139

1 、manager节点初始化swarm

docker swarm init --advertise-addr 172.16.95.137

输出:

docker swarm init --advertise-addr 172.16.95.137                                                 
Swarm initialized: current node (57mvxsdn9qg2tq6aiz17et7ot) is now a manager.                                   
To add a worker to this swarm, run the following command:                                                       
    docker swarm join --token SWMTKN-1-544xekdg657cd57fecr4g43uxk7t5pjkvxkkcbitjnygxc0nyh-0f4o0ujh0vz4nm5gxcjh3y
wi3 172.16.95.137:2377                                                                                       
To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions. 

2 、运行docker info以查看集群的当前状态:

                                                                                                           root@master:~# docker info                                                                                   
Client: Docker Engine - Community                                                                            
 Version:    24.0.5                                                                                           
 Context:    default                                                                                        
 Debug Mode: false                                                                                           
 Plugins:                                                                                                     
  buildx: Docker Buildx (Docker Inc.)                                                                         
    Version:  v0.11.2                                                                                         
    Path:     /usr/libexec/docker/cli-plugins/docker-buildx                                                  
  compose: Docker Compose (Docker Inc.)                                                                      
    Version:  v2.20.2                                                                                         
    Path:     /usr/libexec/docker/cli-plugins/docker-compose                                                    
Server:                                                                                                      
 Containers: 1                                                                                              
  Running: 0                                                                                                
  Paused: 0                                                                                                   
  Stopped: 1                                                                                                 
 Images: 1                                                                                                  
 Server Version: 24.0.5                                                                                      
 Storage Driver: overlay2                                                                                     
  Backing Filesystem: extfs                                                                                   
  Supports d_type: true                                                                                       
  Using metacopy: false                                                                                       
  Native Overlay Diff: true                                                                                   
  userxattr: false                                                                                           
 Logging Driver: json-file                                                                                  
 Cgroup Driver: systemd                                                                                      
 Cgroup Version: 2                                                                                           
 Plugins:                                                                                                     
  Volume: local                                                                                               
  Network: bridge host ipvlan macvlan null overlay                                                           
  Log: awslogs fluentd gcplogs gelf journald json-file local logentries splunk syslog                         
 Swarm: active                                                                                               
  NodeID: 57mvxsdn9qg2tq6aiz17et7ot                                                                           
  Is Manager: true                                                                                           
  ClusterID: qonn6p9e99zv95ekej78u66e0                                                                       
  Managers: 1                                                                                                 
  Nodes: 1                                                                                                   
  Default Address Pool: 10.0.0.0/8                                                                           
  SubnetSize: 24                                                                                             
  Data Path Port: 4789                                                                                       
  Orchestration:                                                                                             
   Task History Retention Limit: 5                                                                           
  Raft:                                                                                                       
   Snapshot Interval: 10000                                                                                   
   Number of Old Snapshots to Retain: 0                                                                       
   Heartbeat Tick: 1                                                                                         
   Election Tick: 10                                                                                         
  Dispatcher:                                                                                                 
   Heartbeat Period: 5 seconds                                                                               
  CA Configuration:                                                                                           
   Expiry Duration: 3 months                                                                                 
   Force Rotate: 0                                                                                           
  Autolock Managers: false                                                                                   
  Root Rotation In Progress: false                                                                           
  Node Address: 172.16.95.137                                                                                 
  Manager Addresses:                                                                                         
   172.16.95.137:2377                                                                                         
 Runtimes: io.containerd.runc.v2 runc                                                                         
 Default Runtime: runc                                                                                       
 Init Binary: docker-init                                                                                     
 containerd version: 3dce8eb055cbb6872793272b4f20ed16117344f8                                                 
 runc version: v1.1.7-0-g860f061                                                                             
 init version: de40ad0                                                                                       
 Security Options:                                                                                           
  apparmor                                                                                                   
  seccomp                                                                                                     
   Profile: builtin                                                                                           
  cgroupns                                                                                                   
 Kernel Version: 5.15.0-78-generic                                                                          
 Operating System: Ubuntu 22.04.2 LTS                                                                         
 OSType: linux                                                                                               
 Architecture: x86_64                                                                                         
 CPUs: 2                                                                                                     
 Total Memory: 3.787GiB                                                                                       
 Name: master                                                                                                 
 ID: cf23034e-99d6-4e37-a1cd-b27f39c0ed2e                                                                     
 Docker Root Dir: /var/lib/docker                                                                             
 Debug Mode: false                                                                                           
 Experimental: false                                                                                         
 Insecure Registries:                                                                                         
  127.0.0.0/8                                                                                                 
 Live Restore Enabled: false

3 、查看节点状态

root@master:~# docker node ls                                                                                 
ID                            HOSTNAME   STATUS    AVAILABILITY   MANAGER STATUS   ENGINE VERSION             
57mvxsdn9qg2tq6aiz17et7ot *   master     Ready     Active         Leader           24.0.5 

将节点添加到swarm集群中
#

使用管理器节点创建群后,我们就可以添加工作节点了。

  1. 打开一个终端,然后ssh进入要运行工作节点的机器。本教程使用名称master
  2. master节点运行docker swarm init输出生成的命令,在其他机器上执行一下命令并创建工作节点:
root@node1:~# docker swarm join --token SWMTKN-1-544xekdg657cd57fecr4g43uxk7t5pjkvxkkcbitjnygxc0nyh-0f4o0ujh0vz4nm5gxcjh3ywi3 172.16.95.137:2377
This node joined a swarm as a master.

如果我们忘记了命令, 则可以在 master 节点执行以下命令来查看相关命令:

root@master:~# docker swarm join-token worker                                                                 
To add a worker to this swarm, run the following command:                                                       
    docker swarm join --token SWMTKN-1-544xekdg657cd57fecr4g43uxk7t5pjkvxkkcbitjnygxc0nyh-0f4o0ujh0vz4nm5gxcjh3y
wi3 172.16.95.137:2377 

3 、在 node2 节点重复执行 node1 上面的命令

4、在master节点运行的机器,并运行docker node ls命令以查看工作节点:

root@master:~# docker node ls                                                                                
ID                            HOSTNAME   STATUS    AVAILABILITY   MANAGER STATUS   ENGINE VERSION             
57mvxsdn9qg2tq6aiz17et7ot *   master     Ready     Active         Leader           24.0.5                     
lqv1e6oa2hle33ff4xgxfslz3     node1      Ready     Active                          24.0.5                     
wwb5rc9nypj1e98wwr5qw99ye     node2      Ready     Active                          24.0.5    

MANAGER列标识了集群中的管理器节点。此列node1node2中的空状态标识为worker节点。

将服务部署到swarm中
#

创建集群后,我们可以将服务部署到集群中。

  1. 打开一个终端,然后ssh进入运行管理器节点的机器。使用名为master的机器。

  2. 运行以下命令:

     docker service create --replicas 1 --name helloworld alpine ping docker.com
    
    • docker service create命令创建服务。
    • --name标志为helloworld服务命名。
    • --replicas标志指定了1个运行实例的所需状态。
    • 参数alpine ping docker.com将服务定义为执行命令ping docker.com的Alpine Linux容器。

    image-20230726160829829

  3. 运行docker service ls以查看正在运行的服务列表:

检查集群上的服务
#

  1. 我们使用ssh进入运行master节点的机器。
  2. 运行docker service inspect --pretty <SERVICE-ID>,以易于阅读的格式显示有关服务的详细信息。

执行以下命令查看服务的详细信息

docker service inspect --pretty helloworld

image-20230726161236707

如果需要输出 json 格式的内容,执行命令 docker service inspect helloworld

  1. 查看服务具体运行在那个节点,我们可以执行以下命令查看:helloworld 为我们要查看的服务名称

    docker service ps helloworld

image-20230726161659971

从上图中我们可一看到 服务 helloworld 运行在节点 master 的机器中, 而服务 helloword 运行在 node1 的节点中.

helloworld 的服务运行在master的节点上,说明 master 节点也可以像 node 节点一样执行任务.

  1. 服务 helloword 运行在node1的节点上, 我们在 node1 的机器上执行命令 docker ps
root@node1:~# docker ps
CONTAINER ID   IMAGE           COMMAND             CREATED          STATUS          PORTS     NAMES
d3bbf47cf010   alpine:latest   "ping docker.com"   14 minutes ago   Up 14 minutes             helloword.1.nw2qt760d0tupaqqyhodtz2ko

可以看到在 node1 的机器上正在运行 helloword 的服务容器。

扩大集群中服务部署的规模
#

创建好集群我们就可以使用Docker CLI来扩展服务中的容器数量。在服务中运行的容器被称为“任务”。

  1. 我们使用ssh进入master节点的机器。

  2. 运行以下命令以更改在群中运行的服务的所需状态:

    helloworld 服务扩展为 5 个

docker service scale helloworld=5 

image-20230726180304223

  1. 执行完成后我们查看服务具体运行在那个节点
docker service ps helloworld

image-20230726180419218

可以看到,swarm 创建了 5 个新的任务,并扩展了总共 5 个的 docker 容器实例, 并分布在不同的节点上。

删除集群上运行的服务
#

如果我们部署的服务不需要了, 那么我们可以从集群中删除对应的服务。

1 、运行docker service rm helloworld以删除helloworld服务。

image-20230726180833878

执行完命令后我们在执行 docker service ls 查看服务,服务已经被我们删除了。

2、我们可以执行命令 docker service inspect helloworld 来查看服务的信息

image-20230726181029078

从图中执行的命令可以看出服务已经彻底被删除了。

3、当删除服务的命令执行完成后,任务容器也需要几秒钟才能清理完成,我们可以在节点上执行 docker ps 查看容器是否存在。

服务的滚动更新
#

在工作中我们需要经常的将我们的应用程序的新版本更新,以替换原有的老的版本的应用程序。在 Docker 的 swarm 中我们如何实现应用程序的滚动更新呢?

1 、比如我们需要部署新的一个 redis 服务到我们的swarm服务集群中。 并以10秒的更新延迟配置swarm。为了更直观的操作, 我们先部署一个较老版本的redis:6.0-alpine 服务,执行以下命令部署:

docker service create --replicas 3 --name redis --update-delay 10s redis:6.0-alpine

image-20230727104319822

我们看到服务已经部署成功了。我们执行 docker service ls 结果显示已经将服务发布在所有的节点上了。

root@master:~# docker service ls   
ID             NAME      MODE         REPLICAS   IMAGE              PORTS                                     e2b2aoag8kr0   redis     replicated   3/3        redis:6.0-alpine                                             root@master:~#   

部署命令参数说明:

  • --replicas : 表示我们部署的服务数量是几个,--replicas 3 表示部署 3 个
  • --update-delay : 表示任务更新的时间延迟,我们可以将时间设置为 TsTm,,Th,比如:5m10s 表示延迟 5 分钟 10 秒。
  • --update-parallelism 表示在更新时候的最大任务数量, 默认情况下调度程序一次只更新一个任务。

默认情况下,当单个任务的更新返回RUNNING状态时,调度程序会安排另一个任务进行更新,直到所有任务更新。如果在更新期间的任何时候任务返回FAILED,调度程序将暂停更新。我们可以使用docker service createdocker service update--update-failure-action标志来控制行为。

2、我们查看部署的 redis 服务情况:

docker service inspect --pretty redis

image-20230727105305432

3 、现在我将已经部署好的 redis 服务更新到一个较新的版本 redis:6.0.20-alpine,管理器根据UpdateConfig策略将更新应用于节点:

执行更新命令:docker service update --image redis:6.0.20-alpine redis

root@master:~# docker service update --image redis:6.0.20-alpine redis                                       
redis                                                                                                         
overall progress: 3 out of 3 tasks                                                                           
1/3: running   [==================================================>]                                         
2/3: running   [==================================================>]                                         
3/3: running   [==================================================>]                                         
verify: Service converged  

我们在来查看下服务详细信息:

image-20230727111403278

image 已经变成了 redis:6.0.20-alpine , 已经更新成功.

我们在节点查看容器信息:

root@node2:~# docker ps                                                                                       
CONTAINER ID   IMAGE                 COMMAND                  CREATED         STATUS         PORTS      NAMES 
f036280bde79   redis:6.0.20-alpine   "docker-entrypoint.s…"   2 minutes ago   Up 2 minutes   6379/tcp   redis.1.
01wlu8r8z0jxmb4c2s399a6qo 

同样,容器的镜像已经变成了 redis:6.0.20-alpine

调度程序更新说明:

  • 停止第一个任务。
  • 为停止的任务安排更新。
  • 启动更新任务的容器。
  • 如果任务的更新返回RUNNING,请等待指定的延迟期,然后开始下一个任务。
  • 如果在更新期间的任何时候,任务返回FAILED,请暂停更新。

4、 如果我们需要重启服务,可以执行重启服务的命令:

docker service update redis

root@master:~# docker service update redis                                                                   
redis                                                                                                         
overall progress: 3 out of 3 tasks                                                                           
1/3: running   [==================================================>]                                         
2/3: running   [==================================================>]                                         
3/3: running   [==================================================>]                                         
verify: Service converged 

5、查看更新的信息:docker service ps redis

image-20230727112149099

停止Swarm集群上的一个节点
#

目前我们所有的节点都 ACTIVE 的状态运行的,master可以将任务分配给任何节点,所以所有的节点都可以接收到任务。

很多时候我们需要维护应用的时候,您需要将节点设置为DRAIN可用性。DRAIN状态的节点Maser 阻止此类型的节点接收新任务。这也意味着停止在节点上运行的任务,并在具有ACTIVE可用性的节点上启动副本任务。

注意: 将节点设置为DRAIN不会从该节点中删除独立容器,例如使用docker rundocker-compose up或Docker Engine API创建的容器。节点的状态,包括DRAIN,只影响节点调度群服务工作负载的能力。

1 、我们在 master 节点的机器上查看集群中节点的可用性:
#

root@master:~# docker node ls                                                                                 
ID                            HOSTNAME   STATUS    AVAILABILITY   MANAGER STATUS   ENGINE VERSION             
57mvxsdn9qg2tq6aiz17et7ot *   master     Ready     Active         Leader           24.0.5                     
lqv1e6oa2hle33ff4xgxfslz3     node1      Ready     Active                          24.0.5                     
wwb5rc9nypj1e98wwr5qw99ye     node2      Ready     Active                          24.0.5   

查看任务分配的信息:

root@master:~# docker service ps redis                                                                       
ID             NAME          IMAGE                 NODE      DESIRED STATE   CURRENT STATE             ERROR     PORTS   
01wlu8r8z0jx   redis.1       redis:6.0.20-alpine   node2     Running         Running 16 minutes ago           
w630bshgl3ga    \_ redis.1   redis:6.0-alpine      node2     Shutdown        Shutdown 16 minutes ago         
mkm0o152ns3e   redis.2       redis:6.0.20-alpine   master    Running         Running 16 minutes ago           
sqmmetgn9mqy    \_ redis.2   redis:6.0-alpine      master    Shutdown        Shutdown 16 minutes ago         
ezwkml7u8gih   redis.3       redis:6.0.20-alpine   node1     Running         Running 16 minutes ago           
qgvbqgmcmu7i    \_ redis.3   redis:6.0-alpine      node1     Shutdown        Shutdown 17 minutes ago  

2 、运行docker node update --availability drain <NODE-ID>以耗尽已分配任务的节点:
#

docker node update --availability drain node2 我们将 node2 节点停掉,并查看当前服务以及节点信息:

image-20230727113210329

从图中看到node2 的节点状态已经是 Drain 并且分配在 node2 上的服务状态已经是 Shutdown

管理器通过在具有 drain 状态的节点上结束任务,并在Active 状态的节点上创建新的任务来保持所需要的状态。

3 、启用节点的可用性
#

docker node update --availability active node2

image-20230727122730002

如图所示, 节点 Node2 的状态 已经更新为 Active

当节点设置回Active可用性时,它可以接收新任务:

  • 在服务更新期间进行扩展
  • 在滚动更新期间
  • 将另一个节点设置为Drain可用性时
  • 当任务在另一个活动节点上失败时

使用swarm模式路由网格
#

Docker Engine集群模式可以轻松发布服务端口,以使其可用于集群之外的资源。所有节点都参与入口路由网格。路由网格使群中的每个节点能够接受群中运行的任何服务在已发布端口上的连接,即使节点上没有运行的任务。路由网格将所有传入的请求路由到可用节点上的已发布端口到活动容器。

要在集群中使用网络,在启用群模式之前,我们需要在群节点之间打开以下端口:

  • Port 7946 TCP/UDP 用于容器网络发现。
  • Port 4789 UDP 可为容器入口网络配置。

我们还必须在集群的节点和任何需要访问端口的外部资源(如外部负载平衡器)之间打开已发布的端口。

发布服务端口
#

创建服务时,使用--publish标识指定要对外发布端口。target用于指定容器内的端口,而published用于指定在路由网格上绑定的端口。如果没有配置published`端口,则每个服务任务都会绑定一个随机的高编号端口。

docker service create --replicas 3 --name redis --publish published=63790,target=6379 --update-delay 5s redis:6.0.20-alpine
root@master:~# docker service create --replicas 3 --name redis --publish published=63790,target=6379 --update-delay 5s re
dis:6.0.20-alpine                                                                                             
vmmg8v0zr26os5johw7187mla                                                                                     
overall progress: 3 out of 3 tasks                                                                           
1/3: running   [==================================================>]                                         
2/3: running   [==================================================>]                                         
3/3: running   [==================================================>]                                                     
verify: Service converged 
root@master:~# docker service ls                                                                             
ID             NAME      MODE         REPLICAS   IMAGE                 PORTS                                 
vmmg8v0zr26o   redis     replicated   3/3        redis:6.0.20-alpine   *:63790->6379/tcp 

如图我们已经看到了端口为 *:63790->6379/tcp

<PUBLISHED-PORT>swarm提供服务的端口。如果省略它,将绑定一个随机的高编号端口。<CONTAINER-PORT>是容器侦听的端口。此参数是必需的。

例如,以下命令将nginx容器中的端口80发布到群中任何节点的端口8080:

docker service create \
  --name web \
  --publish published=8080,target=80 \
  --replicas 2 \
  nginx

当访问任何节点上的端口8080时,Docker会将请求路由到活动容器。在群节点本身上,端口8080实际上可能没有绑定,但路由网格知道如何路由流量并防止任何端口冲突的发生。

路由网格在已发布的端口上监听分配给节点的任何IP地址。对于外部可路由的IP地址,该端口可从主机外部获得。对于所有其他IP地址,只能从主机内部访问。

部署完成后我们在宿主机上面访问对应的地址和端口:

image-20230727134128562

如果所示,服务正常访问。并且我们访问部署了的服务节点都可以访问到 nginx 服务。

同样对于已经部署的 service,我们也可以重新给他发布端口:

 docker service update \
  --publish-add published=<PUBLISHED-PORT>,target=<CONTAINER-PORT> \
  <SERVICE>

您可以使用docker service inspect来查看服务的已发布端口。例如:

docker service inspect --format="{{json .Endpoint.Spec.Ports}}" web
[{"Protocol":"tcp","TargetPort":80,"PublishedPort":8080}]

输出显示来自容器的<CONTAINER-PORT>(标记为TargetPort)和<PUBLISHED-PORT>(标记为PublishedPort),其中节点侦听对服务的请求。

使用上面的命令我们查看部署的 nginx web 服务:

root@master:~# docker service inspect --format="{{json .Endpoint.Spec.Ports}}" web                                       
[{"Protocol":"tcp","TargetPort":80,"PublishedPort":8080,"PublishMode":"ingress"}]  

仅为TCP或仅UDP发布端口
#

默认情况下,当您发布端口时,它是一个TCP端口。您可以专门发布UDP端口,而不是或除了TCP端口。当您同时发布TCP和UDP端口时,如果您省略协议说明符,该端口将作为TCP端口发布。如果您使用较长的语法(推荐),请将protocol密钥设置为tcpudp

仅限TCP
#

长语法:

docker service create --name dns-cache \
  --publish published=53,target=53 \
  dns-cache

简短的语法:

docker service create --name dns-cache \
  -p 53:53 \
  dns-cache

TCP和UDP
#

长语法:

docker service create --name dns-cache \
  --publish published=53,target=53 \
  --publish published=53,target=53,protocol=udp \
  dns-cache

简短的语法:

docker service create --name dns-cache \
  -p 53:53 \
  -p 53:53/udp \
  dns-cache

仅限UDP
#

长语法:

docker service create --name dns-cache \
  --publish published=53,target=53,protocol=udp \
  dns-cache

简短的语法:

docker service create --name dns-cache \
  -p 53:53/udp \
  dns-cache

绕过路由网格
#

我们可以绕过路由网格,这样当访问给定节点上的绑定端口时,我们总是访问该节点上运行的服务实例。这被称为host模式。这种情况下需要注意:

  • 如果访问未运行服务任务的节点,则该服务不会监听该端口。有可能什么都没有,或者访问到了一个完全不同的应用程序。
  • 如果希望在每个节点上运行多个服务任务(例如,当您有5个节点但运行10个副本时),则无法指定静态目标端口。要么允许Docker分配一个随机的高编号端口(通过关闭published端口),要么通过使用全局服务而不是复制服务,或使用放置约束,确保服务仅在给定节点上运行。

要绕过路由,必须使用长--publish服务并将mode设置为host。如果省略mode或将其设置为ingress,则使用路由网格。以下命令使用host模式并绕过路由网格创建全局服务。

 docker service create --name dns-cache \
  --publish published=53,target=53,protocol=udp,mode=host \
  --mode global \
  dns-cache

配置外部负载均衡器
#

我们可以为集群服务配置外部负载平衡器,要么与路由网格结合使用,要么根本不使用路由网格。

使用路由网格
#

我们可以配置外部负载均衡器将请求路由到集群服务。可以配置 HAProxy来均衡对发布到端口8080nginx服务的请求。

带有外部负载均衡器图像的入口

上图的 来源于网络,仅供参考

在这种情况下,端口8080必须在负载平衡器和集群中的节点之间打开。集群节点可以在代理服务器可以访问的专用网络上,但不能公开访问。

可以配置负载平衡器,以均衡集群中每个节点之间的请求,即使节点上没有安排任务。例如,我们可以在/etc/haproxy/haproxy.cfg中拥有以下HAProxy配置:

global
        log /dev/log    local0
        log /dev/log    local1 notice
...snip...

# Configure HAProxy to listen on port 80
frontend http_front
   bind *:80
   stats uri /haproxy?stats
   default_backend http_back

# Configure HAProxy to route requests to swarm nodes on port 8080
backend http_back
   balance roundrobin
   server master 172.16.95.137:8080 check
   server node2 172.16.95.138:8080 check
   server node3 172.16.95.139:8080 check

当访问端口80上的HAProxy负载均衡器时,它会将请求转发到群中的节点。群路由网格将请求路由到活动任务。集群调度器将任务发送到不同的节点,则无需重新配置负载均衡器。

不使用路由网格
#

要使用没有路由网格的外部负载均衡器,请将--endpoint-mode设置为dnsrr,而不是vip的默认值。在这种情况下,没有一个虚拟IP。相反,Docker为服务设置DNS条目,使服务名称的DNS查询返回IP地址列表,客户端直接连接到其中一个地址。

Related

生产环境中使用Docker的最佳实践
docker devops
近几年Docker的使用不断增长📈,上至公司团队,下至普通开发者。 但是并不是每个团队(或者个人)在使用 Docker 的时候都能做到 Docker 的最佳实践 👀, 本文将从以下几个方面来聊聊 Docker 工程化实践中的最佳方案.
2023年软件开发人员的 10 大 Docker 替代品
devops
想象一下,您努力创建一个具有各种库和依赖项的应用程序。该应用程序在您的系统上平稳高效地运行。如果要将应用程序发送到其他人的系统,该怎么办?该人需要对应用程序进行大量设置才能运行它。即使在设置之后,代码和配置中的单个更改也可能会中断任一系统上的整个应用程序,或者在最坏的情况下会中断两个系统上的整个应用程序。
数据结构和算法-数组
数据结构与算法 数据结构和算法 数组
什么是数组?> 数组是存储在连续内存位置相同变量类型的项目的集合。它是最流行和最简单的数据结