转载

Docker Libnetwork 使用

前言

我们搭建一个网络环境,一般遵循一定的网络拓扑结构。由于Linux可以模拟相应的网络设备,并可以创建“虚拟机”(也就是容器),因此在Linux系统内,我们也可以遵循一定的网路拓扑结构,设计一个“内网”,实现容器之间的通信。

本文主要讲述容器跨主机网络通信。

实现方式

容器跨主机的网络通信,主要实现思路有两种:二层VLAN网络和Overlay网络。

二层VLAN网络的解决跨主机通信的思路是把原先的网络架构改造为互通的大二层网络,通过特定网络设备直接路由,实现容器点到点的之间通信。

Overlay网络是指在不改变现有网络基础设施的前提下,通过某种 约定通信协议 ,把二层报文封装在IP报文之上的新的数据格式。

libnetwork

Libnetwork是Docker团队将Docker的网络功能从Docker核心代码中分离出去,形成一个单独的库。 Libnetwork通过 插件的形式 为Docker提供网络功能。 使得用户可以根据自己的需求实现自己的Driver来提供不同的网络功能。

官方目前计划实现以下Driver:

  1. Bridge : 这个Driver就是Docker现有网络Bridge模式的实现。 (基本完成,主要从之前的Docker网络代码中迁移过来)
  2. Null : Driver的空实现,类似于Docker 容器的None模式。
  3. Overlay : 隧道模式实现多主机通信的方案。

“Libnetwork所要实现的网络模型(网络拓扑结构)基本是这样的: 用户可以创建一个或多个网络(一个网络就是一个网桥或者一个VLAN ),一个容器可以加入一个或多个网络。 同一个网络中容器可以通信,不同网络中的容器隔离。” 我觉得这才是将网络从docker分离出去的真正含义,即在创建容器之前,我们可以先创建网络(即创建容器与创建网络是分开的),然后决定让容器加入哪个网络。

Libnetwork定义的容器网络模型

Docker Libnetwork 使用

  • Sandbox:对应一个容器中的 网络环境 (没有实体),包括相应的网卡配置、路由表、DNS配置等。CNM很形象的将它表示为网络的『沙盒』,因为这样的网络环境是随着容器的创建而创建,又随着容器销毁而不复存在的;
  • Endpoint:实际上就是一个容器中的虚拟网卡,在容器中会显示为eth0、eth1依次类推;
  • Network:指的是一个能够相互通信的容器网络,加入了同一个网络的容器直接可以直接通过对方的名字相互连接。它的实体本质上是主机上的虚拟网卡或网桥。

Libnetwork网络使用方式

直接使用

  1. 假设存在主机 192.168.56.101 , 192.168.56.102
  2. 修改每个主机的docker启动参数 DOCKER_OPTS=--insecure-registry 192.168.3.56:5000 -H 0.0.0.0:2375 --cluster-store=etcd://192.168.56.101:2379/ --cluster-advertise=192.168.56.101:2375 ,重启docker。
  3. docker创建overlay网络net1和net2
    • 192.168.56.101192.168.56.102 执行 docker network create -d overlay net1``docker network create -d overlay net2
    • 192.168.56.101 运行容器net1c1,net2c1 docker run -itd --name net1c1 --net net1 ubuntu:14.04
    • 192.168.56.102 运行容器net1c2,net2c2。

通过docker compose使用

  1. 启动etcd集群,存储docker swarm节点信息
    192.168.56.101 上etcd配置
    ETCD_OPTS=--data-dir=/var/lib/etcd/ /
    --name wily1 /
    --initial-advertise-peer-urls http://192.168.56.101:2380 /
    --listen-peer-urls http://192.168.56.101:2380 /
    --listen-client-urls http://192.168.56.101:2379 , http://127.0.0.1:2379 /
    --advertise-client-urls http://192.168.56.101:2379 /
    --initial-cluster-token etcd-cluster-1 /
    --initial-cluster-state new /
    --initial-cluster wily1= http://192.168.56.101:2380 ,wily2= http://192.168.56.102:2380
    192.168.56.102 上etcd配置
    ETCD_OPTS=--data-dir=/var/lib/etcd/ /
    --name wily1 /
    --initial-advertise-peer-urls http://192.168.56.102:2380 /
    --listen-peer-urls http://192.168.56.102:2380 /
    --listen-client-urls http://192.168.56.102:2379 , http://127.0.0.1:2379 /
    --advertise-client-urls http://192.168.56.102:2379 /
    --initial-cluster-token etcd-cluster-1 /
    --initial-cluster-state new /
    --initial-cluster wily1= http://192.168.56.101:2380 ,wily2= http://192.168.56.102:2380
  2. 启动 docker swarm
    • 192.168.56.101 执行 docker run --name swarm-agent -d swarm join --addr=192.168.56.101:2375 etcd://192.168.56.101:2379/swarm
    • 192.168.56.102 执行 docker run --name swarm-agent -d swarm join --addr=192.168.56.102:2375 etcd://192.168.56.102:2379/swarm
    • 192.168.56.101 上启动swarm-manager docker run --name swarm-manager -d -p 3375:2375 swarm manage etcd://192.168.56.101:2379/swarm
    docker-swarm启动建议做成systemd的形式,并配置docker DOCKER_HOST环境变量
  3. 192.168.56.101 上创建网络net3并启动容器
    docker -H tcp://localhost:3375 network create -d overlay net3
    docker -H tcp://localhost:3375 run -it --net net3 ubuntu bash
  4. 192.168.56.101 上创建网络net4并启动容器,并且指定容器的ip, 这个效果在实际场景中很有用
    docker -H tcp://localhost:3375 network create -d overlay net4 --subnet 172.19.0.0/16
    docker -H tcp://localhost:3375 run -it --net net4 --ip=172.19.0.6 ubuntu bash
使用 --ip 参数时,必须值定特定的子网 ,参见 https://github.com/docker/docker/issues/20547

一些坑

如果你使用virtual box虚拟了两个主机 192.168.56.101192.168.56.102 ,并且 192.168.56.102 是由 192.168.56.101 克隆而来,则你需要清除 xx/docker/key.json (不同系统位置不同),并重启docker。否则两个主机启动的容器可能具有同一个id,进而导致使用docker swarm时出现问题。参见 https://github.com/docker/swarm/issues/380

小结

docker 真是做的越来越全面了,如果仅仅是用用,一切都是参数配置,搞得人家很没有成就感嘛。

参考文献

原文  http://dockone.io/article/1100
正文到此结束
Loading...