转载

libnetwork 源码浅析

libnetwork是docker 在版本1.9中引入的项目,它有一整套的自定义网络命令和跨主机网络支持。

libnetwork项目从lincontainer和Docker代码的分离早在Docker 1.7版本就已经完成了(从Docker 1.6版本的网络代码中抽离)。在此之后,容器的网络接口就成为了一个个可替换的插件模块。由于这次变化进行的十分平顺,作为Docker的使用者几乎不会感觉到其中的差异,然而这个改变为接下来的一系列扩展埋下了很好的伏笔。它遵从为docker提供高内聚,低耦合的软件模块的目标,以组合的方式为容器提供网络支持。

概括来说,libnetwork所做的最核心事情是定义了一组标准的容器网络模型(Container Network Model,简称CNM),只要符合这个模型的网络接口就能被用于容器之间通信,而通信的过程和细节可以完全由网络接口来实现。

libnetwork 源码浅析

  • Sandbox:对应一个容器中的网络环境,包括相应的网卡配置、路由表、DNS配置等。CNM很形象的将它表示为网络的『沙盒』,因为这样的网络环境是随着容器的创建而创建,又随着容器销毁而不复存在的。沙盒的实现可以是Linux Network Namespace, FreeBSD Jail之类的概念,并包含连接多个网络的Endpoint;
  • Endpoint:实际上就是一个容器中的虚拟网卡,在容器中会显示为eth0、eth1依次类推。它可以是veth对,或者openvswitch的internal port。一个endpoint只能属于一个沙盒;
  • Network:指的是一个能够相互通信的容器网络,加入了同一个网络的容器直接可以直接通过对方的名字相互连接。它的实体本质上是主机上的虚拟网卡或网桥。

docker 最初只有三种网络类型(bridge, none, host),在引入libnetwork之后,docker再也不只有三种,还有overlay, remote driver, 和未来将要支持的ipvlan, macvlan,windows等等。现在用户可以以驱动/插件的形式,使用其它特定类型网络插件实体,例如overlay。libnetwork将以接口的形式,为docker提供网络服务,对于docker来说,具体实现是不可见的,可扩展的,其实体存放在docker源码的vendor目录,调用关系仍然为go库的内部调用, 必须作为docker源码的一部分进行编译。因此,这为以后驱动的维护升级带来了不少的难度。

特别提到的是,为了支持实现第三方的驱动,引入的remote driver类型。通过统一的Json-RPC接口,让更专业的网络供应商加入到docker的生态圈来。使用户不再局限于原生驱动,大大提高了docker网络的升级扩展能力。

这是使用overlay 网络的一个例子。这个命令用于新建或删除一个容器网络,创建时可以用『--driver』参数使用的网络插件,例如:

$ docker network create --driver=overlay br-overlay

b6942f95d04ac2f0ba7c80016eabdbce3739e4dc4abd6d3824a47348c4ef9e54

$ docker run -d --net br-overlay busybox /bin/sh

现在这个主机上有了一个新的overlay类型的Docker网络。当然要实现这种类型的网络,还需要内核版本(不低于3.6)及外部kv存储服务(Consul, etcd, ZooKeeper)的支持。

Libnetwork调用入口

用户提交的与网络相关的指令,都会首先在Docker Daemon做相应的处理。根据驱动类型,调用libnetwork模块的相应实现。

在这个层面里,其主要工作是联结底层驱动,在容器的启动中,初始化NetworkContoller,定义了容器网络的生命周期,并对下层提供调用。

Docker Daemon有关的代码分布如下:

  • daemon结构体中引用了libnetwork
    docker/daemon/daemon.go
    // Daemon holds information about the Docker daemon.
    type Daemon struct {
    ID string
    repository string
    containers container.Store
    execCommands *exec.Store
    referenceStore reference.Store
    downloadManager *xfer.LayerDownloadManager
    uploadManager *xfer.LayerUploadManager
    distributionMetadataStore dmetadata.Store
    trustKey libtrust.PrivateKey
    idIndex *truncindex.TruncIndex
    configStore *Config
    execDriver execdriver.Driver
    statsCollector *statsCollector
    defaultLogConfig containertypes.LogConfig
    RegistryService *registry.Service
    EventsService *events.Events
    netController libnetwork.NetworkController
  • 容器,网络,endpoint信息与更新,一些网络工具(有删减)
    {{{docker/container/container_unix.go
    // GetEndpointInNetwork returns the container's endpoint to the provided network.

    func (container *Container) GetEndpointInNetwork(n libnetwork.Network) (libnetwork.Endpoint, error) {

func (container *Container) buildPortMapInfo(ep libnetwork.Endpoint) error {

func getEndpointPortMapInfo(ep libnetwork.Endpoint) (nat.PortMap, error) {

func getSandboxPortMapInfo(sb libnetwork.Sandbox) nat.PortMap {}}}

  • 容器内的各种操作,网络相关的操作有初始化,创建,分配,连接,更新,删除网络配置,连接容器等
    docker/daemon/container_operations_unix.go

    func (daemon *Daemon) buildSandboxOptions(container *container.Container, n libnetwork.Network) ([]libnetwork.SandboxOption, error) {

    func (daemon *Daemon) updateNetworkSettings(container *container.Container, n libnetwork.Network) error {

    func (daemon *Daemon) updateEndpointNetworkSettings(container *container.Container, n libnetwork.Network, ep libnetwork.Endpoint) error {

    // get removed/unlinked).

    func (daemon *Daemon) updateNetwork(container *container.Container) error {

    // updateContainerNetworkSettings update the network settings

    func (daemon Daemon) updateContainerNetworkSettings(container *container.Container, endpointsConfig map[string] networktypes.EndpointSettings) error {

    func (daemon *Daemon) allocateNetwork(container *container.Container) error {

    func (daemon *Daemon) updateNetworkConfig(container *container.Container, idOrName string, endpointConfig *networktypes.EndpointSettings, updateSettings bool) (libnetwork.Network, error) {

    // ConnectToNetwork connects a container to a network

    func (daemon *Daemon)ConnectToNetwork(container *container.Container, idOrName string, endpointConfig *networktypes.EndpointSettings) error {

    func (daemon *Daemon) connectToNetwork(container *container.Container, idOrName string, endpointConfig *networktypes.EndpointSettings, updateSettings bool) (err error) { c.CreateEndpoint()

    func (daemon *Daemon) initializeNetworking(container *container.Container) error {
    --
  • 初始化nw controller, networkOptions, 网络驱动
    {{{docker/daemon/daemon_unix.go

    func (daemon *Daemon) networkOptions(dconfig *Config) ([]nwconfig.Option, error) {

func (daemon *Daemon) initNetworkController(config *Config) (libnetwork.NetworkController, error) {}}}

Daemon 与Libnetwork的调用过程

libnetwork 源码浅析

无论使用哪种网络类型,Docker daemon与libnetwok的交互流程都是一样的,它很好地对底层(驱动)实现进行了抽象。如果需要实现自己的驱动,开发者必须关注这部分。

1. Daemon创建网络控制器(controller)实例, 入参包括docker层面的网络全局参数(genericOption),例如缺省的bridge mode, kv store。

2. 网络控制器创建容器容器网络,入参包括网络名,类型,对应驱动参数。从这里开始,会调用至真正的驱动实现。

3. 创建endpoint, 进行IP分配,准备网络设备接口。

4. 创建sandbox, 使用容器对应的网络命令空间,包含该容器的网络环境。

5. 已有的endpoint加入sandbox, 完成容器与网络设备的对接。

以上的实际代码调用过程简要描述一下:

- 创建docker daemon的时候初始化NetworkController, 调用libnetwork.New创建controller实例。顺便创建缺省的三个网络-null, host, bridge。对应上图的1,2。

daemon.NewDaemon() —> driver.initNetworkController() — > libnetwork.New() — > controller.NewNetwork() (default create null and host network)

  • 对于驱动形式的网络插件,例如overlay,docker daemon也会直接用controller.NewNetwork, 指定网络名,驱动类型,及其它参数。最终也会调到libnetwork.NewNetwork的具体实现。
    所以libnetwork的NetworkController以接口的形式,对上层提供了管理网络的具体实现。对应上图的2。
  • 容器启动后需要加入网络,准备好配置实例,在connectToNework()中完成对网络底层的操作。
    container.start() —> initializeNetworking() — > allocateNetwork() — > connectToNetwork() — > container.writeHostConfig()
    container.cleanup() — > releaseNetwork() — > sandbox.delete()
  • 上图第三,四,五步,都包含在Daemon.connectToNetwork()方法下,具体操作包括
    1. buildCreateEndpointOptions,
    2. CreateEndpoint
    3. updateEndpointNetworkSettings
    4. controller.NewSandbox
    5. endpoint.join(sandbox)

Libnetwork 软件架构

libnetwork 源码浅析

Libnetwork 提供了连接容器的GO语言内部实现。其目的是以一致的编程接口,把网络实现给抽象起来

世界上有许多广泛的网络解决方案,适用于不同的应用场景。libnetwork以驱动/插件的形式,以支持这些方案,同时把复杂的网络驱动实现抽象出来,对用户来说展现的是简单而一致的网络模型。

以下是一级目录结构的解析:

$ tree -L 1

.

├── CHANGELOG.md

├── Dockerfile.build

├── Godeps 管理Go依赖库

├── LICENSE

├── MAINTAINERS

├── Makefile 编译连接规则文件, make build-local可生成dnet测试服务接口

├── README.md 项目概要文档

├── ROADMAP.md

├── Vagrantfile

├── api 通过http server暴露对外的API, 消息格式为RESTful。包括网络,服务,沙箱,端点(Endpoint)的处理

├── bin

├── bitseq 长id的生成库,用来生成网络id, 子网id之类的

├── circle.yml

├── client CLI客户端,处理网络增加,删除,查询。服务publish, attach, info等

├── cmd dnet一个libnetwork测试服务器

├── config 包括多个libnetwork模块的配置信息,包括daemon, network, driver, label, cluster, watcher, discovery

├── controller.go controller, libnetwork主入口, CNM 模型主要体现在这里

├── datastore libnetwork用到的各种Key/Value datastore, 包括cache, local(bolted), global(etcd, consul,zk)

├── default_gateway.go

├── default_gateway_freebsd.go

├── default_gateway_linux.go

├── default_gateway_windows.go

├── docs

├── driverapi 以接口的形式定义了实现新driver需要实现的API, 包括Driver, InterfaceInfo,InterfaceNameInfo, JoinInfo,DriverCallback,Capability,DiscoveryType,NodeDiscoveryData,IPAMData

├── drivers 具体的驱动实现,有bridge, host, null, overlay, remote, windows, 要实现ovs的话要在这里加

├── drivers.go

├── drivers_freebsd.go

├── drivers_linux.go 驱动初始化器

├── drivers_windows.go

├── endpoint.go endpoint结构体及接口

├── endpoint_cnt.go

├── endpoint_info.go

├── error.go

├── errors_test.go

├── etchosts 容器内/etc/hosts文件的处理

├── hostdiscovery 服务发现的实现

├── idm id managemet, 用来根据一段字符生成唯一id,使用了bitseq库

├── ipam ip地址管理,分配回收ip pool, ip address, 后端接了kv store实现跨主机的资源管理

├── ipamapi 定义了要实现外部ipam所需要的接口

├── ipams 两种spam,build-in, remote(即外部实现)

├── ipamutils ipam工具

├── iptables iptables, firewalld的处理

├── libnetwork_internal_test.go

├── libnetwork_test.go

├── machines

├── netlabel 各种定义好的net 相关的label, 如 com.docker.network.driver

├── netutils

├── network.go 定义网络结构体,对象接口及实现,用于Netlink网络

├── ns 网络namespace工具类

├── options

├── osl 定义网络相关实体的结构体,接口,如sanbox, interface, interface options, namespace

├── portallocator 端口资源(port)分配器

├── portmapper 实现port mapping, 网络地址转换(NAT), 用于bridge网络

├── resolvconf 工具类,实现/etc/resolv.conf DNS的配置,查询,更新

├── resolver.go

├── sandbox.go sanbox结构体的接口及实现

├── sandbox_externalkey.go

├── sandbox_externalkey_unix.go

├── sandbox_externalkey_windows.go

├── sandbox_store.go

├── sandbox_test.go

├── src

├── store.go 支持跨主机通信的kv store

├── store_test.go

├── test 主要有libnetwork端到端的集成测试,需要依赖一个叫Bats的SHELL测试工具

├── testutils

├── types

└── wrapmake.sh

有关Libnetwork Remote Driver

Remote Driver的出现为业界提供了自定义网络的可能。远程驱动作为服务端,libnetwork作为客户端,两者通过一系列带Json格式的http POST请求进行交互。

这种形式对网络实现的可维护性,可扩展性有很大好处。对于千差万别的网络实施方案而言,docker算是解放了双手,把更多精力放在自己擅长的容器方面。

代码位于libnetwork/drivers/remote。对应的远端驱动,只要实现了以下接口,就能支持docker网络相关的生命周期。

dispatchMap := map[string]func(http.ResponseWriter, *http.Request){
"/Plugin.Activate": activate(hostname),
"/Plugin.Deactivate": deactivate(hostname),
"/NetworkDriver.GetCapabilities": getCapability,
"/NetworkDriver.CreateNetwork": createNetwork,
"/NetworkDriver.DeleteNetwork": deleteNetwork,
"/NetworkDriver.CreateEndpoint": createEndpoint(hostname),
"/NetworkDriver.DeleteEndpoint": deleteEndpoint(hostname),
"/NetworkDriver.EndpointOperInfo": endpointInfo,
"/NetworkDriver.Join": join,
"/NetworkDriver.Leave": leave,

}

以思科的contiv netplugin项目为例,其主导开发的以远程插件的形式,基于ovs提供连接docker容器的能力。

插件在/var/run/docker/plugins/注册了自己,处理来自docker libnetwork 的JSON-RPC请求,通过ovsdb-server的管理接口去执行修改ovs流表的操作。

功能上支持VLAN, VXLAN,QoS, 使用docker用户能够获得来自OVS的SDN网络能力,帮助用户在容器中充分利用OVS在网络功能方面的优势。

libnetwork 源码浅析

原文  http://dockone.io/article/1225
正文到此结束
Loading...