相关文章推荐
从容的蚂蚁  ·  Laravel 5.8 ...·  3 月前    · 
逃课的紫菜汤  ·  ArrayNode (The Adobe ...·  3 月前    · 
飘逸的山羊  ·  mysql中不用group by ...·  1 年前    · 
挂过科的板栗  ·  前端 - ...·  1 年前    · 
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500 inet 192.168.33.10 netmask 255.255.255.0 broadcast 192.168.33.255 inet6 fe80::a00:27ff:fe29:956c prefixlen 64 scopeid 0x20<link> ether 08:00:27:29:95:6c txqueuelen 1000 (Ethernet) RX packets 204 bytes 20733 (20.2 KiB) RX errors 0 dropped 0 overruns 0 frame 0 TX packets 144 bytes 23742 (23.1 KiB) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0 lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536 inet 127.0.0.1 netmask 255.0.0.0 inet6 ::1 prefixlen 128 scopeid 0x10<host> loop txqueuelen 1000 (Local Loopback) RX packets 64 bytes 5184 (5.0 KiB) RX errors 0 dropped 0 overruns 0 frame 0 TX packets 64 bytes 5184 (5.0 KiB) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
  • docker启动情况下,宿主机的网络情况
  • 此时宿主机会产生一个名为docker0的虚拟网桥
  • docker0: flags=4099<UP,BROADCAST,MULTICAST>  mtu 1500
            inet 172.17.0.1  netmask 255.255.0.0  broadcast 172.17.255.255
            ether 02:42:f7:55:5a:bd  txqueuelen 0  (Ethernet)
            RX packets 0  bytes 0 (0.0 B)
            RX errors 0  dropped 0  overruns 0  frame 0
            TX packets 0  bytes 0 (0.0 B)
            TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
    eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
            inet 192.168.33.10  netmask 255.255.255.0  broadcast 192.168.33.255
            inet6 fe80::a00:27ff:fe29:956c  prefixlen 64  scopeid 0x20<link>
            ether 08:00:27:29:95:6c  txqueuelen 1000  (Ethernet)
            RX packets 204  bytes 20733 (20.2 KiB)
            RX errors 0  dropped 0  overruns 0  frame 0
            TX packets 144  bytes 23742 (23.1 KiB)
            TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
    lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
            inet 127.0.0.1  netmask 255.0.0.0
            inet6 ::1  prefixlen 128  scopeid 0x10<host>
            loop  txqueuelen 1000  (Local Loopback)
            RX packets 64  bytes 5184 (5.0 KiB)
            RX errors 0  dropped 0  overruns 0  frame 0
            TX packets 64  bytes 5184 (5.0 KiB)
            TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
    

    二、Docker网络

  • 查看docker网络模式命令
  • docker network <COMMAND>
    
  • 可以使用的命令如下
  • [root@server01 ~]# docker network --help
    Usage:  docker network COMMAND
    Manage networks
    Commands:
      connect     Connect a container to a network
      create      Create a network
      disconnect  Disconnect a container from a network
      inspect     Display detailed information on one or more networks
      ls          List networks
      prune       Remove all unused networks
      rm          Remove one or more networks
    
  • 查看网卡列表
  • [root@server01 ~]# docker network ls
    NETWORK ID     NAME      DRIVER    SCOPE
    ad11a58c25cc   bridge    bridge    local
    1524da0505ee   host      host      local
    f4cbc4779eaf   none      null      local
    
  • 可以看到默认创建3大网络模式
  • 查看网卡信息
  • "Name": "bridge", "Id": "ad11a58c25cc80747576c2ef7c2ca09b960fe0565b4c6ab7032ed9dfdba94ca2", "Created": "2022-03-20T12:41:29.966511242Z", "Scope": "local", "Driver": "bridge", "EnableIPv6": false, "IPAM": { "Driver": "default", "Options": null, "Config": [ "Subnet": "172.17.0.0/16", "Gateway": "172.17.0.1" "Internal": false, "Attachable": false, "Ingress": false, "ConfigFrom": { "Network": "" "ConfigOnly": false, "Containers": {}, "Options": { "com.docker.network.bridge.default_bridge": "true", "com.docker.network.bridge.enable_icc": "true", "com.docker.network.bridge.enable_ip_masquerade": "true", "com.docker.network.bridge.host_binding_ipv4": "0.0.0.0", # 可以看到bridge用的网桥名称就是docker0 "com.docker.network.bridge.name": "docker0", "com.docker.network.driver.mtu": "1500" "Labels": {}
  • 创建和删除网卡
  • # 原始所有网卡信息
    [root@server01 ~]# docker network ls
    NETWORK ID     NAME      DRIVER    SCOPE
    ad11a58c25cc   bridge    bridge    local
    1524da0505ee   host      host      local
    f4cbc4779eaf   none      null      local
    # 创建网卡
    [root@server01 ~]# docker network create my_network
    146a5d4683a8ef8256ce5280eabb719c5d7da061f317f03529dedbf4fe8ee2a5
    [root@server01 ~]# docker network ls
    NETWORK ID     NAME         DRIVER    SCOPE
    ad11a58c25cc   bridge       bridge    local
    1524da0505ee   host         host      local
    # 默认创建的网卡类型是桥接类型
    146a5d4683a8   my_network   bridge    local
    f4cbc4779eaf   none         null      local
    # 删除网卡
    [root@server01 ~]# docker network rm my_network
    my_network
    [root@server01 ~]# docker network ls
    NETWORK ID     NAME      DRIVER    SCOPE
    ad11a58c25cc   bridge    bridge    local
    1524da0505ee   host      host      local
    f4cbc4779eaf   none      null      local
    

    三、网络模式

    3.1 bridge模式

  • Docker 服务默认会创建一个 docker0 网桥(其上有一个 docker0 内部接口),该桥接网络的名称为docker0,它在内核层连通了其他的物理或虚拟网卡,将所有容器和本地主机都放到同一个物理网络
  • Docker 默认指定了 docker0 接口 的 IP 地址和子网掩码,让主机和容器之间可以通过网桥相互通信
  • 为每一个容器分配和设置ip,并将容器连接到docker0,虚拟网桥默认为该模式
  • 使用 --network bridge 指定容器使用的网络模式,默认bridge(docker0)
  • Docker使用Linux桥接,在宿主机虚拟一个Docker容器网桥(docker0),Docker启动一个容器时会根据Docker网桥的网段分配给容器一个IP地址,称为容器ip(Container-IP),同时Docker网桥是每个容器的默认网关。因为在同一宿主机内的容器都接入同一个网桥,这样容器之间就能够通过容器的Container-IP直接通信
  • docker run 的时候,如果没有指定network则默认使用的网桥模式就是bridge,使用的就是docker0。在宿主机ifconfig可以看到docker0和创建的的networketh0,eth1,eth2……代表网卡一,网卡二,网卡三……,lo代表127.0.0.1,即localhost,inet addr用来表示网卡的IP地址
  • 网桥docker0创建一对对等虚拟设备接口一个叫veth,另一个叫eth0,成对匹配
  • 整个宿主机的网桥模式都是docker0,类似一个交换机有一堆接口,每个接口叫veth,在本地主机和容器内分别创建一个虚拟接口,并让他们彼此联通(这样一对接口叫veth pair
  • 每个容器实例内部同时有一块网卡,每个接口叫eth0
  • docker0上面的每个veth匹配某个容器实例内部的eth0,两两配对,一一匹配。 通过配对网卡,将宿主机上的所有容器都连接到这个内部网络上,两个容器在同一个网络下,会从这个网关下各自拿到分配的ip,此时两个容器的网络互通
  • / # ip addr
    1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1000
        link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
        inet 127.0.0.1/8 scope host lo
           valid_lft forever preferred_lft forever
    # eth0@if11:表示连接到宿主机的11号网卡信息
    10: eth0@if11: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue state UP
        link/ether 02:42:ac:11:00:02 brd ff:ff:ff:ff:ff:ff
        inet 172.17.0.2/16 brd 172.17.255.255 scope global eth0
           valid_lft forever preferred_lft forever
    
  • 宿主机网络信息
  • # veth02096c1@if10:表示连接到容器内部的10号网卡
    11: veth02096c1@if10: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master docker0 state UP group default
        link/ether fe:e5:f2:56:6d:07 brd ff:ff:ff:ff:ff:ff link-netnsid 0
        inet6 fe80::fce5:f2ff:fe56:6d07/64 scope link
           valid_lft forever preferred_lft forever
    
  • 对应关系如下
  • 3.2 host模式

  • 直接使用宿主机的 IP 地址与外界进行通信,不再需要额外进行NAT 转换
  • 使用--network host指定
  • 查看host网卡信息
  • "Name": "host", "Id": "1524da0505eef1c3f188e337551fe0259b99c3e00915fd9eafea288aa4ec69c9", "Created": "2022-03-06T06:55:13.717636641Z", "Scope": "local", # 驱动为host "Driver": "host", "EnableIPv6": false, "IPAM": { "Driver": "default", "Options": null, "Config": [] "Internal": false, "Attachable": false, "Ingress": false, "ConfigFrom": { "Network": "" "ConfigOnly": false, "Containers": {}, "Options": {}, "Labels": {}
  • 容器不会获得一个独立的Network Namespace, 而是和宿主机共用一个Network Namespace,不会虚拟出自己的网卡而是使用宿主机的IP和端口
  • docker run -d -p ip:ip --network host --name xxx xxxImage
  • 在host模式下无需通过ip来指定端口映射,因为使用的是宿主机的端口和ip
  • docker通过指定--network=host或-net=host启动的容器不能指定端口映射,将会抛出警告
  • 直接执行 docker run -d --network host --name xxx xxxImage 即可
  • 3.3 none模式

  • 容器有独立的 Network namespace,但并没有对齐进行任何网络设置,如分配veth pair和网卡连接、ip等
  • 实际中使用较少,因为Docker容器没有网卡、IP、路由等信息,只有一个lo(local表示本地回环),需要我们自己为Docker容器添加网卡、配置IP等
  • none模式:使用--network none指定
  • 查看none网卡信息
  • "Name": "none", "Id": "f4cbc4779eafdf5bc4d2fd948ded3e0f8b99c2d2aac425123bda050d58eef0a3", "Created": "2022-03-06T06:55:13.712122716Z", "Scope": "local", # 驱动为空 "Driver": "null", "EnableIPv6": false, "IPAM": { "Driver": "default", "Options": null, "Config": [] "Internal": false, "Attachable": false, "Ingress": false, "ConfigFrom": { "Network": "" "ConfigOnly": false, "Containers": {}, "Options": {}, "Labels": {}
  • 如果容器启动在此模式下,内部将只有lo地址
  • 3.4 container模式

  • 新建的容器和已经存在的一个容器共享网络ip和配置,而不会创建自己的网卡,配置自己的IP等
  • 两个容器除了网络方面,其他的如文件系统、进程列表等依然隔离
  • 使用--network container:NAME 或者容器ID指定
  • 先运行基础容器
  • docker run -it --name alpine alpine:latest
  • [root@server01 ~]# docker run -it --name alpine alpine:latest
    / # ip addr
    1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1000
        link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
        inet 127.0.0.1/8 scope host lo
           valid_lft forever preferred_lft forever
    14: eth0@if15: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue state UP
        link/ether 02:42:ac:11:00:02 brd ff:ff:ff:ff:ff:ff
        inet 172.17.0.2/16 brd 172.17.255.255 scope global eth0
           valid_lft forever preferred_lft forever
    
  • 再运行alpine,然后指定基础基础容器
  • docker run -it --network container:alpine --name alpine-01 alpine:latest
  • [root@server01 ~]# docker run -it --network container:alpine --name alpine-01 alpine:latest
    / # ip addr
    1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1000
        link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
        inet 127.0.0.1/8 scope host lo
           valid_lft forever preferred_lft forever
    14: eth0@if15: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue state UP
        link/ether 02:42:ac:11:00:02 brd ff:ff:ff:ff:ff:ff
        inet 172.17.0.2/16 brd 172.17.255.255 scope global eth0
           valid_lft forever preferred_lft forever
    
  • 关闭基础容器,然后再查看alpine-01
  • 此时只有本地回环地址,共享的网络已经没有了
  • / # ip addr
    1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1000
        link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
        inet 127.0.0.1/8 scope host lo
           valid_lft forever preferred_lft forever
    
  • 所以基于容器模式网络直接依赖性比较强,基础容器网络中断将会导致所有基于此网络的容器全部受到影响
  • 四、网络IP生产规则

  • docker容器内部的ip是在容器启动时进行分配,所以ip可能会发生改变
  • docker inspect redis | tail -n 20
  • "Networks": {
        "bridge": {
            "IPAMConfig": null,
            "Links": null,
            "Aliases": null,
            "NetworkID": "ad11a58c25cc80747576c2ef7c2ca09b960fe0565b4c6ab7032ed9dfdba94ca2",
            "EndpointID": "48f16e0663e908688490e3a1fdc688a1b1c28d706ee631facb0c367e343dce76",
            # 默认的网关就是docker0
            "Gateway": "172.17.0.1",
            # 本次分配的ip
            "IPAddress": "172.17.0.2",
            "IPPrefixLen": 16,
            "IPv6Gateway": "",
            "GlobalIPv6Address": "",
            "GlobalIPv6PrefixLen": 0,
            "MacAddress": "02:42:ac:11:00:02",
            "DriverOpts": null
    
  • 可以关闭此容器,然后重新运行一个新容器,可以返回ip和上面的可能一样,所以ip会变动
  • 五、自定义网络

  • 之前的links技术已经过时
  • 在各自容器内部,通过ip可以ping通,但是通过服务名(--name 指定的名称)缺无法ping通
  • 自定义桥接网络,自定义网络默认使用的是桥接网络bridge
  • docker network create my_network
  • 新建容器加入上一步新建的自定义网络
  • docker run -d --network my_network --name alpine01 alpine:latest
  • docker run -d --network my_network --name alpine02 alpine:latest
  • 原理:自定义网络维护好了主机名和ip的对应关系(ip和域名都能通)
  • 通过将不同容器加入到同一个网络,就可以实现通过容器名称访问,无论容器如何重启都无需改动依赖服务
  • 分类:
    后端
    标签: