vnine city(vni) - 廖盛坪财富
当前位置:首页 > 焦点 > 正文

vnine city(vni)

  • 焦点
  • 2022-09-13
  • 96
  • 更新:2022-09-13 01:55:06

本篇文章给大家谈谈vni,以及vnine city对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。

本文目录一览:

vxlan vni 须全球唯一吗

你好:

要解决这些问题,VMware和微软采取了 装和隧道2大策略,分别是:VXLAN和NVGRE。

VXLAN和NVGRE都使用 装和隧道方式来创建大量的VLAN子,这些子可以扩展到2层和3层络。这是为了解决IEEE8021Q定义的数量有限的VLAN,实现云和专有络中共享负载均衡的多赁络。

如果VXLAN和NVGRE都采取相同的措施,哪个更好或者它们都能正常使用吗这没有统一答案。

VXLAN标准:扩展VLAN,支持远距离VM迁移

VMware的VXLAN是为了实现多户云络所需要的远距离分割支持, 它使用一个名为VXLAN络标识符(VNI)的24位标识符,将与应用程序关联的VLAN分组到一个片段中,来分离应用程序数据。这可以使虚拟机在多户的数据中心间进行迁移。

虚拟机软件不需要修改就能够在VXLAN环境中运行。虚拟机会创建与非VXLAN和非虚拟环境相同的数据包。在VXLAN环境里,数据包被 装在一个外在以太数据包中,它带有目标服务器或转发数据包的路由器的目标MAC 。然而,在VXLAN环境里,虚拟机间通信需要将广播数据包用通信虚拟机所在的VXLAN片段发到关联IP多路广播分组。

虚拟机也需要进行VXLAN环境以外的通信,这种情况不需要对源虚拟机或目标设备做修改。VXLAN关会取下VXLAN和UDP的头信息,将这个数据包转发到虚拟机所发数据包的目标MAC上。

VXLAN标准看起来代表着虚拟络天堂,但是SearchNetworking的Fast Packet博主Ivan Pepelnjak持怀疑态度。在他的Fast Packet 博客中,Pepelnjak提出了严肃的问题,络专业人员在承认这项技术前应该先问下自己:是否真正需要VXLAN,他建议很多人根本不需要VXLAN。

Pepelnjak还指出了VXLAN的不足之处,包括它在如交换机,负载均衡器或防火墙等物理设备的环境内缺乏有效通信。在任何IP络的VXLAN里, IP多路广播的2层络洪泛都必须进行这类通信。

和VXLAN标准一样,微软的NVGRE标准提案都使用 装策略来创建大量的VLAN子,这些子可以扩展到分散的数据中心和2、3层络。二者都旨在实现在云和专有络中共享负载均衡的多赁络。然而它们还是有一些区别的。

一些NVGRE标准的重要特点包括指定24位的赁络标识符(TNI),NVGRE解决了一些和多户络相关的问题。并且使用GRE来创建一个独立的虚拟2层络,限制物理2层络或扩展超过子边界。NVGRE终端通过在GRE头插入INT指示符的方式分隔各个TNI。

两种提案都认为负载均衡是实现有效运营的必要条件,但是VXLAN可以随机分配端口号来分散负载,而NVGRE使用GRE关键域中的保留8位。

博主Martìn Casado认为,VXLAN和NVGRE还是有发展空间的。但他同时指出没有哪个标准完全成熟络虚拟化没有完整的答案。目前两种标准的多点传送功能有限,并且只支持2层的逻辑络。随着标准的成熟,它们非常有可能提高控制能力。

我知道所以你知道!

vnine city(vni)  第1张

vxlan和vlan区别是什么?

vxlan和vlan区别是:

VXLAN是一种网络虚拟化技术,可以改进大型云计算在部署时的扩展问题,是对VLAN的一种扩展。VXLAN是一种功能强大的工具,可以穿透三层网络对二层进行扩展。它可通过封装流量并将其扩展到第三层网关,以此来解决VMS(虚拟内存系统)的可移植性限制,使其可以访问在外部IP子网上的服务器。

VLAN(Virtual Local Area Network)的中文名为"虚拟局域网"。

虚拟局域网(VLAN)是一组逻辑上的设备和用户,这些设备和用户并不受物理位置的限制,可以根据功能、部门及应用等因素将它们组织起来,相互之间的通信就好像它们在同一个网段中一样,由此得名虚拟局域网。

基本原理

VXLAN(Virtual eXtensible Local Area Network)是一种隧道技术,能在三层网络的基础上建立二层以太网网络隧道,从而实现跨地域的二层互连。

VXLAN采取了将原始以太网报文封装在UDP数据包里的封装格式。将原来的二层数据帧加上VXLAN头部一起封装在一个UDP数据包里。

VXLAN头部包含有一个VXLAN标识(即VNI,VXLAN Network Identifier),只有在同一个VXLAN上的虚拟机之间才能相互通信。VNI在数据包之中占24比特,故可支持1600万个VXLAN的同时存在,远多于VLAN的4094个,因此可适应大规模租户的部署。

VXLAN一般通过安装在服务器上的软件实现报文的封装与解封装,网络只要IP路由可达即可。VXLAN实现了应用与物理网络的解耦,但网络与虚拟机还是相互独立的。业界一般通过网络控制器(如SDN,Software Defined Network)实现VXLAN网络与云业务的联动。

当虚拟机发生迁移后,虚机/存储控制器会把虚拟机迁移信息通知给网络控制器,网络控制器根据虚拟机迁移的新位置,重新调整网络配置,从而实现网络与云业务的联动。也就是说,物理网络可以是传统的三层IP网络,路由可达即可。

虚拟机可跨三层IP网络远距离迁移,不再受限于二层技术。物理网络也无需允许所有VLAN通过。接入交换机需要学习的MAC地址的数量也大大减少,削弱了网络设备MAC地址表项规格对虚拟机规模的约束。

Overlay网络解决的3个问题

来源于: 为什么集群需要overlay网络?

Overlay 网络建立在另一个计算机网络之上的虚拟网络(不能独立出现),Overlay 底层依赖的网络是 Underlay 网络。

Underlay 网络是专门用来承载用户 IP 流量的基础架构层,它与 Overlay 网络之间的关系有点类似物理机和虚拟机。Underlay 网络和物理机都是真正存在的实体,它们分别对应着真实存在的网络设备和计算设备,而 Overlay 网络和虚拟机都是依托在下层实体使用软件虚拟出来的层级。

在实践中我们一般使用虚拟局域网扩展技术VxLAN(Virtual Extensible LAN)组建 Overlay 网络。VxLAN 使用虚拟隧道端点VTEP (Virtual Tunnel End Point)设备对服务器发出和收到的数据包进行二次封装和解封。

两台物理机可以通过三层的 IP 网络互相访问:上图中两个 VTEP 会相互连接并获得网络中的 MAC 地址、IP 地址等信息,例如,服务器 1 中的 VTEP 需要知道想要访问绿色网络中的 10.0.0.2 虚拟机需要先访问 IP 地址为 204.79.197.200 的服务器 2。这些配置可以被网络管理员手动配置、自动学习、也可以通过上层的管理器设置。

当绿色的 10.0.0.1 虚拟机想要向绿色的 10.0.0.2 发送数据时,经过以下步骤:

1) 绿色的 10.0.0.1 会将 IP 数据包发送给 VTEP;

2) 服务器 1 的 VTEP 收到 10.0.0.1 发送的数据包后;

    a) 从收到的 IP 数据包中获取目的虚拟机的 MAC 地址;

    b) 在本地的转发表中查找该 MAC 地址所在服务器的 IP 地址,即 204.79.197.200;

    c) 将绿色虚拟机所在的虚拟网络标识符(VxLAN Network Identifier、VNI)以及原始的 IP 数据包作为负载,构建新的 UDP 数据包;

    d) 将新的 UDP 数据包发送到网络中;

3) 服务器 2 的 VTEP 收到 UDP 数据包后;

    a) 去掉 UDP 数据包中的协议头;

    b) 查看数据包中 VNI;

    c) 将 IP 数据包转发给目标的绿色服务器 10.0.0.2;

4) 绿色的 10.0.0.2 会收到绿色服务器 10.0.0.1 发送的数据包。

笔记:以上步骤中的VNI(VxLAN Network  Identifier)是干嘛的? 2) c) 和3) b) 中vni做了什么处理?整个过程中VTEP起到网关的重要性。

在数据包的传输过程中,通信的双方都不知道底层网络做的这些转换,它们认为两者可以通过二层的网络互相访问, 但是实际上经过了三层 IP 网络的中转,通过 VTEP 之间建立的隧道实现了连通。 除了 VxLAN 之外,Overlay 网络还有很多实现方案,不过也都大同小异。Overlay 网络虽然能够利用底层网络在多数据中心之间组成二层网络,但是它的封包和拆包过程也会带来额外开销,所以 为什么我们的集群需要 Overlay 网络呢,本文将介绍 Overlay 网络解决的三个问题 :

        1) 云计算中集群内的、跨集群的或者数据中心间的 虚拟机和实例的迁移 比较常见;

        2) 单个集群中的虚拟机规模可能非常大, 大量的 MAC 地址和 ARP 请求会为网络设备带来巨大的压力 ;

        3) 传统的 网络隔离技术 VLAN 只能建立 4096 个虚拟网络 ,公有云以及大规模的虚拟化集群需要更多的虚拟网络才能满足网络隔离的需求;

Kuberentes 目前已经是容器编排领域的事实标准了,虽然很多传统行业仍然在使用物理机部署服务,但是越来越多的计算任务在未来都会跑在虚拟机上。 虚拟机迁移是将虚拟机从一个物理硬件设备移到另一个设备的过程,因为日常的更新维护,集群中的大规模虚拟机迁移是比较常见的事情 ,上千台物理机组成的大集群使得集群内的资源调度变得更加容易,我们可以 通过虚拟机迁移来提高资源的利用率、容忍虚拟机的错误并提高节点的可移植性 。

当虚拟机所在的宿主机因为维护或者其他原因宕机时,当前实例就需要迁移到其他的宿主机上, 为了保证业务不中断,我们需要保证迁移过程中的 IP 地址不变,因为 Overlay 是在网络层实现二层网络,所以多个物理机之间只要网络层可达就能组建虚拟的局域网, 虚拟机或者容器迁移后仍然处于同一个二层网络,也就不需要改变 IP 地址。

如上图所示,迁移后的虚拟机与其他的虚拟机虽然位于不同的数据中心,但是由于上述 两个数据中心之间可以通过 IP 协议连通,所以迁移后的虚拟机仍然可以通过 Overlay 网络与原集群的虚拟机组成二层网络 ,集群内部的主机也完全不清楚、不关心底层的网络架构,它们只知道不同虚拟机之间是可以连通的。

我们在 为什么 Mac 地址不需要全球唯一 曾经介绍过二层网络的通信需要依赖 MAC 地址,一个传统的二层网络需要网络设备中存储着从 IP 地址到 MAC 地址的转发表。

目前 Kuberentes 官方支持的最大集群为 5000 节点 ,如果这 5000 个节点中的每个节点都仅仅包含一个容器,这对于内部的网络设备其实没有太大的压力, 但是在实际情况下 5000 节点的集群中都包含几万甚至几十万个容器 , 当某个容器向集群中发送 ARP 请求,集群中的全部容器都会收到 ARP 请求,这时会带来极高的网络负载 。

在 使用 VxLAN 搭建的 Overlay 网络中 ,网络会将虚拟机发送的数据重新封装成 IP 数据包,这样网络只需要知道不同 VTEP 的 MAC 地址,由此可以 将 MAC 地址表项中的几十万条数据降低到几千条 , ARP 请求也只会在集群中的 VTEP 之间扩散 ,远端的 VTEP 将数据拆包后也仅会在本地广播,不会影响其他的 VTEP,虽然这对于集群中的网络设备仍然有较高的要求,但是已经极大地降低了核心网络设备的压力。

Overlay 网络其实与软件定义网络(Software-defined networking、SDN)密切相关,而 SDN 引入了数据平面和控制平面 ,其中 数据平面负责转发数据 ,而 控制平面负责计算并分发转发表 。VxLAN 的 RFC7348 中只定义了数据平面的内容,由该技术组成的网络可以通过传统的自学习模式学习网络中的 MAC 与 ARP 表项,但是在大规模的集群中,我们仍然需要引入控制平面分发路由转发表

大规模的数据中心往往都会对外提供云计算服务,同一个物理集群可能会被拆分成多个小块分配给不同的租户(Tenant), 因为二层网络的数据帧可能会进行广播,所以出于安全的考虑这些不同的租户之间需要进行网络隔离,避免租户之间的流量互相影响甚至恶意攻击 。传统的网络隔离会使用虚拟局域网技术(Virtual LAN、VLAN),VLAN 会使用 12 比特表示虚拟网络 ID,虚拟网络的上限是 4096 个(2的12次方)。

4096 个虚拟网络对于大规模的数据中心来说远远不够,VxLAN 会使用 24 比特的 VNI 表示虚拟网络个数,总共可以表示 16,777,216 个虚拟网络,这也就能满足数据中心多租户网络隔离的需求了。

更多的虚拟网络其实是 VxLAN 顺手带来的好处,它不应该成为使用 VxLAN 的决定性因素。 VLAN 协议的扩展协议 IEEE 802.1ad 允许我们在以太网帧中加入两个 802.1Q 的协议头,两个 VLAN ID 组成的 24 比特也可以表示 16,777,216 个虚拟网络 ,所以想要解决网络隔离不是使用 VxLAN 或者 Overlay 网络的充分条件。

今天的数据中心包含多个集群以及海量的物理机, Overlay 网络是虚拟机和底层网络设备之间的中间层,通过 Overlay 网络这一个中间层,我们可以解决虚拟机的迁移问题、降低二层核心网络设备的压力并提供更大规模的虚拟网络数量 :

        在使用 VxLAN 构成二层网络中,虚拟机在不同集群、不同可用区和不同数据中心迁移后,仍然可以保证二层网络的可达性,这能够帮助我们保证线上业务的可用性、提升集群的资源利用率、容忍虚拟机和节点的故障;

        集群中虚拟机的规模可能是物理机的几十倍,与物理机构成的传统集群相比,虚拟机构成的集群包含的 MAC 地址数量可能多一两个数量级,网络设备很难承担如此大规模的二层网络请求,Overlay 网络通过 IP 封包和控制平面可以减少集群中的 MAC 地址表项和 ARP 请求;

        VxLAN 的协议头使用 24 位的 VNI 表示虚拟网络,总共可以表示 1600 万的虚拟网络,我们可以为不同的虚拟网络单独分配网络带宽,满足多租户的网络隔离需求;

需要注意的是,Overlay 网络只是一种在物理网络上的虚拟网络,使用该技术并不能直接解决集群中的规模性等问题,而 VxLAN 也不是组建 Overlay 网络的唯一方法,在不同场景中我们可以考虑使用不同的技术,例如:NVGRE、GRE 等。到最后,我们还是来看一些比较开放的相关问题,有兴趣的读者可以仔细思考一下下面的问题:

        VxLAN 将原始数据包封装成 UDP 在网络上分发,那么 NVGRE 和 STT 分别使用哪些方法传输数据呢?

        在 Kubernetes 中部署 Overlay 网络应该使用什么技术或者软件?

vni有多少比特

vni28比特。

VXLAN是一种网络虚拟化技术,可以改进大型云计算在部署时的扩展问题,是对VLAN的一种扩展。VXLAN是一种功能强大的工具,可以穿透三层网络对二层进行扩展。它可通过封装流量并将其扩展到第三层网关,以此来解决VMS(虚拟内存系统)的可移植性限制,使其可以访问在外部IP子网上的服务器。

2021年10月8日,为防止未成年人沉迷网络游戏,维护未成年人合法权益,文化和旅游部印发通知,部署各地文化市场综合执法机构进一步加强网络游戏市场执法监管。据悉,文化和旅游部要求各地文化市场综合执法机构会同行业管理部门。

重点针对时段时长限制、实名注册和登录等防止未成年人沉迷网络游戏管理措施落实情况,加大辖区内网络游戏企业的执法检查频次和力度;加强网络巡查,严查擅自上网出版的网络游戏;加强互联网上网服务营业场所、游艺娱乐场所等相关文化市场领域执法监管,防止未成年人违规进入营业场所。

2022-04-09-NAT介绍

NAT是(Network Address Translation)的缩写。

还有个名字叫NAPT(Network Address Port Translation),NAPT既支持地址转换也支持端口转换,并允许多台内网主机共享一个外网IP地址访问外网,因此NAPT可以有效的改善IP地址短缺现象。

如果没有做特殊说明,本文档中的NAT均是指NAPT方式的NAT。

随着网络应用的增多,IPv4地址枯竭的问题越来越严重。尽管 IPv6 可以从根本上解决IPv4地址空间不足问题,但目前众多网络设备和网络应用大多是基于IPv4的,因此在IPv6广泛应用之前,使用一些过渡技术(如CIDR、私网地址等)是解决这个问题的主要方式,NAT就是这众多过渡技术中的一种。

当私网用户访问公网的报文到达网关设备后,如果网关设备上部署了NAT功能,设备会将收到的IP数据报文头中的IP地址转换为另一个IP地址,端口号转换为另一个端口号之后转发给公网。在这个过程中,设备可以用同一个公网地址来转换多个私网用户发过来的报文,并通过端口号来区分不同的私网用户,从而达到地址复用的目的。

早期的NAT是指Basic NAT,Basic NAT在技术上实现比较简单,只支持地址转换,不支持端口转换。因此,Basic NAT只能解决私网主机访问公网问题,无法解决IPv4地址短缺问题。后期的NAT主要是指网络地址端口转换NAPT(Network Address Port Translation),NAPT既支持地址转换也支持端口转换,允许多台私网主机共享一个公网IP地址访问公网,因此NAPT才可以真正改善IP地址短缺问题。

Basic NAT方式只转换IP地址,不转换TCP/UDP协议的端口号,属于一对一的转换,一个外网IP地址只能被一个内网用户使用。[图1]描述了Basic NAT的基本原理。

Basic NAT实现过程如下:

NAPT方式既转换IP地址,也转换TCP/UDP协议的端口号,属于多对一的转换。NAPT通过使用“IP地址+端口号”的形式,使多个内网用户共用一个外网IP地址访问外网,因此NAPT也可以称为“多对一地址转换”或“地址复用”。[图2]描述了NAPT的基本原理。

NAPT实现过程如下:

当VPC内的云主机需要访问公网,请求量大时,为了节省弹性公网IP资源并且避免云主机IP直接暴露在公网上,您可以使用公网NAT网关的SNAT功能。VPC中一个子网对应一条SNAT规则,一条SNAT规则可以配置多个弹性公网IP。公网NAT网关为您提供不同规格的连接数,根据业务规划,您可以通过创建多条SNAT规则,来实现共享弹性公网IP资源。

当VPC内的云主机需要面向公网提供服务时,可以使用公网NAT网关的DNAT功能。

DNAT功能绑定弹性公网IP,有两种映射方式(IP映射、端口映射)。可通过端口映射方式,当用户以指定的协议和端口访问该弹性公网IP时,公网NAT网关会将该请求转发到目标云主机实例的指定端口上。也可通过IP映射方式,为云主机配置了一个弹性公网IP,任何访问该弹性公网IP的请求都将转发到目标云主机实例上。使多个云主机共享弹性公网IP和带宽,精确的控制带宽资源。

一个云主机配置一条DNAT规则,如果有多个云主机需要为公网提供服务,可以通过配置多条DNAT规则来共享一个或多个弹性公网IP资源。

典型的P2P场景:

在[STUN]标准中,根据私网IP地址和端口到NAT出口的公网IP地址和端口的映射方式,把NAT分为如下四种类型,详见下图。

STUN中定义的NAT类型

STUN

ICE

我在从服务器收到的端口上添加了1,因为如果我支持两个对称NAT,那么增量是1端口也是如此 . 查看示例:

连接到服务器和NAT A向S发送包含以下内容的数据包:45.89.66.125:58000

B连接到服务器,NAT B向S发送包含以下内容的数据包:144.85.1.18:45000

S将B的信息发送给A,将A的信息发送给B.

现在,如果A向B发送此信息,NAT A将创建此 Map :

INTERNAL_IP_A:58001-144.85.1.18:45001

对于此连接,NAT A应使用端口58001(最后一个端口1,它是对称NAT)

NAT B接收数据包但丢弃它 .

现在,如果B使用收到的信息向A发送数据包,NAT B将创建此映射:

INTERNAL_IP_B:45001-45.89.66.125:58001

现在NAT应该接受这个数据包,因为在它的表中有接收它的信息 .

先上一张比较有名的图:

(CONNTRACK),顾名思义,就是跟踪并且记录连接状态。Linux为每一个经过网络堆栈的数据包,生成一个新的连接记录项 (Connection entry)。此后,所有属于此连接的数据包都被唯一地分配给这个连接,并标识连接的状态。连接跟踪是防火墙模块的状态检测的基础,同时也是地址转换中实 现SNAT和DNAT的前提。

那么Netfilter又是如何生成连接记录项的呢?每一个数据,都有“来源”与“目的” 主机 ,发起连接的主机称为“来源”,响应“来源”的请求的主机即 为目的,所谓生成记录项,就是对每一个这样的连接的产生、传输及终止进行跟踪记录。由所有记录项产生的表,即称为连接跟踪表。

连接跟踪子系统跟踪已看到的所有数据包流,运行“sudo conntrack -L”以查看其内容:

每行显示一个连接跟踪条目。您可能会注意到,每行两次显示地址和端口号,甚至是反向的地址和端口对。这是因为每个条目两次插入到状态表中。第一个地址四元组(源地址和目标地址以及端口)是在原始方向上记录的地址,即发起方发送的地址。第二个四元组是conntrack希望在收到来自对等方的答复时看到的内容。这解决了两个问题:

如果NAT规则匹配(例如IP地址伪装),则将其记录在连接跟踪条目的答复部分中,然后可以自动将其应用于属于同一流的所有将来的数据包。

状态表中的查找将是成功的,即使它是对应用了任何形式的网络或端口地址转换的流的答复包。

原始的(第一个显示的)四元组永远不会改变:它是发起方发送的。NAT操作只会将回复(第二个)更改为四倍,因为这将是接收者看到的内容。对第一个四倍的更改将毫无意义:netfilter无法控制启动程序的状态,它只能影响数据包的接收/转发。当数据包未映射到现有条目时,conntrack可以为其添加新的状态条目。对于UDP,此操作会自动发生。对于TCP,conntrack可以配置为仅在TCP数据包设置了SYN位的情况下添加新条目。默认情况下,conntrack允许中流拾取不会对conntrack变为活动状态之前存在的流造成问题。

如上一节所述,列出的答复元组包含NAT信息。可以过滤输出以仅显示应用了源或目标nat的条目。这样可以查看在给定流中哪种类型的NAT转换处于活动状态。“sudo conntrack -L -p tcp –src-nat”可能显示以下内容:

此项显示从10.0.0.10:5536到10.8.2.12:80的连接。但是,与前面的示例不同,答复方向不仅是原始的反向方向:源地址已更改。目标主机(10.8.2.12)将答复数据包发送到192.168.1.2,而不是10.0.0.10。每当10.0.0.10发送另一个数据包时,具有此条目的路由器将源地址替换为192.168.1.2。当10.8.2.12发送答复时,它将目的地更改回10.0.0.10。此源NAT是由于nft假装规则所致:

inet nat postrouting meta oifname "veth0" masquerade

其他类型的NAT规则,例如“dnat to”或“redirect to”,将以类似的方式显示,其回复元组的目的地不同于原始的。

conntrack记帐和时间戳记是两个有用的扩展。“sudo sysctl net.netfilter.nf_conntrack_acct=1”使每个流的“sudo conntrack -L”跟踪字节和数据包计数器。

“sudo sysctl net.netfilter.nf_conntrack_timestamp=1”记录每个连接的“开始时间戳”。然后,“sudo conntrack -L”显示自第一次看到流以来经过的秒数。添加“–output ktimestamp”也可以查看绝对开始日期。

您可以将条目添加到状态表。例如:

conntrackd将此用于状态复制。活动防火墙的条目将复制到备用系统。这样,备用系统就可以接管而不会中断连接,即使建立的流量也是如此。Conntrack还可以存储与网上发送的数据包数据无关的元数据,例如conntrack标记和连接跟踪标签。使用“update”(-U)选项更改它们:

sudo conntrack -U -m 42 -p tcp

这会将所有tcp流的connmark更改为42。

在某些情况下,您想从状态表中删除条目。例如,对NAT规则的更改不会影响属于表中流的数据包。对于寿命长的UDP会话(例如像VXLAN这样的隧道协议),删除条目可能很有意义,这样新的NAT转换才能生效。通过“sudo conntrack -D”删除条目,然后删除地址和端口信息的可选列表。下面的示例从表中删除给定的条目:

云场景下的NAT的基本原理没有大的变化。但要考虑租户隔离与租户运维等问题。

VPC及VPC下的子网网段是用用户自管理的,因此就要解决在一个设备上为多个可能地址重叠的租户提供NAT能力。因此我们使用了vxlan隧道技术来解决这个问题。

云计算中,为了解决租户隔离的问题,一般每个用户子网都会对应分配一个vni(vxlan net identity)。

因此我们可以用vni来标识不同vpc下的nat实例。

华为云NAT介绍

vni的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于vnine city、vni的信息别忘了在本站进行查找喔。

vni

有话要说...

取消
扫码支持 支付码