CISCO数据中心虚拟化之vPC技术和配置(转)

分类: Cisco |
https://www.cisco.com/c/en/us/products/collateral/switches/nexus-5000-series-switches/design_guide_c07-625857.html?dtid=osscdc000283#_Toc271759443
最近在研究数据中心功能时发现CISCO有一个虚拟化技术叫vPC的技术,今天就把我研究的成果分享出来。什么是vPC(virtual port channel)?研究了大半天,其实它就是一个可以跨不同设备的port-channel技术。它的作用:可以实现网络冗余,可以跨设备进行端口聚合,增加链路带宽,当链路故障时比生成树协议收敛时间还快。
下面我们就说说为什么会出现vPC技术。
http://www.net130.com/CMS/Files/Uploadimages/vpc1.jpg
如上图所示,在传统的网络拓扑中要实现网络的冗余,一般都会使用双链路上连的方式,而这种方式明显有一个环路,在这种拓扑下都会开起生成树协议,这时就会有一种链路是block状态的。所以这种方式实现冗余,并不会增加网络带宽。如果想用链路聚合方式来做双链路上连到两台不同的设备,port-channel功能又不支持跨设备聚合。所以在这种背景下就出现了vPC的概念,和port-channel功能相比区别是:vPC功能解决了传统聚合端口不能跨设备的问题。和传统跨设备方案相比的区别是:即增强网络冗余又能增加网络带宽。
http://www.net130.com/CMS/Files/Uploadimages/vpc2.jpg
vPC的部署拓扑如上图所示,它与前面的传统部署方案的优势是:
1. 允许下行设备通过port channel跨两个不同的上行设备。
2. 避免了以太网环路,也就不需要增加生成树(STP)的功能,也就解决了因为生成树功能而产生的block端口。
3. 增加了上行带宽
4. 当链路或是设备出现故障可以实现快速的故障恢复
5. 确保高可靠性
6. 双活工作机制
7. 实现网络拓扑简单化
目前据我所知在CISCO的Nexus 5000以上的型号都可以使用该功能。按上面的拓扑举例如何在CISCO Nexus 5548上
配置vpc功能:
在Nexus01上配置如下:
- Nexus01:
- Nexus01#config t
-
Nexus01(config)# feature
vpc
//全局开启vpc功能 -
Nexus01(config)# vpc
domain
1 -
Nexus01(config-vpc-domain)# peer-keepalive
destination
10.10.10.11 10.10.10.10source //指定peer的源和目标 -
Nexus01(config)#
interface 1/31-32ethernet //这两个物理口加入channel 10 -
Nexus01(config-if-range)#
switchmode trunk -
Nexus01(config-if-range)#
channel-group
10mode active -
Nexus01(config-if-range)#
interface 10port-channel -
Nexus01(config-if)#
vpc peer-link
//port-channel 10指定为peer链路 -
Nexus01(config)#
interface 1/1ethernet //这两个物理口加入channel 100 - Nexus01(config-if)# switchport mode trunk
-
Nexus01(config-if)#
channel-group
100mode active -
Nexus01(config)#
interface 100port-channel -
Nexus01(config-if)#
vpc
100 //channel 100加入vpc100
在Nexus02上配置如下:
- Nexus02#config t
- Nexus02(config)# feature vpc
- Nexus02(config)#
-
Nexus02(config)# vpc
domain
1 -
Nexus02(config-vpc-domain)# peer-keepalive
destination
10.10.10.10 10.10.10.11source -
Nexus02(config)#
interface 1/31-32ethernet -
Nexus02(config-if-range)#
switchmode trunk -
Nexus02(config-if-range)#
channel-group
10mode active -
Nexus02(config-if-range)#
interface 10port-channel - Nexus02(config-if)# vpc peer-link
-
Nexus02(config)#
interface 1/1ethernet - Nexus02(config-if)# switchport mode trunk
-
Nexus02(config-if)#
channel-group
100mode active -
Nexus02(config)#
interface 100port-channel -
Nexus02(config-if)#
vpc
100
===port channel=============
STP-防环,非根非指定口block.
PCH-带宽利用率提升,逻辑上单链路 l2/l3都可以使用
passive -LACP /active-Lacp/
on-Static
无协议-on
有协商-LACP
neuxs 不支持PACP
vPC---纯二层 技术,没有三层功能
vitrual Port channel
解决的是跨框 ,目前只支持仅2台,逻辑上2台变逻辑一台,结合生成一个虚拟nexus
交换机
VPC: 最后的效果就是无环,链路全部打开.
domain id,peers{一个设备只能create一个domain,两台设备的domain id要一样}
PKL: peer keep live,UDP3200,不建议背对背--->check alive
PL:peer link ,万兆10G以太网链路背对背 ,就是port channel--->transfer
data,用来传流量.一般是用来传控制流量. A<--->B
间传CFS
PORTS:member port :交换机上双上行口 , orphan (孤立口)port :交换机单上行口
VPC控制面:
CFS oe (over ethert):传了一堆控制面的信息
roles: 一台是 primary
VPC数据面:
限制条件:所有流量经过PL就不回从member口出去.
出流量就近处理。
peer gateway-默认打开的---for external
traffic
VPC member port down产生后果:无附加后果
PKL Down: 各做各的事情
PL Down (PKL fine): seconday member ports suspend
PKL Down and PL down===>双活/脑裂 各做个
补救:auto recovery
============Febric path==========
解决东西流量16-ways扩展,理解为16个上游,由于VPC只能支持2个设备,FP就诞生了,基于会话MAC地址学习. 大二层解决方案/SPINE-LEAF--FP,一旦spine多了,不同的LEAF就可以相互通信,从而实现了大二层. .受VXLAN打击现在用的少.
配置非常简单:开启feature,打开端口,划好vlan.
相同技术:Trill
FP-----EVE--大多都是自动配置的
FP 端口角色:
core ports:仅收发fp帧,没有mac address table. edge
ports:可发传统帧,基于MAC地址学习
core ports<--->fp<----->edge ports --->CE [classic ethernet]
core & edge 成对出现,形成邻居 ,全网跑isis,不用配,全网传递信息.
控制面: L2 ISIS 自己形成switch id ---IF
的对应表
unified port: 统一端口用来传ethernet OR FC,一个瞬间只能传ethernet or FC
unified fabric:统一架构 支持 FCOE,基于以太网的类型来区分到底是over
ethernet还是纯ethernet?!
FCOE 拓扑:
CNA===N5K
CNA ====Nexus 2K Fex (fabric
exterder)====Fabric link====Nexus 5000
FCOE and vPC:Fcoe的流量只能走单边
======SDN &
CLOUD====================================
SDN/Rest API
clinet ----> http --->server / provider --->
server
server ----> http ---->json/xml ----> clinet
SDN自动化控制器
NB 北向标准----- human----标准rest API
SB
netconf比较
https://s1.51cto.com/wyfs02/M00/A6/99/wKioL1nUkCrSc0BcAAjV8aU1Y70318.png-wh_500x0-wm_3-wmp_4-s_944731147.png
云计算:
自服务化
可扩展化
资源池化(虚拟化)
可以随时访问
IAAS: infrastruture
PAAS: platform as a service---platform for develop
SAAS: software as a service--desktop application
UCSd : UCS director 相当于云管理平台
ACI/SDN: controller,
APIC-DC,维护方式:GUI
北方向--REST API--SDN/Ph
南方向--opflex---N9K,APIC 控制
N9K角色,下发policy
===============CCIE
process=============
N7K 启动过程:
kenerl: boot flash: ****kickstart.bin
no mantennace mode
(boot)load bootflash:***.bin
二层协议:
STP : Rapid PVST / PVRST+ /MST
Toolkit:
-----单向链路问题-----
loop gurad:配置在端口,避免进入foward状态,只对单一设备生效。不常用
。
BA:Bridge assurance.一种类似 loop guard的 功能
.
BA bridge assurance:需要链路两段都配,所有端口 状态都可以 配 ,确保链路不会进去 环路
状态
上面 两种 技术都要 依赖 BPDU.
UDLD:不依赖BPDU.一层检查设备连接
=====vPC======
show vpc role
show vpc status
interface edage )# vpc memeber 100
双下联:member port
单下联: oraphe port
vPC种类 :
standard vpc
enhance vpc
vpc over fp=== VPC plus
vpc over vxlan
vpc over aci
VPC guidelines:
1-switch type 平台一样
2-link speed: 10Gbp+
3-vpc keep live (三层可达,不建议 背对背) udp 3200 port
4-vpc peer link:万兆卡
5-number of VPC peers:2
6-number of VPC domain PER switch:1
7-routing 《vpc peer-gateway》
VPC最佳 用在接入层
1-create domain
2-configure PKL
3-configure PL ,建议背对背
4-create vpc
5-peer gateway {optional}
6-一致性检查
vPC 故障分析
1-memeber port down----no effect,memeber port change to orphan port.
2-PKL down only---- no role change.双方都认为对方不在online, 然后各做各的事情 forwarding
3-only PL Down ------ 双方信息不能同步 ,但直到对方在,secondary memeber ports suspended.
4-PKL down then PL
down-----双方彻底失联。导致的结果是双活OR脑裂。各做各,中间有不确定路径.双方role都变为 primary.
链路恢复,定义角色恢复
5-PL
DOWN then PKL down--------可以配置auto-recovery , 可以让secondary memeber
port 激活,工作 ,最后的结果是 双活 OR 脑裂 .
vPC
over FCOE 只能走单边。
vPC over ACI ,no need PL/pkl, 同步信息都是通过
controller(ZMQ信息instead of CFS)
====FEX=====
Fex:就是远程板卡 Fex and vn tag,极度依赖parent
HIF,LIF,VIF (according
to VNTAG forwarding)
deployment type:static pinning,dynamic pinning
(default),
======Fabric Path=====: MAC IN MAC 构造
=====FHRP=====(第一跳冗余协议)
HSRP/VRRP/GLBP
=======OTV========
Overlay transport vituralisation,不用MPLS
L2***,不用拉物理线路的前提下一种廉价技术方案. 不同数据中心二层访问解决方案。
OTV完成了:
1-mac路由 ,实现多个数据中心二层互通 《mac in ip》===>不是大二层技术,实现特定 vlan通信,而是DCI[跨数据中心]技术 ,跨数据中心mac互通,让两个站点间vlan互通。
mac routing-- conftrol plane:isis
2-dynamic encap of l2 in
l3,动态封装
3-Arp cache ,支持组播 etc...
OTV构成components:
edge devices:N7k
边界设备有三种接口:
1-internal interfacs: 二层流量,二层口,纯MAC with vlan
id
2-join interface:can support组播流量 <<span style="font-family:
-apple-system, "Helvetica Neue", Helvetica, Arial, "PingFang SC",
"Hiragino Sans GB", "WenQuanYi Micro Hei", "Microsoft Yahei",
sans-serif; -webkit-font-smoothing: antialiased; margin: 0px;
padding: 0px; max-width: 100%; background-color: rgb(255, 255,
0);">三层口>
3-overlay interface:本地给包做封装,本地环回口
PS:两边DC的SUBNET必须一致,VLANID最好保持一致
OTV Control plane: is-is 可以单播也可以组播 建立邻居关系
单播的话就需要制定一个单播服务器,把边界设备注册到单播服务器上
最后的结果形成vlan-mac-IF 这样对应表,进行mac routing.
show otv adjacency
show otv route //不是三层route
data plane: over gre (mpls 头),
老版本,效率低
otv encapsulation-format ip gre |
udp
otv 不传bpdu,未知单播流,避免环路和广播风暴
如果一个site有两个otv uplink,需要配site vlan,做统一站点识别
DC1:
feature otv
otv join-inter
otv exend-vlan 100,200
otv site-vlan 300 \\不传流量
otv site-id 0x1
adj xxxx
DC2:
feature otv
otv join-inter
otv exend-vlan 100,200
otv site-vlan 300
\\不传流量,可以根dc1一样,也可以不一样
otv site-id 0x2
adj xxxx
OTV VLAN MApping 200 to 400 \\转vlan, 两dc转后的vlan必须一致.
=========
云系统 架构
=========
hardware
infras:底层资源
domain
abstraction:资源池化
system abstraction:云 管理 平台 -open
stack
https://s1.51cto.com/wyfs02/M02/9D/EC/wKioL1mIkCGzzx-IAAIS_vLqK8k173.png
喜欢
0
赠金笔