I********x 发帖数: 858 | 1 我看了下VTS:
Open Standards
Standards-based protocols: Supports Border Gateway Protocol-Ethernet VPN (
BGP-EVPN), Virtual Extensible LAN (VXLAN), and Multiprotocol Label Switching
(MPLS)
REST APIs: Supports transparent integration with a variety of domain
managers and virtual infrastructure managers (VIMs) such as OpenStack and
vCenter
Programmability: Industry-leading, multivendor device programmability with
support for multiple hypervisors
看起来VTS只是个框架,低层实现还可以是bgp evpn?因为cisco文档在ACI内部实现的
细节很少,所以我还不... 阅读全帖 |
|
I********x 发帖数: 858 | 2 我看了下VTS:
Open Standards
Standards-based protocols: Supports Border Gateway Protocol-Ethernet VPN (
BGP-EVPN), Virtual Extensible LAN (VXLAN), and Multiprotocol Label Switching
(MPLS)
REST APIs: Supports transparent integration with a variety of domain
managers and virtual infrastructure managers (VIMs) such as OpenStack and
vCenter
Programmability: Industry-leading, multivendor device programmability with
support for multiple hypervisors
看起来VTS只是个框架,低层实现还可以是bgp evpn?因为cisco文档在ACI内部实现的
细节很少,所以我还不... 阅读全帖 |
|
I********x 发帖数: 858 | 3 对的, aci本质上和J的解决方案一样,都是vxlan加bgp evpn,实现细节上有些不同。
aci实际上把部分设计内容包装进去了,比较适合企业用户不需要太多底层细节。
j的话基本都要自己设计诸如ASN,link IP等等,contrail基本是个纯overlay解决方案
,还是不放心全部网络feature都跑在hypervisor上。 |
|
z**r 发帖数: 17771 | 4 ACI不是BGP EVPN,那是VTS。
你还可以看看NSX,更接近于CONTRAIL。 |
|
I********x 发帖数: 858 | 5 对的, aci本质上和J的解决方案一样,都是vxlan加bgp evpn,实现细节上有些不同。
aci实际上把部分设计内容包装进去了,比较适合企业用户不需要太多底层细节。
j的话基本都要自己设计诸如ASN,link IP等等,contrail基本是个纯overlay解决方案
,还是不放心全部网络feature都跑在hypervisor上。 |
|
z**r 发帖数: 17771 | 6 ACI不是BGP EVPN,那是VTS。
你还可以看看NSX,更接近于CONTRAIL。 |
|
I********x 发帖数: 858 | 7 ACI 是一条解决方案,硬件方面包含9k(93,95)还有一个controller,提供各种内部
和外部的可编程性。目前版本的controller可以基本满足大多数数据中心的运行需要了。
Puppet方案是直接access个体设备API,juniper从一开始就可以做到。集中controller
也有它自己的优点,喜欢自己玩的可以玩puppet,不过复杂的功能可能不好用;喜欢简
单点的用集中controller不错,底层细节不用管了。
个人感觉9k外加vts controller比较合网工口味,那可是实实在在的mpbgp evpn,都是
标准协议搭起来的。APIc有很多私货,从网工角度看没啥意思,什么都集成进去了,相
反你要记住很多奇怪的新名词,有些完全就完全不知所云。 |
|
s*****g 发帖数: 1055 | 8 Spine-leaf 显然是DC不二的选择,cheap, flexible, scalable, no vendor lock in.
至于L2 还是L3 还要看你application, scalability 的需求,如果只有少量的rack,
spanning tree works just fine, L3 to TOR 应该是标配,需要L2 inside D.C. 话可
以用evpn/vxlan 实现,trill/qfabric 应该不是大势所趋。 |
|
s*****g 发帖数: 1055 | 9 Spine-leaf 显然是DC不二的选择,cheap, flexible, scalable, no vendor lock in.
至于L2 还是L3 还要看你application, scalability 的需求,如果只有少量的rack,
spanning tree works just fine, L3 to TOR 应该是标配,需要L2 inside D.C. 话可
以用evpn/vxlan 实现,trill/qfabric 应该不是大势所趋。
Buffer size? there are two totally opposite opinions wrt why deep buffer
matter/does not matter ... it is beyond my pay grade. |
|
t******0 发帖数: 3757 | 10
L3 肯定是大势所趋。。EVPN直接到TOR!!!
不要浪费时间在神TRILL, QFabric。。。目前来看VxLAN终究也会随风而逝 |
|
b***p 发帖数: 700 | 11 evpn只是signaling, encap用什么哪? |
|
I********x 发帖数: 858 | 12
EVPN has three encapsulations in standard:
MPLS
VXLAN
PBB (?)
On Junos MPLS encapsulation is default for EPVN instance. |
|
t******0 发帖数: 3757 | 13
L3 肯定是大势所趋。。EVPN直接到TOR!!!
不要浪费时间在神TRILL, QFabric。。。目前来看VxLAN终究也会随风而逝 |
|
b***p 发帖数: 700 | 14 evpn只是signaling, encap用什么哪? |
|
I********x 发帖数: 858 | 15
EVPN has three encapsulations in standard:
MPLS
VXLAN
PBB (?)
On Junos MPLS encapsulation is default for EPVN instance. |
|