s******v 发帖数: 4495 | 1 这个好像挺hot的,想学习一下,refresh一下knowledge。
这个DC switch和过去的switch有什么不同吗?除了
1)三层变成两层;
2)latency低
好像各家的技术也不一样,有没有入门的document,大家share一下,多谢! |
c*****i 发帖数: 631 | 2 dc switch没有3层变2层吧。现在不少大客户的把L3 boundary push到TOR switch了。
dc switch的feature requirement和普通的enterpise switch不一样啊。per 10G port
的price也要求更低。 |
s******v 发帖数: 4495 | 3 我看,DC都在说,spine-leaf,以前都是access-agg-core,还有这个feature req有啥
不同啊?
port
【在 c*****i 的大作中提到】 : dc switch没有3层变2层吧。现在不少大客户的把L3 boundary push到TOR switch了。 : dc switch的feature requirement和普通的enterpise switch不一样啊。per 10G port : 的price也要求更低。
|
a***n 发帖数: 262 | 4 blog.ioshints.info,some good blogs about datacenter
then go some other blogs he mentioned
like network filed day bloggers list
http://techfieldday.com/2011/nfd2/
Cisco
http://bradhedlund.com/
【在 s******v 的大作中提到】 : 这个好像挺hot的,想学习一下,refresh一下knowledge。 : 这个DC switch和过去的switch有什么不同吗?除了 : 1)三层变成两层; : 2)latency低 : 好像各家的技术也不一样,有没有入门的document,大家share一下,多谢!
|
z**r 发帖数: 17771 | 5 俺觉得更多的是在FabricPath(Trill), virtualization, OTV等等这些。找套nexus
bootcamp看看,应该有帮助
【在 s******v 的大作中提到】 : 这个好像挺hot的,想学习一下,refresh一下knowledge。 : 这个DC switch和过去的switch有什么不同吗?除了 : 1)三层变成两层; : 2)latency低 : 好像各家的技术也不一样,有没有入门的document,大家share一下,多谢!
|
z**r 发帖数: 17771 | 6 牛,你都怎么找到这些个人blog的?
【在 a***n 的大作中提到】 : blog.ioshints.info,some good blogs about datacenter : then go some other blogs he mentioned : like network filed day bloggers list : http://techfieldday.com/2011/nfd2/ : Cisco : http://bradhedlund.com/
|
x*********n 发帖数: 28013 | 7 比如latency requirement要很高。
access layer---distribution layer---core
data center基本都是core,agg router一般就是给客户接入的。
比如ACL一般都用在access为什么呢,再比如安全里面很多trust boundary最多放在
distribution,为啥呢。IPS,IDS的位置,都很能说明问题,有次interview人家就问
我这个。
packet一般到core了,就不check了,直接接受了,因为要减少cpu压力,latency要少。
【在 s******v 的大作中提到】 : 我看,DC都在说,spine-leaf,以前都是access-agg-core,还有这个feature req有啥 : 不同啊? : : port
|
x*********n 发帖数: 28013 | 8 其实学习data center最大的问题就是不容易操作。
很多东西其实没道理。
上次有个客户的东西弄错了,人家就断了,那个1分钟是何等的长啊,我紧张的弄好了
配置就是不work,然后Team leader过来了,interface下搞了一下shut,no shut,哈
,就马上work了。 |
s******v 发帖数: 4495 | 9 bootcamp is a super idea. got one. and studying it now.
【在 z**r 的大作中提到】 : 俺觉得更多的是在FabricPath(Trill), virtualization, OTV等等这些。找套nexus : bootcamp看看,应该有帮助
|
s******v 发帖数: 4495 | 10 有道理
少。
【在 x*********n 的大作中提到】 : 比如latency requirement要很高。 : access layer---distribution layer---core : data center基本都是core,agg router一般就是给客户接入的。 : 比如ACL一般都用在access为什么呢,再比如安全里面很多trust boundary最多放在 : distribution,为啥呢。IPS,IDS的位置,都很能说明问题,有次interview人家就问 : 我这个。 : packet一般到core了,就不check了,直接接受了,因为要减少cpu压力,latency要少。
|
|
|
x*********n 发帖数: 28013 | 11 其实网络里面很多东西都很像。
比如QOS的marking,原则是as close as source sender。
【在 s******v 的大作中提到】 : 有道理 : : 少。
|
A***i 发帖数: 17 | 12 Data Center switching的几大技术热点:
1.low latency: 基本来个cut-through L3 ASICs
2. IO consolidation: FCoE, iSCSI
3. Virtualization, Cisco vss/vpc, HP VC, Juniper Qfabric,
Brocade VCS,
Arista, vLAG, etc...目的是去掉STP, load balancing, full
redundancy, fast
convergence.
4. L2VPN (vmware, storage, etc need L2 spread over multi-
data center for
security and managment): MPLS(L2/L3 VPN, 已经做烂了),
Cisco OTV (mac-
based VPN)
这些技术基本都得构架在10G端口上实施.10G恐怕还得整上5-10年,才能
让系统和
应用的开发,优化,整合,让大部分应用跟上10G,否则vmware还会继续通
吃,把这些
个10G分成1G用,应用和系统一概不变。
100G? DWDM还没大范围铺开100G接入口把?data center有几个10
G比100G
强多了,OPEX会低很多。 |
L******t 发帖数: 1985 | 13 This Brad Hedlund recently jumped boat to Dell Force10. I failed to
understand how come Dell Force10 can be better in any way except maybe
promised compensation or title?
【在 a***n 的大作中提到】 : blog.ioshints.info,some good blogs about datacenter : then go some other blogs he mentioned : like network filed day bloggers list : http://techfieldday.com/2011/nfd2/ : Cisco : http://bradhedlund.com/
|
z**r 发帖数: 17771 | 14 很多100G接口现在都不需要OPTICAL SWITCH了,直接自己做,有DARK FIBER就行。看到
你这个LIST,俺突然想起CISCO LIVE上关于DCN的一些SESSION,大家可以去看看,基本
上就是目前DCN需要用到的东西和未来几年的方向
【在 A***i 的大作中提到】 : Data Center switching的几大技术热点: : 1.low latency: 基本来个cut-through L3 ASICs : 2. IO consolidation: FCoE, iSCSI : 3. Virtualization, Cisco vss/vpc, HP VC, Juniper Qfabric, : Brocade VCS, : Arista, vLAG, etc...目的是去掉STP, load balancing, full : redundancy, fast : convergence. : 4. L2VPN (vmware, storage, etc need L2 spread over multi- : data center for
|
A***i 发帖数: 17 | 15 Dark fiber系统风险太大。高度virtualized的data center 伤不起呀。 |
a***n 发帖数: 262 | 16 Do you all think DWDM or ROADM will come to enterprise like MPLS coming from
service provider to enterprise?
Or maybe only DWDM/ROADM for geographically separated data centers while fibre
plant for central campus?
【在 A***i 的大作中提到】 : Dark fiber系统风险太大。高度virtualized的data center 伤不起呀。
|
f*****m 发帖数: 416 | 17 这个东西的理论基础都是基于08年的一篇文章
A Scalable, Commodity Data Center Network Architecture
http://ccr.sigcomm.org/online/?q=node/378
【在 s******v 的大作中提到】 : 这个好像挺hot的,想学习一下,refresh一下knowledge。 : 这个DC switch和过去的switch有什么不同吗?除了 : 1)三层变成两层; : 2)latency低 : 好像各家的技术也不一样,有没有入门的document,大家share一下,多谢!
|
f*****m 发帖数: 416 | 18 topology变化还是很大的. core那一层的redundancy大大增加了
port
【在 c*****i 的大作中提到】 : dc switch没有3层变2层吧。现在不少大客户的把L3 boundary push到TOR switch了。 : dc switch的feature requirement和普通的enterpise switch不一样啊。per 10G port : 的price也要求更低。
|
f*****m 发帖数: 416 | 19 有联系,但不是一回事.
TRILL/OTV这些对传统的DC也能用
【在 z**r 的大作中提到】 : 俺觉得更多的是在FabricPath(Trill), virtualization, OTV等等这些。找套nexus : bootcamp看看,应该有帮助
|
f*****m 发帖数: 416 | 20
针对latency要求高的,是给HFT用的.那个对scale要求反而不是很高.
【在 s******v 的大作中提到】 : 这个好像挺hot的,想学习一下,refresh一下knowledge。 : 这个DC switch和过去的switch有什么不同吗?除了 : 1)三层变成两层; : 2)latency低 : 好像各家的技术也不一样,有没有入门的document,大家share一下,多谢!
|
|
|
c*****i 发帖数: 631 | 21 I heard force 10 is pretty strong in DC area. and their new switch(not sure
whether officially released) will beat hard on cisco nexus serial and arista.
【在 L******t 的大作中提到】 : This Brad Hedlund recently jumped boat to Dell Force10. I failed to : understand how come Dell Force10 can be better in any way except maybe : promised compensation or title?
|
x*********n 发帖数: 28013 | 22 dell just acquired secureworks at march this year, as dell said, we will be
the top 3 in security world.
sure
arista.
【在 c*****i 的大作中提到】 : I heard force 10 is pretty strong in DC area. and their new switch(not sure : whether officially released) will beat hard on cisco nexus serial and arista.
|
s******v 发帖数: 4495 | 23 really? do you have the link of their product. this one needs a lot of
investment, i really doubt if f10 has such resources. last time, i heard
that they lack investment to make fcoe.
sure
arista.
【在 c*****i 的大作中提到】 : I heard force 10 is pretty strong in DC area. and their new switch(not sure : whether officially released) will beat hard on cisco nexus serial and arista.
|
x*********n 发帖数: 28013 | 24 dell should have money, after acquired secureworks, it hired 500 employees
to make a plus of original 700, which is a huge step.
【在 s******v 的大作中提到】 : really? do you have the link of their product. this one needs a lot of : investment, i really doubt if f10 has such resources. last time, i heard : that they lack investment to make fcoe. : : sure : arista.
|
n*****2 发帖数: 38 | 25 i have used force10 E series and they are pretty bad, lots of issues. |
z**r 发帖数: 17771 | 26 最近有个市场报告,Optical transceiver market up 35% in 1H11 over 1H10; 100G
ramp-up will be faster than 40G , Infoneics Research的
一切都在预料中 :)
【在 A***i 的大作中提到】 : Dark fiber系统风险太大。高度virtualized的data center 伤不起呀。
|
s******v 发帖数: 4495 | 27 这个好像挺hot的,想学习一下,refresh一下knowledge。
这个DC switch和过去的switch有什么不同吗?除了
1)三层变成两层;
2)latency低
好像各家的技术也不一样,有没有入门的document,大家share一下,多谢! |
c*****i 发帖数: 631 | 28 dc switch没有3层变2层吧。现在不少大客户的把L3 boundary push到TOR switch了。
dc switch的feature requirement和普通的enterpise switch不一样啊。per 10G port
的price也要求更低。 |
s******v 发帖数: 4495 | 29 我看,DC都在说,spine-leaf,以前都是access-agg-core,还有这个feature req有啥
不同啊?
port
【在 c*****i 的大作中提到】 : dc switch没有3层变2层吧。现在不少大客户的把L3 boundary push到TOR switch了。 : dc switch的feature requirement和普通的enterpise switch不一样啊。per 10G port : 的price也要求更低。
|
a***n 发帖数: 262 | 30 blog.ioshints.info,some good blogs about datacenter
then go some other blogs he mentioned
like network filed day bloggers list
http://techfieldday.com/2011/nfd2/
Cisco
http://bradhedlund.com/
【在 s******v 的大作中提到】 : 这个好像挺hot的,想学习一下,refresh一下knowledge。 : 这个DC switch和过去的switch有什么不同吗?除了 : 1)三层变成两层; : 2)latency低 : 好像各家的技术也不一样,有没有入门的document,大家share一下,多谢!
|
|
|
z**r 发帖数: 17771 | 31 俺觉得更多的是在FabricPath(Trill), virtualization, OTV等等这些。找套nexus
bootcamp看看,应该有帮助
【在 s******v 的大作中提到】 : 这个好像挺hot的,想学习一下,refresh一下knowledge。 : 这个DC switch和过去的switch有什么不同吗?除了 : 1)三层变成两层; : 2)latency低 : 好像各家的技术也不一样,有没有入门的document,大家share一下,多谢!
|
z**r 发帖数: 17771 | 32 牛,你都怎么找到这些个人blog的?
【在 a***n 的大作中提到】 : blog.ioshints.info,some good blogs about datacenter : then go some other blogs he mentioned : like network filed day bloggers list : http://techfieldday.com/2011/nfd2/ : Cisco : http://bradhedlund.com/
|
x*********n 发帖数: 28013 | 33 比如latency requirement要很高。
access layer---distribution layer---core
data center基本都是core,agg router一般就是给客户接入的。
比如ACL一般都用在access为什么呢,再比如安全里面很多trust boundary最多放在
distribution,为啥呢。IPS,IDS的位置,都很能说明问题,有次interview人家就问
我这个。
packet一般到core了,就不check了,直接接受了,因为要减少cpu压力,latency要少。
【在 s******v 的大作中提到】 : 我看,DC都在说,spine-leaf,以前都是access-agg-core,还有这个feature req有啥 : 不同啊? : : port
|
x*********n 发帖数: 28013 | 34 其实学习data center最大的问题就是不容易操作。
很多东西其实没道理。
上次有个客户的东西弄错了,人家就断了,那个1分钟是何等的长啊,我紧张的弄好了
配置就是不work,然后Team leader过来了,interface下搞了一下shut,no shut,哈
,就马上work了。 |
s******v 发帖数: 4495 | 35 bootcamp is a super idea. got one. and studying it now.
【在 z**r 的大作中提到】 : 俺觉得更多的是在FabricPath(Trill), virtualization, OTV等等这些。找套nexus : bootcamp看看,应该有帮助
|
s******v 发帖数: 4495 | 36 有道理
少。
【在 x*********n 的大作中提到】 : 比如latency requirement要很高。 : access layer---distribution layer---core : data center基本都是core,agg router一般就是给客户接入的。 : 比如ACL一般都用在access为什么呢,再比如安全里面很多trust boundary最多放在 : distribution,为啥呢。IPS,IDS的位置,都很能说明问题,有次interview人家就问 : 我这个。 : packet一般到core了,就不check了,直接接受了,因为要减少cpu压力,latency要少。
|
x*********n 发帖数: 28013 | 37 其实网络里面很多东西都很像。
比如QOS的marking,原则是as close as source sender。
【在 s******v 的大作中提到】 : 有道理 : : 少。
|
A***i 发帖数: 17 | 38 Data Center switching的几大技术热点:
1.low latency: 基本来个cut-through L3 ASICs
2. IO consolidation: FCoE, iSCSI
3. Virtualization, Cisco vss/vpc, HP VC, Juniper Qfabric,
Brocade VCS,
Arista, vLAG, etc...目的是去掉STP, load balancing, full
redundancy, fast
convergence.
4. L2VPN (vmware, storage, etc need L2 spread over multi-
data center for
security and managment): MPLS(L2/L3 VPN, 已经做烂了),
Cisco OTV (mac-
based VPN)
这些技术基本都得构架在10G端口上实施.10G恐怕还得整上5-10年,才能
让系统和
应用的开发,优化,整合,让大部分应用跟上10G,否则vmware还会继续通
吃,把这些
个10G分成1G用,应用和系统一概不变。
100G? DWDM还没大范围铺开100G接入口把?data center有几个10
G比100G
强多了,OPEX会低很多。 |
L******t 发帖数: 1985 | 39 This Brad Hedlund recently jumped boat to Dell Force10. I failed to
understand how come Dell Force10 can be better in any way except maybe
promised compensation or title?
【在 a***n 的大作中提到】 : blog.ioshints.info,some good blogs about datacenter : then go some other blogs he mentioned : like network filed day bloggers list : http://techfieldday.com/2011/nfd2/ : Cisco : http://bradhedlund.com/
|
z**r 发帖数: 17771 | 40 很多100G接口现在都不需要OPTICAL SWITCH了,直接自己做,有DARK FIBER就行。看到
你这个LIST,俺突然想起CISCO LIVE上关于DCN的一些SESSION,大家可以去看看,基本
上就是目前DCN需要用到的东西和未来几年的方向
【在 A***i 的大作中提到】 : Data Center switching的几大技术热点: : 1.low latency: 基本来个cut-through L3 ASICs : 2. IO consolidation: FCoE, iSCSI : 3. Virtualization, Cisco vss/vpc, HP VC, Juniper Qfabric, : Brocade VCS, : Arista, vLAG, etc...目的是去掉STP, load balancing, full : redundancy, fast : convergence. : 4. L2VPN (vmware, storage, etc need L2 spread over multi- : data center for
|
|
|
A***i 发帖数: 17 | 41 Dark fiber系统风险太大。高度virtualized的data center 伤不起呀。 |
a***n 发帖数: 262 | 42 Do you all think DWDM or ROADM will come to enterprise like MPLS coming from
service provider to enterprise?
Or maybe only DWDM/ROADM for geographically separated data centers while fibre
plant for central campus?
【在 A***i 的大作中提到】 : Dark fiber系统风险太大。高度virtualized的data center 伤不起呀。
|
f*****m 发帖数: 416 | 43 这个东西的理论基础都是基于08年的一篇文章
A Scalable, Commodity Data Center Network Architecture
http://ccr.sigcomm.org/online/?q=node/378
【在 s******v 的大作中提到】 : 这个好像挺hot的,想学习一下,refresh一下knowledge。 : 这个DC switch和过去的switch有什么不同吗?除了 : 1)三层变成两层; : 2)latency低 : 好像各家的技术也不一样,有没有入门的document,大家share一下,多谢!
|
f*****m 发帖数: 416 | 44 topology变化还是很大的. core那一层的redundancy大大增加了
port
【在 c*****i 的大作中提到】 : dc switch没有3层变2层吧。现在不少大客户的把L3 boundary push到TOR switch了。 : dc switch的feature requirement和普通的enterpise switch不一样啊。per 10G port : 的price也要求更低。
|
f*****m 发帖数: 416 | 45 有联系,但不是一回事.
TRILL/OTV这些对传统的DC也能用
【在 z**r 的大作中提到】 : 俺觉得更多的是在FabricPath(Trill), virtualization, OTV等等这些。找套nexus : bootcamp看看,应该有帮助
|
f*****m 发帖数: 416 | 46
针对latency要求高的,是给HFT用的.那个对scale要求反而不是很高.
【在 s******v 的大作中提到】 : 这个好像挺hot的,想学习一下,refresh一下knowledge。 : 这个DC switch和过去的switch有什么不同吗?除了 : 1)三层变成两层; : 2)latency低 : 好像各家的技术也不一样,有没有入门的document,大家share一下,多谢!
|
c*****i 发帖数: 631 | 47 I heard force 10 is pretty strong in DC area. and their new switch(not sure
whether officially released) will beat hard on cisco nexus serial and arista.
【在 L******t 的大作中提到】 : This Brad Hedlund recently jumped boat to Dell Force10. I failed to : understand how come Dell Force10 can be better in any way except maybe : promised compensation or title?
|
x*********n 发帖数: 28013 | 48 dell just acquired secureworks at march this year, as dell said, we will be
the top 3 in security world.
sure
arista.
【在 c*****i 的大作中提到】 : I heard force 10 is pretty strong in DC area. and their new switch(not sure : whether officially released) will beat hard on cisco nexus serial and arista.
|
s******v 发帖数: 4495 | 49 really? do you have the link of their product. this one needs a lot of
investment, i really doubt if f10 has such resources. last time, i heard
that they lack investment to make fcoe.
sure
arista.
【在 c*****i 的大作中提到】 : I heard force 10 is pretty strong in DC area. and their new switch(not sure : whether officially released) will beat hard on cisco nexus serial and arista.
|
x*********n 发帖数: 28013 | 50 dell should have money, after acquired secureworks, it hired 500 employees
to make a plus of original 700, which is a huge step.
【在 s******v 的大作中提到】 : really? do you have the link of their product. this one needs a lot of : investment, i really doubt if f10 has such resources. last time, i heard : that they lack investment to make fcoe. : : sure : arista.
|
|
|
n*****2 发帖数: 38 | 51 i have used force10 E series and they are pretty bad, lots of issues. |
z**r 发帖数: 17771 | 52 最近有个市场报告,Optical transceiver market up 35% in 1H11 over 1H10; 100G
ramp-up will be faster than 40G , Infoneics Research的
一切都在预料中 :)
【在 A***i 的大作中提到】 : Dark fiber系统风险太大。高度virtualized的data center 伤不起呀。
|
a**********k 发帖数: 1953 | 53 Rumors were that they tried to attract Manny Rivelo to beef up
their security strategy but it didn't work out.
be
【在 x*********n 的大作中提到】 : dell just acquired secureworks at march this year, as dell said, we will be : the top 3 in security world. : : sure : arista.
|
a**********k 发帖数: 1953 | 54 When 100G/40G ports become common, DWDM/ROADM in enterprise will follow.
There will be issues in laser amplification, power balancing
to be resolved.
from
fibre
【在 a***n 的大作中提到】 : Do you all think DWDM or ROADM will come to enterprise like MPLS coming from : service provider to enterprise? : Or maybe only DWDM/ROADM for geographically separated data centers while fibre : plant for central campus?
|