m********o 发帖数: 143 | 1 有两台各有 48 cores 的 compute nodes,结果 1G 的 ethernet 成了瓶颈。10G 的
switch 太贵了,现在的想法是在 head node 上装一个有两个口的 10GBase-T 网卡,
然后在两台 compute nodes 上各装一个 10GBase-T 的网卡,直连。通过设置
iptables 把路由搞定。这样可行么?因为手里还没有 10GBase-T 的网卡,没有办法测
试,跑上来问问~ |
|
t****t 发帖数: 6806 | 2 可以是可以的, 但是48个core共享一个10GBase-T效果不见得很好. |
|
g********n 发帖数: 2314 | 3 马上10Gbase-T就变成白菜价了,公司的1g口都变10g之后,显示这点带宽就不算啥了。 |
|
k**l 发帖数: 2966 | 4 传统制造业大公司(sponsor H1b, and green card after one year),招engineer一名
(level II plus, depends on experience)
requirement:
3 years experience in Ethernet connector magnetic design
knowledge in 10GBase-T is a big plus.
请email:
annaself12 at yahoo
|
|
t****t 发帖数: 6806 | 5 用不着, CAT5E的gigabit就可以上150米了, 豪宅都够用了
有线网不像无线网,信号差就会减慢速度,有线网的速度完全一样的
5年以内10Gbase-T还不会进入家庭 |
|
t****t 发帖数: 6806 | 6 328feet就是100米, 那说的是cat6A. cat6本来说是支持短线的, 但是后来大家都做不
下去了, 就说不支持了. 干扰实在太大.
我就是做10gbase-t的, 你说我做过线没有. 千兆网的margin大, 线头做成什么样都问
题不大. 10G的要求高很多了, 以前的烂线头很多都不work. 双绞线的质量为什么有差
别? 差别就在这个绞(twist)上面. cat5的线对twist要求没那么高, 造成传输线不是那
么均匀, 但是千兆网只用100兆不到的带宽, 问题不大. 10G要求400兆的带宽, 传输线
的均匀程度和抗干扰能力都要上一个大台阶才行. 但是线头上没法twist, 所以自己做
的差别非常大.
Ooma |
|
w***w 发帖数: 1552 | 7 两个问题请教
1. 一般家用的千兆网,cat5e或者cat5应该够了吧?最长大概是20-30m
2. 千兆网的switch,要是有一个接入的设备室百兆,整个网络都会变成百兆吗?好像是
netgear的SWITCH NETGEAR|GS108 8P GIGABI
家里有一个文件服务器,通过这个switch接到asus的rt-n16上,访问速度很慢,《10MB
,一直搞不定。
谢谢。
10gbase-
, |
|
t****t 发帖数: 6806 | 8 328feet就是100米, 那说的是cat6A. cat6本来说是支持短线的, 但是后来大家都做不
下去了, 就说不支持了. 干扰实在太大.
我就是做10gbase-t的, 你说我做过线没有. 千兆网的margin大, 线头做成什么样都问
题不大. 10G的要求高很多了, 以前的烂线头很多都不work. 双绞线的质量为什么有差
别? 差别就在这个绞(twist)上面. cat5的线对twist要求没那么高, 造成传输线不是那
么均匀, 但是千兆网只用100兆不到的带宽, 问题不大. 10G要求400兆的带宽, 传输线
的均匀程度和抗干扰能力都要上一个大台阶才行. 但是线头上没法twist, 所以自己做
的差别非常大.
Ooma |
|
w***w 发帖数: 1552 | 9 两个问题请教
1. 一般家用的千兆网,cat5e或者cat5应该够了吧?最长大概是20-30m
2. 千兆网的switch,要是有一个接入的设备室百兆,整个网络都会变成百兆吗?好像是
netgear的SWITCH NETGEAR|GS108 8P GIGABI
家里有一个文件服务器,通过这个switch接到asus的rt-n16上,访问速度很慢,《10MB
,一直搞不定。
谢谢。
10gbase-
, |
|
|
s******u 发帖数: 501 | 11 都48core的node了还不搞infiniband? |
|
P****S 发帖数: 2286 | 12 iptables 不知会引入多少overhead.
48 core的server怎么也有4个1Gbps port吧。用bonding就行了。 |
|
|
|
j*a 发帖数: 14423 | 15 我理解lz是三个node,c-h-c这样连,h非常可能比专用的switch慢,怎么不是了呢? |
|
t****t 发帖数: 6806 | 16 哦, 那是...如果C-C的连接很重要的话, 不如弄个三角形了. |
|
m********o 发帖数: 143 | 17 感谢这么多人回复~
现在是 48 cores 共享一个 1G 网口……那叫一个挤破头啊……机器是 dell 的 C6145
,两台 48 core 的机器只占 2U,所以也没那么多网口做 bonding。确实是希望做成
C1-H-C2,C1 C2 之间基本没通信,所以不需要弄成三角。10G 的 switch 都嫌贵,就
不要提 infiniband 了,呵呵~
那我先 order 10G 的网卡,等到 iptables 设置不明白再回来求帮助:) |
|
j*a 发帖数: 14423 | 18 你需要bridge-utils。要是再深点还需要第二个工具
bridge-utils - Utilities for configuring the Linux Ethernet bridge
ebtables - Ethernet bridge frame table administration
C6145 |
|
t****t 发帖数: 6806 | 19 infiniband距离不长吧, 正常用CX的线应该是不超过7米的. 用光纤的话又回到原来的
问题了. 如果是cluster那是有好处, 因为latency要比10gbase-t小很多. |
|
R********n 发帖数: 417 | 20 UniFi version of the ES-16-XG. 12x SFP+, 4x 10GBase-T.
要注册beta才会看到...网站这几天有问题,一会599 一会299
想要上10G SFP+的可以下手了,没有比这个更便宜的了... |
|