l*****t 发帖数: 8319 | 1 IBM还靠谱,HP就算了,还没有富士康的民工用榔头敲打出来的可靠。 |
|
w****2 发帖数: 12072 | 2 mainframe没什么用了,逐渐消亡是趋势.
我是搞高性能计算的。 |
|
o****o 发帖数: 8077 | 3 搞高性能计算的,麻烦给我们p民们讲解一下mainframe和集群的优缺点吧 |
|
f****g 发帖数: 2073 | 4 如果是讲机箱和电源的话,世界上的电脑,从超级计算机,到smartphone,有几个不是
中国生产的?
end-
switches |
|
O******n 发帖数: 1505 | 5 受不了了。还真有以为可以凭借google 挑战内行的人啊.你有没有阅读能力?
我说了曙光会用以太网么?我说了曙光比infiniband强么?我打你的脸,是因为你自己
在这里散布高性能计算不过是用以太网攒机的谬论。自己去看排行榜,用GigaEthernet
的机器最高排名28,前100名里只有这一台。用的统统是x86处理器,几乎全都是过去一
年内出厂,平均linpack效率却不到50%。这些机器基本都是IBM和HP卖给金融公司和物
流公司的业务服务器,是HPC中的草根阶层,根本算不上supercomputer。这就是你嘴里
的高科技?
事实是:以太网在top10的科学计算巨型机里,完全没有立足之地。
事实是:曙光这种你眼高手低看不起的公司,互联网络技术也远远超出以太网集群的水平
end-
switches
约两
得东
群差 |
|
w*******q 发帖数: 1764 | 6
mainframe要求绝对可靠,重点对付高负载的transaction, 但最重要的绝对可靠,有的
60年代mainframe不间断运行到
21世机没有出过一点问题,没有down过一次的。银行电信金融公司这些离不开
mainframe的。supercomputer不管是
hpc,htc也好都是要处理海量计算,海量数据的,要算问题的,但是可靠性那就差老了
,尤其是cluster更不太讲究,那些
牛机器down机不说家常便饭,但也绝对不稀罕。银行要靠这些东西处理核心业务怕要倒
闭的,当然好好设计的cluster有
足够的redundancy也可以用,但是真正关键的核心业务还是不能指望这些。
还有一个区别是mainframe全世界基本IBM一家垄断,比MS再Desktop上的垄断还厉害不
少,没有alternative, 比较烂的
alternative都没有,cluster那是太多了,Dell的cluster都是满世界都是。 |
|
w****2 发帖数: 12072 | 7 mainframe 设计复杂,不好管理,可扩展性差。好处是安全性可靠性往往内嵌于初始设
计之内。
现在的趋势都是使用廉价机器组装成大机,通过使用虚拟机及相应的安全/可靠软件,
使得这些廉价机器组成的大机在可靠性上比mainframe差得不是太多,但扩展性,管理
性,计算性能及低成本方面,都远远超出mainframe。
现在还有哪个大公司在造新的mainframe?基本上没有了。 |
|
w*******q 发帖数: 1764 | 8
就是这种思维导致其他mainframe的生产商都推出让IBM一家独大的,现在IBM的
mainframe不要太赚钱的 |
|
C********n 发帖数: 6682 | 9 ibm大部分业务都是几十年前的旧单子,要upgrade了对方又想无缝升级,所以只能由他宰
了
真要说系统稳定性,不一定谁比谁强, solaris多少年前就支持热插拔几乎一切硬件了 |
|
w****2 发帖数: 12072 | 10 HP也为金融机构提供服务器。
虚拟机技术的发展可以在一堆廉价机器上建立非常安全可靠的系统。我在HP Labs实习
的时候就知道美林证券下了大单订购运行虚拟机的基于x86的机群(类似于曙光的机器
,但有自己的安全可靠性软件)。
IBM的services部门也都转向了,转为以基于Linux的机群为主了,但还在继续造
mainframe(不过只是沿用以前的设计,基本不再进行新的设计了)。 |
|
w*******q 发帖数: 1764 | 11
他宰
这个那不靠说得,IBM有几十年的track record, 新的这些东西是理论上可以这个可以
那个,可关键核心业务如果你是CTO
你敢承担换的责任?就说工商银行那些什么北方数据中心,南方数据中心核心那个不是
IBM mainframe. |
|
C********n 发帖数: 6682 | 12 你应该听过fud这个词
unix 服务器也是被考验了多少年的
工商行那是因为当年ibm进中国搞了很大一contract,之后就被绑定了,其次就是fud |
|
w****2 发帖数: 12072 | 13 对,只有老客户在用。
新的业务一般都不再使用mainframe了,包括金融服务。我知道Morgan Stanley, 美林
都愿意使用基于虚拟机的机群,更不用说像Amazon之类的电子商务应用了。
IBM自己的一些金融服务也在使用基于虚拟机的机群(我帮他们做过虚拟机的快速状态
存储)。当然也有继续使用mainframe的(比如流媒体服务好象是用的mainframe,我有
个朋友在做上面的script)
他宰 |
|
w****2 发帖数: 12072 | 14 中国的金融机构是自己不愿意更新技术。国有银行哪有什么动力提高效率? |
|
C********n 发帖数: 6682 | 15 而且领导没人愿意负换系统的责任
实际上ibm自身一直在往小型机和unix服务器转 |
|
x*******1 发帖数: 28835 | 16 my boss said it's great. I also feel proud. It's not easy even just buying
from nvdia and intel.
The biggest problem is not in hardware. It;s from software and tuning.
xing yun can just play <50% peak performance. It means the peers from china
have poor tuning technique in MPI, linpack, and blas. |
|
d****o 发帖数: 1112 | 17 这个评论相当中肯。
end-
switches |
|
x*******1 发帖数: 28835 | 18 这有什么稀奇的, high performance networking, 不早就被这家以色列公司占领了。 |
|
t*********e 发帖数: 1136 | 19 这是不稀奇。专搞Infiniband的公司就那两三家。
稀奇的事有人居然吹牛“曙光已有1us的switch”,还是两年前就有了。最后
牛皮被戳,原来是买的Mellanox的。这和交大的陈先生有一比。
星云的核心技术:CPU,GPU,Interconnect,系统软件,都不是自己开发的。
全是买来的。这样的成果有多大的意义?
至于Ethernet Switch是不是适合HPC。我又问了一下我的一个朋友。现在
10G的Linpack效率已达80%以上。Google “Arista Linpack”即可。不久
40G和100G就要出来了。和Infiniband相比差距会更小。
再说Supercomputer这个市场很小。Cray Computer一年的Revenue只有2亿
3千万美元。还不到HP服务器Revenue零头的零头。Sun夕阳日下的时候
Server Revenue也有一百多亿美元。所以中国大搞Supercomputer是没有
什么意思的,是浪费资源。
我以前的老师曾参加过国防科大银河亿次机项目。最后又怎样?没有多少
实际效益。
。 |
|
d*****g 发帖数: 1616 | 20 您老评价一下这个东西水平如何?
http://news.sciencenet.cn/htmlnews/2010/4/231424.shtm
历军表示,曙光龙芯刀片服务器的基础架构、通用处理器和操作系统软件都具有完全自
主知识产权,而且具有安全、高效、节能、通用等优势。据悉,曙光龙芯刀片服务器产
品的能耗比——单颗龙芯3A的最大功耗为15W,每颗CPU单瓦特能效比1.06flops/W,是
目前X86 CPU的2倍以上;而两路的SMP龙芯计算刀片的单板最大功耗不超过110W,甚至
低于某些单个主流X86 CPU的功耗。 |
|
S**I 发帖数: 15689 | 21 某公司搞了个Linux改了改,到领导的嘴里就变成“完全自主知识产权”了,所以这玩
意不能轻信。 |
|
l******n 发帖数: 1683 | 22 同学呀, 你得搞清楚, linpack这个测试本身对网络的要求就不高, 尤其是延迟
方面. 理论上如果系统的总内存无穷大, 即使网络连接再差, 在计算足够大的
矩阵的时候, 都能达到线性加速比.
曙光方面, 现在啥情况不太清楚, 但是至少05-06年的时候就已经有了
infiniband的产品, 当时向我们推销过.
争论infibiban好还是ethernet好没啥意义, ethernet不意味着就门槛低而且
经济, 比如10年前左右, 即使不考虑延迟方面, 千兆以太网也并不经济. |
|
t*********e 发帖数: 1136 | 23 我不是搞这个东西的。不好评论技术问题。
从历史上看。以前有Motorola 68000系列,还有AMD,都没有能斗过Intel。
曙光应该探讨一下这是为什么。曙光又有什么地方比Moto和AMD强?
日本还有Fujitsu,为什么不行?
现在是市场经济。东西要卖得出去才行。曙光有国家扶持。但是这是否就
有用呢?比如我是公行管机器的。你叫我买曙光爱国,我就的买吗?如果
出了问题,银行几个亿的帐面数据不知去向。我被开了,你负责?
再说软件。中国软件工业大多是只想索取,不愿付出。你曙光的platform
又有谁愿意来做?怎么做?这些问题都得动脑筋解决。 |
|
|
w*******q 发帖数: 1764 | 25
中国的机器目前就是解决个有无,工行是IBM垄断,才不鸟你什么曙光呢。这些东西钱
根子上是来自军队,军队能买
bluegene早就买了,买不到而已 |
|
|
t*********e 发帖数: 1136 | 27 又不是我想争Linpack谁好谁不好。你看看前面的贴。是那些人拿Linpack说事。
我说Big Table, Map Reduce, Hadoop是方向。他们要争Linpack。
曙光05-06年OEM谁家的产品我不清楚。这个星云用Mellanox是事实。
Infiniband的Market只是Ethernet的大概百分之一二吧。其中因素很多。
但是不论如何市场证明Ethernet是主流。 |
|
|
|
w****2 发帖数: 12072 | 30 工行买IBM的机器应该不是市场行为,可能是买办行为。 |
|
T*******i 发帖数: 4992 | 31 mapreduce是sc里面极小的一个模式,咋就是sc的方向了咧 |
|
l******n 发帖数: 1683 | 32 linpack是一个应用测试, Hadoop是一种架构, 两个根本就不是一回事.
大计算量的东西很多, 不同应用有不同的要求, 的确有些应用可以很
容易分治, 而且子任务间的通讯量很小, 但是这只是一部分而已。
曙光当年应该是自己做的网卡, 用的别人家的switch.
市场需要细分的, 在HPC这个领域, 现在的情况是infiniband是主流. |
|
t*********e 发帖数: 1136 | 33 这个我同意。不过现在HPC和Cloud正在逐渐融合。
这个楼的原本问题是:1)星云的技术价值有多大。是不是像吹的那么大。
我认为不是。核心技术并没有掌握。2)国家花很多钱搞这样的金牌项目效益
是什么?我认为没啥效益。 |
|
|
w*******q 发帖数: 1764 | 35
件方
表可
看来网游大发展对我国HPC产业发展还有推动作用呢 |
|
d*****g 发帖数: 1616 | 36 没有吹得那么大,正确。但除此之外,你的发言就没有什么价值了。 |
|
l******n 发帖数: 1683 | 37 第一个问题看你如何定义核心技术, 就硬件方面来说, 当然主要东西都不是自
己的, 软件方面, 曙光应该有自己的一套东西, 当然那些东西用open source
的替代的话可能凑合着也能用. 另外其实整合能力也还是很重要的.
第二个问题你的出发点有问题, 的确是有巨大的现实的和潜在的计算需求,
我以前在国内的那个组, 都经常四处跑去借别人的大机器用. 不过最近各地的超
算中心上马很多, 可能有些的确使用率不高. |
|
d*******s 发帖数: 695 | 38 自己看看top500的list,会发现中国上榜的机器里很多被当作了游戏服务器。我当时看
到就昏了,还不如给我跑跑程序, 做什么游戏服务器。 |
|
O******n 发帖数: 1505 | 39 你到底有没有阅读能力?因为曙光不如infiniband才要买,不等于曙光连以太网的4us
延迟
都做不出来。
我用4台机器超大内存点对点互联搞个迷你集群,linpack效率怎么也能上90%。你有没
有基本的scalability概念?你给我说说top500里那一台以太网机器的效率达到了80%?
现在的人抬杠都完全不关心事实了,赶着怎么说话有气势怎么用词喷得爽就行? |
|
x*******1 发帖数: 28835 | 40 可扩扎性是第一考虑, 想想100K的nodes 的cluster,如何在几秒里面call MPI_init?
问题的尺度不一样了。 云计算和scientific computing应该算不同领域, 不会融合
的,解决的问题不一样。 想想解dense matrix, 几万*几万的矩阵,密集通讯,怎么
用cloud? |
|
x*******1 发帖数: 28835 | 41 HPC市场很小,那是过去了。 现在喊着要搞HPC的多了去,fund全往这跑。 中国又来追
干。 我们日子好过了。ornl 上费米, lanl也要上新系统了。 大家你追我赶。 搞hpc
的赶上好年景了 |
|
t*********e 发帖数: 1136 | 42 我敢说曙光可商业化的连以太网的4us延迟就是做不出来。你说能那你拿真数据
给大家看看。可别来什么OEM的。
我提了你可以google "arista linpack"。80%的效率。对照了一下top500,
是第208位,4000个Procs, Dell,便宜普通的架构。不是几台机器糊弄人的。
当然不是前列。但是那个机构本来不是干这行吃饭的。用用大路货就行。
这怎么不是事实?
4us |
|
c***n 发帖数: 2232 | 43 208位的架构怎么好跟top10比,也太搞笑了。 |
|
O******n 发帖数: 1505 | 44 就来说说你这个arista 7500系列。以每个port超过1200刀的价格,和被迫使用巨型
switch(至少48口)的代价,达到的不过是4-10us的延迟,与infiniband相近的带宽罢了
voltaire 8500 infiniband switch, price per port 才300出头而已。节点间延迟1us。
便宜普通?in your dreams maybe.
不要以为沾上以太网的名字,就变成平民货色了。万兆以太网从来都是及其变态的玩意
。这是前一阵子看过的文章里的数据
network
GigabitEthernet
10 GigabitEthernet
InfiniBand10Gb/s
Vendor
Extreme
Networks Foundry Voltaire
Product Summit 7i Fes-X ISR9024
Price
$16,495
$12,500
$8,850
Number of Ports
|
|
s****r 发帖数: 31686 | 45 变态不是因为难, 是因为造的少
罢了
1us。 |
|
t*********e 发帖数: 1136 | 46 48口也叫巨型?普通switch都是48口的。
我不是很懂Switch。但是你就拿Arista和Mellanox的datasheet比一比。
很多feature Mellanox都没有:一大堆802.x 协议,还有OSPF,BGP,
VRRP,ACL等等商用上很重要的协议。价钱上差别也就在这些。就是
1G的Switch也都得支持这些东西。
当然你可以说HPC这些用不着。可是HPC市场很小。大概不是这些10G厂家
的主攻方向。所以他们不得不实现这些网络协议以达到最大市场覆盖。
再说Price per port的价格会变。现在1G的家用switch也就几十块钱。
大概不到10块钱一个port。
如果Infiniband那么好而且便宜如此之多,为什么市场还是那么小?难道
大家都是傻子吗?
你还是没有回答曙光到底有没有做出可商业化的4us的Switch。 |
|
h***i 发帖数: 1970 | 47 你知道你在说什么吗,Big Table, Map Reduce, Hadoop要争Linpack?他们要争啥?:-
) 他们要解决的问题也不一样。Map Reduce, Hadoop解决的问题都是相对来说比较简单
的问题,问题本身很容易并行处理,不需要大量的通信。而Linpack测试需要大量的
inter communication,latency 是最重要的,这就是为什么用infiniband的原因,多
年前大家是用Myrinet。 |
|
l******n 发帖数: 1683 | 48 千兆以太网没这么贵了, 非堆叠的32口几百刀就够了, 1万多刀的那是企业级的三层交
换机了,
对于高性能计算来说我觉得没啥意义.
罢了
1us。 |
|
l******n 发帖数: 1683 | 49 我觉得吧, 首先得把谈话的范围先限定一下, 就是对于HPC这个领域而言.
就比如你不能把汽车火车飞机火箭轮船放在一块来比, 尽管他们都是运输
工具. HPC这块, 要求的是高带宽和低延迟, 同时应用环境比较单一. 所
以主流一向就不是以太网, 对于cluster架构来说, 最初是Myrinet, 现在
是Infiniband. |
|
|