由买买提看人间百态

topics

全部话题 - 话题: 并行计算
首页 上页 1 2 3 4 5 6 7 8 9 10 下页 末页 (共10页)
T********i
发帖数: 2416
1
本文的目的在于帮助程序员树立正确的世界观和人生观。如果感觉颠覆感太强烈,主要
原因也不是你学错了,而是你的老师教错了,或者你的教科书写错了。
1. 确定图灵机和不确定图灵机,
根据计算机科学理论,图灵机(Turing Machine)是计算机的抽象模型。现有的计算机
的计算能力(不是速度,而是理论上能够求解数学问题的能力)不会超过这个模型。
确定图灵机(DTM)是图灵机的一个经典描述,是一个单线程的图灵机。
不确定图灵机(NTM)可以看作是一台有无穷多单线程的图灵机组合的图灵机。也就是
有无限并行能力的图灵机。
可计算性理论可以证明,NTM和DTM是等价的。也就是说DTM可以完全模拟NTM。NTM能够
计算的题目,DTM也必然能够计算,虽然可能速度上比NTM慢很多倍。
2. 冯.诺依曼(Von Neumann)计算机体系就是DTM
现在的计算机都是冯.诺依曼体系。即使多核计算机,本质上也就是有限个DTM组合。和
NTM相距甚远。注意NTM是有无限个核心的无穷并行的计算机。
3. 什么是NTM?量子计算机才是
有一种理论认为量子计算机利用平行宇宙进行超大规模并行计算,也... 阅读全帖

发帖数: 1
2
公司简介
晶泰科技是一家世界领先的以计算驱动创新的药物研发公司,基于最前沿的量子化
学、分子动力学、人工智能与云计算等技术,开发出行业领先水平的药物固相预测与筛
选平台。目前已和包括辉瑞制药、罗氏制药在内的世界顶级药企深度合作。
晶泰科技于2014年创立于麻省理工学院校园,以计算化学科学家与医药界资深专家为核
心团队,拥有强大的研究与工业背景。目前核心总部位于深圳,并在北京和波士顿设立
分部,博士学历占比高达60%。凭借团队技术优势与项目广阔的市场空间,晶泰科技目
前已获得来自腾讯、真格、峰瑞投资的数千万元A轮融资,以及来自红杉、Google的数
千万美金B轮融资,是唯一一家同时被腾讯、红杉、Google投资的创业公司。
我们的愿景和使命
晶泰科技目前从事药物创新性研发,我们的使命是利用计算解决传统药物研发的效
率与成功率问题,让优质、高效的药物尽快到达患者手中。
我们带着国际视野组建世界一流的研发团队,用坚实的科技研发力量推动中国制药
产业的快速发展,惠及国人健康。
晶泰团队
晶泰科技组建了一支分布于深圳、北京、波士顿三地,横跨学术界、IT、医药产业
... 阅读全帖
a****a
发帖数: 5763
3
http://bbs.weiphone.com/read.php?tid=527142
上期连载《Grand Central Dispatch:迎接挑战(连载12/23)》中我们谈到,
GCD技术能够在操作系统的层面更加合理而充分地统筹分配系统资源,从而充分挖掘多
核系统的潜能。此前,我们在《并行难题:一封19年前的挑战书(连载11/23)》中介绍
了上世纪末Be公司推出的BeOS操作系统:
引用
BeOS操作系统最鲜明的特色在于“普适多线程(pervasive multithreading)”
技术。以现在的标准来衡量,BeBox和其他运行BeOS操作系统的计算机充分利用了计算
资源。BeBox的演示令人印象深刻。66MHz双处理器计算机能够流畅地运行多个视频并在
后台播放CD中的很多音轨——与此同时,用户界面响应也保持一贯的流畅。BeOS操作系
统让很多技术狂热者大跌眼镜,他们当中的许多人坚持认为,即便是目前的许多台式机
,操作体验仍旧无法与当年的BeOS相媲美。
19年以来,无数工程技术人员呕心沥血把自己关在实验室工作室里试图逾越“... 阅读全帖
n*o
发帖数: 442
4
Guys from Dept. 11 should miss Prof. Chen Guoliang.
发信人: gpliu (云之飞扬), 信区: CS
标 题: 旁听陈国良师的最后一节课
发信站: 瀚海星云 (2003年05月27日11:16:04 星期二), 站内信件
陈国良师将于下月三号退休,今天给9911上的“并行计算“,
是他最后一次作为学校的教师任教。我也因此特意赶去旁听。
今天课上,陈师面对摄像镜头,兢兢业业,讲了一节并行计
算中的“矩阵运算“。一节课毕,镜头撤去,陈师欣然道:这下
我可以胡说八道了!台下掌声雷动。随后,陈师回顾了在科大的
经历,阐述了自己对并行计算这个领域的看法。陈师73年进入科
大,任教整整三十年,亲眼目睹科大计算机系的成长。今天陈师
大声说出:我爱科大!我们无不感动。而说到学术,我们计算机
系,在国内学术界最拿得出手的,恐怕还是陈师的并行算法研究。
对于自己最终将算法研究、程序设计、实际应用融为一体,陈师
欣慰之情溢于言表。
陈师最近几年虽然年事已高,仍坚持为本科生上并行算法课。
而对在全国范围内推广并行算法的教学与研究,
j******n
发帖数: 108
5
来自主题: Apple版 - 在说一遍云计算服务
你觉得在所有的 application 中,能并行的多,还是串行的多?
如果能并行的计算,特别是个人计算,真的那么普及的话
multi-core cpu 的前景显然更加明朗
所以我才说 cloud computing 目前的定位在于大规模数据分析的
这些分析多数都比较容易并行处理,比如 list intersection, aggregation
非要把字处理、视频解码移到 cloud 里,其实用的是存储,不是计算
这些计算在 cloud 里和个人电脑里没有什么区别
b**g
发帖数: 335
6
scientific computing大部份从业人员都不是CS的,而是其
它领域方面(天文,生物,化学,物理,力学,气象,地质)的专家
CS的人能做的贡献也就是数值方法(numerical methods)与
并行计算罢了
并行计算的研究主要有
1.自动化并行compiler,将原本不是并行的code编译时加以自动
并行化,(现在有OpenMP将负担减轻一些)
2.算法研究,某算法虽然是并行化的,但scalability不好
或该算法要在shared memory机器上跑效能才好,改成message
passing後效能不好(但将来趋势是PC cluster,一定是message
passing为主),如何改进?
3.性能研究,与上面有点关系,很多性能方面的问题都是locality
的问题,如何把data搬到离processing愈近的地方(像什麽
Intelligent RAM, active disk等,都是这些元件上放小型CPU,
直接处理数据,不透过bus),而且要及时,(i.e.要预测),要花费
少(例如 网路封包->user space 要做到zero-copy)
4.g
I******c
发帖数: 163
7
来自主题: CS版 - 请教博士题目
各位前辈好。小弟马上要开始博士生涯。特来这里请教一些博士题目选择的问题。
之前在硕士阶段跟老板做过一些并行计算框架实现的事情。个人感觉做并行计算的自动
化是个很有意思的事情。我所说的并行计算的自动化就是指一般程序可以在运行过程中
自动并行,而不需要编程的时候就刻意的编程。我不知道这个题目有没有做头,之前的
相关研究到了什么程度。望指教。
谢谢了
PS:我未来老板希望我的方向是cloud computing. 但是好像他没有grant,也是刚开始
涉及这个方向。所以我需要自己来多操心自己的题目。
c***r
发帖数: 1570
8
来自主题: Computation版 - 科普,谱元法
说的很好,不过有几点疑问在这里,
1. 谱元法不仅仅限于契比雪夫多项式,也可以是gauss,gauss-lobatto.
2. 所谓的“间断谱元法”无外呼是discontinnus Galerkin method, 基本思想就是弱
解+reimman solver。
3. 谱元法特别适合并行计算 -- 未必,还要看具体的方法,可能“间断谱元法”适合
,但“连续谱元法”的并行难度是和有限元一样的。
4. “谱边界元法” -- 没听说过,但从名字表达上无外呼 采用高阶正交函数作为插值
的边界元法,理论上完全行的通,边界元的核心就是用降维来增加计算能力,随着计算
能力的提升,这种方法终将淘汰。
5. 还有所谓的有限元法是烂数值方法本人不认同,有限元是30年前的产物,是何当时
的计算机能力相关连的,低阶的连续的插值方程有效的减少计算量,在宏观固体领域应
用极大。
6. “计算燃烧湍流;计算量子场论、计算粒子物理、计算核物理,尤其quark gluton
plasmas;计算广义相对论、计算宇宙学;计算统计力学、计算kinetics,(用于宇宙
学、condensed matter physic... 阅读全帖
f**o
发帖数: 12685
9
国际上最高品质和最高效率的单光子源
基于单光子的量子计算原型机结构
十超导量子比特的纠缠态
基于超导量子处理器的线性方程解法演示
世界首台超越早期经典计算机的光量子计算机在我国诞生
我要分享
文章来源:量子信息与量子科技创新研究院 发布时间:2017-05-03 【字号: 小
中 大 】
5月3日,中国科学院在上海召开新闻发布会,宣布世界首台超越早期经典计算机的
光量子计算机在我国诞生。
中科院院士、中国科学技术大学教授潘建伟及其同事陆朝阳、朱晓波等,联合浙江
大学教授王浩华研究组,近期在基于光子和超导体系的量子计算机研究方面取得了系列
突破性进展。在光学体系方面,研究团队在2016年首次实现十光子纠缠操纵的基础上,
利用高品质量子点单光子源构建了世界首台超越早期经典计算机的单光子量子计算机。
在超导体系方面,研究团队打破了之前由谷歌、美国国家航空航天局(NASA)和加州大
学圣塔芭芭拉分校(UCSB)公开报道的九个超导量子比特的操纵,实现了目前世界上最
大数目的十个超导量子比特的纠缠,并在超导量子处理器上实现了快速求解线性方程组
的量子算法。相关系列成果发表于国际学术期刊... 阅读全帖
l***a
发帖数: 198
10
来自主题: Military版 - 量子信息的丧钟第二响
原文:
http://blog.sciencenet.cn/blog-268546-1134100.html
数学量子位与物理量子位的差别
量子位的定义
量子信息,包括量子计算,量子通讯,量子密码学等,现在已经成了一个庞大和热门的
学术领域。我从上世纪九十年代初接触量子信息,但一直对其理论基础心存疑惑。本文
将讨论量子信息理论中最基本的一个概念,量子位。
量子位(qubit, quantum bit)是量子信息的基本单位,它对应于经典信息论中的基本
信息单位——位(bit)。经典的位概念是指任何一个二态体系(元件),只能取值其
中一个状态,一般标记为0,1。一个经典位只能是0或者1。而量子位同样取一个体系(
元件)的两个状态,但其状态可以是两个状态的任意线性相干叠加态:
undefined
这里undefined是量子位,0和1是两个状态的純态,a和b是两个复数,分别表示量子位
处于0态和1态的几率幅,需保证归一:
undefined
由于a和b之间还可以有一个任意的相位差,因此一个量子位需要两个任意 的实数来表
达(布洛赫球表示):
undefined
所以一个量子位有无穷多个状态。... 阅读全帖

发帖数: 1
11
在计算机时代,有个著名的摩尔定律,就是说同样成本每隔18个月晶体管数量会翻倍,
反过来同样数量晶体管成本会减半,这个规律已经很好地吻合了最近50年的发展,并且
可以衍生到很多类似的领域:存储、功耗、带宽、像素。
两年前的这个月是摩尔定律发表50周年,整整半个世纪。当时IEEE Spectrum为了纪念
摩尔定律50周年,特地发表了四篇关于摩尔定律的文章。其中一篇的题目叫“Moore’s
Law is Dying (and That Could Be Good)”,说的是摩尔定律不可能继续下去了。
1965年微芯片上的元件数增加了1倍,Gordon Moore于是预言这一趋势近期内将继续。
1975年他修改为每两年翻一翻,后来又说是18个月,或者说按指数律增长,每年46%。
这就是摩尔定律。摩尔定律预言了半导体产业50年的发展。摩尔预言了一个光辉的未来
,改变了世界。
这样高速的增长在其他产业是见不到的。美国的主粮玉米从1950年以后平均产量每年增
长2%,蒸汽涡轮式发电机把热能转换为电能,其效率在20世纪年增长率为1.5%,而1881
-2014室内灯光有效性(流明每瓦)年平均增长2.... 阅读全帖
d**e
发帖数: 6098
12
来自主题: JobHunting版 - [合集] EE转CS- 感觉郁闷
☆─────────────────────────────────────☆
marius (youyou) 于 (Fri May 25 17:57:14 2012, 美东) 提到:
amfgl的中的两个onsite 在即, 一直觉得自己不笨,算法很来势,可今天看了网上的题库,都
快哭出来了。没几个会的, 更别提在5分钟内做出来了。感觉自己的脑子,已近被
wired成 EE了, 什么变换,去燥,自适应。。。什么问题都能很有得心应手, 但一碰
到permutation, sort, heap, tree, 一点思路都没有,绝对一个低智商的学生。
数学, 信号处理多学了没用, 最重要的就是那门离散数学只当了选修, 编译原理没
有深入。
啊, 很郁闷。。
☆─────────────────────────────────────☆
lclclclc (home) 于 (Fri May 25 18:13:58 2012, 美东) 提到:
amfgl like smart elementary school level candidates, you are over q... 阅读全帖
F******n
发帖数: 160
13
这个在某种程度上是个开放式的问题,现在都还有很多人在研发更新的方法和模型。当
然有很多已经建立的常规方法和工具。
首先这个应该和用C或者C++没太大关系,因为C、C++是通用性的语言工具而已。和具体
的软件可能有点关系,如果某种语言实现了处理大数据的模型和框架。真正有关系的应
该是关于大数据处理的模型框架和算法思想,说说我知道的吧。
关于模型框架方面的,最常规的就是并行计算模型。对于像特拉字节级别的大数据,多
进程的并行计算模型(比如老的MPI)和基于类似思想发展出来的新框架(谷歌的
MapReduce)都可以帮助大型数据处理。比如说,如果R实现了和并行计算包接口的功能
,就会有用。当然还有很多新的工具都针对大型数据的,比如最新的,Apache开源的
Hadoop。
关于算法思想上的,就是指的计算数据结构优化,统计算法的scalability。比如说你
可以用常规PCA来处理成千上万的数据点,但是如果数据点总量是特拉字节级别的,巨
大数量的协变量,你没法一次性读入到内存,更别说来一次运行PCA算法,所以你得批
量递增式的处理,要自己构造批量递增式的算法,但保证和一次性的PCA有一致的结... 阅读全帖
s****e
发帖数: 9
14
IBM中国研究院招聘以下两个职位:
*********************************
职位名称: 统计分析研究员
工作地点:北京/西安
职位要求:
1. 具有统计等相关研究背景的硕士及以上学历,统计模型及算法有深入的研究。
2. 具有SPSS/SAS/R编程经验;
3. 具有在银行、零售、消费电子、电子商务等相关行业进行大数据分析的科研及项目
经验者优先;
4. 具有较强的科研能力,曾发表相关领域高水平学术论文者优先;
5. 具有较强的英文读写与沟通能力;
6. 有高度的责任感和工作热情, 有较强的协作和沟通能力。
*********************************
职位名称: 并行计算方向 研究员/研发工程师
工作地点:北京/西安
职位要求:
1、 计算机、数学相关专业硕士及以上学历;
2、 有并行系统开发经验, 熟悉并行程序和算法设计,有MPI、OpenMP等编程经验;
3、 熟悉大数据并行计算,有Hadoop研发经验;
4、 熟悉并行环境下任务管理,程序性能分析与优化方法;
5、 发表过高质量文章的优先
*********************... 阅读全帖
g*****g
发帖数: 34805
15
来自主题: Programming版 - 你们不懂c++
C++是传统CPU bound应用的首选,但近年有很多松动。很大原因就是Hadoop和云计算的
出现。
C++的优势是运行快,大多数benchmark比Java快一倍。劣势是开发维护慢,往往慢一倍
都不只。稳定性差,一个core dump搞死整个应用。
云计算的出现,使得很小的公司也能使用很大的计算资源,Hadoop的出现使得机群并行
计算的门槛显著降低。由于整体计算成本的下降,这时候深挖单机潜力不再那么有吸引
力。因为运行时间本身也很重要。大量的公司晚上做计算,白天就要用这个结果,比如
dating网站算match。随着用户数的增加,一个基于cloud的集群计算可以无限扩展,而
基于单机的很快就不行了。在这种环境下,基于Java的应用,因为开发快,稳定,网络
通讯实现简单,基于JVM的并行处理类库多而突出。
在我看来,C++在应用层的空间是越来越小,越来越成为一个系统层的语言,跟C竞争。
C**********e
发帖数: 23303
16
来自主题: Military版 - 量子算法是个什么算法?
看来还得哥来科普一下
量子计算机就是利用量子的多态性和纠缠性
让并行计算的数据存取和通讯时间为零的完全并行计算而已
量子算法本身没有特别稀奇之处
相当于几十亿台并行计算机协同计算而且没有任何储存和通讯时间开销
布拉布拉
f***y
发帖数: 4447
17
https://www.enmotech.com/web/detail/1/724/2.html
导读:日前,华为公司在京面向全球发布了人工智能原生(AI-Native)数据库GaussDB和
业界性能的分布式存储FusionStorage 8.0,将多年的AI技术和能力以及数据库经验融
入到新品,实现很多创新性突破,比如人工智能技术融入分布式数据库的全生命周期、
一套存储可同时支持块、文件、对象、HDFS协议等。
其中,最为标杆性的场景应用实属招商银行,在实践中:
华为GaussDB管理数据容量提升10倍,AZ内故障恢复速度提升30倍。以故障恢复为例,
GaussDB的RTO时间小于1秒,而其他厂商则需要30秒;
FusionStorage 8.0在招行,部署渠道接入、开发测试、VDI以及大数据系统,一套存储
替代原有4种存储设备,节省40%的TCO,业务上线速度提升9倍。其次,将人工智能技术
融入存储全生命周期管理,从资源规划、业务发放、系统调优、风险预测和故障定位等
方面实现智能运维管理,实现云上云下协同。再者,分布式存储性能业界第一,单节点
性能高达16.8万每秒读写速度(IO... 阅读全帖
s******e
发帖数: 2181
18
我研究的一部分是科学计算。对于算力的问题,可以用多台cup并行计算,或者采用gpu
或多台gpu并行,算力是无穷的。但人可以并行计算吗,两个脑袋不能加一块儿,最多
台下讨论讨论集思广益,到了台上还是只有一颗脑袋在下。
我觉得狗狗应该多深入开发它的算法和效率,换芯片没意义。毕竟一样的软件,在386
上跑和i7上跑,
和人对局的结果也许很不一样呢
d***a
发帖数: 13752
19
来自主题: Hardware版 - 大伙帮忙出个主意
专业计算里,很多很多了,不说算几天,几个星期甚至几个月的都有。
另外有些计算,无法做成分布式并行,或者要求很大的内存,那么自己买好机器比E2C
更快。
E2C适合突发式的大规模分布式并行计算。比如说数据来了,很短时间内就要出结果,
要用几千上万个node并行,就很适合E2C。如果自己(公家)搞一个大的cluster,利用
率很低,就太不合算了。

算,
X******U
发帖数: 137
20
来自主题: Programming版 - 问一个外行的问题,关于mpi (转载)
【 以下文字转载自 Windows 讨论区 】
发信人: XIAOZHOU (liszt), 信区: Windows
标 题: 问一个外行的问题,关于mpi
发信站: BBS 未名空间站 (Thu Feb 19 11:34:13 2009), 转信
请问有没有办法利用双核的cpu同时运行两个进程作并行计算?
我对并行计算完全是外行.现在的程序根据说明书支持mpich作并行计算,不知道在同一
台pc上是否可行?两个进程对我来说足够了,我只想节省一些时间,充分利用一下资源.
希望有经验的能不吝赐教.谢谢!
y**b
发帖数: 10166
21
来自主题: Programming版 - C++含有指针成员的类
想起很久以前一点经历:有个多节点并行计算里面映射工具是用java写的,有个底层胶
水工具能把映射两端不同的语言(或模型)粘合起来,比如c、fortran、java、python
等,但是这个java工具非常慢,成为整个并行计算的瓶颈,后来我改写成多线程并行提
速十几倍(java不能跨节点并行如mpi,也不知现在还是不是),还是远远不够。再后来
找到一个类似的fortran写的映射工具,性能提升千倍。
X******U
发帖数: 137
22
来自主题: Windows版 - 问一个外行的问题,关于mpi
请问有没有办法利用双核的cpu同时运行两个进程作并行计算?
我对并行计算完全是外行.现在的程序根据说明书支持mpich作并行计算,不知道在同一
台pc上是否可行?两个进程对我来说足够了,我只想节省一些时间,充分利用一下资源.
希望有经验的能不吝赐教.谢谢!
c*********u
发帖数: 361
23
对于现在大规模的计算讨论的都是task, graph, multi-core, parallel computing。C
++对于并行计算简直就是噩梦,Java虽然对并行的支持要好很多但其实并没有本质区别,同时
performance又要打很多折扣(现在大部分还是用Java的middleware来调用C++ library
)。Functional programming 在消除了side effects后,debugging要容易很多,
parallelization则是水到渠成。
摩尔定律已经不再使用,计算机硬件再也不可能像过去30年的速度发展下去,并行计算
将是今后的趋势。有兴趣的可以看看下面的文章
http://www.cs.kent.ac.uk/people/staff/dat/miranda/whyfp90.pdf
http://dailyvim.blogspot.com/2009/04/why-functional-programming-
matters.html
准备学习F#, Haskell, OCaml, ML, Clojure, Scala
z****e
发帖数: 54598
24
c把跨平台,gc这些常见问题都给搞定了的话,那就是java了
java本身就是c like的语言,跟c++,obj c什么一样,都是c家族
不过可能是唯一一个不把c作为key letter放进去的c like语言
跟python这种非c like语言不太一样
java最早设计出来就是把那些c/c++工程中常见的问题
给统一用一个类库或者环境给搞定,所以最早有说法说是java类库最全最多
分布式并不是适合数据传递较少,相反,是传递较多才用分布式
但是尽量减少网络的io,是一个常见的优化手段
但是再少,都比并行计算用得多呀,毕竟网络是分布式的一个主要特征
而并行计算不用网络也没啥,弄点共享内存什么的,hpc一样可以搞并行计算
小程序没问题,用什么写都有可能,但是一旦项目变大
再在跨平台gc这种问题上折腾的话,实在是吃不消,力不从心,太累
大多数时候都是拿个轮子,直接抄来用了,java哲学比较讨人喜欢
如非万不得已,不要重复造轮子

把C
z****e
发帖数: 54598
25
c把跨平台,gc这些常见问题都给搞定了的话,那就是java了
java本身就是c like的语言,跟c++,obj c什么一样,都是c家族
不过可能是唯一一个不把c作为key letter放进去的c like语言
跟python这种非c like语言不太一样
java最早设计出来就是把那些c/c++工程中常见的问题
给统一用一个类库或者环境给搞定,所以最早有说法说是java类库最全最多
分布式并不是适合数据传递较少,相反,是传递较多才用分布式
但是尽量减少网络的io,是一个常见的优化手段
但是再少,都比并行计算用得多呀,毕竟网络是分布式的一个主要特征
而并行计算不用网络也没啥,弄点共享内存什么的,hpc一样可以搞并行计算
小程序没问题,用什么写都有可能,但是一旦项目变大
再在跨平台gc这种问题上折腾的话,实在是吃不消,力不从心,太累
大多数时候都是拿个轮子,直接抄来用了,java哲学比较讨人喜欢
如非万不得已,不要重复造轮子

把C
E*********g
发帖数: 185
26
来自主题: DataSciences版 - 有尝请教关于spark api java coding
没有y没关系, 你这里需要一个unique key for each record, 因为
后面要把scores加起来
这个XB_TOTAL_ACTIV_MNTH_P1Q 是global?
XB_TOTAL_ACTIV_MNTH_P1Q是怎么传给tree_1.score()的?
这JAVA code不改不行, 写得太烂了,就你这999个不同名字
的feature, 就只能手工处理,为什么不用数组或List呢
给你一个大概的思路:
1.首先score函数要能接受外部参数, 用List, Array都无所谓
2.所有的tree可以放到一个parallel List里,并行计算, 比如
val trees = List(new tree_1(), new tree_2()...).par
for (val tree <- trees){
val scores = data.map((key, features) => (key, tree.score(features)))
}
3.scores相加的话还要特殊的处理,因为并行计算以后的顺序是不定的
要group by key, 再相... 阅读全帖
wy
发帖数: 14511
27
来自主题: _America版 - Matrix
没有看懂,至少是没有完全看懂,所以以下我准备从
技术角度作的解释,不妨看成是我自己的matrix...
大家都知道,matrix是一个计算机系统,无数的程序
活跃于其间.大家也都知道,软件,无论多么精致,多么
复杂,他们总是需要运行于一定的硬件之上,以前没有,
以后大概也不会有脱离硬件可以独立的软件.
那么,matrix的硬件是什么呢?是Internet.
我们都知道,Internet当前,主要用于传递数据,或者
信息(注意,数据和信息是两个不同的东西).其实我们
忽略了Internet另外一个潜在的巨大的应用,就是Internet
上面互联的计算机的庞大的计算能力.说到这要引入一个
概念:并行计算,所谓并行计算,可以在matrix reloaded
里面找到一个经典的例子:Neo进入房间提问,设计师
回答,这个时候问答是在并行中进行:neo*同时*提出
超过一个问题,而architect*同时*回答这些问题.
一个明显的好处是,节约时间,比如说,如果一问一答要
20秒,那么如果neo顺序提问256个问题,需要5120秒,
武侠小说够写好几卷,如果同时提问,设计师使用256个
处理器,
R****a
发帖数: 6858
28
【diamond】(七)重装上阵 A.紧追不舍
来源: 唵啊吽 于 2013-09-17 03:09:18 [档案] [博客] [旧帖] [给我悄悄话] 本文已
被阅读:430次 字体:调大/调小/重置 | 加入书签 | 打印 | 所有跟帖 | 加跟贴 |
查看当前最热讨论主题
(七)重装上阵
经过三十年的奠基和三十年的追赶,中国和西方国家在工业上的差距从当年的望尘莫及
追成了如今的望其项背,在部分领域甚至已经让他们感到了芒刺在背。在他们原来的计
划中,世界的秩序应该是金字塔形的,美国是全世界毫无争议的老大,日本和西欧紧随
其后,他们共同掌握高科技的经济命脉,其他国家依次从事中级产业、低级产业和资源
供应的工作。在亚洲则是形成雁形队列,日本做领头雁,四小龙四小虎随行其后,中国
负责源源不断地提供廉价劳动力和资源,以维持发达国家们至高无上的经济地位和政治
地位。他们则可以在闲暇之余,站在金钱和道德的高地上,视情况对中国给予一些施舍
或某种惩罚,从而牢牢地把控住中国的走向,把中国永远锁定在金字塔的底层。可惜中
国是不会让他们如愿的。
依托前三十年打下的基建、教育、国防和重工业基础,中国从“... 阅读全帖
k*********g
发帖数: 791
29
来自主题: Computation版 - 科普,谱元法
世界上目前已有的相关软件,主要建在“有限元法”和“有限体积法”两种数值方法上
。有限元法以拉格朗日函数为基函数,方程的加权积分形式在一个区域内满足,产生的
矩阵有很大的带宽,方程迭代求解过程非常慢。有限元使用了强大的高斯积分,但只是
局部过程中用来计算积分而已,高斯积分的潜力远远没有充分发挥出来。有限体积采用
泰勒多项式(和拉格朗日函数的效率大致相仿),方程最终在一些离散点上满足,就矩
阵带宽来说性很好,但不够优化、从而效率不够高,并且对复杂几何处理能力不如有限
元,升级为高精度版本很不容易(效果也大大降低,后面详述)。差分法在复杂几何处
理上必须采用功能很局限的结构化网格;边界元法只能应对线性微分方程(零阶导数项
也必须线性),而且其“稠密影响矩阵”造成的效率上的降低远远大于在处理3维问题
时的“降维”带来的效率上的提升;这两种方法都无法胜任通用软件业。本软件将是谱
元法的世界首次使用。谱元法采用正交、完备的契比雪夫多项式,方程的加权积分形式
在高斯积分点上满足,高斯数值积分贯穿整个数值过程,与契比雪夫多项式的正交性实
现完美的结合,两者的潜力都得到了充分发挥。谱元法形成的离散方程系... 阅读全帖
m*t
发帖数: 2464
30
从加州理工到高盛银行 by 粟耀莹
Why -- California Institute of Technology to Goldman Sachs
Adventure of Alyce Su 粟耀莹
[1] 前言
[2] 19 岁走出台湾赴美
[3] 进入加州理工
[4] 从物理转生物科技
[5] 得到芯片之父 Carver Mead及诺贝尔奖得主 Rudi Marcus的鼓励
[6] 到生物系找指导教授
[7] 我做出了一个经典生物物理模型
[8] 我用分子生物学的方法从事蛋白质工程研究
[9] 蛋白质工程研究成果得奖
[10] 柏波提示我走从商之路
[11] 用蛋白质工程研究成果换取美国绿卡
[12] 蛋白质工程研究成果申请专利,向创投公司融资,开生物科技公司XENCOR
[13] 创办领导加州理工学院的Case Practice Group进军麦肯锡
[14] 麦肯锡McKinsey & Co。梦碎进军华尔街
[15] 一星期内搞懂”衍生性金融商品的圣经”进入PIMCO
[16] 我在PIMCO受的训练
[17] 赢得「债券王」Bill Gross的心
[18] 我买卖房子... 阅读全帖
a****a
发帖数: 5763
31
http://bbs.weiphone.com/read.php?tid=511848
Mac OS X 10.6即所谓的Snow Leopard操作系统已正式发售。一如既往,Apple产品光
鲜的外表下凝聚了太多艰辛的劳作。ArsTechnic的John Siracusa以其独特的、专业的
、全面的视角深入翔实地体验这款最新的操作系统。
Weiphone.com将对该综述进行翻译整理并独家连载。欢迎关注
究竟如何才能充分而高效率地使用大量独立的计算设备?我们纠结这个问题已
经有年头了。在高性能计算机领域,这个问题已经解决了近几十年了。然而许多年以前
超级计算机程序员所面临的问题,现今已经成为了为普通计算机甚至移动计算平台编写
程序的程序员所面对的问题了。
一些睿智的人很早就意识到了这个问题。大概20年以前,PC行业中存在一种未
雨绸缪的想法,就是创造一种全新的PC平台,能够摆脱那些已过时但使用广泛而难以替
代的硬件的束缚,并为即将到来的大量独立计算单元做好准备。围绕着这一想法,Be公
司成立了。随后,Be公司推出了BeBox——... 阅读全帖
n******7
发帖数: 12463
32
来自主题: Programming版 - 并行可以降低计算复杂度??
最近看一篇文章,GPU计算的
用的deep learning
其中提到NN的计算复杂度是O(MN+LN^2)
M是输入的unit,N是所有layer的hidden unit,L是layer数
然后用GPU并行之后,就是M,N的linear时间复杂度了?
说原因是,计算两个N dimension vector的内积,用CPU是O(N)的,用GPU是O(1)
这是鬼扯吧?
我怀疑实际原因是,他们的GPU平台有近3K个core,计算中M在2000左右,N在几千数量级
所以他们是用core的数量K 抵消的一个N的复杂度
大家看是不是这样?
d*****r
发帖数: 2583
33
来自主题: Biology版 - 从加州理工到高盛银行
大家不要吵了,读读这篇老帖子,娱乐一下。。
我第一次读到是刚来美国不久,今天偶然又翻到,觉得peoplem的这个校友
(Alyce Su)还是很有趣的,虽然里面很多东西跟今天的世界已经差别很大了。
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
jsj 贴于2004/07/25 12:12
《从加州理工到高盛银行》 -- 粟耀莹
Why -- California Institute of Technology to Goldman Sachs
Adventure of Alyce Su
CalTech,PIMCO,McKinsey,Goldman Sachs
so that I get to see Larry Ellison !!!!!
[1] 前言
[2] 19 岁走出台湾赴美
[3] 进入加州理工
[4] 从物理转生物科技
[5] 得到芯片之父 Carver Mead及诺贝尔奖得主 Rudi Marcus的鼓励
[6] 到生物系找指导教授
[7] 我做出了一个经典生物物理模型
[8] 我用... 阅读全帖
c***s
发帖数: 70028
34
造纸术、印刷术、火药、指南针四大发明是中国古代的科技成就。那么,当代中国有叫得响的新四大发明吗?“新四大发明”评选活动由广东省发明协会主办,搜狐网发起,从建国以来影响中国建设进程的数十项重大科技成果中,评选出中国当代的“新四大发明”:杂交水稻、汉字激光照排、人工合成胰岛素、复方蒿甲醚。
‘具有原创性’、‘具有世界级影响力’、‘能产生社会效益’是专家和网民评判‘新四大发明’的三大基本标准。这“四大”成就全部是都是需要独立自主、自力更生、大规模协作、深谋远虑、持之以恒和严肃认真的科学态度才能见成效的项目。而如今这“科学的春天”,“教授满地走,博士不如狗”,“论文满天飞,成果信口吹”,就是不见什么象样的、能在世界上站得住脚的东西。这些造福人类的重大科技成果和改革后的世人皆知的地沟油,苏丹红,三聚氰氨,瘦肉精“四大”另类发明有本质不同。
中国当代的“新四大发明”介绍
1973年,在袁隆平的带头下,全国各地相关科研院所的集体攻关配合下,终于完成了水稻杂交“三系”配套的创举,这一创举使我国成为世界上第一个在水稻生产上利用杂种优势获得成功的国家,袁隆平以此为科学依据发表水稻有杂交优势的观点,打破了世... 阅读全帖
f***y
发帖数: 4447
35
http://military.china.com/news/568/20160812/23275832.html
近日,我国量子计算机研究取得突破性进展,中国科技大学量子实验室成功研发了半导
体量子芯片。
据央视新闻8月11日消息,量子芯片相当于未来量子计算机的“大脑”,研制成功后可
实现量子的逻辑运算和信息处理。有了计算,量子的存储及控制技术也必不可少。这款
三明治型的固态量子存储器,在低温有磁场的辅助设备中才能工作。
中科院量子信息重点实验室研究员周宗权表示,下一步发展方向,要把这个量子存储器
做小做得齐整化,以延长它的寿命,最终我们希望做成一个像经典的便携式U盘一样方
便使用的器件,实现超远距离的量子态量子信息的传输。
量子计算机以其惊人的计算速度和性能被认为即将颠覆现有的普通计算机,“量子芯片
”作为量子计算机的“大脑”,是体现和普通计算机差异的核心。目前,国内外研究机
构都开始对这一领域展开了研究,而中国也无疑已经走在了前列。
在8月4日出版的《自然》杂志的一篇封面文章中,与马里兰大学联合量子研究所(JQI)
和量子信息和计算机科学联合中心成员Christopher Mon... 阅读全帖
h*******o
发帖数: 7
36
很多人说阿发狗的下一个目标是来颠覆金融?
岗位名称:大数据深度学习研究员(工作地点 北京/深圳)
岗位职责:
– 从事前沿人工智能、深度学习技术研发
– 从事大规模深度学习、计算视觉、图像处理,NLP和语音识别算法和系统研发
– 设计并实现基于CUDA的分布式深度学习系统
岗位要求:
– 重点大学硕士及以上学位 ,博士优先
– 对在以下至少一个领域有深入的研究:
(1)统计机器学习(如深度神经网络、Boosting、图模型、概率统计、最优化方法等)
(2)计算机视觉(如图像识别理解、人脸检测识别、目标检测和跟踪、OCR、增强现实
、图像质量评价、图像分割增强等)
(3)语义理解检索 (如知识图谱表示、结构化预测、语义解析、信息检索、知识挖掘
等) – 熟悉和掌握C/C++和脚本语言编程(如Shell, Python, Perl等)
(4)语音分析及处理(语音识别和声纹识别)
– 熟悉大规模并行计算的基本原理并具有实现并行计算算法的基本能力
– 有深度学习/视觉技术研发/异构计算等相关实践经验者优先
– 具有良好的沟通能力,和良好的团队合作精神
– 有海外留学经历着优先考虑
同时大量深度... 阅读全帖
s**u
发帖数: 2294
37
我是化工的博士,但是从本科到博士都修了几乎所有计算机的课程,在博士毕业后在th
计算机做的博后,又去了一个研究机构也做的计算机方面的工作。主要是做高性能计算
,并行计算等,各种语言写程序也不错。
我主要做高性能计算,在并行计算和代码优化方面有很多项目经验。数学基础也比较好
。自己写代码方面,Unix, Linux and Windows; C/C++, Fortran 77/90, Matlab and
Python; MPI, OpenMP, PETsc, Trilinos; gdb, Totalview, Valgrind; Code level
tuning with Vtune and Oprofile; BLAS, LAPACK, FFTW, direct and iterative
solver都没问题。
因为之前想做研究,所以看到一个老师和我可能有互相弥补合作能做好文章,就到美国
来博后了。事实上,因为各有所长,半年了我的东西已经差不多了,可以写文章了,也
是这个领域少有人做的东西。不过因为funding等问题,老板到期不准备再续了。而我
也觉得自己非常希望回到计算机领域... 阅读全帖
h*******o
发帖数: 7
38
很多人说阿发狗的下一个目标是来颠覆金融?
你愿意挑战吗?欢迎应聘【平安科技(北京/深圳)深度学习研究院】岗位
岗位名称:大数据深度学习研究员(工作地点 北京/深圳)
岗位职责:
– 从事前沿人工智能、深度学习技术研发
– 从事大规模深度学习、计算视觉、图像处理,NLP和语音识别算法和系统研发
– 设计并实现基于CUDA的分布式深度学习系统
岗位要求:
– 重点大学硕士及以上学位 ,博士优先
– 对在以下至少一个领域有深入的研究:
(1)统计机器学习(如深度神经网络、Boosting、图模型、概率统计、最优化方法等)
(2)计算机视觉(如图像识别理解、人脸检测识别、目标检测和跟踪、OCR、增强现实
、图像质量评价、图像分割增强等)
(3)语义理解检索 (如知识图谱表示、结构化预测、语义解析、信息检索、知识挖掘
等) – 熟悉和掌握C/C++和脚本语言编程(如Shell, Python, Perl等)
(4)语音分析及处理(语音识别和声纹识别)
– 熟悉大规模并行计算的基本原理并具有实现并行计算算法的基本能力
– 有深度学习/视觉技术研发/异构计算等相关实践经验者优先
– 具有良好的沟通能... 阅读全帖
k*******2
发帖数: 4163
39
这是算法课没及格的说法吧。
并行再牛,也不能改变计算复杂度,因为计算复杂度是以N->无穷的极限情况来讨论的
。这种情况下任何有限的core都可以忽略不计。
唯一能改变计算复杂度的是发明一个新的更高效的算法。
h*******o
发帖数: 7
40
很多人说阿发狗的下一个目标是来颠覆金融?
岗位名称:大数据深度学习研究员(工作地点 北京/深圳)
岗位职责:
– 从事前沿人工智能、深度学习技术研发
– 从事大规模深度学习、计算视觉、图像处理,NLP和语音识别算法和系统研发
– 设计并实现基于CUDA的分布式深度学习系统
岗位要求:
– 重点大学硕士及以上学位 ,博士优先
– 对在以下至少一个领域有深入的研究:
(1)统计机器学习(如深度神经网络、Boosting、图模型、概率统计、最优化方法等)
(2)计算机视觉(如图像识别理解、人脸检测识别、目标检测和跟踪、OCR、增强现实
、图像质量评价、图像分割增强等)
(3)语义理解检索 (如知识图谱表示、结构化预测、语义解析、信息检索、知识挖掘
等) – 熟悉和掌握C/C++和脚本语言编程(如Shell, Python, Perl等)
(4)语音分析及处理(语音识别和声纹识别)
– 熟悉大规模并行计算的基本原理并具有实现并行计算算法的基本能力
– 有深度学习/视觉技术研发/异构计算等相关实践经验者优先
– 具有良好的沟通能力,和良好的团队合作精神
– 有海外留学经历着优先考虑
同时大量深度... 阅读全帖
S******n
发帖数: 5022
41
趁着新一届超级计算大会SC 2013召开的机会,新标准终于正式公开发布了。
OpenCL 2.0是这个免费开放跨平台并行编程规范的重大进步,引入了增强的执行模型和
C11/C++11内存模型子集、同步、原子操作,拥有丰富的算法和编程模式,可轻松实现
计算加速和更好的性能。
OpenCL 2.0对异构计算来说是个新的里程碑,CPU、GPU、DSP等硬件资源可以得到更彻
底、更高效的释放,特别是在新兴的移动平台上也可以大展拳脚,包括增强现实、物理
模拟、移动游戏等等。
Adobe、AMD、HSA基金会、Imagination、Intel、NVIDIA等企业机构都表达了对OpenCL
2.0标准的欢迎和支持。
http://www.khronos.org/registry/cl/
OpenCL 2.0主要新特性:
1、共享虚拟内存
主机和设备内核可以直接共享复杂的、包含指针的数据结构,大大提高编程灵活性,避
免冗余的数据转移。
2、动态并行
设备内核可以在无需主机交互的情况下进行内核排队,实现灵活的工作调度,避免数据
转移,大大减轻主处理器的负担。
3、通用内存空间
无需指定地址空间名称即可... 阅读全帖
y**b
发帖数: 10166
42
来自主题: Programming版 - 请问释放容器内存的方法
找到一篇谈内存碎片的:
http://blog.163.com/dengminwen@126/blog/static/8702267200971894
里面提到内存碎片的罪魁祸首并不是libstdc++的的STL,而是glibc的malloc。
把那个例子换成std::vector,然后new一个对象就插入一个,同样会产生内存碎片。
如果外面加个大循环,乖乖不得了,几下子就能崩溃。
但是如果只产生临时对象,将临时对象的拷贝一个一个插入vector,每次大循环之前
用clear清空vector,不会耗光内存。我的程序是这样。
但主要问题还是在于mpi本身的缓存:
unordered_set单进程计算反复循环,内存不增加;mpi并行计算反复循环,内存增加。
vector单进程计算反复循环,内存不增加;mpi并行计算反复循环,内存增加。
m****s
发帖数: 1481
43
来自主题: Programming版 - R李怎么搞big data和deep learning?
真要用的话先用python,java之类的在hadoop,spark上把数据压缩一下(转化成小容量
feature),再port到R里面做后续的分析。
R本身目前没什么很好的并行运算包,楼主可以看看snow package,是一个相对比较成
熟的并行计算包,不过也是需要手动分割数据给各个计算终端,没有mapreduce自动化
程度高
deep learning的话,大部分都是deep neural networks,现在还是GPU是主流,因为要
train的neuron太多了,每个neuron的计算又相对很简单,正好适合GPU核多但是单个核
计算能力和存储都弱的特点,自学下opencl或者cuda,其实跟C差不多,而且现在有一
些现成的deep learning的GPU包,这个R真的不是很适合
s**u
发帖数: 2294
44
【 以下文字转载自 Postdoc 讨论区 】
发信人: sasu (杉树), 信区: Postdoc
标 题: 我们碰到的大麻烦——急寻计算机工作和博后机会
发信站: BBS 未名空间站 (Thu Apr 5 14:58:18 2012, 美东)
我是化工的博士,但是从本科到博士都修了几乎所有计算机的课程,在博士毕业后在th
计算机做的博后,又去了一个研究机构也做的计算机方面的工作。主要是做高性能计算
,并行计算等,各种语言写程序也不错。
我主要做高性能计算,在并行计算和代码优化方面有很多项目经验。数学基础也比较好
。自己写代码方面,Unix, Linux and Windows; C/C++, Fortran 77/90, Matlab and
Python; MPI, OpenMP, PETsc, Trilinos; gdb, Totalview, Valgrind; Code level
tuning with Vtune and Oprofile; BLAS, LAPACK, FFTW, direct and iterative
solver都没问题。
因为之前想做研究,... 阅读全帖
h*i
发帖数: 3446
45
这儿有人说要搞R的中文社区,说是要支持开源的统计分析软件的发展。如果是这样的
话,不如支持一个更年轻,更先进,更需要被支持的开源统计分析软件,这就是
incanter, http://incanter.org
incanter是基于一种Lisp语言的统计计算环境,是响应R的作者之一的号召而发展出来
的。Ross Ihaka, R的作者之一在2008年写文章说,R作为一个语言有很多缺陷,还是需
要用Lisp来作统计计算语言的基础才更好[1], 具体的论述见文章本身。
incanter用的Lisp语言叫clojure, http://clojure.org, 是运行于Java虚拟机上(也在发展运行于.NET虚拟机上的版本)的一种现代的Lisp。clojure在2007年问世,发展迅速,现在已经发布到了1.2版本。clojure的主要优势是对并行计算的天然支持,与虚拟机的宿主语言的无缝结合,当然还有Lisp的语言优势。
回到我的题目,如果要想有更多的impact,支持R不如支持incanter。别的不说,学会
lisp可以变成一个更好的programmer。未来是属于大规模的并行计算的,这儿
j*****h
发帖数: 62
46
并行编成也在不断的发展。新的并行编成语言也是研究的热点。不要
以为并行编成就一定是MPI+OpenMP,要用发展的眼光看问题。而且
thread-level parallelism本身有很多来源。比如串行程序的自动
并行化(both software and hardware based),并行程序,多线程,
多任务等。未来的hardware既然朝着并行计算的方向走,software也
必然会相应的调整。关键是要看清楚形势,这是大势所趋。
m****s
发帖数: 1481
47
来自主题: Hardware版 - 用于科学计算的单机该怎么配
如果算法可以并行的话,我推荐用gpu,相对于cpu搞并行用多线程比如mpi这些,gpu跑
并行的上手难度小多了。而且速度提升还是很大的,特别是不需要非常高精度的。
我之前把组里的通信仿真从c转成opencl,速度提升有10-40倍,当然是跑的单精度,因
为通信的最终硬件实现只有6-7位,所以单精度,甚至半精度都是绰绰有余的。其他的
科学计算我就不确定了,不过即使都是跑双精度,gpu一般也能比cpu快5-10倍,我是说
同价位的一个cpu和一个gpu比。
当然最快的还是fpga,不过那个开发起来费时间一些,design重复利用率也不高,不像
code
n******7
发帖数: 12463
48
就是跟串行的比较
1个core 要200h
64个core 只要1h
明显不对
不过paper已经发了
也没人管了
我感觉并行最关键的还是问题的领域
我们领域的问题基本都是高度可并的
其实单机并行我已经觉得很爽了
现在版上的千元双路机都有16核32线程
单机并行就可以缩短运行时间一个数量级
很客观了
也准备找机会玩玩MPI,一直对分布式计算很有兴趣
y**b
发帖数: 10166
49
来自主题: Programming版 - 请问释放容器内存的方法
看来这个理解是对的,至少是经验之谈。
实际上我将unordered_set全都替换成vector,在损失功能情况下测试,发现内存消耗
几乎不变。可见问题不在于我使用了那种数据结构,而是这些数据serialized之后通过
mpi传输的时候,mpi底层实现要消耗大量内存。mpi有些参数可以调整内存消耗,但也
非常有限。
当然我还有其他解决办法,就是采用并行数据输出,整个并行计算结束之后用另外的程
序来合并数据、清楚冗余数据,免得干扰并行计算本身。
d****i
发帖数: 4809
50
来自主题: Programming版 - 还是awk牛B
多谢指出问题,正如大神Linus最近指出的,忘掉操蛋的并行计算吧,并行计算不是
silver bullet,大部分时候我们并不需要并行也过得很好!java 8的stream底层的实
现就是fork-join pool,就是把他变成了看起来的语法糖而已。
首页 上页 1 2 3 4 5 6 7 8 9 10 下页 末页 (共10页)