主题:【讨论】米帝一给力,中国的超级计算机前十都排不进去了! -- 菜菜西红柿
米帝这么长能耐,朕心甚慰啊!
大家都知道那个Top500用Linpack就是个joke,但一定要等到今天才改。
现在主流机器人大概是1g左右,10w台明显不够的
一百万台可能差不多
这种组织几百万台普通服务器协作的方式更好些,更灵活,应用也更容易,当然效率差了些。
已经差不多了.
一般的并行运算用的就是普通的以太网, 只有超级计算机对效率有要求会使用一些高速的组网方式. 而且现在已经有超级计算机采用万兆以太网进行结节间的组网了. 从某种意义上说现在的许多超级计算机也可以算用是服务器集群, 只不过应用比较特殊.
超级计算机其实是为了很多特殊的应用而诞生的. 早期的那种一台计算机分给多个研究项目的情况越来越少. 现在, 很多计算机都有专门的业务用途. 这样的情况下, 比较计算机处理特定业务的能力也许更有更有价值. 当然, 这样可供对比的系统就少的多了. 可能某个领域也就是几台类似的巨无霸. 现有的问题是, 从经济的角度考虑, 暂时没有必要建造过于庞大的超级计算机系统. 换句话说, 现在应该考虑的问题不是可以不可以造, 而是怎么造比较经济合算.
在某个层次上, 从网络规模和所有计算机的总运算能力, 就可以大致看出一个国家在信息技术上的生产能力. 这方面中国就算不是第一, 至少也是第二.
象核爆模拟、地震、天气预报这些运算还是mainframe体系比较适用。集群能做的主要是大数据量、极其容易并行化的运算,象索引、检索这些。
当然效率应该是比超级计算机差,但是不是软件平台更容易统一,也更简单呢?超级计算机如果就做这点事,会不会浪费了啊。而且特殊操作系统的软件估计更不容易写,也不容易维护。
Google自己堆得集群,原理是map reduce,对节点间通信没有啥要求。
超级计算机用MPI,节点间通信要求也很高,一般用IB网。
但是,超级计算机的重要特征就是节点间的互连速度要求非常高,比如这次的天河1号就是创新了infiniband,将速度提高了一倍。
极端一点说,如果你的工作需要节点间的数据交换很少,完全可以不用超级计算机,多买计算节点,最后把数据一汇总就行了。所以,google也不好意思把自己的服务器集群叫做超级计算机吧?
supercomputer好像从80年代向量机出来之后, 就已经是大规模并行运算的代名词了吧? 现在现役的超级计算机还有不使用并行算法的吗?
现在Mainframe与supercomputer不是一个概念吧? mainframe应该是更著重于指用MIPS来衡量能力的机器吧, 类似于现在的小机或个人PC, 并不一定是机器的计算能力. 现代的像IBM的system z这类才算是mainframe吧?
采用多端口绑定技术, 一个节点可获得二十万兆甚至更高的速度. 我只是比较看好以太组网, 太便宜了.我觉得现在一般千兆网, 对一个结节有2Gbps的速度已经可以满足不太的计算需求了.
超级计算机的话, 看怎么比较了, 与像蓝色基因那样的系统自然的没法比的, 但是如果以并行处理能力来说, 十几个类似的结点, 也可以获得不错的性能, 未必要上非常强大的网络. 就算不自称超级计算机, 自称是"并行运算系统"还是可以的吧? 总之干的事情是一样滴嘛.
google最早提出的并行计算,当时google搞了个程序,让用户装上,意思是在用户电脑空闲的时候进行计算,当时是说全世界有几千万的电脑空闲,可以将这些电脑组合起来,然后由google在服务端将这些计算能力免费提供给需要计算的研究人员,不过最后不知道怎么就不了了之了,但这里面的道理是一样的。