五千年(敝帚自珍)

主题:LINUX能做那些事? LINUX与WINDOWS的比较.欢迎大家补充. -- spin

共:💬77 🌺45
全看树展主题 · 分页首页 上页
/ 6
下页 末页
家园 有了伟大的VMWare,这种比较已经没有意义。

Linux可以在XP上跑,XP也可以在LINUX上RUN,这就二合一了。剩下的爱装谁做HOST,谁做GUEST都不重要了。俩个系统的应用你都可以同时拥有和运行。

家园 VM还是慢吧

不管VMWARE还是VIRTUAL PC。

我更喜欢WINE和cygwin

家园 先顶再看
家园 我觉得你还是用少了

头两次用latex是喜欢不停的编译看效果,后来熟了,特别是有了自己的一套宏,都是闭着眼睛写。干完再看。

多写几次就好了。

家园 你讲的模板和latex的模板概念对不上

latex就是一句话的问题,word你就慢慢改吧。

家园 openoffice小

windows上全安装255M,自己用没人自己编译的。

家园 虽然Latex fan们喜欢这么说

但真要按照自己的想法排个比较像样的版,这话就长了去了。word里定义格式也就是点几下鼠标,搞不好倒更快一些。

我们这里写论文用word和latex的都有,没觉得用word的比用latex的慢。

家园 都耗内存

512眼瞅着就没了。。。。。。。。。

家园 512M?向前看看,不要多久,PC应该有512G内存了,

最早的PC用过512K的内存,现在的16G了。内存比CPU发展速度快啊。操作系统体积跟不上了,所以VM才大行其道了。以后一定是一台PC上跑很多OS的。

家园 网格计算问题非常非常大

只有少数对通信非常不敏感的问题才适合网格计算。常见的并行计算问题,每一步都需要通信,一个节点的延迟意味着所有节点的等待,所以现在集群和MPI已经成为了科学计算的标准。而网格计算提供者无法提供一套各节点间有稳定带宽和延迟,同时成本很低的系统。简单的说,他们无法将一个问题分配给两个集群而不损失效率,所以网格计算就成了一层套在各个计算中心的集群上的无意义的壳。

家园 不同的学科要求不一样

首先,对于MPI的需求各学科不同,以高能物理为例,数据为从探测器中获得的事例,互相之间关联度很小,所以不需要MPI,所以就不存在你所说的问题了。

现在的网络提供的带宽已经非常大了,LCG的下层站点与上层的链接将普遍达到10G。

延迟的确无法解决,所以跨站点MPI会有问题。不过网格可以设计成在任务调度时候将MPI相关的作业都分配到一个站点执行,在一个大型的网格中,由于包含有大量的大型站点,这是有利于优化资源的配置的。

此外,网格还能够设计成根据数据的位置将作业分配格里数据所在的站点执行,优化提高作业启动的速度和节约带宽。MPI作业也可能在这种条件下获得好处。

很多人有误解,世界上网格计算是High Throughput Computing,并不是一种High performance computing技术,所以并不期待解决MPI这样的问题。

不过我觉得网格现在要解决的问题很多,而且很多问题不是技术问题。

家园 对于HTC,需要的是google机群这样的东西

而不是把各个计算中心连接起来。各个计算中心里的大型机群,不是为HTC而是为HPC设计的,拿这些东西算HTC是很浪费的用法。

在任务调度时候将MPI相关的作业都分配到一个站点执行其实就是相当于加了一个壳,但目前的现实是计算中心没有闲的时候,一般都要排队,所以谈不上利于优化资源的配置。

网格这东西,其实发展方向应该是google机群这样的东西,追求的是便宜,稳定,安全。而不是把计算中心连接起来。估计很快就有人要在水电站附近建百万节点计算中心了。

不过这样,搞物理的就骗不来钱买大型机群了。

家园 我不理解你所说的google机群有什么特别的

而不是把各个计算中心连接起来。各个计算中心里的大型机群,不是为HTC而是为HPC设计的,拿这些东西算HTC是很浪费的用法。

我不了解google的集群,所以我不知道他和传统的集群有什么不同之处。从硬件上来说网格理应用的计算节点和google的没什么不同。一般来讲Cluster是HTC还是HPC,主要取决于你应用。网格原则上能够平衡各个计算中心的作业量,减少空闲的计算机,从而减少作业的平均等待时间,也就提高了单位时间作业处理的数量。

在任务调度时候将MPI相关的作业都分配到一个站点执行其实就是相当于加了一个壳,但目前的现实是计算中心没有闲的时候,一般都要排队,所以谈不上利于优化资源的配置。

我的实际经验,很多计算中心和集群都有不同程度的空闲,网格能够将你的作业发到空闲的集群,也就是减少了等待时间。

网格这东西,其实发展方向应该是google机群这样的东西,追求的是便宜,稳定,安全。而不是把计算中心连接起来。估计很快就有人要在水电站附近建百万节点计算中心了。

如果你能够做一个10万CPU的计算中心,那LCG的确就没有必要了,但是实际上没有这种可能,各个国家不可能都出钱在日内瓦修一个这样的计算中心。他们希望在自己国家建立或者扩充计算中心,各国的计算中心不仅是用于物理,也用于其它的项目。10万CPU的巨型计算中心在科学界是不可能的,而且99%的项目不需要这种巨型计算中心。网格是更加经济可行的方法,而且还能够将已有的一些计算中心整合进来。

从经济性来说,将集群分开并没有什么不经济的。单个集群的规模一般最大也只有一两千个CPU,再大技术上是不可行的。

不过这样,搞物理的就骗不来钱买大型机群了。

为什么用“骗”呢?本来就需要这么大的计算量。如果你了解LHC上面的实验,你就不会这么说了。

家园 google机群是性价比最高的规模最大的HTC机群

2003年google声称其机群拥有30000个cpu,之后没有给出新的数据,但估计目前其机群已经拥有超过100000个cpu,并传出准备将机群迁往水电站附近的消息。

google机群的最大特点是完全使用商品化的硬件,计算节点采用当时性价比最高的低端服务器(更早之前用的是PC机),网络采用以太网和廉价的三层交换机系统,单位浮点运算能力成本应该是blue gene的1/20以下。2003年google机群的整体浮点运算能力高于目前hpc中最强的blue gene。

当然,用google机群和blue gene比了linpack等hpc能力是远远不及,但是用google机群和blue gene比htc呢?web搜索其实就是典型的htc问题,google机群在低价的前提下保证了web搜索的稳定性和正确性。

我的想法就是,htc中心和hpc中心分离,那些几秒钟甚至几分钟通信一次的问题扔给htc中心去算,对于这种问题,用IB和顶级CPU完全是浪费,用PC加以太网足以,寻找外星人计划和寻找艾滋病受体计划就是很好的例子。

而像MM5,MD,粒子模拟,有限差分等等几毫秒通信一次的问题交给hpc中心去做,才是物尽其用。

家园 VMware features...

1. VMware 爆贵, 比 M$ 还要坑...

2. VMware 爆吃资源, 特别是 DRAM. 不过不怪它, 想想要一次跑几个 OS...

3. VMware 效能实在不怎么样, 特别是 Graphics 爆烂...

WINE / CYGWIN 是 free ware, 没有第一个问题, 但只是 Windows <--> Linux / Unix 的 Emulator. VMware 可以支持其它 OS 如 FreeBSD. 不过一样耗 DRAM, 一样效能不怎么样. (Emulate 出来的硬件效能要好才有鬼...)

基本上, 除了 MIS 要省点服务器硬件钱, 搞软件开发和测试的懒得用好几台电脑, 其它的嘛, 呵呵.

全看树展主题 · 分页首页 上页
/ 6
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河