五千年(敝帚自珍)

主题:探索量子宇宙——粒子对撞机的任务(1) -- 邪恶本质

共:💬58 🌺66
全看分页树展 · 主题 跟帖
家园 【原创】LHC的数据处理

LHC每年产生大约15Petabytes (15 million Gigabytes)的数据,为了处理这些数据,欧洲、美国以及世界上其它很多国家(包括中国)的物理研究单位联合起来,产生了LCG(LHC Computing Grid)这个项目。这个项目简单的说就是用超高速的网络把世界上很多计算中心的集群通过LCG的软件组织起来,共同处理和分析这些数据。原则上,物理学家只要简单提交他们的数据分析程序(作业)给这个LCG网格,作业就会自动地被分配在合适的地方执行:他们不用知道在那里执行(比如英国,美国,中国···),也不用知道数据具体存放在哪里(CERN,法国的某个服务器上,英国的某个服务器上,德国的···,不过他们只要告诉LCG数据集的名字)就可以得到结果。LCG会有超过10万个CPU供物理学家使用。

中国的高能所也是其中一个数据处理中心(第二级的,我们叫它Tier-2),中国科学院提供一个1G-10G的数据链路到法国的上一级中心(Tier-1)。LCG有大约10个Tier-1。其中台湾有一个。CERN是唯一一个Tier-0,保存了所有的原始数据(RAW)。

有时间我写个详细一些地介绍,如果大家有兴趣。

全看分页树展 · 主题 跟帖


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河