|
现代天气预报与高性能计算机
—李泽椿院士等专家谈
2000/8/28
编者按:1999年国家气象中心安装了神威、银河-ⅢE和IBM SP等高性能计算机,当年就分别应用于数值预报技术开发和业务、科学试验和研究等方面。2000年7月25日高性能计算机应用中心在国家气象中心揭牌。在世界上高性能计算机已经广泛地应用于能源部门(例如核工业和试验、石油工业)、生物(基因、药物的研究合成)及气象等。本网站请以李泽椿院士为首的专家谈当今的天气预报与高性能计算机技术的发展。他们认为:当前世界上计算技术迅猛发展,气象科学应当适应这种发展潮流,特别是数值天气预报(或模拟)应当利用大规模并行计算技术,在物理过程“复杂化”和分辨率提高上下工夫,使预报精度和模拟水平迅速提高。目前并行计算用于气象上困难很多,应加强并行算法的研究和培养既懂气象又精于并行算法的人才。
并行计算机在数值预报领域中的应用
李泽椿 施培量 朱宗申 陈德辉 金之雁
(国家气象中心)
现代科学的发展是依靠三种重要手段,理论研究、科学实验与计算技术,三者的融合导致现代科学迅速发展。而计算技术的发展导致了理论研究的深入和科学实验速度的加快、成本降低。计算技术这些年来发展迅速,它包括计算机系统和计算方法。许多行业应用了先进的计算技术取得了许多突出的成果,气象科技最近一些年的发展也是紧密和计算技术相关的。大气科学的理论研究者、广大的气象业务人员应当看清这种潮流方向。。
1. 高性能计算机迅猛发展
计算机的发展是迅猛的,其运算速度30多年来提高了6个量级,每秒达到万亿次。特别是在有大量的不断升级的微机、工作站外又出现了高性能的计算机。高性能计算机(HPC)是指在计算速度、存储容量和访问带宽及连网速率等主要指标上处于领先地位的计算机,它总是相对于同一时期的其他计算机性能而言。在目前阶段是:
计算速度 Gflops(Giga)十亿次/秒
Tflops(Tera)万亿次/秒
内存容量 GB级 访问速度极高
外存 102—103GB高性能
连网速率102—103MB/S,10GB/S的HPC即将面市。
HPC的发展大致经历了三个主要阶段,1976年以前以标量技术为主,如IBM和CDC公司的大型机;1976年开始出现向量处理机,如CRAY-1;1984年开始有向量多处理机(PVP),如CRAY XMP,到了1990年开始从传统的高性能计算机向大规模并行处理机发展,其代表为CM-2 SP2等。目前全球性能最高的前500台计算机全是并行机。
2. 发达国家的气象部门大量使用HPC
由于气象科学本质上是实验性科学,由于无法建造“真实大气实验室”,只能以“模式大气”替代“真实大气”,因此,数值模式就成了大气科学的重要实验手段,而数值模式的研究与业务应用离不开计算机。到2000年6月一些国家和地区的国家气象中心拥有计算机情况及应用模式见表1。
表1 全球主要气象中心高性能计算机性能对比表(2000年6月)
TOP500名次
用户名
处理器数
峰值速度
(GFLOPS)
厂 商
型 号
模式(全球、区域)
15
德国
812
974.4
Cray Inc.
T3E1200
GME、LM
18
英国
876
788.4
Cray Inc.
T3E900
UM
37
美国NCEP
768
614
IBM
SP Power3
200 MHz
MRF(T170)、ETA
38
ECMWF
38
364.8
Fujitsu
VPP5000/38
IFS(TL319L60)
53
日本
36
288
Hitachi
SR8000/36
GSM(T213)、RSM
57
加拿大
32
256
NEC
SX-5/32M2
GEM
73
韩国
24
192
NEC
SX-5/24M2
GSM(T213)
91
台湾
气象局
15
144
Fujitsu
VPP5000/15
98
澳大利亚
16
128
NEC
SX-5/16A
GDAPS
121
新西兰
132
158.4
Cray Inc.
T3E1200
257
法国
26
62.4
Fujitsu
VPP700/26E
ARPEGE/ALADIN
287
中国
80
71
IBM
SP Power3
222 MHz
T213L31
由上表可知,目前发展应用高性能计算机是一趋势,是由需求和所取得的效果所决定的。
3. 大气科学前沿学科的深入发展必须充分注意高性能计算机的使用
高性能计算机在许多领域中的应用已取得非常好的效果,如能源(核,石油)、药物合成等等。气象领域中往往应用数值模式,并进行模拟试验,这就涉及了物理过程的设计与计算精度的选择,特别应用于实时业务预报时需要时效性,高速正确计算更非常必要。对数值天气预报,要进一步提高预报的准确性,当前必须减小计算格点距离(提高分辨率)和使物理过程复杂化,前者格距减小计算量成几何级数增加,后者计算量也随之增加,其计算量级占总体的计算量30~50%。例如国家气象中心的HLAFS模式(见表2)。
表2 HLAFS模式(50公里格距)IBM/SP2 CPU时间测算
试验
干模式
大尺度凝结降水
“复杂”降水过程
新辐射方案
CPU时间
3.35小时
8.586小时
12.02小时
12.7小时
4. 高性能计算机在数值预报领域中应用方式与难度
数值天气预报要不断提高水平,很大程度上依靠高性能计算机的发展应用。这是因为提高水平是要采取分辨率的提高与物理过程的改进并重,由此而产生的计算量猛增。当前仅从分辨率的提高也能提高预报精度,如近两年北京市气象局运用水平分辨率为5公里及15公里的中尺度模式的预报结果加上预报员的订正,在北京市一些极端天气事件的气象保障服务中(如1999年的盛夏40°C高温, 10月1日50周年国庆阅兵游行降雨的停止时间,2000年4月6日北京沙尘出现时间等),都取得到很好的预报效果。
并行计算机可分为共享内存和分布式内存并行计算机两种,相应的并行程序与并行方式也分为共享与分布式内存两种,二者区别在于对内存的访问方式不同,在并行程序的设计与编程方式上也截然不同。
共享内存方式可以在原串行程序基础上加进一些并行指导语句改造而成,可以逐段进行并行化改造,但是受到共享内存的限制并行度一般不会太大。分布式内存并行计算过程贯穿于程序运行的全过程,并行度可达成百上千个CPU。但由于并行度高,很少一部分哪怕只有0.1%的串行计算都会形成瓶颈从而大幅度地降低并行效率(见表3),因此对它必须从解决数学、物理问题的并行算法入手,将模式完全并行化难度就更大。
表3 不同串行计算的百分率时的理想加速比CN为并行的CPU数
S
N
1%
0.1%
0.01%
10
9.17
9.91
9.99
100
50.25
90.99
99.01
1000
90.99
500.25
909.2
数值预报模式主要有谱模式和差分格点模式,由于他们的计算方法不同,并行处理的方式也不一样。
谱模式需要在球体上进行格点到谱空间的转换,所以每一个点都与全球所有点的数据相关,这就引起在分布式内存计算机上进行并行的困难。但是模式计算过程中各个阶段数据的相关性是不同的,即在格点计算、富立叶变换、Legendre变换和谱计算的各阶段中,其数据相关有一定规律,在各个阶段内将有相关的数据放在同一处理机上,不需要通信,而在阶段之间数据需要在各个节点之间重新分配。这种分配事实上是矩阵的转置过程,也称之转置并行法。另外,模式通过采用不规则分区,重新排列谱系数等技术方法解决负载平衡问题。
差分格点模式采用了区域分解方法实现并行化,即将预报区划分成多个子区域,每一个节点负责一个子区域的计算,在子区域之间和多重嵌套区域之间的相互联系用消息传递的方法实现。
上述二种方式的并行计算在国家气象中心SP和神威机上都进行过试验,并能够满足业务的时限要求。
初值形成是数值天气预报的重要组成部分,现在形成初值的基本方法是四维同化技术,当前普遍认为最有前景的是四维变分同化方法。同化的最好方式是采用与预报模式一致的同化模式,因此计算非常大,亦要用并行计算。同化中的并行计算已用于我国的业务中,如建立(SP机和神威机上)中尺度同化预报系统,HLAFS和全球T106L19资料同化系统,目前正在试验新一代变分同化方案。
国家气候中心和国家气象中心也将并行计算用于短期气候预测和集合预报上,也取得了很好的效果。
5. 结束语
并行计算在气象领域的应用不仅非常必要,而且有着广阔的应用前景。它能使我们跳出以前仅在工作站、微机和一般大型机上进行业务和研究的格局,使工作模式不是简化物理过程的模式,而是可以逐步发展采用更逼近真实大气复杂物理过程的模式。
在我国已具有这种条件,即对并行计算用于数值预报有了相当的经验基础,同时也具备一定的物质基础可见下表
表4 中国气象局拥有国内最高性能的并行机群
机器名
安装时间
峰值计算性能
处理器数
主要用途
IBMSP2
1995
85亿次/秒
32
研究、试验
曙光1000A
1997
36亿次/秒
9
气候模式研究
神威
1999
3840亿次/秒
384
研究、试验
银河-ⅢE
1999
200亿次/秒
17
数值预报开发和
业务备份
IBM SP
1999
710亿次/秒
80
数值预报业务
当前,我们应用在现有的基础上创造好环境,用好已有的设备,充分发挥其作用,同时也要重视对人才的需求,培养出一批既懂气象应用问题又懂得并行计算的高级人才。
|
|