接着还有第四维:时间。气象模型如果是静态的,可不见得就是好事,因为我们想要了解的恰恰是天气的动态变化过程。暴风雨的移动速度约为每小时64公里:如果是在一个40×40×40的三维网格中,就需要每小时观测一次,进而监控暴风雨的移动;但是,如果三维网格是20×20×20,那么暴风雨每半个小时就会穿过其中的一个区域。这就意味着,如果时间参数减半,计算量就会增加到原先的16倍。如下图所示。
如果这是唯一的问题,它不会成为气象预报准确性提升的障碍。一般来说,若想要让单位研究区域的分辨率翻倍,那么你需要掌握16倍于原先的运算能力,而运算能力会以每两年增加一倍的速度不断提高。也就是说,只需等待8年,得到的预测就会比原先准确一倍。顺便提一下,美国国家大气研究中心的超级计算机已经达到这个运算速度了。
如果你解决了控制天气系统运动的流体动力学法则问题,会怎样呢?相对来说,这些属于牛顿学说的范畴。“测不准原理”对物理学家而言乐趣无穷,对你而言也算不上什么烦恼。你拥有蓝火这样最先进的设备,雇用了理查德·罗夫特为你设计计算机软件并进行模拟实验,还会有什么问题吗?
混沌理论与蝴蝶效应
出问题的是什么呢?是混沌理论。你可能听说过蝴蝶效应:巴西的蝴蝶扇扇翅膀,就掀起了得克萨斯州的龙卷风。混沌理论是麻省理工学院的爱德华·洛伦兹在1972年发表的一篇论文的题目,当时,洛伦兹刚刚开始做气象师的工作。适用混沌理论的系统,常有以下两个特性:
1. 该系统是动态的,这就意味着当前某一个时间点发生的动作会影响未来的动作。
2. 该系统是非线性的,这就意味着其会呈指数型增长而非加法累积。
动态系统给预测者们带来了大量问题,例如,我在本书后文中会提到一件事,美国经济持续发展的连锁反应事件,正是其难以预测的原因之一。非线性系统也是一样,抵押证券引起的金融危机就是这样一个例证,宏观经济中的微小变化极有可能导致严重的后果。
如果把这些特性放在一起,简直就是一团糟。洛伦兹一直没有意识到这些问题的严重性,他的重大发现只是出于偶然,就好像亚历山大·弗莱明意外发现了青霉素、纽约尼克队出现了林书豪一样。
洛伦兹和他的团队早期用一台名叫皇家麦克比LGP–30的计算机制作了一套气象预报程序,他们本以为会有所收获,可计算机后来却给出了很多稀奇古怪的结果。他们使用自认为完全相同的数据和完全相同的操作代码,但这套程序给出的堪萨斯州的气象预报却一会儿晴一会儿阴,每测一次出现一个结果。
经过几周反复的硬件检查和程序调试,洛伦兹和他的团队最终发现,他们使用的数据实际上并不完全相同:一位技术员把数据精确到了小数点后三位。比如,网格中某一角上的气压本该是29.516 8,却被写成了29.517。这怎么可能不造成巨大的差别呢?
洛伦兹认识到小数点后的数字保留情况会造成巨大的差距。混沌理论最基本的信条是,初始条件的一丁点儿变化,比如巴西的蝴蝶扇动翅膀就会产生巨大的、无法预料的各种结果,会引发得克萨斯州的龙卷风。但这并不是说这一系统就像它的名字“混沌”的含义那样随机,“混沌理论”也不是“墨菲定律”(该出的错总要出)的现代版本,它只是意味着,某些类型的系统很难预测。
我们的数据中一旦出现错误(或者假设中出现错误,如抵押贷款证券的例子),问题就会随之而来。想象一下,我们本该计算5加5,可是键入第二个数字时出错了,变成了5加6,我们本来想得出的结果是10,现在结果却成了11,这必然会出错,但错得还不算离谱:加法是线性运算,不会出现让人无法原谅的错误。而如果指数运算出现错误,后果就会非常严重。如果本该计算55,却误写成56,那得到的结果就从原来的3 215变成了15 625,这样就错得太离谱了,几乎是正确答案的5倍。
如果这个计算过程是动态的,就意味着我们在整个过程中的某一个阶段的输出会成为下一个阶段的输入,结果的不准确性就会更加严重。比如说我们要算5的5次方,然后对得到的结果再进行5次方运算。如果犯了上述错误,把第一个5次方错写成6次方,又把错误结果应用到后面的计算,这样一来,得出的结果就会是应得结果的3 000多倍。一个小小的,甚至看似微小的错误,就这样越错越离谱了。
天气变化是动态系统的一个缩影,反映大气层里气体和液体运动的不同方程式是非线性的。因此,混沌理论绝对适用于气象预报,但也使气象预报更容易受信息不准确性的影响。
有时,错误的产生是人为的结果。更为重要的问题是,在我们观察周围事物时,精确程度是有限的。没有哪个温度计是准确无误的,就连小数点后保留位数的不确定都会对预测造成严重的影响。
图4–2展示的是欧洲天气模型的50轮预测结果,该模型试图预测法国和德国在1999年平安夜的天气状况。所有这些模拟操作使用的都是同一款软件,做出的天气假设也是相同的。实际上,这些模型完全是决定论的:他们认为,只要非常清楚初始条件,就一定能非常准确地预测出天气状况。但是,输入信息的一丁点儿变化就会造成输出信息的巨大差异。欧洲天气预测模型曾经试图解释这些错误。在模拟操作中,汉诺威市的气压也许只作了微调,斯图加特市的风力也许只变更了零点几,这些微小的变化都足以引发巴黎的强风暴,而其他地区可能仍是平静的冬夜。
这就是现代气象预报的制作过程,人们有意加入这些微小的变化以代表观测数据内在的不确定性,这样就可以将一个必然性的预报变成了或然性的。比如,当地气象预报员说,明天有40%的概率会下雨,意思是说,在他的模拟操作中,有40%的概率会下雨,有60%的概率不会下雨。
然而,问题并没有那么简单。气象学家使用的气象预报程序相当不错,但也并非尽善尽美。我们实际看到的预测反映的是计算机和人工判断相结合的结果。人类可以使计算机预测得更好,也可以使计算机预测得更糟。
视觉化预测与抽象化预测
世界天气和气候预测大楼是典型的20世纪70年代建造的办公楼,造型很一般,外观是黄褐色的,位于马里兰州的坎普泉,距离华盛顿有20分钟路程。这座大楼是美国国家海洋和大气管理局(NOAA)的指挥总部,在政府组织关系表中,NOAA是国家气象局(NWS)的上级单位。相比之下,位于博尔德的国家大气研究中心(NCAR)则可以使人们饱览落基山弗兰特岭地区的景观,而世界天气和气候预测大楼给人的印象不过是一个官僚机构。
美国国家气象局最初是在1870年由格兰特总统授权,由战备部组建的。之所以由战备部组建,一部分原因是因为格兰特总统相信,只有保持军事纪律的作风,才能保证预测的精准,而另一部分原因是,当时的整个战备部都死气沉沉的,只有在竭力取胜的战争时期才有存在的价值。
1888年1月发生“校舍暴风雪”事件之后,公众开始更多地关注气象预报问题。那年1月12日,起初还算是大平原地区相对温暖的气温,可几个小时之后,气温骤降30摄氏度,紧接着,让人眼晕的暴风雪骤起。数以百计的学生刚刚放学就被暴风雪困住,冻死在回家的路上。早期的气象预报如此粗糙,但对于这种严酷的天气情况,人们还是期望气象预报至少能提供一些预警。于是,美国国家气象局被划归农业部管辖,接手一些面向大众的任务。
现在的美国国家气象局仍保留着最初的职能,预测者夜以继日地工作,薪水却不高,因此预测者自称“人民公仆”。我在坎普泉见到的气象学家都是爱国主义者,他们总会让我由衷地认为,农业、小商业、航空公司、能源部门、军事、公共服务、高尔夫球场、郊游野餐以至上学的小学生之所以能够一直保持这样生龙活虎的运行状态,气象预报起到了重要作用,预测者更是劳苦功高(尽管美国国家气象局对国民经济会产生20%的直接影响,但每年得到的经费却只有9亿美元,相当于每个美国市民付出3美元)。
我见过的气象学家中,有一位名叫吉姆·呼克,是美国国家气象局水文气象预报中心的主管。他在这一领域工作了35年,既负责计算方面的工作(协助建立预测者使用的计算机模型),也负责操作方面的工作(做出预测并把预测结果公之于众)。对于人类和机器如何探索气象领域,他有着独特的见解。
与能够进行每秒77兆次浮点运算的计算机相比,人类究竟哪点做得好呢?答案是,人类能够看得见。呼克让我站上预测台,预测台是由一系列工作站组成的,工作站上悬挂着许多蓝色标牌,上面配有海事预报中心和国家中心等机构的传奇故事。每个工作站由一两名气象员进行操作,配有一套平板屏幕显示器,显示器上的彩色地图展示了美国每个角落的各种天气数据类型。预测者工作的时候,悄然无声却又动作迅捷,有一种类似格兰特军队的精确作战风范。
有些预测者用光笔在这些地图上做标记,仔细地校准计算机模型给出的温度梯度的轮廓,向西跨越密西西比三角洲约24公里,向北覆盖伊利运河约48公里,离他们期望中的那份近乎完美的气象图更近了一步。
预测者知道计算机模型的纰漏。这些纰漏不可避免,因为这是混沌理论影响的结果。即使是模型中最微小的漏洞,也可能造成潜在的深远影响。比如,当普吉特海湾出现低压系统时,计算机对西雅图夜间大雨的预测也许会过于保守;当缅因州的阿卡迪亚国家公园出现大雾时,如果大风朝着某一个方向吹,黎明时大雾就会散去,可是如果风来自另外一个方向,那么雾需要一个上午才能消散,计算机也许预测不到这一点。这些经验都是预测者在试图对付计算机模型中的纰漏的过程中逐渐积累起来的,这就好比技艺高超的台球选手能把台球桌上死角位置的球,调整到顺应自己球杆的位置。
这些气象预报员运用的独特资源,就是他们的视觉。对所有学科的预测人员而言,视觉都是十分有用的工具。对显示两个变量互相作用的图表进行目视检查,通常能比统计测试更快捷、可靠地检测出数据中的异常值。这也是计算机远远落后于人脑的地方之一。若对一串字母稍加变形——就像用于垃圾邮件拦截或是密码保护的验证码技术一样——“聪明透顶”的计算机也会被迷惑。计算机缺乏想象力,哪怕对操作稍作变动,它就无法识别图案,而人类经过必要的进化,拥有十分强大的视觉皮质,能够快速识别任何数据变化,辨认出抽象的图案或组织。在不同类型的天气系统中,抽象的特质恰恰非常重要。
其实,在气象计算机作用不大的过去,气象预报几乎完全依靠视觉判断。那时候没有平板屏幕,气象办公室里有的只是一排排的看板台和照明地图,气象员用白垩笔和绘图铅笔在上面做记号,一次只能预测出方圆24公里的天气情况。尽管看板台在许多年前就被淘汰了,可这项技术所需要的一丝不苟的精神却一直延续至今。
呼克解释道,最好的预测者在进行视觉化和抽象化思考的同时,还要能够整理计算机提供的大量信息。另外,对于所研究的系统,他们还必须理解其动态和非线性的属性,这并非易事,需要充分调动左右脑的功能。呼克手下的许多预测者本来都能加入高级工程师或软件设计师这类高收入群体,可他们却选择了从事气象工作。
美国国家气象局保存着两类图书:一类展示了计算机的风采,另一类展示了人类的贡献。根据该机构的数据来看,在单独由计算机指导完成对降雨和温度的预测后,人类还能将其精确度分别提高约25%和10%。另外,据呼克说,多年来这些数据一直保持着平稳态势:尽管计算机技术取得了长足进步,但他手下的那些预测者仍不断为其添彩,视觉判断功不可没。
被雷电击中的概率越来越小了
20世纪70年代中期,呼克开始了从事气象预报工作的职业生涯,那时关于气象预报的玩笑话其实还是有些道理的。比如,一般来说,国家气象局在3天前做出的气象预报,难免会将高温报高或报低6摄氏度(见图4–4)。如果我们自己去查长期的天气变化表,得出的结论也差不多是这样。好在人机合作带来了很多好处,现在的平均误差是3.5摄氏度,降低了将近一半。
气象预报员对恶劣天气的预测也越来越准确了。你知道遭雷击致死的概率是多少吗?实际上,这并不是一个常数,是否在雷雨天气出门,或是在气象预报不准时能否及时避雨,这些都会影响遭雷击的概率。1940年,美国人遭雷击死亡的概率是1/400 000,今天,这一概率只有1/11 000 000,概率下降了近3000%。这一变化一方面反映出我们生活方式的改变(我们的室内工作越来越多)以及通信技术、医疗保健水平的改善,另一方面也得益于越来越准确的气象预报。
给人印象最深刻的进步大概就是飓风预测了。25年前,美国国家飓风中心提前3天预测飓风登陆的位置时,平均误差将近563公里,对于人类来说,这种预测毫无意义。比如,以新奥尔良为圆心以563公里为半径向外扩散,涉及的地区包括休斯敦、得克萨斯、塔拉哈西和佛罗里达(见图4–5),而我们根本无法疏散这么大区域的居民。
现在的平均误差只有约161公里,覆盖的区域只有路易斯安那东南部和密西西比南部的一小片地区。虽然飓风仍会在某一个时间到达这一区域以外的地区,但我们现在关注的区域相对较小,预测的效果也能相对好些,足以提前72个小时疏散那里的居民。1985年,对飓风登陆时间的预测只能提前24个小时,与之相比,现在在风暴来袭之前,我们有近48个小时的预警时间,对于新奥尔良这样的城市,疏散工作到后期,时间就越显得宝贵。
美国国家气象局没有否定拉普拉斯的恶魔,你可能会认为他们应该得到的赞誉比实际得到的要多。尽管复杂多变的天气系统对预测构成了巨大挑战,但气象预报科学仍然大有斩获。读完本书你会发现,在进行预测时,这样的成功案例更多的是例外,而非规律。(还是把你的玩笑话留给那些经济学家吧。)