APP下载

“东数西算”趋势下的气象算力网络和算力服务体系架构

2022-10-27杨昕沈文海

数据与计算发展前沿 2022年5期
关键词:算力数据中心气象

杨昕,沈文海

国家气象信息中心,北京 100081

引言

全国一体化大数据中心体系总体布局设计的完成,对于信息系统的设计实现及其所支撑的业务都具有重要意义。通过这种体系结构,社会经济、人力、基础设施等资源进一步整合与集约化,为充分发挥资源利用效率奠定了理论基础,而“东数西算”的策略,把效率提升和绿色节能有机结合,将资源利用水平推向了新的高度。[1]

气象业务是高度信息化和特性化的业务。在气象业务体系中存在一部分和其他行业类似的业务模式,但也具有非常鲜明的个性化的业务特性,与其他行业相比有明显的差异。例如处于核心地位的数值预报业务,需要极强的高性能算力支持,属于典型的“极限计算”应用[2],在常规行业中很难找到可复用的需求和解决方案;而气象数据在种类、使用方式的高度复杂性、应用时效等方面的个性化特征,以及其体积的巨大,使得气象大数据与气象高性能计算资源之间至今无法实现物理空间上的远距离分离。“东数西算”的资源布局趋势,对气象业务信息系统在设计实现和发展演进中提出了巨大的挑战,而气象行业及其业务自身的特殊性,使得气象部门对其业务及科研强烈依赖的算力、存储、通信等基础资源及其个性化的服务有着特殊的需求。

1 算力资源概述

1.1 算力体系结构

“算力体系结构”是指“算力网络和服务”的体系结构,并简称为“算力架构”。而这里所说的“算力网络和服务”也可简称为算力资源,它至少包含运算、存储、网络传输以及向用户提供前三者优质服务等四部分能力,是目前云计算、大数据时代信息系统的基础资源能力。

“算力体系结构”的核心组件包括基础设施、管理和业务应用三个层面。基础设施层面包括数据中心(包括计算中心)、高性能宽带网(跨城市、跨区域)等;管理层面主要是基础设施及IT 资源控制与调度;业务应用层面包含应用研发、部署、运行、优化改进与迭代等全生命周期管理。

1.2 “算力体系结构”的关键特性

依笔者观点,“算力体系结构”可包含以下关键特性。

1.2.1 服务驱动

数据中心内部除硬件设施外,其它各层次组件均应以服务的形式提供和使用,包括基础资源的使用、分配和管理。被广泛应用的服务模型框架有“IaaS”(Infrastructure as a service)、“PaaS”(Platform as a Service)、“SaaS”(Software as a Service)等[3],然而在当今的云生态中,“Service”的层次类型众多,它们一起构成了应用运行生存的软件环境。充分利用这些服务应该是业务应用及管理过程中获取并使用算力资源的主要方式。

1.2.2 异构化

任何数据中心节点中都会运行数量庞大且类型各异的应用服务,同构化的平台虽然在管理上相对简单,但面对业务应用的复杂性和差异性,其总体效率通常很难达到应有水平。因此,针对性地构建异构资源及平台服务是数据中心建设的一个基本原则。异构化管理的核心任务是根据需求恰当匹配支撑技术、精准构建对应的资源和服务、平衡控制利用资源,促进总体效率达到最优。

1.2.3 自动化和流水线式机制

新型算力架构在“服务生态”的支持下可以在更低的成本条件下实现高水平的自动化。无论是资源管控还是应用流程,各业务环节均可根据既定的配置策略自动编排,以流水线的方式紧密衔接,最大程度避免因不必要的人工手动处理而引起的实效延迟。

1.2.4 控制调度智能化

从“一体化大数据中心”到各数据中心节点,以至于深入到各资源管控或业务流程,都将是在智能化调度的控制范围之内。智能化的控制调度是在人的掌控之下,系统能够根据历史积累状态信息形成特定的认知,然后结合当前情况做出最新判断,动态调整必要的策略,从而在后续控制调度中能够达到全局最优化的效果。

1.2.5 全局一体化

东部数据到西部进行计算和处理将必然涉及到数据在不同数据中心节点之间的通信传输以及计算和储存资源的分配调度。从全局一体化的视角出发,各节点间统一协调的资源调度有利于在多数据中心节点之间总体资源的优化,避免数据中心之间的资源失衡和浪费。

要实现全局一体化,必须把“控制调度”提升到各数据中心节点之上的高度。

1.2.6 先进通信能力

数据在不同数据中心节点间的流动,以及业务在数据中心节点间切换导致的信息迁移,都需要稳定高效和高速的网络支持。东数西算的运行模式对网络,尤其是数据中心节点间的网络通信能力提出更高的要求,包括网络带宽、网络延迟等物理特性。但更为重要的是对网络配置的动态灵活的管控能力,应能够根据全网实际运行状态和业务需求快速响应和变更,结合并融入“智能化控制调度”能力,从网络层面赋能全局效率最优。

1.2.7 深度安全可控

信息安全是数据中心和系统的正常运行的最基本保障。在传统信息网络安全防护能力的基础上,“算力架构”需要进一步提升安全相关的监督能力和自主的、自动化的防范能力,对潜在的安全风险主动预判和示警。

1.2.8 动态可持续发展能力

业务需求和IT 技术的革新、资源和设备的老旧和更替,以及它们所引发的应用层加速更新的要求,均为系统演进过程中的常态化现象。因此,项目模式下的相对静态的建设和维护方式越来越不能适应当前相对动态变更的常态需求。“算力架构”中的系统必然应不断加强自身的“动态可持续发展能力”,在人为控制范围内,自主地或自动化地执行资源及应用的更替。

2 气象行业的特殊性和“气象算力架构”

从上世纪70 年代至今,气象行业应用电子计算机系统已有50 多年历史,气象业务长期应用并严重依赖信息技术,可以说气象业务主体上就是信息业务。但信息系统体系结构对业务系统的主导和支持作用只是在近20 年左右的时间才逐步体现和发展的。

2004 年“国家级气象资料存储检索系统”的建立[4],初步确立了一个以数据存储为核心的气象数据综合管理的业务架构,把数据的收集、存储、服务等关键功能在国家级层面整合到一起。

从2008 年至2014 年期间中国气象局建立了“全国综合气象信息共享系统”(CIMISS)[5]。CIMISS不但在气象行业内构建了一个相对完备的业务架构,包括数据收集分发、加工处理、存储管理、共享服务、业务监控等功能,涵盖了除HPC 之外的全部核心业务流程,而且利用当时最为成熟的SOA 等理念建立了与业务匹配的多层次信息系统体系结构,形成了一个面向服务的大型分布式数据管理系统,并且在全国范围内从国家级到所有省级单位实现了核心业务系统架构的统一布局和业务应用的统一部署。目前气象业务的算力架构在CIMISS 基础上继续发展,但架构范围仍主要局限于单个数据中心内部。从发展的视角来看,全国气象系统也必然会形成从国家级到各省级多数据中心一体化的格局,这与“东数西算”的全国一体化大数据中心体系的思路是一致的。

“算力体系结构”在气象行业的应用中具备一定的特殊性。首先,数值预报对算力资源有着特殊的需求,主要体现在大规模高密度浮点运算能力和计算节点间高性能紧耦合通信能力等方面,因此高性能计算支撑能力必不可少。第二,气象数据资料类型复杂、种类多样、数据收集、处理、存储和应用等各个环节的数据量巨大、时效要求高,从而导致气象数据资源与高性能计算资源之间的高速、高效、高可靠性等的个性化需求。第三,各类气象业务应用,主体上具有高强度数据IO 密集型的特性,对存储和通信资源及其支撑能力要求较为苛刻。

高性能计算、常规计算和数据分析处理在资源和应用方式等层面虽然存在较大差异,但业务应用的流程是需要总体贯通的,在控制调度上必须以“一体化”的视角将三者紧密衔接。

因此,“东数西算”背景下气象部门的“算力体系结构”,主要包含“超级计算能力”、“常规通用计算能力”、“超级数据处理能力”、“超级通信传输能力”和“全局控制调度能力”这五个部分,可简称之为“超常算数通”。其核心思想是以“超级计算能力”支撑数值预报等核心气象业务;以“常规通用计算能力”支撑气象各单位常规型业务应用;以“超级数据处理能力”支撑大规模数据处理和存储以及数值预报周边的所有辅助型业务;以“超级通信传输能力”实现“东数西算”中数据在东西数据中心节点间以及数据中心内部稳定高速流动传输;以“全局控制调度能力”驱动各类应用在一体化资源体系中高效运转。

这一体系结构纵向可分为3 层,如图1 所示。“异构基础资源”层由“计算”、“存储”、“网络”三类物理资源构成,各类型资源分别包括多种不同形式和特性的物理设备。控制调度负责对它们在硬件层面进行分类分组管理。设备的新老更替等资源变更信息需要在本层体现和维护。

图1 气象算力体系结构Fig.1 Meteorological computing power architecture

“异构基础资源”层之上是“资源管理分配”层,它对底层的异构基础资源进行抽取和组合,构建形成应用可以使用的“物理资源池”或“虚拟化资源池”。当资源使用完毕,调度控制可根据策略回收闲置资源以备其他应用使用。容器类的计算资源通常生命周期相对最短,其回收再分配的频度较高。

最上层的“应用和服务”层涵盖气象行业内各类应用。“全局调度控制”功能将根据不同应用的类型与特性在“异构基础资源”层选择恰当的物理资源,做到刚好满足应用要求,然后组合封装,形成一个完全满足应用需求且资源最小化的“资源套件”,提供给应用。资源选择、获取和构建过程以自动化的调度分配方式为主。例如图1 中的“HPC 集群-1”运行的应用为数值预报(NWP)并行模式,需要“CPU+GPU”的计算能力、Infiniband 通信网络以及高吞吐能力的大容量存储资源;而“数据-业务-2”的任务是快速处理大规模小文件,然后合并归档到磁带库中,需要高速网络、高IOPS 的存储和磁带库等设备共同支撑。

在“全国一体化大数据中心体系”中,多数据中心之间的通信和调度控制都需要通过各数据中心节点内部的“全局控制调度”功能实现。为了做到全局一致性,还需要选择并确定其中的一个“全局控制调度”作为总控。总控角色可以根据运行状态的变化而在不同数据中心之间切换。

3 关键技术领域

实现气象“算力体系结构”构想既要充分利用和挖掘成熟技术,又要顺应和兼顾前沿发展趋势。在构建“超常算数通”这一架构的过程中,需要重点关注以下关键技术领域:

3.1 资源分配技术

计算、存储和网络是3 个相对永恒存在的核心基础IT 资源。对于性能需求高的应用,通常为他们直接分配物理资源,以避免虚拟化产生的性能损耗;对于常规型业务,通常为其分配虚拟化之后的资源,以最大化应用系统效率。这都需要利用“IaaS”以及“PaaS”等云计算模型。

资源的分配必须是精准的且灵活可控的。对于已分配资源实际状态的误判将导致系统内总体存在大量被占用的闲置的或“虚假繁忙”的资源,这将严重拉低系统资源总体利用效率。因此,系统必须具备对已分配资源全方位掌控,以及快速回收和再分配的能力。

在气象算力体系结构中,超级计算,即高性能计算(HPC)部分,由于其支撑的主体业务仍为耦合度较高的并行数值预报模式,属于典型的高性能科学计算需求的业务,因此,这部分计算资源将仍以传统物理计算节点方式为主进行管理和分配(如图1 中“HPC 集群-1”),针对此类型业务的时效性、持续性和稳定性等需求的特殊性,系统通常在较长时间内保持这一资源可用状态,不进行回收;而对于常规通用计算(如图1 中“HPC 集群-2”)以及数据处理(如图1 中“数据处理集群-2”)等其他业务,则可采用虚拟化资源的提供方式。但在应用对资源有特殊需求的情况下,还需要支持物理资源和虚拟资源相结合的方式提供资源供给。由于气象业务环境需要物理资源和虚拟化资源同时存在,因此,基础资源管理需要具备更为精细化和智能化的控制调度能力。

资源分配技术将会把HPC 和常规计算这两大类需求的应用模式作为一个整体统筹调度,采用自动化的方式,根据策略对计算、存储和网络等IT 资源进行动态创建、扩展或回收,其实现方式可参考“Infrastructure as Code”(IaC)等相关技术。计算资源的分配粒度应支持物理机、虚拟机(VM)和容器(Container);存储资源支持至少应包括“Block”、“Object”和“File”等类型;而对于网络资源,应能够结合利用“Software Defined Networking”(SDN)等技术,根据不同应用或服务对网络资源的具体需求,快速、灵活、动态地分配对应的实体或虚拟的网络资源。

对于多种气象核心业务,存储资源的应用配置方式是一个决定运行效率的关键因素。一方面,气象数据总量巨大,无论是单位时间采集量,数据收集处理的量,还是存储和服务量都已到达PB 至EB 量级;另一方面,由于气象自身业务特性等原因,例如文件数量巨大、存储形式复杂多样等,都导致数据处理速度和数据服务质量面临严峻挑战。这些因素要求存储资源具备“海量高性能存储”和“高IO 服务能力”。存储资源的分配除了在基本的“Infrastructure”层面提供必要支持服务外,还必须在其上的“Platform”层进一步提供“PaaS”的优化服务,例如:数据库、文件系统、中间件等,其中文件系统的能力尤为关键。对于IOPS 密集型业务,需要能实现为其分配的基础物理资源和平台服务两方面都能达到高可用、高性能、低延迟的要求。

原则上,各数据中心节点内外相关的物理资源和设备均在“IaaS”管控范围内,这为资源的智能化、自动化管控和分配奠定基础。虽然HPC 需求决定了其对资源使用的特殊性,不易实现完全的自动化管理,但其对物理资源的这类特有需求仍然可以借助于“IaaS”和“IaC”等技术而获得更为优化且高效率的满足。

数值预报的业务与科研的高性能计算应用对算力资源的“饥渴”状态是一种出现频率较高的常态现象。由于HPC 系统从采购到退役下线的生命周期较长(一般从5 年至10 年不等),在此周期的中期阶段,算力资源不足的情况通常开始显现,而传统的项目建设速度很难在短期内解决业务应用对资源需求的问题。但通过现代资源分配技术,一方面可以实现对现有系统的持续扩展,另一方面也可以利用数据中心其他算力资源临时构建“准HPC”系统,以满足紧急业务需求。

3.2 控制调度技术

控制调度技术广泛应用于HPC 以及常规业务应用环境中,其目的是充分发挥和利用有限资源,最大化提高应用效率。在当前的云计算时代,涌现出相当数量的细粒度控制调度技术框架,进一步提升了资源利用率以及应用效率。

然而“东数西算”概念下算力与数据在物理空间上的分离,给气象业务提出了新的挑战。为此,需要在常规控制调度技术的基础上进一步发展出一套有能力跨越多数据中心的“云际”(Inter-Cloud)控制调度框架,从而在东西数据中心节点间实现必要的协调和监管,最终在“混合云”的一体化大数据中心体系中实现全局资源利用最优的效果。

控制调度借助于监控技术,对各数据中心节点的物理资源、应用状态、系统负载等拥有一个动态的全局视图,能够针对业务策略和目标智能选择优化算法,对资源或应用在多数据中心节点间进行编排和调度,从而达到全局最优的目的。

在全局统一视图、服务生态和应用自身的配合之下,传统的高可用、灾难备份、异地切换等业务功能演变为一套全新的实现方式,且都将变得更为便捷和高效。控制调度能够区分出应用实例的属性为业务或科研、主业务(Master)或是从业务(Slave),并以此为基础按照既定的业务逻辑策略执行调度。

3.3 流式(Stream)技术

“流”在云环境中普遍存在,主要包括事件流和数据流这两种形式,流式技术目前是自动化调度和业务高效运转的核心支撑组件。“东数西算”下的气象业务,将原始数据从东部数据中心推送至西部算力中心,并将数据计算和处理结果从西部返回到东部。流式技术能以高效的方式实现数据信息往来传输,在应用层面降低组件之间衔接或相互调用产生的延迟,保障数据通信的时效性和传输效率。在计算中心内部,流式技术同样可用于支持数值预报的HPC 系统和周边数据处理系统之间的高效通信与平滑衔接。

和流式技术相对的是“批处理”(Batch Processing),即某项任务必须等待一定条件或等待数据积累到一定程度或数量才开始对这一批数据整体集中处理。这种方式虽然通常可以获得较高的吞吐率,但也可能会产生不同程度的延迟,从而降低时效性。多项任务往往通过队列调度机制进行管理。

目前气象数值预报的高性能计算业务采用的是典型的批处理为主的工作方式,但这是其业务自身内在机制导致的结果。恰当利用流式技术的配合,可以在HPC 应用中减少数据前、后处理的延迟时间,减少或消除不必要的等待,提高业务全流程的总体运行效率。尤其对于像“精细化天气预报”这类对时效性要求较高的业务来说,流式技术将比常规传统方法更具优势。例如:0-4h 时效的临近预报,需要快速融入最新观测资料进行分钟级滚动更新[6],通过流式数据传输,可实现几乎完全实时的持续观测数据供给,而不再有定时传输方式必然会产生的传输间断。

3.4 应用研发技术

云时代对业务应用研发、运维、更新等全生命周期运作机制的影响是深远的。新兴技术方法对传统软件工程思想造成了直接的冲击,但同时也把软件工程推向了一个全新的视野,使我们可以采用“Cloud Native”[7-8]、“DevOps”[9]等新理念重新考虑应用研发及系统全生命周期管理的新方式。“东数西算”意味着应用和数据都从以往的相对静态变得更为趋于流动,这也迫使气象部门必须考虑转换到新型的应用研发和部署模式,以适应在多数据中心一体化体系中业务应用的新型运作方式。

传统的应用总体相对静态,即它们的应用体量大、生命周期长、更新速度慢、依赖关系复杂、部署迁移难度大;而在“Cloud Native”技术及理念的驱动下,利用“Microservices”[10]等技术框架产出的应用其体量大幅减小、生命周期灵活、更新速度动态可调、依赖关系少而简单、部署迁移按需而动。不仅如此,通过在云生态中存在的多层次“XaaS”[11]服务的支持,应用全生命周期的运行将是一个“流水线”的方式,从需求分析、设计、编码、测试、集成、部署、上线运行直至退出、消亡或改进重生,都应是一个根据既定策略而被控制调度执行的自动化过程。目前国家气象中心、中国气象局公共气象服务中心等单位已先后尝试引进这种研发模式,效果是令人振奋的。

相对特殊的一类应用是气象数值模式的并行优化,这是数值预报业务特有的高性能计算类应用。由于气象数值模式并行多任务及紧耦合的特性,对比其他类型的应用,其并行优化改进的难度相对较大。然而并行优化对数值预报应用来说是一项关键工作,对提升预报能力和质量意义重大。现代“气象算力架构”中应提供“Performance Tuning as a Service”(PTaaS)的服务,把并行应用的优化工作融入到“Continuous Integration/Continuous Delivery”(CI/CD)流水线中,支持研发人员以更为高效的方式改进并行模式。

3.5 监控技术

监控是针对目标系统进行全方位的监视,全面了解系统资源分配、压力负载、健康状态等信息,最终为维护系统安全稳定运行、定位故障和解决问题、系统改进、决策支持等提供基础的可量化依据。在此基础上,还提供必要的系统调控接口和机制。监控内容主要分为基础资源和业务应用两大类型。监控流程及关键环节主要包括:目标系统的指标信息获取、指标信息汇聚处理、展现、统计报表生成等。为了实现较好的实时性,通常会采用“事件流”技术驱动监控信息在其全流程内传递。

和以往相比,新型“气象算力架构”中的监控能做到粒度更细、层次维度更丰富、实时性更强、统计分析和决策支持更为量化和精准。

在“东数西算”+“一体化大数据中心体系”中,全局基础资源(含设备)的支撑能力、健康状况和实时负载等信息变得比以往更为关键,它将直接决定和影响“东数西算”的调度策略和最终的业务应用效率。资源监视的关键是必须能够做到全面、细粒度(可配置)、有针对性、有指导性(智能化)。

应用层面的监控也会发生较大的变化,主要原因在于以云生态为主支撑的新型“算力架构”中更多的业务应用将会以“Microservices”的形态出现,其应用个体虽然有不同程度缩减,但应用运行实例的种类和数量却大幅增长,以至于利用传统的系统运维方式已很难掌控。以一个拥有1 万台服务器节点的数据中心为例,如果平均每节点运行100 个应用实例,就意味着总体运行实例数量为100 万,面对如此数量级的业务进程,仅靠人工手动方式进行管理是难以想象的。因此必须借助于自动化的“应用监控能力”,才可能对应用进行基本监视和维护。新型“算力架构”还需要实现应用的多版本多实例运行管理,并需要配合系统调度实现多数据中心节点中的迁移、切换、并发控制等。

此外,监控必须实现全局资源和应用的动态一致性,以及信息获取、分析、决断和展现的实时性,为控制调度和管理维护人员提供精准支持,确保资源和业务调度不出现偏差。

4 实现“气象算力架构”的可持续发展

可持续性,宽泛地说,是指在相当长的时间范围保持某种稳定状态的能力。而发展意味着变化,即状态的不稳定性,以此而言,“可持续发展”本身就是一个带有内部矛盾性的统一体的概念。它存在的意义主要在于面对持续的变化如何在特定时间范围内保持我们所需要的稳定状态。

一个系统的可持续性主要体现在其内部各组成要素之间能否在较长时间共存并达到一种平衡,如果其中部分要素的异常发展打破了平衡,其结果可能导致整个系统的恶化或消亡。

架构需要较好的稳定性,变更不能过于频繁。对于气象业务来说,“气象算力架构”包含并影响着业务运转所需的全部生态环境和支撑服务,架构的变化对业务将产生直接的、全方位的和根本的影响。因此,保持架构的稳定性对整体业务系统的高效稳定运行至关重要。

架构也需要改变,以应对外部变化和适应内部发展的需要。外部因素涉及范围较广,例如国家政策、技术的发展与革新等,都会直接或间接影响系统架构的调整。“东数西算”策略正是这样一个现实的外部因素,促进“气象算力架构”的发展。内部因素主要来自于业务需求的变化、算力等基础资源的变更、业务应用发展等层面,这些都构成了架构发展的内部驱动力。

要实现“气象算力架构”的可持续发展,就是要努力做到一方面保持架构的相对稳定,另一方面还要在必要的情况下对其改进和发展,但不能因此导致系统的倒退或衰亡。本文对于“气象算力架构”的可持续发展相对侧重于应对架构的变化,即“稳中求变”。

近年来,随着云计算的迅猛发展,信息技术领域涌现出了大量新思路和新方法,它们都为建立“气象算力架构”并实现其可持续发展提供了比以往更丰富的资源,在技术上给予了比以往更为强有力的支持。

可持续发展能力的核心思想之一是系统能够为将来的发展和变更预留恰当的空间,这也是一个实现可持续发展的有效手段,无论是在资源层、管理服务层还是应用层面,气象算力体系架构也是如此。

计算、存储和网络等基础信息资源是整体架构和应用系统的基础,在资源层恰当地预留足够的发展空间意味着基础资源具备良好的弹性,能够较好适应上层业务负载的波动,也是系统扩展和变更过程中必要的缓冲区。在此基础上的系统资源的发展将更为平滑,能够最小化地影响和冲击其所支撑的各层次服务和业务应用。

基础资源层之上的管理服务层,即云生态环境,对可持续发展更为关键。在构建各生态服务时须重点关注相关服务组件对基础资源的兼容性、管理控制能力,同时还须关注它们对业务应用的支持协调能力。这意味着无论是底层的基础资源还是其上层的应用出现了变更和发展,管理服务层都需要有足够的应对能力去适应并给予支持。由于服务层本身也是在迭代和变更的过程中,因此,服务自身必须具有较为完备的可持续发展和不间断运行的能力。这一能力来源于整体架构对管理服务层所赋予的逻辑预留空间及其产生的弹性和灵活性。

架构的可持续发展能力最终体现在应用层。在弹性资源和云生态服务环境中,应用已具备了良好的持续发展的基础条件,但其自身的软件架构和技术实现方式才是能否可持续发展的决定性因素。

对于常规通用型的业务应用,利用“Microservices”等技术进行改造之后,应用组件的独立性和部署灵活性都有所增强,迭代成本逐步降低;此外,应用的总体可靠性和运行的连续性也将得到提升。

对于气象行业特殊类型的应用,例如并行数值预报模式,其可持续发展能力更多的是体现在其软件系统框架的弹性以及代码的可复用性等方面。在云计算等主流技术趋势推动下,并行应用与云生态环境的融合有着值得期待的前景,这种融合与演进将使并行应用从批处理方式转变为不间断运行的服务成为可能。

5 结语

新型“算力体系结构”比传统的信息系统架构在覆盖范围、动态性、自动化水平、自我持续发展能力等诸多方面有着大幅改进,以云生态服务为主的支撑环境将成为新型架构的核心主体。“东数西算”战略和“一体化大数据中心体系”把算力架构扩展至多数据中心的全局范围。这些都为气象行业的信息系统体系结构的改进和发展提供了引领方向。对于气象业务中并行计算等特殊应用,在构建新一代“气象算力架构”的过程中,我们应给予重点关注,着力建立“并行云服务”等行业专有的算力服务,为丰富云生态总体服务能力做出贡献。

利益冲突声明

所有作者声明不存在利益冲突关系。

猜你喜欢

算力数据中心气象
中科曙光:联合发布全国首个“一体化算力交易调度平台”
中国电信董事长柯瑞文:算力成为数字经济的主要生产力
气象树
算力网络场景需求及算网融合调度机制探讨
浅析数据中心空调节能发展趋势
《内蒙古气象》征稿简则
计算万物 算力之下要有坚实的地基
关于建立“格萨尔文献数据中心”的初步构想
大国气象
美丽的气象奇观