APP下载

GWAC海量星表数据处理的数据库系统选型研究*1

2016-08-01YingZhang魏建彦

天文研究与技术 2016年3期
关键词:架构设计

万 萌,吴 潮,Ying Zhang,徐 洋,魏建彦

(1. 中国科学院国家天文台,北京 100012;2. 中国科学院大学,北京 100049;3. 荷兰国家数学与计算机科学研究中心,阿姆斯特丹 1098 XG)



GWAC海量星表数据处理的数据库系统选型研究*1

万萌1,2,3,吴潮1,Ying Zhang3,徐洋1,魏建彦1

(1. 中国科学院国家天文台,北京100012;2. 中国科学院大学,北京100049;3. 荷兰国家数学与计算机科学研究中心,阿姆斯特丹1098 XG)

摘要:为应对我国的宽视场地基广角相机阵在大数据管理和实时处理上带来的挑战,提出一种基于列存储数据库MonetDB的时序数据处理与管理系统设计方案。本方案充分利用MonetDB兼具数据处理和管理于一体的数据库平台特点,通过将交叉认证等核心数据处理算法内嵌于数据库中,从而实现将 “计算带到数据中” 的设计理念。同时,对本方案开展了多项关键技术的研究与测试:TPC-H基准性能测试;大数据加载能力测试及优化研究;基于MonetDB的Zone算法实现与测试;可定制函数开发功能的测试。初步的预研结果表明,列存储切实可行,同时对本设计方案作详细的介绍。提出的基于列存储MonetDB数据库设计的海量星表数据处理应用方案,是高效的数据处理与管理为一体的天文数据库解决方案。

关键词:天文数据库;架构设计;MonetDB;实时分析;交叉认证

现代天文观测和数据处理技术的发展,使得时域天文观测朝着更大的视场和更高的时间采样率方向发展成为可能,也给现代时域天文观测注入了新的活力,如超新星尤其是爆发早期超新星的发现,伽玛暴光学余辉的快速响应观测,微引力透镜事件的发现与后随观测等都得益于现代时域天文观测和数据处理技术的发展。

我国兴建中的地面广角相机阵(Ground Wide Angle Camera, GWAC),由36台口径为18 cm的广角望远镜组成,每台望远镜配备4 k × 4 k的CCD探测器。整个相机阵的天区覆盖5 000平方度,时间采样率为15 s。每个观测夜对固定天区目标的持继观测长达4~5 h。从观测视场的大小和观测时间的采样频度上,地面广角相机阵在时域天文观测中具有特殊的优势。巨大的数据量和高时间采样率,对数据的管理和处理提出极大的挑战。

地面广角相机阵的星表数据指标是:星表数据每幅图像大约有1.5 × 105条记录,整个相机阵在15 s内共产生5.4 × 106条记录,每晚约有2 400 × 36=86 400幅图,大约2 TB。对数据库管理系统的要求:(1)快速的大数据入库能力,所有相机阵15 s内产生的观测星表入库时间控制在15 s以内,每个观测夜的2 TB星表最晚完成入库时间保证在下一个观测夜开始前;(2)在数据高速采集下能够完成实时分析,面对持续不断的高密度海量星表的快速关联计算能力,即每个CCD每15 s产生的星表数据与参考星表相关联形成光变曲线。

对于地基广角相机阵,最直接的数据库管理和处理系统的设计方案是数据库(仅为数据存储)+外围的程序(完成快速的运算)。文[1]通过对关键技术交叉认证的研究开发了基于空间等经纬网格的天区分区算法,使得交叉认证计算实现了极大的提速;利用图形处理器的平行计算优势,文[2]实现了图形处理器加速图像相减处理的方法;文[3]开发了利用图形处理器加速天文中常用的点源提取程序SEXtractor;文[4]开发了基于图形处理器的加速星表的交叉认证算法,该方案的好处是思路直接,许多技术是成熟的,缺点是数据库不断与处围程序交换,带来不必要的输入输出时间损耗,多方程序组合缺少整体的优化。

著名数据库专家Jim Gray成功开发了SDSS巡天数据库管理系统Skyserver,他提出了Zone算法*①http://research.microsoft.com/apps/pubs/default.aspx?id=64524②https://arxiv.org/ftp/cs/papers/0408/0408031.pdf,即利用数据库的SQL直接实现多维空间索引取代经典的分层三角网格算法(Hierarchical Triangular Mesh, HTM),从而减少数据的交互,速度得到提升。这就是大规模科学计算和数据库架构设计的原则:将计算带到数据中来,而不是把数据放到计算中去的设计理念[5]。受这一思想的启发,提出将地基广角相机阵的数据处理和数据管理合成到一个数据库平台的设计思路。

合适的数据库平台是实现这一设计思想的关键,因为传统的数据库平台不具备大数据快速处理的能力。LSST项目针对天文大数据的需求提出开发全新的数据库SciDB,因为处于开发活跃期,SciDB的稳定性和实用性还有待检验。MonetDB是一款开源的内存列存储数据库平台*http://www.monetdb.org,具有内部存储模型按列分块、占用存储空间小、运行时查询优化等优势。MonetDB底层物理存储模型与传统数据库有非常显著的不同,关系表经过垂直切分,每一列存储在一个单独的(ID, value)键值对表中,称作二元关系 表(Binary Association Table, BAT)。二元关系表左边一列,叫做头部,是对象ID(OID);右侧一列叫尾部,包含属性的值。头部和尾部分别用一个数组实现。使用列存储数据库的方式使得查询语句的执行只需要访问用到的列。当同一类型的属性存在于连续内存,可以获得较高的压缩比和缓存命中率。同时,MonetDB的内核是建立在类 “array” 结构上的可编程的关系代数机,这种友好的结构能最大限度地利用硬件的性能实时响应用户的需求。而且,MonetDB执行引擎中缓存敏感的数据结构算法可以在运行时优化多级内存系统。

可以看出,表的数据量越大,尤其是当查询语句比重越大,就越适合使用列存储数据库。因为如果数据量很大,而查询访问的列比很小,即所有查询语句访问的列数和总列数的比例越小,使用列查询越能降低SQL语句查询时间,越适合使用列存储。

综上所述,MonetDB适合要求快速取回结果的海量数据分析型在线分析处理(Online Analytical Processing, OLAP)的应用和存储,这与地面广角相机阵需要提供的查询服务属于同一类型,非常适合应用于天文数据库。

大型射电望远镜巡天项目低频阵列(Low-Frequency Array, LOFAR)利用MonetDB完成了数据处理系统TKP pipeline,其星表数据一年约为40 TB[6];SDSS的SQL Server管理数据库曾被成功移植到MonetDB上[7],并通过了对斯隆数字巡天项目中的SDSS BESTDR7近4 TB数据的管理测试。因此选取列存储数据库MonetDB作为系统的开发平台。

为研究和验证以上设计思路的可行性,根据地基广角相机阵数据处理流程(如图1)开展了TPC-H基准性能测试以验证其载入和分析能力,大数据加载速度的测试与研究。通过MonetDB的自定义函数接口功能测试实际自定义函数的开发功能;核心算法交叉认证条带(Zone)算法在MonetDB上的实现与测试。最后,详述了基于MonetDB的海量星表数据管理和处理的初步方案。

图1地基广角相机阵数据处理流程图

Fig.1The flow chart of GWAC data processing

1TPC-H基准测试与比较

为测试MonetDB的实际表现,进行了TPC-H基准测试并比较了与传统数据库平台PostgreSQL及MySQL的差异。TPC-H是模拟决策支持类应用的一个测试集。天文数据库日常提供的服务也属于数据分析类应用,适合选择TPC-H作为测试集。

TPC-H测试包括22条选择查询语句。测试流程为先用DBGEN工具产生测试数据,加载程序装载数据到3种数据库后,数据库处于初始状态,未进行其他任何操作。此时将22条查询顺序执行一遍,分别记录3种数据库22条查询的总响应时间。测试环境同上,MySQL版本为5.6.16。测试环境具体情况如表1。

图2为MonetDB和PostgreSQL、MySQL的TPC-H SF=1(1 GB)数据量基准性能测试结果对比,具体代码见*https://github.com/hlfwm/TPC-H。可以看出22条查询总时间MonetDB消耗只有PostgreSQL的约1/15,MySQL的1/137,单条查询提速至少3倍。造成查询响应时间存在较大差异的主要原因是TPC-H业务类型是在线数据分析类型,数据量大,查询语句比重大,复杂的查询多,符合适合列存储数据库的典型指标。表的数据量越大,就越适合使用列存储数据库,尤其是当查询语句比重也很大时,则使用列查询能显著降低SQL语句查询的时间。如果查询访问的列比,即所有查询语句访问的列数和总列数的比例越小,越适合列存储。这解释了对于大表Lineitem上的连接、且查询访问列比低的查询的Q18、Q19、Q21,MonetDB响应速度领先数十倍的原因。可见MonetDB列存储数据库在分析式查询时具有较强优势。MonetDB在TPC-H测试中的表现相对于MySQL和PostgreSQL具有明显的优势,MySQL表现最差,而PostgresSQL居中。

表1 测试环境具体情况表

图2MonetDB和PostgreSQL、MySQL TPC-H 1 G基准测试

Fig.2Benchmark results of MonetDB, PostgreSQL, MySQL TPC-H 1G

2关键算法与功能分析测试

根据地基广角相机阵数据处理需求,处理速度要求在15 s的采样时间间隔内完成数据的所有处理;功能上要求匹配出瞬变源并能生成光变曲线。进行如下关键算法和功能的测试:大数据的加载能力;交叉认证算法的实现;扩展处理功能的开发实现。

2.1大数据加载测试

大数据加载测试主要分为两种情况。测试(1):数据库随着加载数据量的增加对加载速度的影响;测试(2):影响加载速度因素的测试分析。

测试(1)的方法为通过仿真1 000个20列 × 20万行*实际情况每幅图像产生15万条星表记录,为进行压力测试,这里选取20万条记录。类似于实际观测的星表数据,连续加载到被测试的数据库中,分析加载速度的变化。测试平台的软硬件环境如图3。测试的具体实现过程:对仿真的星表,使用大文件导入库命令COPY BINARY INTO:

COPY BINARY INTO tablename FROM(′path_to_file_0′, ′path_to_file_1..,′path_to_file_19′);

分别对MonetDB和PostgreSQL进行加载能力的对比。图3是对MonetDB进行数据加载测试的结果,图4是PostgresSQL的测试结果。对比两图得出如下结论:(1)MonetDB随着数据库单表数据的增加,对注入的速度无明显影响,平均每个星表文件数据的载入时间为0.94 s。而PostgresSQL则在载入500个星表文件后,速度明显降低,平均载入速度为6.0 s。MonetDB没有出现速率陡降现象,这与MonetDB是内存数据库相关,表现在磁盘存取、内外存的数据传递、缓冲区管理、排队等待及锁的延迟方面均比磁盘数据库快很多。(2)MonetDB每隔几十个文件会有一个突跳点,加载时间突然提高至10 s左右。主要原因是由于MonetDB需要时间将数据写到磁盘,而导致的输入输出开销。这是在今后使用中需要解决的一个问题,希望能通过提高数据写入硬盘的频度来解决。

测试(2)的目标:对MonetDB进行更大量星表数据的压力加载测试,以测试在大数据下的数据加载性能。

图3MonetDB单表数据加载测试

Fig.3Load test of MonetDB′s single table

图4PostgreSQL单表数据加载测试

Fig.4Load test of PostgreSQL′s single table

测试方法:仿真星表86400个,每个星表约175,000行,包含22列属性数据。每个列文件大小为1.4 M,数据量总共2.47 TB。按顺序不断往数据库注入星表数据。

测试平台:CPU: 2 sockets Intel Xeon CPU E5-2690 v2 @ 3.00 GHz. 40 processor;内存: 8 × 16 GB;操作系统: Scientific Linux release 6.5,Linux kernel: 2.6.32-358.el6.x86_64。

测试结果如图5,载入速度基本是缓慢的线性变化。平均每个星表的载入时间1.75 s,总载入时间42 h。86400个星表相当于36个CCD向一个数据表注入,所以实际使用应比压力测试的结果还要好。

在测试过程中还发现一个现象:MonetDB的数据载入速度与星表文件大小有一个反常的关系,16 MB星表文件的载入整体速度要比1.34 MB星表数据快2.5倍,具体关系见图6。主要原因是较大的文件读取单元可以更好地利用磁盘输入输出,从而提高了文件的载入速度。对于地面广角相机阵,每个星表数据列文件约1~2 MB,因此,存在进一步优化的空间,在实际使用中需要通过调整MonetDB内置参数对比进行优化。

图5MonetDB 86400个二进制星表,单表数据加载累加时间曲线

Fig.586400 binary catalogs of MonetDB, loading time curve of single table data

图6MonetDB不同数据块,10008个二进制星表,单表数据加载速度测试

Fig.6Different MonetDB data block, 10008 binary catalogs, loading speed test of single table data

2.2交叉认证算法的实现

交叉认证是地面广角相机阵巡天中搜索瞬变源和光变曲线生成的关键算法。交叉认证问题必须依靠有效的分区策略,通过将天区按赤纬进行条带分区,将天区划分成一个个水平条带,每个源有一个属于自己的条带属性,交叉认证前首先比较条带属性可以大大降低比较次数。条带可集成到数据库内部,减少了数据输入输出的时间损耗。

表2是一个mini-GWAC*Mini-GWAC是地基广角相机阵的前导项目,由12台8 cm的大视场相机组成,现已建成安放于国家天文台兴隆观测站。用到的实际星表案例,MonetDB在16 GB内存的服务器上所作的20″半径误差内交叉认证的测试结果,条带高度20″。测试环境为:Intel Core i7-2600K CPU Quad-Core @ 3.40 GHz, 8 M Cache, 4 GB内存,Scientific Linux 6.4,linux kernel 2.6.32,MonetDB Jan2014版本和PostgreSQL 9.3.0版本。

使用的SQL语句为

select x0.id as id1, t0.id as id2 from extractedcatalog x0, template t0

where x0.zone between floor(t0.decl-0.0056) and floor(t0.decl+0.0056)--zone filter

and x0.decl between t0.decl-0.0056 and t0.decl+0.0056--dec filter

and 3600*DEGREES(2*ASIN(SQRT((x0.x-t0.x)*(x0.x-t0.x)+(x0.y-t0.y)*(x0.y-t0.y)

+(x0.z-t0.z)*(x0.z-t0.z))/2))<20; --accurate computation

表2测试结果表明,同样使用条带算法,MonetDB Jan2014比PostgreSQL加速比达17倍。同时,测试两个具有17万条记录的星表进行交叉认证,所需时间大约为4.3 s。

2.3用户自定义函数功能测试

MonetDB提供了用户自定义函数(User Defined Functions, UDF)对外接口以利于扩展内核功能,用户可以灵活地根据实际需要添加自定义函数。MonetDB装配语言的多层架构结构如图7。用户自定义函数层首先被MAL解释器识别(MonetDB Assembly Language,SQL语句解析成MAL,提供给内核执行),然后由SQL 编译器识别。为了大批量数据导入,开发了UDF Columncopy,直接将ASCII文件导入底层列存储单元(Binary Association Table, BAT)。

表2MonetDB、PostgreSQL有无zone1.5万 × 1.2万条交叉认证

Table 215k × 12k rows of cross-match MonetDB Postgres with/without zone

CatalogueA15218rowsCatalogueB12540rowsMatchedrows/条time/sMonetDBFeb2013版无zone12027302MonetDBFeb2013版+zone120274.2MonetDBJan2014版无zone12027238MonetDBJan2014版+zone120271.8PostgreSQL9.3.0版+zone1202730.8

图7MonetDB架构及与用户定义函数的关系

Fig.7The architecture of MonetDB and its relationship with UDF

自定义函数Columncopy的实现过程如下(开发语言为C语言):

(1) 81_svom.mal文件用于MonetDB服务器启动时自动加载这个用户自定义函数;

(2) 81_svom.sql文件向SQL函数列表加入columncopy函数签名,也用于自动加载;

(3) Makefile.ag向编译器引入新模块依赖的库文件信息;

(4) svom.c, svom.h为用户自定义函数实现文件;

函数解释_append_bat(sql,t,cname,b)将结果BATb追加到表t某列后。BATnew(TYPE_void,TYPE_int,nr_rows);创建一个二元关系表。columncopy(tablename,columnname,columnrows,filename)SQL函数,将文件filename里的column-rows行导入到tablename表的columnname列中。

(5) svom.mal定义MAL函数地址和对应的SQL签名的映射;

(6) columncopyUDF函数,将BAT结构追加到数据库中该表存储结构的后面完成导入;

(7) 用户自定义函数与源代码一同编译,注册成为数据库服务器的内置函数,调用方式:

sql>call columncopy (tablename, columnname, columnrows, filename)。

此次用户自定义函数为今后复用设计其他用户自定义函数,扩展MonetDB服务器的能力打下了良好的基础。

3初步设计方案

考虑每个相机的并列关系,每个相机对应一个数据库单元,36个数据库单元最终由一台控制服务器连接,控制服务器负责数据库单元的添加和连接。这种设计的好处是数据库单元只需负责自身CCD的存储和计算,在物理上完成了数据表的分割。分布式数据库架构见图8。分布式的数据库各数据表的名称和功能见表3。

图8分布式数据库阵列架构

Fig.8 Distributed architecture of Database array

通过观测目标星表与模板星表的交叉认证,如果能与模板星表匹配的则进入时序测光通道进行光变曲线的处理并进行管理。如果从模板星表无法找到匹配星,则认为是瞬变源(候选体)。其中流量相对定标的过程为:将交叉认证匹配上的两两星对之间(观测星与模板星匹配组)计算出流量比率,并取这一组的流量比率中值记为Rm,然后修正所有观测星的星等计算公式为normag=-2.5log (flux·Rm),其中normag为相对流量定标后的观测星表的星等;flux为观测星的流量。相对流量定标把测光星等都定标到模板星表一致的水平,这样光变曲线是一个有意义的相对光变量。所有瞬变源都存放于transient,所有光变曲线存放于associatedsource。

将交叉认证的匹配情况分成4种,即多对多、一对多、一对一、无匹配。多对多:剪除“多对多”关联以防止数据库爆炸,简化成一对多关系,继续处理。一对多:分配新的unique id给uniquecatalog表新插入的源,替代旧的uniqueid。新的一对多关联插入associatedsource,设定为type=2;插入新unique id与旧targets id关联,这是为给被取代的unique id新位置,标记tpye=6。清空被一对多取代的原有分枝。一对一:插入tempuniquecatalog中的一对一关联到associatedsource表中,标记为type=3。无匹配:插入新的源到uniquecatalog,插入这些新的关联到associatedsource,设置为type=4。判断暂现源候选插入transient表。至此所有提取物处理完毕。

本系统通过以上设计完成地基广角相机阵的数据处理和管理功能。具体的代码开展与系统优化及最后的测试,将是下一步工作的主要内容。

4讨论与总结

我国兴建中的地基广角相机阵面临着大数据处理和管理的挑战:每台相机每15 s产生1.5 × 105条记录,总相机数为36台,并且要求实时处理和入库管理。为应对挑战,提出一种充分利用数据库兼具大数据管理和处理于一身的特点,基于MonetDB的大数据处理和管理的系统设计方案。本方案的计设特点是通过MonetDB自身具有大数据处理的特点,将核心数据处理功能内嵌于数据库内,减少因数据管理和处理分属于两个系统所带来的输入输出时间损耗。为验证MonetDB数据库宽视场海量时序数据的处理与管理的可行性,开展多方的测试和预先研究。

预研阶段主要通过了以下测试:(1)TPC-H基准测试。本测试主要针对数据库决策能力,测试结果表明:MonetDB具有明显的表现优势,PostgreSQL次之,MySQL最差。(2)开展关键算法与功能测试。大数据加载能力测试表明,MonetDB相对于PostgreSQL具有明显的优势。86400个星表相当于96 h的时表数据,平均每个入库时间为1.75 s。载入时间随着载入数据量的增长缓慢线性增长。这个时间基本能满足项目要求,但仍存在优化的空间。研究发现星表文件的大小与载入速度有一个反常的关系,可以能过MonetDB的内置函数进行优化。同时,将数据存储表按不同观测夜进行分割,从而提高载入速度。交叉认证Zone索引算法的实现与测试表明,MonetDB相对PostgresSQL具有更快的处理速度,每17万条记录认证需要时间为4.3 s。通过调研和与MonetDB开发人员讨论表明,通过调整MonetDB的内置参数,能进一步优化交叉认证的时间。并预期认证每17万条的记录可以在小于1 s内完成。基于MonetDB用户自定义函数的接口,开发Columncopy批文件导入函数,表明MonetDB可以为以后的系统开发提供方便灵活的接口。

基于调研与测试结果,提出本方案的初步设计构架。本方案主要完成两大数据处理功能:瞬变源的实时搜索和海量光变曲线的生成与管理。确立分布式数据库的架构方式,整个系统由36个并列的数据库单元组成,每个数据库单元对应一个独立望远镜且功能相同。一个主控数据库单元管理各个数据库单元。对单独的数据库单元设计了表单的结构及相互关系。同时描述了相对流量定标的实现过程。该设计方案从理论上分析是切实可行的,但实际开发与测试必须经过大量的优化及调试,这将是下一步工作的重点内容。

总之,通过研究工作,找到一种可行的应对地面广角相机阵大数据挑战的数据处理与管理为一体的系统设计方法,将为MonetDB在中国天文界的大数据处理和管理的应用打下基础。

参考文献:

[1]徐洋, 吴潮, 万萌, 等. 用于光学瞬变源搜寻的交叉认证快速算法[J]. 天文研究与技术——国家天文台台刊, 2013, 10(3): 273-282.

Xu Yang, Wu Chao, Wan Meng, et al. A fast cross-identification algorithm for searching optical transient sources[J]. Astronomical Research & Technology——Publications of National Astronomical Observatories of China, 2013, 10(3): 273-282.

[2]Zhao Y, Luo Q, Wang S, et al. Accelerating astronomical image subtraction on heterogeneous processors[C]// 2013 IEEE 9th International Conference on Escience. 2013: 70-77.

[3]Zhao B, Luo Q, Wu C. Parallelizing astronomical source extraction on the GPU[C]// 2013 IEEE 9th International Conference on Escience. 2013: 88-97.

[4]Wang S, Zhao Y, Luo Q, et al. Accelerating in-memory cross match of astronomical catalogs[C]// 2013 IEEE 9th International Conference on Escience. 2013: 326-333.

[5]Szalay A S, Blakeley J A. Gray′s laws: database-centric computing in science[M]. United States of America: Microsoft Research. 2009: 5-11.

[6]Scheers L H A. Transient and variable radio sources in the LOFAR sky: an architecture for a detection framework[D]. Amsterdam:University of Amsterdam, 2011.

[7]Ivanova M, Nes N, Goncalves R, et al. MonetDB/SQL Meets SkyServer: the challenges of a scientific database[C]// 19th International Conference onScientific and Statistical Database Management. 2007: 13.

*基金项目:国家留学基金委员会中荷互换奖学金项目;国家重点基础研究发展计划 (973计划) (2014CB845800);国家自然科学基金 (U1331202, 11533003, U1431108) 资助.

收稿日期:2015-10-13;

修订日期:2015-11-12

作者简介:万萌,女,硕士. 研究方向:天文数据库系统. Email: wanmeng@nao.cas.cn

中图分类号:TP311

文献标识码:A

文章编号:1672-7673(2016)03-0373-09

A Pre-research on GWAC Massive Catalog Data Storage and Processing System

Wan Meng1,2,3, Wu Chao1, Ying Zhang3, Xu Yang1, Wei Jianyan1

(1. National Astronomical Observatories, Chinese Academy of Sciences, Beijing 100012, China, Email: cwu@nao.cas.cn; 2. University of Chinese Academy of Sciences, Beijing 100049, China; 3. Centrum Wiskunde & Informatica, Amsterdam, 1098 XG)

Abstract:GWAC (Ground Wide Angle Camera) poses huge challenges in large-scale catalogue storage and real-time processing of quick search of transients among wide field-of-view time-series data. Firstly, this paper proposes a concept to employ databases′ functions such as fast data processing and parallelism, which will improve system performance and availability through the integration of data storage and computing platform. To understand the feasibility of Column-store MonetDB in vast catalogue management, we carry out a variety of pilot experiments on key technologies. We conduct TPC-H benchmark, data loading benchmark and optimization, and key algorithm testing of astronomical source association, all compared with the traditional row store database. Then, we use MonetDB to realize cross-match Zone algorithm. UDF function is developed for customizable data loading. Test results show that MonetDB database has a remarkable performance in big data management and it is efficient in real-time data processing: it has the ability to deal with 2.5T catalog data.In the end we propose a wide field of view massive time serial observation data processing solution using the in-memory column store database MonetDB. The experimental results confirm the feasibility of this scheme. The design plan of MonetDB-based massive catalogue data processing solution is an efficient astronomical database solution that combines data processing and data management.

Key words:Astronomical database; Architecture design; MonetDB; Real-time analysis; Source association

CN 53-1189/PISSN 1672-7673

猜你喜欢

架构设计
浅析工业网络安全架构设计
基于物联网的智能楼宇顶层架构设计
大都闸站重建工程自动化系统质量控制架构设计
基于安全性需求的高升力控制系统架构设计
虚拟收费站架构设计与高速公路自由流技术
智能化冷轧无缝钢管生产工厂体系架构设计
智能无人集群任务规划系统架构设计
雷达电子战信号级数字仿真系统架构设计
大数据时代计算机网络应用架构设计
一种面向应用的流量监测精简架构设计