APP下载

神经辐射场加速技术综述

2023-05-13郑清芳ZHENGQingfang

中兴通讯技术 2023年2期
关键词:体素特征向量光线

郑清芳/ZHENG Qingfang

( 1. 中兴通讯股份有限公司,中国 深圳 518057;2. 移动网络和移动多媒体技术国家重点实验室,中国 深圳 518055)

过去10 年,视频相关技术[1-5]领域最深刻的变革发生在内容分析方面。自从2012年AlexNet[6]在ImageNet大规模图像识别挑战(ILSVRC)竞赛中夺冠以来,基于深度学习的计算机视觉技术突飞猛进,将内容分析的准确率提升至前所未有的水平,并催生出巨大的市场应用规模。以人脸识别为代表的各项视频内容分析技术走出实验室,服务于千行百业。

未来10 年,同样激动人心的突破有望发生在视觉内容生成方面。简单便捷地从2D视频/图像集中合成出崭新视角的视频/图像,甚至重建出物体及场景的3D模型,并且画质达到照片级的逼真度和清晰度,一直是内容生成方面的长期技术研究课题[7]。2020年美国加州大学伯克利分校的研究团队提出神经辐射场技术(NeRF)[8]。NeRF 因其创新的方法及突出的效果,吸引了业界的广泛关注,成为视图合成/3D重建领域新的技术框架。自从发表后近两年的时间里,该NeRF 论文被引用超过1 000 次。同时业界研究者对NeRF 技术进行了大量的改进,并将其应用领域扩展到视频编辑[9]、数据压缩[10]、虚拟人[11]、城市建模[12]、地图构建[13]等诸多方面。

NeRF 技术的一个显著缺点是模型训练及图像渲染的速度极慢。在Nvidia的高端显卡上,训练一个场景的模型需耗时1~2 d,而从模型中渲染出一幅800×800分辨率的图像需耗时超过20 s。运算速度方面的不足阻碍了NeRF 技术在实际应用中的部署。可喜的是,经过业界研究者近两年的努力,渲染速度提升超过10 000 倍[14],训练速度提升超过300倍[15]。

针对NeRF的各种加速技术,本文梳理并总结了速度提升的技术机理和工程技巧,并分析各项技术之间互相结合以达到复合加速效果的可能性,从而有助于激发更高效算法的产生,进一步推进NeRF 技术在内容生成及其他领域的应用。

1 相关研究工作

文献[16]和文献[17]分别对2021年3月之前的NeRF相关技术做了综述。文献[16]针对促使NeRF 出现的各种技术和NeRF 出现后的各种改进性技术这两个主题,提供了注释性的参考文献,但不涉及对各技术的详细说明。文献[17]将相关技术大致分为两大类:第1 类对NeRF 表示方法的理论性质和不足进行分析,并提出优化策略,包括对合成精度、绘制效率以及对模型泛用性的优化;第2 类则以NeRF 的框架为基础对算法进行扩展和延伸,使其能够解决更加复杂的问题。文献[16]和文献[17]促使更多的研究者对NeRF 进行研究,但也因其成文时间较早,无法涵盖对2021 年3 月以后NeRF的许多重要进展的总结。

文献[18]综述了神经渲染技术的整体发展。神经渲染技术广义上是指所有利用神经网络产生新的视觉内容的技术,而NeRF仅是其中的一个子领域,侧重于合成出新的视角的视觉内容。文献[18]重点介绍了将经典渲染与可学习3D表示相结合的高级神经渲染方法,尽管提及了许多NeRF相关的文献,但本质上不是针对NeRF的综述。

在本文的撰写过程中,加拿大滑铁卢大学的研究者在Arxiv.org上展示了预印本[19],全面介绍了过去两年业界提出的各种NeRF 改进,以及NeRF 技术在各种计算机视觉任务中的应用。与文献[19]不同,本文着眼于运算速度的提升,对各种加速技术进行分类,阐释技术背后的机理和工程技巧,展现NeRF发表以来的技术演进脉络,以期为相关研究者提供有益参考。

2 NeRF技术简介

对于给定的三维场景,任意位置的外观取决于具体位置和观测角度。场景表现出的颜色与光照条件相关,导致从不同角度观察同一位置时颜色也会出现变化。NeRF 是一个描述三维场景的函数(r,g,b,σ) = FΘ(x,y,z,θ,φ),其中FΘ用多层感知机(MLP)来具体表示。输入位置信息(x,y,z)和观测角度(θ,φ)后,该函数输出该位置的体密度σ 和在对应观测角度的颜色值rgb。在基于NeRF的场景表示基础上,可以采用经典体渲染方法渲染出不同视角的新图像。具体地,对于图像中任意像素,沿着观测角度的光线r 采样N 个点Xi(i =1,…,N),对每个采样点先根据FΘ计算出σi和rgbi,然后根据以下公式计算出最终的颜色值:

其中,δi代表在光线r上的采样间隔。

为了训练出FΘ对应的MLP具体参数,对于给定的场景,采用不同位姿的摄像头拍摄得到n幅图像,利用梯度下降的方法,通过最小化预测图像Ip与真值图像Ic之间的误差对FΘ进行拟合,即

图1 给出了NeRF 算法的流程。在文献[8]中,作者为了得到含有更多高频信息的输出图像,对输入MLP 的位置和视角参数进行了高阶编码操作γ(.)。另外,为了提升运行速度,作者采用先粗放后精细的策略提高采样的效率:首先在光线方向上均匀采样64个点,然后由这64点的密度值估计出密度分布函数,再对高密度的区域采样128点。

▲图1 神经辐射场算法流程[8]

NeRF的运行速度十分缓慢,主要有两个原因:

1)巨大的计算量。例如:在渲染一幅分辨率为800×800 的图像时,NeRF 为了计算出每个像素的最终颜色值,需在光线行进的方向上采样192(64+128)个点,并进行256次MLP推理。这意味着渲染该图像总共需要800×800×256=163 840 000 次MLP 推理。MLP 的网络架构如图2(a)所示。每次推理计算需要超过100 万次浮点运算。总体而言,整个过程需要超过100T次浮点计算。

2)低效的实现方式。在通常针对Nvidia 图形处理器(GPU)优化的深度学习函数库中,MLP 是逐层计算的。每一层用一个核函数来实现具体的计算,并向GPU 全局显存写入计算结果,而下一层在计算时又需从全局显存读取该计算结果并将其作为本层的输入。在目前的GPU芯片架构中,全局显存的数据读写速度远小于计算速度。频繁的数据读写严重制约了GPU的实际工作性能。

3 加速技术介绍

鉴于NeRF 巨大的潜在应用前景,针对当前NeRF 十分低效的运行速度,近两年来研究者们提出了一系列加速技术。由上一节的分析可知,对于给定分辨率的图像,NeRF的实际运行速度受到每道光线中的MLP 的计算复杂度、采样点数量、硬件的技术特性等因素的综合影响。本文从采用小型化MLP、减少采样点数量、缓存中间计算结果以及充分利用硬件特性4个方面对现有技术进行分类和介绍。

3.1 采用小型化MLP

在NeRF 的实现中,图像中每个像素的色彩值的计算都需上百次的MLP推理,因此减轻MLP 的计算复杂度是非常有必要的。如果采用更小型化的MLP,不论是减少其深度还是宽度,都会导致模型表征能力的下降,损害最终输出图像的视觉质量。因而,此类方法的关键在于采用何种策略能够确保小型化MLP 的最终输出不会影响最终的视觉质量。

DeRF[20]和KiloNeRF[21]采用了分而治之的策略:用更小的MLP来表示目标场景的一部分而非整个场景。DeRF把整个场景划分为不规则的互相独立的16个Voronoi单元。相比于NeRF 中的MLP,每个Voronoi 单元对应的MLP 深度不变但宽度减半,因此计算量只有原来的1/4。在渲染时,由于每条光线上的每个采样点只计算与它相对应的MLP,因此整体速度可以达到原始NeRF 的1.7 倍。KiloNeRF 采用沿坐标轴均匀分解场景的方法,最多可以把场景分为16×16×16 = 4 096个小场景。每个小场景对应的MLP的具体架构如图2(b)所示。该架构仅有4 个隐含层且每层只有32 个通道,其计算量为NeRF 中MLP 的1/87。相比于原始的NeRF,KiloNeRF 的总体渲染速度可以达到3 个数量级的加速倍速。为了保证视觉质量,在KiloNet 训练过程中采用知识蒸馏的方式,使KiloNeRF的输出与NeRF的输出相一致。

▲图2 NeRF与KiloNeRF的比较[21]

Instant NeRF[22]的核心思路是:既然MLP 的最终输出值取决于MLP 自身的参数和输入的特征,那么小型化MLP 表征能力的减弱可以通过增强输入特征的表征能力来弥补。Instant NeRF中的MLP由两个分别包含1个及2个隐含层且每层都为64个通道的小型MLP串联组成。不同于NeRF中的位置编码,Instant NeRF对输入参数采取多分辨哈希编码方式:输入参数在某个分辨率中经过哈希后对应一个特征向量,把输入参数在所有分辨率中对应的特征向量串联起来形成最终的特征向量。Instant NeRF 不但加速了渲染过程,在Nvidia RTX 3090 GPU上能够以60 fps的速度输出1 920×1 080的图片,而且解决了NeRF 模型训练慢的问题,将NeRF 训练速度提高了60 倍。实验结果表明,在最快的情况下,Instant NeRF模型的训练时间只需要5 s。图3以2D空间场景为例解释了Instant NeRF 的计算过程。该计算过程包括5 个步骤:1)对于给定的输入坐标x,在不同的分辨率中分别找到周围的体素;2)在哈希表中查询不同分辨率的体素所对应的特征向量;3)根据x 在各自体素中的相对位置,插值计算出x 在不同分辨中的特征向量;4)将在各分辨率上的特征向量串联,形成最终的特征向量;5)将特征向量输入神经网络进行推理计算

▲图3 Instant NeRF的计算过程[22]

3.2 减少采样点数量

尽管NeRF已经采用了层次化的采样策略来避免对整条光线进行密集采样,但是仍然需要固定的192个采样点。事实上,由于目标场景通常无法完全充满整个三维空间,必然有某些采样点落在目标场景之外。另外,某些采样点在视角方向上被完全遮挡,使得这些采样点对最终的计算结果并无帮助。因此,更合理的采样策略应该可以避免把计算资源浪费在这些采样点上。

文献[23]引入了一种用于快速和高质量自由视角渲染的新神经场景表示方法:神经稀疏体素场(NSVF)。NSVF 定义了一组由稀疏体素八叉树组织的体素有界隐式场,以对每个体素中的局部属性进行建模,并为体素的每个顶点分配一个特征。体素内部具体位置的特征通过对体素8个顶点处的特征进行插值计算。在渲染过程中,需要对每条光线进行轴对齐边界框相交(AABB)测试,即比较从光线原点到体素的6个边界平面中的距离,检查光线是否与体素相交。对于不相交的空体素,可以直接跳过,从而实现10 倍以上的渲染加速。图4比较了NSVF与NeRF的不同采样策略。因为NSVF 渲染过程是完全可微的,所以可以通过将渲染的输出结果与一组目标图像进行比较,然后进行反向传播来实现端到端优化。监督训练NSVF的过程采用了渐进式的策略,使得不包含场景信息的稀疏体素会被修剪掉,以允许网络专注于具有场景内容的体积区域的隐函数学习。文献[23]中的实验表明,只需1 万~10 万个稀疏体素就能够实现复杂场景的逼真渲染。

▲图4 神经稀疏体素场和神经辐射场的不同采样策略对比[23]

尽 管TermiNeRF[24]、NeuSample[25]、DONeRF[26]的具体做法不同,但背后的思想却是类似的:在训练的过程中,联合训练NeRF 和一个采样神经网络,而在渲染过程中,仅需对每条光线推理一次采样神经网络,即可得到所需的全部采样点位置。以加速效果最好的DONeRF为例,为了在不影响图像质量的前提下大幅减少每条光线所需的采样点数量,文献[26]的作者引入真实深度信息,只考虑物体表面周围的重要采样点。DONeRF 由一个着色网络和一个采样网络组成。其中,着色网络使用类似NeRF 的光线行进累积法来输出颜色值,而采样网络则通过将空间沿光线离散化并预测沿光线的采样概率,来预测每条光线上的多个潜在采样对象。为了消除输入的模糊性,光线被转换到一个统一的空间中。作者使用非线性采样来追踪接近的区域,并在采样网络和着色网络之间,对局部采样进行扭曲,以使着色网络的高频预测被引导到前景上。图5 展示了DONeRF 的计算过程。实验结果表明,DONeRF 只用4 个采样点就取得了与NeRF 相似的图像质量,渲染速度可实现20~48倍的提升。

▲图5 DONeRF的计算过程[26]

如图6所示,EfficientNeRF[27]在训练时采用了与NeRF相似的先粗放后精细的采样策略,但是在粗放采样阶段只计算体密度σ > 0 的有效样本,在精细采样阶段只计算w >0.000 1的关键样本以及与其临近的另外4个关键样本,整体的训练时间减少了88%。每个位置对应的σ值被初始化为非零值并存储在Vσ中,在后续的每次训练迭代中根据Viσ =进行更新。其中,β ∈(0,1)是控制更新率的参数,σ(x)是本次迭代中得到的体密度值。w根据公式(2)—(4)计算。

▲图6 EfficientNeRF训练过程中的采样策略[27]

3.3 缓存中间计算结果

通过预先计算并将计算结果缓存起来,在后续使用时直接获取该结果,是常见的加速方法。NeRF 本质上是将5 维的输入参数(3维的位置参数+2维的视角参数)映射到4维向量的函数(r,g,b,σ) = FΘ(x,y,z,θ,φ)。对此,最简单方法是直接将5 维输入空间离散化,并将对应的计算结果全部缓存。但该方法因为所需的内存容量太大而不具可行性:即使假设输入参数每个维度的分辨率都是512,所需的内存也超过150 TB。

如图7 所示,FastNeRF[28]和SqueezeNeRF[29]都利用了函数分解的思想。FastNeRF 将NeRF 分解为两个函数:第1 个函数(σ,u,v,w) = Fpos(x,y,z)将位置参数映射到体密度σ 和辐射图(u,v,w);第2 个函数β = Fdir(θ,φ)则将视角参数映射到与辐射图对应的权重向量β,其中u、v、w、β 都是D 维向量。Fdir和Fpos的全部结果被预先计算并缓存。渲染时先根据位置和视角参数从缓存中分别查询得到权重向量和深度辐射图,然后通过计算二者的内积即可获得颜色值:(r,g,b) =。该计算量远小于NeRF 中的一次MLP 推理,因此FastNeRF的渲染速度比NeRF提升了约3 000倍。假设k和l分别表示位置和视角方向的分辨率,缓存Fpos和Fdir所需的内存空间复杂度分别为O(Dk3)和O(Dl2),且O(Dk3)和O(Dl2)远小于缓存NeRF 所需的内存空间复杂度O(k3l2)。在通常设置中,k = l = 1 024,D = 8,FastNeRF 所需的最大缓存空间大约为54 GB。为了能够运行在内存更小的嵌入式设备上,如图7 所示,SqueezeNeRF在FastNeRF的基础上将函数Fpos进一步分解为3 个函数并缓存其结果,所需内存空间的复杂度也从O(Dk3)降到O(Dk2)。

▲图7 NeRF、FastNeRF、SqueezeNeRR 3种神经网络架构的对比

在文献[30]中,作者首次提出NeRF-SH 模型(σ,k) = FSH(x,y,z),将空间位置映射为体密度σ 和球谐系数k =。NeRF-SH 的 训 练 过 程、渲染过程与NeRF 类似。作者采用稀疏八叉树表示3维场景,在叶子节点上存储各体素位置对应的体密度σ 和球谐系数k。该位置在方向(θ,φ)的颜色值为,其中,Yml(θ,φ)是与方向(θ,φ) 相对应的球谐系数,S(x) =(1 + exp(−x))−1。与NeRF 相比,PlenOctree 技术不仅可以将渲染速度提升3 000多倍,还能将训练速度提升约4倍。在一般的场景中,Ple‐nOctree需要的内存空间通常不超过5 GB。EfficientNeRF[27]采用不同的数据结构来组织缓存数据,用一个两层的树NerfTree 代替PlenOctree 中的稀疏八叉树,实现了更快的缓存查询速度。

根据图形学知识,物体的颜色可以表示为漫反射色与镜面反射色两者之和,其中镜面反射色与相机观测角度有关。文献[31]定义一个函数(σ,cdiffuse,vspecular)= F(x,y,z),场景中的每个位置都对应着体密度σ、漫反射色cdiffuse,以及与镜面反射色有关的4 维特征向量vspecular。这些数据经预先计算后被缓存在稀疏神经辐射网格(SNeRG)中。在渲染时,每条光线上采样点通过查询缓存直接获取对应的σ、cdiffuse和vspecular,这些采样点的cdiffuse和vspecular分别根据σ值加权累积得到Cdiffuse和Vspecular。Vspecular只需经过一次MLP 推理就可得到累积的镜面反射色Cspecular,则最终像素的颜色为rgb = Cdiffuse+ Cspecular。利用该技术在AMD Radeon Pro 5500M GPU 上渲染Synthetic 360o图像时,速度可达到84 fps。SNeRG 中的数组内容可以通过便携式网络图形(PNG)、联合图像专家组(JPEG)等算法被压缩到平均90 MB以内。

3.4 充分利用硬件特性

在实际部署中,算法总是运行在特定芯片上的。提升算法的运行速度通常意味着必须高效地利用芯片中的并行处理能力和内存/缓存资源。

在Nvidia GPU 上,Instant NeRF 和KiloNeRF 取得显著加速效果的重要原因之一在于:小型化的MLP 能够更充分利用GPU 芯片的技术特性。例如,与NeRF 中的MLP 相比,KiloNeRF 中MLP 的理论计算量只有1/87,而实际加速效果却高出1 000 倍。在常规的统一计算设备架构(CUDA)深度学习函数库中,MLP逐层用一个核函数计算,需要在GPU的全局显存中读写中间计算结果。对于计算小型化MLP,数据访问的时间远大于数据计算的时间。KiloNeRF 和Instant NeRF 都使用CUDA 重新编写一个核函数,并在其中完成MLP的所有计算,从而省去中间计算结果的数据搬运操作,减少频繁启停核函数的时间开销。

为了在移动设备上部署NeRF,Google 推出MobileN‐eRF[14]。MobileNeRF充分利用了标准GPU光栅化管道的并行性。测试结果表明,在输出图像视觉质量相当的前提下,MobileNeRF 能够比SNeRG 快10 倍,相当于比原始NeRF 快了10 000 倍以上。为了适配GPU 的光栅化管道,MobileN‐eRF 采用与原始NeRF 不同的训练过程和表征方法,用带有纹理的多边形来表征每个场景模型。其中,多边形大致沿着场景表面排布,纹理图中存储特征向量和离散的不透明度。渲染时MobileNeRF 先利用带Z-buffering 的经典多边形光栅化管道为每个像素生成特征向量,然后将特征向量传递给OpenGL着色语言(GLSL)片段着色器,并在其中运行小型化MLP,生成每个像素的色彩值。此外,MobileNeRF 的GPU 显存利用率也高于SNeRG,在运行过程中前者占用的GPU显存约为后者的1/5。

基于现场可编程逻辑门阵列(FPGA),上海科技大学开发了首个针对NeRF 渲染算法的定制化芯片ICARUS[32]。ICARUS的架构由定制的全光核组成,其中每个全光核集成了位置编码单元(PEU)、MLP 引擎和体渲染单元(VRU)。当采用40 nm 互补金属氧化物半导体(CMOS)工艺且工作在300 MHz 时,单个全光核仅占7.59 mm2面积,功耗为309.8 mW,能效比GPU 高146 倍。ICARUS 的高效性能主要得益于以下3个方面:

1)使用经过量化的定点数模型,尤其对于对复杂度最高的MLP计算,使用移位累加等近似算法。

2)全光核内部完成NeRF 的全部计算过程。当芯片加载经过训练的NeRF网络模型参数后,只要输入观察位置与视角,即可输出对应像素的最终色彩值,无须在片外存储中间计算结果,从而消除了各运算单元内部、单元之间的数据存储和搬运操作。

3)每个像素的计算过程和结果完全独立,控制逻辑大大简化,可以方便地通过增加全光核数量来实现并行加速。

4 总结与讨论

NeRF 技术可以从不同视角的2D 图像集中学习并建立3D场景的隐含模型,并渲染出崭新视角的图像。不仅如此,新图像的视觉效果能够达到非常逼真的程度。自从2020 年第1篇关于NeRF的论文发表以来,NeRF技术为视角合成乃至3D 重建领域带来新的研究思路。在两年左右的时间里,该技术引起了业界广泛关注,并得到了突飞猛进的发展。在未来,NeRF 技术将为视觉内容生成领域带来巨大变革,如同当前深度卷积网络技术为视觉内容分析领域带来的变革一样,在虚拟现实(VR)/增强现实(AR)及未来的元宇宙时代起到关键作用。

为了解决由NeRF技术运行速度缓慢导致的实际部署难的问题,研究者们已经提出各种加速技术。本文介绍了NeRF 的技术原理,并分析该技术运行缓慢的原因:在获得每个像素的最终颜色值时,整体运行速度取决于MLP 的计算复杂度、每道光线沿线的采样点数量等综合因素。本文相应地从采用小型化MLP、减少采样点数量、缓存中间计算结果以及充分利用硬件特性4个方面对现有技术进行综述,介绍了各技术的加速原理和实现方法,希望可以帮助相关研究者快速了解本领域的技术现状及演进脉络。

另外,NeRF 相关技术仍在快速发展中,同时实际应用场景仍需要更加高效的加速技术。展望未来的技术发展,我们认为应重点关注以下几个研究方向:

1) 复合加速效果

必须指出的是,尽管本文从技术原理的角度做了正交分类,并在各分类中列举了代表性的工作,但所提及的诸多具体技术都综合利用了多种加速原理。例如,EfficientNeRF在训练阶段减少采样点数量,而在渲染阶段缓存计算结果;Instant NeRF 和KiloNeRF 都采用小型化MLP,并针对特定GPU 架构优化MLP 的推理速度。我们推测,通过结合额外的加速原理,现有的方法可以实现更高的加速倍数,例如:KiloNeRF 可以进一步与DONeRF 相结合,减少采样点数量,进一步提高渲染速度;Instant NeRF 可以在训练阶段结合EfficientNeRF中的采样策略,并采用DS-NeRF[33]中在损失函数里增加深度信息约束的做法,来加快训练过程收敛。对此,我们希望本文的分析能够启发感兴趣的研究者设计出更加高效的算法。

2)训练加速和渲染加速

NeRF 技术的特点是:针对每一个静态场景都需要训练一个模型,然后从模型中渲染出所需的图像。鉴于原始NeRF 的训练渲染过程都十分缓慢,为了在实际应用中使用NeRF 技术,加速训练过程和渲染过程都十分必要。前述加速方法中有些只适用于渲染过程,甚至是以牺牲训练速度为代价的,例如:在KiloNeRF 和MobileNeRF 之类的采用小型化MLP 的方法中,为了保证最终模型的输出质量,需要先训练出NeRF中的MLP模型,再通过知识蒸馏的方式,训练出更小型化的MLP。

在诸如电商货品展示的应用场景中,可以通过两阶段的过程来综合利用上述两类加速方法:先离线使用某种加速方法训练出NeRF 模型,并进一步转换成更高效的表达形式,然后在线展示过程中采用另外一种加速方法渲染出图片。而对于诸如3D 视频通信的端到端实时应用而言,往往需要同时加速模型训练和渲染过程。在本文提及的方法中,Ple‐nOctree、EfficientNeRF 和Instant-NeRF 能同时加速训练过程和渲染过程,但训练过程的加速比远小于渲染过程,训练速度远小于30 fps。

3)专用加速芯片

算法与芯片的发展总是相辅相成、互相促进的。当某种算法被广泛采用时,通常研究者会为之设计专用的加速芯片,在性能、成本、功耗等方面实现更佳的匹配,从而进一步推广算法的应用。在关于AlexNet 的论文发表之后大约两年的时间,中科院计算所设计出第一款深度卷积网络加速原型芯片DIANNAO[34]。该芯片将速度提升近120 倍,从此拉开波澜壮阔的人工智能(AI)计算芯片产业化序幕;在有关NeRF 的论文发表之后大约两年的时间,上海科技大学设计出第一款NeRF 渲染加速芯片ICARUS,使能效提升近140倍。ICARUS是否会同样在芯片产业风起云涌?现有GPU的技术特性并不完全适配神经渲染的计算流程。类似Mobile‐NeRF 的技术通过复杂的转化过程后,可以更加高效地利用现有GPU 的并行能力,从而能够运行在移动设备中的嵌入式GPU 上。我们十分期待业界共同努力,持续创新,研发出神经渲染专用加速芯片产品,并创造出巨大的市场应用空间,使得在各种设备上便捷、快速、经济地渲染出逼真高清的视觉内容成为现实。

猜你喜欢

体素特征向量光线
春日暖阳
基于多级细分的彩色模型表面体素化算法
二年制职教本科线性代数课程的几何化教学设计——以特征值和特征向量为例
克罗内克积的特征向量
运用边界状态约束的表面体素加密细分算法
基于体素格尺度不变特征变换的快速点云配准方法
“你看不见我”
一类特殊矩阵特征向量的求法
EXCEL表格计算判断矩阵近似特征向量在AHP法检验上的应用
淘气的光线