• [业务动态] 智能遥感:AI赋能遥感技术
    随着人工智能的发展和落地应用,以地理空间大数据为基础,利用人工智能技术对遥感数据智能分析与解译成为未来发展趋势。本文以遥感数据转化过程中对观测对象的整体观测、分析解译与规律挖掘为主线,通过综合国内外文献和相关报道,梳理了该领域在遥感数据精准处理、遥感数据时空处理与分析、遥感目标要素分类识别、遥感数据关联挖掘以及遥感开源数据集和共享平台等方面的研究现状和进展。首先,针对遥感数据精准处理任务,从光学、SAR等遥感数据成像质量提升和低质图像重建两个方面对精细化处理研究进展进行了回顾,并从遥感图像的局部特征匹配和区域特征匹配两个方面对定量化提升研究进展进行了回顾。其次,针对遥感数据时空处理与分析任务,从遥感影像时间序列修复和多源遥感时空融合两个方面对其研究进展进行了回顾。再次,针对遥感目标要素分类识别任务,从典型地物要素提取和多要素并行提取两个方面对其研究进展进行了回顾。最后,针对遥感数据关联挖掘任务,从数据组织关联、专业知识图谱构建两个方面对其研究进展进行了回顾。除此之外,面向大智能分析技术发展需求,本文还对遥感开源数据集和共享平台方面的研究进展进行了回顾。在此基础上,对遥感数据智能分析与解译的研究情况进行梳理、总结,给出了该领域的未来发展趋势与展望。 引言近几年来,国内外人工智能的发展和落地应用如火如荼,促成这种现象的原因可以归纳为两个关键词,即“大数据”与“高算力”。在地理空间数据分析与应用领域,这种变化也正在发生着,比如在国家高分辨率对地观测重大科技专项(简称“高分专项”)等国家重大任务的推动下,我们可获取的地理空间数据越来越多,另外,以“云+端”架构为代表的高性能计算框架也在不断发展,促进了算力的提升。在此背景下,以地理空间大数据为基础,利用人工智能技术挖掘其深层信息、赋予其更多的应用模式,将成为未来地理空间数据分析应用领域发展的长期主题。发展遥感数据智能分析技术的目的是将长期积累的遥感数据转化为对观测对象的整体观测、分析、解译,获取丰富准确的属性信息,挖掘目标区域的演化规律,主要包括遥感数据精准处理、遥感数据时空处理与分析、遥感目标要素分类识别、遥感数据关联挖掘等。此外,面向大智能分析技术发展需求,遥感开源数据集和共享平台方面也取得了显著进展(陈述彭等, 2000; 宫辉力等, 2005)。遥感数据精准处理方面,遥感数据精准处理的目的是对传感器获取的光谱反射或雷达散射数据进行成像处理和定标校正,恢复为与地物观测对象某些信息维度精确关联的图像产品。传统方法需要根据卫星、传感器、传输环境、地形地表等先验模型,以及外场定标试验获取定标参数,建立精确的成像模型将观测数据映射为图像产品。随着传感器新技术的发展和分辨率等性能的提升,先验模型的建立越来越困难,外场定标的难度和消耗也越来越大,并且成像处理和定标校正获取的模型和参数与传感器的耦合,只能以一星一议的方式实现,无法多星一体化实现。如何在传统方法的基础上,构建观测数据到精准图像产品的深度学习网络结构,设置面向不同应用的图像优化指标体系,以大量历史数据和标注结果作为输入,实现网络结构对传感器物理模型和参数的精确重构和逼近,形成基于人工智能技术的多星一体化遥感图像精准处理能力。遥感数据时空处理与分析方面,多时相影像相比单一时相的遥感影像,能够进一步展示地表的动态变化和揭示地物的演化规律。然而,一方面受限于遥感自身的时间分辨率与空间分辨率之间的不可兼得;另一方面受气象、地形等成像条件的影响,光学传感器获取的遥感影像往往被云层及其阴影覆盖(特别是在多云多雨地区,如我国西南地区),而难以获取真实的地面信息。这样的数据缺失,严重限制了遥感影像的应用;特别是对于多时相影像的遥感应用(如森林退化、作物生长、城市扩张和湿地流失等监测),云层及其阴影所导致的数据缺失将延长影像获取的时间间隔、造成时序间隔不规则的问题,加大后续时间序列处理与分析的难度。因此,进行遥感影像的时间与空间维度的处理与分析对提高遥感影像数据的可用性、时间序列分析水平和遥感应用的深度广度具有重要意义。遥感目标要素分类识别方面,遥感数据中一般包含大量噪声,大多数现有的处理分析方法并未充分利用计算机强大的自主学习能力,依赖的信息获取和计算手段较为有限,很难满足准确率、虚警率等性能要求。如何在传统的基于人工数学分析的方法基础上,结合人工智能方法,定量描述并分析遥感数据中目标模型失真和背景噪声干扰对于解译精度的影响机理,是遥感智能分析面临的另一项关键科学问题。通过该问题的分析与发展,有望实现构建一个基于深度学习的多源遥感数据自动化分析框架,在统一框架下有机融合模型、算法和知识,提升遥感数据中目标要素提取和识别的智能化水平。遥感数据关联挖掘方面,随着遥感大数据时代的到来,我们可以更方便地获取高分辨率和高时间采集频率的遥感数据,对于目标信息的需求,也由目标静态解译信息,拓展到全维度的综合认知与预测分析。为了满足上述需求,基于海量多源异构遥感数据,实现时间、空间等多维度的信息快速关联组织与分析,是未来遥感解译技术发展的重要方向。遥感开源数据集和共享平台方面,大多数现有数据集仍然存在数据规模较小、缺乏遥感特性的问题,并且现有深度学习平台难以有效支撑遥感特性及应用,领域内数据集算法模型的准确性、实用性、智能化程度也待进一步提高。如何结合遥感数据特性,建设更具遥感特色的开源数据集和共享平台,是遥感智能生态建设的一项重要研究内容。本文主要围绕上述五个方面的研究,论述遥感智能分析技术的发展现状、前沿动态、热点问题和未来趋势。 01国际研究现状1.1遥感数据精准处理利用智能手段开展数据预处理技术,国外将智能技术用于遥感数据(光学、SAR、光谱)配准、校正等的工作。 1.1.1光学/SAR 精细化处理遥感图像为遥感应用分析提供了数据基础,可广泛应用于农林监测、城市规划、军事侦察等领域,遥感数据质量是决定其应用性能的关键。评价遥感数据质量的指标包括图像时间/空间分辨率、图像幅宽、空间特征、光谱特征、辐射几何精度等。高质量遥感影像具有高分辨率、高信噪比等特点。提升遥感影像质量的方法可大致分为两类,一是改进传统成像算法聚焦得到高质量图像;二是将已有的低质量的图像通过去噪去云以及超分辨率重建等技术得到高分辨率高质量图像。与传统的 SAR成像算法比较,基于深度学习的SAR 成像算法可以简化成像过程。Rittenbach等人(2020)提出 RDAnet 神经网络从原始雷达回波数据训练聚焦得到SAR图像,网络经过训练可以匹配距离多普勒算法的性能,算法将SAR成像问题处理为监督学习问题,RDAnet是第一个基于深度学习的SAR 成像算法。Gao等人(2019)提出了一种基于深度网络的线谱估计方法,并将其应用于三维 SAR成像,大大加快了成像过程。Pu(2021)提出了一种深度 SAR 成像算法,减少了 SAR 的采样量,并且提出了一种基于深度学习的 SAR 运动补偿方法,可以有效地消除运动误差的影响。仅依赖遥感卫星载荷能力推动图像分辨率提升,使得高分辨率图像成本大幅提高,给遥感图像大规模应用力带来困难。以超分辨、图像重构等为代表的图像级和信号级处理方法为遥感图像分辨率和质量提升提供了另一种可行的技术途径。Wei 等人(2021)提出了基于 MC-ADM 和基于 PSRI-Net 的两种参数化超分辨率 SAR 图像重建方法,根据预先设计的损耗,深度网络通过端到端训练来学习,可应用于得到高质量 SAR 超分辨率图像的参数估计。Luo 等人(2019)提出了一种基于卷积神经网络的SAR 图像超分辨率重建的方法,针对浮点图像数据采用深度学习对 SAR 图像进行重建,可以更好地重建SAR图像。针对非生成对抗网络在光学遥感图像超分辨重建以及噪声去除中出现的信息损失和对比度降低的问题,Feng(2020)提出了利用生成对抗网络对小波变换域光学遥感图像进行超分辨重建以及噪声去除的方法。Xiong(2021)提出了一种适应于遥感图像超分辨的改进超分辨率生成对抗网络(Super-resolution GAN, SRGAN),增强了模型在跨区域和传感器的迁移能力。Bai 等人(2021)提出一种改进的密集连接网络遥感图像超分辨重建算法。Dong等(2020)提出了一种改进的反投影网络实现遥感图像的超分辨率重建。Tao(2020)提出了一种以 DPSRResNet 作为其超级解析器的 DPSR 框架的遥感图像超分辨重建算法。Yang 等(2020)提出了一种多尺度深度残差网络(MDRN)用于从遥感图像中去除云。Wang 等(2021)构建了 SAR 辅助下光学图像去云数据库,建立了基于条件生成对抗网络的 SAR 辅助下的光学遥感图像去云模型,实现了SAR辅助下光学图像薄云、雾、厚云等覆盖下地物信息的有效复原与重建。目前,人工智能在遥感数据处理和图像质量提升方面的应用主要得益于机器学习技术的引入。基于GAN 网络的方法试图利用生成器克服原始高分辨率遥感图像难以获取的问题,另一些无监督的学习方法则通过学习图像质量退化前后关系试图获取原始的高分辨率遥感图像。由于迁移学习可以从其它域样本中获得先验信息,并且在目标域中进一步优化,借鉴迁移学习和零样本学习的思路可以尝试解决遥感图像质量提升的问题。由于作用距离远,遥感图像分辨率和清晰度相对于自然图像仍有一定的差距,这导致遥感图像细节丢失相对较为严重。为了从遥感图像中获取更为丰富的信息,需要对遥感图像空间特征进行提取(注意力机制、局部-全局联合特征提取等),需要对遥感图像目视效果进行可视化增强(边缘增强、小波变换等)。此外,面向图像细节特征解译的需求,还需要对遥感图像中的弱小目标和细微结构进行检测、提取和增强(弱小目标检测等),提升遥感图像中细节缺失造成的信息损失。 1.1.2光学/SAR 定量化提升可见光、SAR、高光谱等遥感图像的定量化提升主要体现在几何、辐射、光谱、极化等几个方面,通过寻找稳定点来消除成像过程中产生的畸变,改善图像质量,使数据产品能够定量化反映地物的真实信息,以达到定量化提升的效果。在国际主流研究中,神经网络技术主要被应用在提升图像匹配精度方面,并以此带动几何定位精度定量化提升。得益于机器学习方法的引进,遥感图像匹配技术获得了系统性发展,匹配精度获得了显著进步。典型的两种方法为局部特征点匹配方法和区域匹配方法。与全局特征相比,局部特征点与遥感图像获取的大场景松耦合,对大场景的仿射变化、辐射/亮度变化噪声水平不敏感。目前,基于特征点匹配的遥感图像质量提升技术取得了一系列研究成果。典型的特征点匹配包括关键点检测和描述子提取两个部分。深度学习应用于局部特征点匹配可以分成三个阶段,形成了三类代表性方法。第一类方法重点关注和解决关键点检测问题,即如何检测得到特征点的方向、位置、以及尺度信息。关键点检测中响应图的构建是重点,关键点检测的数量和准确性依赖于特征准确、信息丰富的响应图。Savinov 等人(2017)提出了无监督学习的神经网络训练方法,该方法首先将遥感图像目标像素点映射为实值响应图,进而排列得到响应值序列,响应序列的顶部/底部像素点即可以视为关键点。Ma 等人(2019b)采用由粗到细的策略,先用一个卷积神经网络计算近似空间关系,然后在基于局部特征的匹配方法中引入考虑空间关系的匹配策略,同时保证了精度和鲁棒性。第二类方法重点关注和解决描述子提取问题,即用一组特征向量表示描述子,描述子代表了特征点的信息,可以通过端到端训练获得描述子。描述子训练是获得高精度匹配结果的关键。Simo-Serra 等人(2015)提出了 Deep-Desc 特征点描述子提取方法,该方法中神经网络采用了 Siamese 结构(Chopra等, 2005),构造了一种 128 维的描述子,应用于具有一定差异性的图像对匹配问题,通过比较描述子欧氏距离对图像间描述子的相似性进行衡量。第三类方法关注于联合训练关键点检测模块和描述子提取模块。关键点检测和描述子提取两个模块的协同工作和联合训练是该方法重点解决的难点。Yi 等人(2016)提出了基于 LIFT 网络的联合训练,是最早解决关键点检测和描述子提取的联合训练的网络之一。LIFT 网络的输入是以 SIFT 特征点(Lowe, 2004)所在图像块,LIFT 网络的关键点检测效果也与 SIFT算法类似,鲁棒性较好。Ono 等人(2018)提出的LF-Net,采用 Siamese 结构训练整个网络,通过深层特征提取网络产生特征图。Shen 等人(2019)以LF-Net 为的基础,提出了基于感受野的 RF-Net 匹配网络,该网络实现关键点检测时保留了遥感图像低层特征、部分保留了遥感图像高层特征,在描述子提取中采用了与 Hard-Net(Mishchuk 等, 2017)一致的网络结构。与局部特征点相比,区域特征对整体性表征更加完整,对区域形变、区域变化等的稳定性更好。传统区域特征匹配技术的代表为模板匹配方法。深度学习应用于区域特征匹配形成了两类代表性方法。第一类方法的核心思想是用分类技术解决匹配问题。Han 等人(2015)利用 MatchNet 提取图像区域特征,将三个全连接层得到特征的相似性作为输出,对输出采用概率归一化处理(Softmax)进行分类匹配。Zagoruko 等人(2015)重点解决了对光照变化、观测角度具有很好适应性的区域特征提取问题,提出了基于DeepCompare 网络的区域特征提取方法,该方法的匹配性能对于不同时间空间获取的遥感图像具有极佳的稳定性。第二类方法的核心思想是构建合适的描述子解决区域特征匹配问题。Tian 等人(2017)提出了一种 L2-Net网络的区域匹配方,该网络生成了128 维的描述子,在迭代次数较少的约束下,利用递进采样策略,对百万量级的训练样本进行遍历学习,并通过额外引入监督提高学习效率,该网络泛化能力较好。可见,深度学习网络的引入在特征提取、关键点检测和描述子提取等多方面优化了遥感图像匹配能力。考虑到深度学习网络的持续研究,网络结构、训练方式的更新和进步有望进一步提升遥感图像匹配精度,基于深度学习的遥感图像匹配算法仍然具有相当的研究价值和应用前景。除了几何质量定量化提升外,还有少数研究学者开展了利用神经网络技术在辐射、光谱、极化定量化提升方面的研究工作。杨进涛等人(2019)提出了一种基于海量 SAR 数据进行地物散射稳定特性的分析与挖掘,并成功在普通地物中找到一种统计意义下稳定的散射特征量用作定标参考,从而为SAR 系统的常态化辐射定标奠定初步的技术基础。Jiang 等人(2018)考虑到极化观测过程中会受到多种误差的影响,造成极化测量失真,影响数据的极化应用性能,提出一种利用普遍分布的地物进行串扰和幅相不平衡的定量评价方法,该方法不受时间和空间限制,能够实现大量数据极化校正性能的实时、便捷评估,对极化数据质量进行长期监测。和几何定量化提升不同,神经网络技术在这些领域还没有大量的、深入的应用,为后续进一步进行系统性、规模化研究提供了指导方向。 1.2遥感数据时空处理与分析近年来,陆续开展多源遥感时间与空间协同处理与分析方面开展研究工作,力求实现多源数据间互补协同、融合重建,提高遥感时空分析的能力1.2.1遥感影像时间序列修复研究人员构建了大量的时间序列遥感影像修复和重建的方法。根据修复所用参考数据的不同,这些方法大致可以分为三类:基于影像本身的修补方法(self-complementation-based)、基于参考影像的修补方法(reference-complementation-based)和基于多时相影像的修补方法(multi-temporal-complementation-based)。基于影像本身的修复方法利用同一影像上无云/影覆盖区域的数据来修补被云/影覆盖区域的缺失数据;假设影像中数据缺失区域与剩余区域具有相似或相同的统计与几何纹理结构,通过传播局部或非局部无云区域的几何结构来重建云/影区域的缺失数据。依据空间插值与误差传播理论,缺失像素插值(missingpixel interpolation)、影像修补(image inpainting)和模型拟合(model fitting)等多种方法被广泛应用于云影区域的数据重建。虽然能够重建出貌似真实的影像区域,但这些方法对云/影覆盖下地物的类型非常敏感,其修补数据也不适用于进一步的数据分析;并且由于不确定性和误差随着传播而积累,这些方法很难修复大区域或异质缺失数据。为了克服基于影像本身修补方法的瓶颈,Chen 等人(2016)提出了通过模拟参考影像与云/影覆盖影像之间映射与转换关系的基于参考影像修补方法;这类方法依赖于不同光谱数据之间的强相关性,利用多光谱或高光谱影像中对云不敏感的光谱波段来重建被云/影覆盖区域其他波段的缺失数据。比如利用 MODIS数据的第七波段来修复第六波段的数据缺失、利用Landsat 近红外波段来估算水面区域的可见光波段、利用MODIS数据预测 Landsat 影像的缺失数据和利用不受云雨干扰的合成空间雷达数据来重建被云影覆盖的光学数据等。尽管参考影像能够提供云影覆盖区域的缺失信息,但这类方法仍然受到光谱一致性、空间分辨率和成像时间相关性等限制,而难以重建出高质量的用于模拟地表变化的时间序列数据。前两种方法受限于其对重建影像没有渐进变化的假设,这种平稳性假设将成为土地覆盖变化和作物生长监测等时间序列应用中的明显弱点。遥感卫星以固定的重复周期来观测地表,同一区域又不可能总是被云影覆盖,因此很容易获得同一区域的多时相影像。这些同一区域的多时相影像(有云/影覆盖的和无云/影覆盖的)提供了利用多时相影像修复云/影覆盖区域缺失影像的可能(Chen 等, 2011)。基于多时相影像的修补方法包括两个主要步骤:查找有云/影覆盖区域和无云/影覆盖区域相似的像元(pixel)或区域(patch)和利用相似的像元(区域)预测云/影覆盖区域的缺失数据。在查找相似像元中,Roy 等人(2008)深入研究并集成空间、光谱和时相等信息来度量有云/影覆盖区域和无云/影覆盖区域像元的相似性。在重建云/影覆盖像元中,Gao等(2017)提出和发展了诸如多时相直接替换、基于泊松方程的复制、时空加权插值等方法;同时也吸纳用于修复传感器条带修复的方法,如近邻相似像元插值(neighborhood similar pixel interpolator,NSPI)(Zhu 等, 2011)和加权线性回归(weightedlinear regression,WLR)等。近年来,深度学习方法也被运用于云影覆盖影像的修复和重建;Grohnfeldt 等人(2018)利用生成对抗网络(generative adversarial networks)来融合合成空间雷达数据和光学影像生成无云影像;Malek等人(2017)利用自动编码网络(autoencoder neuralnetwork)来构建有云影覆盖区域和无云影覆盖区域影像的映射函数;Zhang 等人(2018a)利用深度卷积网络(deep convolutional neural networks)集成光谱、空间和时相信息来修复缺失数据。虽然现有研究取得了不错的重建效果,但仍存在一些局限性:(1)相对于光谱和空间相似性,多时相影像中的时间趋势能更详细地反映地表覆盖变化,而以往方法(尤其是传统方法)中的简单线性回归或光谱、空间度量很难捕捉复杂的非线性时间趋势;(2)现有的利用深度学习的重建方法多集中运用空间卷积网络 CNN 获取光谱和空间纹理信息(且需要大量的训练样本),少有研究使用循环神经网络 RNN学习跨影像的时间趋势;(3)由于云/影总在不确定的影像区域和不确定的时间上出现,像元级的时间序列难以保证多时相影像的时间间隔相等与时相对齐,加大了现有方法进行时间序列重建的难度。1.2.2多源遥感时空融合遥感图像融合研究可大致分为两个阶段。第一阶段主要集中于全色增强算法研究,即通过融合来自同一传感器的全色波段和多光谱波段进而生成高分辨率的多光谱图像。这类算法研究较多,已形成较为成熟的系列算法。第二阶段则是多源多分辨的时空融合算法研究,即通过融合高空间分辨率遥感数据的空间分辨率特征和高时间分辨率遥感数据的时间分辨率特征,进而生成兼具高时间和高空间分辨率的遥感数据。这类研究从最近十几年才发展起来,仍处于快速发展阶段,研究成果相对较少,但是对遥感数据的应用具有重要意义。时空融合算法研究最早出现在 2006 年美国农业部 Gao(2006)的研究中。其在 Landsat ETM+和MODIS 数据地表反射率的融合中提出一种时空自适应反射率融合模型(Spatial and Temporal AdaptiveReflectance Fusion Model,STARFM),可融合生成具有和 Landsat ETM+数据一样空间分辨率的逐日(和 MODIS 数据时间分辨率一样)地表反射率数据。此后,系列基于 STARFM 或其他理论框架的融合算法相继被提出。当前的时空融合算法根据其融合原理可大致分为三种:基于解混、基于滤波和基于学习的方法。基于解混的方法,通过光谱替换的方式生成融合图像。基于滤波的方法,待预测像元值通过对其一定邻域内光谱相似像元的加权求和获得。而基于学习的方法(Huang 等, 2012; Song 等,2012),首先通过学习待融合传感器图像之间的映射关系,然后将先验图像的信息融入融合模型最终生成融合图像。基于学习的时空融合研究起初多在 MODIS 和Landsat 这两类遥感图像上。如针对这两类数据的融合,Song 等人(2012)提出基于稀疏表示的时空反射融合模型。该模型在已知两对 MODIS 和 Landsat图像对差分域中学习它们的映射关系,形成字典对信息。而因为两者图像的空间分辨率存在较大差异,作者设计了两层融合框架,使得基于稀疏表示的方法大大提高了融合精度,但字典对中存在扰动的问题一直不可忽视。Wu 等人(2015)通过引入误差边界正则化的方法到字段对学习中解决了扰动问题。近年来,因深度卷积神经网络在各类图像领域表现出良好性能,Song 等人(2018)提出基于卷积神经网络的遥感图像时空融合算法(SpatiotemporalSatellite Image Fusion Using Deep ConvolutionalNeural Networks,STFDCNN)。他们的模型分两阶段进行学习,首先学习降采样 Landsat 图像(lowspatial resolution,LSR)与 MODIS 图像之间的非线性映射关系;其次学习 LSR Landsat 图像与原始Landsat 图像之间的超分辨率映射关系。通过这两阶段学习模型实现对遥感图像中丰富细节信息的利用。尽管 STFDCNN 模型在时空融合性能上大幅度超过其他融合算法,但因其神经网络层数较少(仅有 3 个隐藏层),如此浅层的卷积神经网络对存在较大空间尺度差异的不同卫星传感器数据(MODIS-Landsat)间的非线性映射关系的学习仍是有难度的。因此,当前如何处理两类传感器数据(MODIS-Landsat)之间的空间差异变化,以及如何确定深度卷积网络的最优层数和卷积核数目仍旧是卷积神经网络时空融合算法研究中亟待解决的问题。此外,Kim 等人(2016)在超分辨重建研究中,通过利用残差网络结构得以训练一个深度的卷积神经网络模型,这对后续遥感图像融合研究具有一定启发。 1.3遥感目标要素分类识别经典遥感要素分类与识别方法一般为“单输入单输出”的模型架构,面向不同目标要素、不同模态数据或不同分类识别任务时,通常设计不同的专用网络模型。而我们实际面临的应用场景中,常会有不同模态的数据供我们使用,并给出多种类型的决策结果,例如,人类的感知系统会结合听、说、看等多种输入,并给出目标的位置、属性等多种信息。而传统的模型架构难以实现这种“多输入多输出”的能力,主要问题在于,一是传统模型对新场景、新任务的适应能力不足;二是模型对各类数据的特征提取过程相对独立,难以实现不同数据的特征共享从而实现性能增益;三是在多输入多输出情况下,传统模型的简单叠加会导致计算和空间复杂度的显著上升,限制其实用能力。为了解决上述问题,当前的主流发展方向是多要素目标信息并行提取,通过在网络模型中探索多模态数据、多任务多要素特征的共享学习,在降低模型复杂度的同时提升其泛化能力。1.3.1典型遥感目标要素提取传统的遥感目标要素提取方法面向不同目标要素时,通常设计不同的专用的方法流程。这种流程设计主要解决两类问题,一是针对遥感数据本身的特征/特性分析,为构建适合数据特征/特性的模型提供依据;二是适合遥感数据特点的专用网络模型构建,即以通用的网络模型为基础,构建符合遥感数据特点的模型,改进通用模型在遥感数据中的应用能力。遥感数据的获取过程中存在诸多与自然场景图像不同的影响因素,如电磁波散射特性、大气辐射特性、目标反射特性等,因此对于数据的上述特性的分析和表达是构建有效模型的基础。Kusk 等人(2016)和 Hansen 等人(2017)通过对 SAR 成像时地形、回波噪声等要素进行建模,实现基于 3DCAD 对不同类型地物要素的 SAR 图像仿真。Yan等(2019)通过对舰船等目标进行三维模型构建,从而生成仿真的目标点云数据。Ma 等(2019a)提出了一种包含生成和判别结构的网络模型,通过对抗学习实现样本表观真实性的增强。Zhan 等(2017)和 Zhu 等(2018)提出了一种针对高光谱影像分类的生成对抗网络模型。Zhang 等(2018b)设计出一种基于条件模型的生成对抗网络,用于遥感图像中飞机目标的精细仿真。Yan 等人(2019)则基于点云数据在三维空间上进行船舶模型构建,并利用正射投影变换将模型从模型空间投影至海岸遥感图像上进行仿真数据生成。为了进一步提升仿真对象和遥感背景间的适配性,Wang 等人(2020b)则进一步提出利用 CycleGAN 对仿真的飞机目标和背景进行自适应调整,设计了一种用于目标检测任务的建模仿真数据生成框架。在地物要素分类任务上,Kong 等人(2020)则利用 CityEngine 仿真平台的批量建模特性,首次探索在广域范围内进行城市级别的场景建模,并发布了一套用于建筑物分割的遥感仿真数据集 Synthinel-1。面向遥感数据特点的专用网络模型设计方面,主要结合遥感图像中目标旋转、多尺度、目标分布特性等特点,针对性设计网络结构来提升专用模型性能。Zhou 等(2018)设计了一种源域到目标域数据共现特征聚焦结构,提升高光谱图像的语义分割效果。Luo 等(2018)针对高光谱图像语义分割中存在的类内特征分布差异,提出了一种均值差异最大化约束模型。Rao 等(2019)设计了一种自适应距离度量模型,提升高光谱图像地物要素的分类精度。Kampffmeyer 等(2016)针对地物要素数量、空间分布差异大的问题,提出了一种结合区域分组与像素分组的模型训练策略,用于国土资源监测任务。Liu 等(2017)针对遥感目标尺度差异大的特点,提出基于沙漏网络的多尺度特征增强模型,提升光学遥感图像的分类精度。Marcos 等人(2018)提出了基于旋转卷积构建的多源数据提取网络,通过编码图像的旋转不变性特征在多个数据集取得了先进的结果。Peng 等人(2020)基于注意机制和密集连接网络有效融合 DSM 数据和光谱图像并获得了更好的分割效果。Hua 等人(2021)提出了特征和空间关系调节网络,利用稀疏注释,基于无监督的学习信号来补充监督任务,显著提升了语义分割的性能。随着遥感图像分辨率的提升、网络深度的增加、参数的堆叠带来性能的提升,与之相伴的是庞大的模型、巨量的参数和缓慢的算法效率。考虑到星上遥感数据实时处理对计算资源、存储资源的限制,一些工作尝试在保留算法高性能前提下,减少模型参数,提高算法运算速度。Valada 等人(2019)利用分组卷积的设计思想提出了一种高效的带孔空间金字塔池化结构,用于高分辨遥感图像地物要素提取。提出的方法能够减少 87.87%的参数量,减少89.88%每秒浮点运算次数(floating-point operationsper second, FLOPS)。Zhang 等人(2019b)基于深度可分卷积设计了一种面向合成孔径雷达图像的船舶检测算法的特征提取网络,大大提升了检测速度,相比于轻量化前的网络检测速度提高了 2.7 倍。Cao等人(2019)利用深度可分卷积设计了一种用于提取数字表面模型数据的结构,该网络结构无需预训练模型仍可以快速收敛,将网络训练时间降低 50%以上。Wang 等人(2019b)提出一种轻量级网络MFNet,实现对高分辨率航拍数据的地物要素分类任务的高效推理,相比于轻量级网络 ResNet-18,提出的网络在分类精度提升的同时,将参数量减少了40%,推理速度提高了 27%。Ma 等人(2020)针对灾后损毁评估任务,以 ShuffleNet v2 模型为基础,设计了一种轻量化建筑物提取模型,相比传统模型,在精度提升 5.24%的同时,速度提高 5.21f/s。上述方法通过结合遥感目标要素特点,通过提出专用网络结构或特征提取方法,提升传统模型针对遥感数据的应用能力。然而,对于不同类型数据、不同特征/特性,仍缺乏统一的网络结构进行表征,因此多要素信息多任务并行网络和模型仍需进一步研究。1.3.2多要素信息并行提取多要素信息并行提取方法的研究,主要集中于探索如何在一个统一模型中实现多类遥感地物要素目标的类别、位置等属性信息的高精度获取。如前所述,针对这种典型的“多输入多输出”场景,现有方法重点针对多模态输入数据的特征表示和多任务输出特征的共享融合两方面问题开展研究。特征共享研究方面,根据模型共享参数实现方式的区别,现有方法可大致分为硬参数共享( hard-parameter sharing ) 和软参数共享(soft-parameter sharing)两种。硬参数共享方法利用同一个模型实现在输入和输出端的多任务分支模型特征共享融合。Liebel 等(2020)面向城市建设状况分析任务,将多个任务共享同一编码器,并分别解码输出,实现同时输出建筑物位置和深度信息。Papadomanolaki 等(2019)将地物要素重建模型融合到分类模型中,并约束分类模型训练,来提升分类效果。Khalel 等(2019)则在同一个网络模型中同时嵌入图像锐化与地物要素分类两类任务的模型。Rosa 等(2020)设计了一种面向农业生产状况监控的多任务全卷积回归网络。软参数共享方法直接将针对不同任务的多个独立网络通过参数加权连接,实现多类任务的共享输出。Volpi 等(2018)将条件随机场拟合结果与图像同时作为数据,构建类内相似度和边界值预测的两个分支模型,改善地物要素分类结果。Zhang 等(2019a)提出了面向极化 SAR 多通道数据的地物要素分类方法,利用独立的特征提取网络对幅值和相位信息分别建模,利用分类器进行联合约束训练,来提升精度。Shi 等(2020)针对高光谱图像的多类要素分类任务,利用多任务集成学习实现通道选择,获取最优通道组合。针对多模态数据的联合特征表示,如图像纹理特征、三维高程特征、目标要素矢量拓扑特征等,能有效提升各类任务的性能。Chen 等(2019)针对洪灾区域检测任务,提出融合多时相的多模态图像的模型,来提升其检测精度。Fernandez 等(2018)将SAR 图像和多光谱图像作为输入,进行无监督的地物要素分类。Benson 等(2017)在森林冠层三维高度估计任务中,提出利用光谱特性数据的方法,能有效改善传统三维估计方法的精度。
  • [行业资讯] 遥感监测、物联网、云计算……浙江大运河世界文化遗产监测系统全面上线,现代科技守护“千年文脉”
    一水连南北,文脉贯古今。“中国大运河”成功列入《世界遗产名录》已然八载,这个活着的世界文化遗产,在悠悠岁月中承载着古今文化的传扬,吟诵着江南韵味的篇章。今天上午,“同一条运河:千年运河情,百年共富梦”第二届浙江大运河世界文化遗产宣传周活动在湖州市南浔区大运河畔启幕。作为大运河诗路的人文荟萃地,南浔区拥有大运河和桑基鱼塘两大世界级文化遗产。当下,一场运河古镇集群文化复兴行动正在南浔区展开,以打造“活态的文化,活着的古镇”为目标,南浔区整合南浔古镇、练市古镇、双林古镇、菱湖古镇、善琏古镇、荻港古镇6个古镇资源,打造世界级运河文化集中展示地、长三角水乡旅游首选地、新时代文化润富新高地。一部《条例》守护运河千年文脉的“浙江经验”大运河浙江段列入《世界遗产名录》的共有5段河道,长327公里,流经5个设区市,遗产点13个,涉及遗产区26.58平方公里,缓冲区103.59平方公里。这一流淌的、动态的世界遗产如何保护?2020年9月24日,《浙江省大运河世界文化遗产保护条例》经浙江省十三届人大常委会第十四次会议审议通过,于2021年1月1日起正式施行。这也是国内第一部关于大运河世界文化遗产保护的省级地方性立法,为有效保护大运河提供了法治支撑。《条例》施行一年多来,浙江省坚持“保护优先、活态传承、合理利用”的原则,努力保护好、传承好、利用好大运河这一祖先留给我们的宝贵遗产。对大运河遗产区、缓冲区外核心监控区的开发利用实行负面清单管理制度,实现了文化遗产保护、生态环境提升以及国土空间管控的统筹协调,推动了大运河文化带和大运河国家文化公园建设。截至目前,浙江已实施大运河岸线保护整治工程项目1240个、投入资金41.53亿元,接待人次5105.9万人。浙江省文化和旅游厅党组成员、省文物局局长杨建武说,大运河保护是无尚荣光,也是千钧重担,在社会经济快速发展的背景下,规模巨大的大运河遗产面临的保护压力是显而易见的,要认真贯彻落实好《浙江省大运河世界文化遗产保护条例》,搭建一个全社会知法守法护法的常态化普法传播平台,推动形成全社会共抓大保护的格局。一个“窗口”五地联动共同勾勒运河沿岸动人图景随着《浙江省大运河世界文化遗产保护条例》的施行,浙江省大运河沿线城市党委政府以及相关省级部门紧紧围绕打造“重要窗口”,全力推进大运河遗产保护及文化传承各项工作。大运河不断焕发新的生机与活力,同时也推动着文化的传播、历史的传承,推动着人们走向无限向往的远方。动仪式上,保护运河仍是核心话题。杭州、宁波、湖州、嘉兴、绍兴五座运河沿线城市视频连线,共同讲述大运河的遗产价值以及沿线民众参与大运河保护、与大运河交融共生的动人故事。积极回应了大运河保护是历史文化,也是当代生活。只有当大运河文化遗产保护、特色地域文化传承展示与生态环境提升、文旅融合发展以及沿岸民生改善统一起来,大运河才能成为两岸人民的致富河、幸福河。一套系统构建大运河数字化监测和保护体系据了解,《浙江省大运河世界文化遗产保护条例》明确,县级以上人民政府应当建立健全大运河遗产综合保护协调机制,根据需要明确或者设立监测专业机构。去年浙江省首届大运河世界文化遗产宣传周期间,由浙江省世界文化遗产监测中心联合杭州、宁波、嘉兴、湖州、绍兴五地共同成立了“浙江省大运河世界文化遗产监测联盟”。在今年的宣传周活动现场,“浙江省大运河世界文化遗产监测系统”全面建成并正式上线运行。该系统综合运用地理信息、遥感监测、物联网、云计算等技术实现一个界面纵览(浙江段)世界文化遗产基础数据,横向协同自然资源、生态环境、交通水利等多部门数据,并贯通国家、省、市、县四级管理体系,以数字化改革赋能世界遗产保护,将有助于全面提升大运河(浙江段)保护管理能力和水平治理能力。本次宣传周活动谋划了古城复兴计划启动、杭甬城市对话等系列精彩活动,深入挖掘运河文化价值,开展群众喜闻乐见、参与体验性强的运河民俗活动,集中呈现大运河浙江段世界文化遗产的动人魅力,进一步凝聚全社会合力,共同守护同一条运河,同一个梦想。
  • [行业资讯] 中煤航测遥感集团两项目入选工信部物联网示范项目名单
    近日,国家工业和信息化部发布公示,中煤航测遥感集团承担的“基于物联网+大数据的油气管网全生命周期智慧管控应用系统”和“煤层自燃监测物联网平台”2个项目入选国家工信部2021年物联网示范项目名单。本次入选国家工信部物联网示范项目共179个,其中关键技术攻关类项目42个、融合应用创新类项目137个,中煤航测遥感集团入选的2个项目均为融合应用创新类项目。项目的成功入选,是国家工信部对中煤航测遥感集团在推动物联网赋能行业智慧化发展、促进行业数字化转型方面的肯定,将进一步激励集团抢抓数字经济机遇,聚焦物联网、大数据、云计算等新技术的创新应用,助力传统产业的转型升级和高质量发展。
  • [参赛经验分享] 2020西安人工智能大赛优胜奖经验分享-遥感图像道路提取-怎央打团队
    我们是怎央打团队,以下是对本次大赛的一些心得的分享。我们从数据切分方式、网络选择、训练的Tricks、后处理等方面来介绍我们所使用的方法。一、数据切分方式我们本次参赛的训练过程包含两个阶段(后面会详细介绍),每个阶段使用了不同的数据划分方式。训练阶段一将图像划分为大小为1024x1024、重叠率为1/8的图像块(与baseline中的cut_data.py一致)。训练阶段二将图像划分为大小1024x1024且无重叠的图像块。切分结束后,对两个数据集都进行了数据清洗,去掉image图像为全黑(无图像信息)以及label图像为全白(无道路)的图像对。然后将切割代码会产生的个别label错误的图像对手动删除, 这样的问题在切分后的数据集中一般会出现小于十组图像对。二、网络选择本次参赛使用的网络是LinkNet34, 将LinkNet网络自身的backbone由ResNet18替换为ResNet34,使用的Loss是BCE+DICE一比一的直接加和。经过比赛期间的测试我们发现不同的网络对于结果的影响不会到很明显的程度,因此在网络结构本身的选择上其实在比赛早期可以不用花太多功夫。提分重点还是在数据增强、后处理和训练技巧上。三、训练的Tricks数据增强使用了①亮度对比度随机变换(albumentations默认的参数设置);②随机尺度的高斯模糊(尺度3-7随机);③HSV抖动;④物理增强(平移、尺度缩放、旋转±15°、随机水平垂直翻转、随机旋转90°)。数据增强之后将输入网络的图像像素值归一化到±1.6(借鉴自D-LinkNet)。采取了两步训练的方式,第一阶段和第二阶段的训练数据不同,数据准备如第一部分内容中所述。第一阶段使用imagenet预训练的权重做初始化,第二阶段使用第一阶段的训练结果作为初始化。优化器使用Adam,在训练阶段1初始化学习率为2e-4,衰减周期为5个epoch,衰减系数为0.9;在训练阶段2初始化学习率为1e-5,衰减周期为1个epoch,衰减系数为0.9。四、后处理在模型预测阶段使用了8张预测结果来整合最终结果(原图、水平翻转、垂直翻转、水平+垂直翻转,以及上述4张图分别逆时针旋转90°得到的图)。同时采用了膨胀预测的方法。谢谢大家!本文首发  AI Gallery: https://marketplace.huaweicloud.com/markets/aihub/modelhub/detail/?id=2b06e091-140e-4e2e-b39a-8ad9bfa80f16本赛事赛题:https://competition.huaweicloud.com/information/1000041322/circumstance决赛获奖选手分享集锦:https://competition.huaweicloud.com/information/1000041322/share
  • [资产园地] 遥感卫星影像数据集 "华为云杯"2020人工智能创新应用大赛数据集
    描述“华为云杯”2020人工智能创新应用大赛赛题任务:基于高分辨可见光遥感卫星影像,提取复杂场景的道路与街道网络信息,将影像的逐个像素进行前、背景分割,检测所有道路像素的对应区域。数据集为data.zip,详细介绍请查看赛题页面说明。
  • [公告] 航天宏图加入昇思MindSpore社区,自主研发耕地保护遥感检测平台,为国家实施最严格的耕地保护制度提供决策支持
    航天宏图完成ISV认证正式加入昇思MindSpore社区。  航天宏图简介  航天宏图信息技术股份有限公司,华为认证级ISV伙伴,是国内领先的遥感和北斗导航卫星应用服务商,致力于卫星应用软件国产化、行业应用产业化、应用 服务商业化,研发并掌握了具有完全自主知识产权的PIE(Pixel Information Expert)系列产品和核心技术,为政府、企业、高校以及其他有关部门提供基础软件产品、系统设 计开发和数据分析应用服务等空间信息应用整体解决方案。公司于2019年7月在科创板上市,并且是首批科创板上市企业中唯一的遥感应用企业。 昇思MindSpore是华为开源的一款全场景AI框架,旨在提供友好设计、高效运行、简捷部署的开发体验,目前应用于医疗、金融、科研等多个领域,提供面向端边云多种场景的主流硬件支持,并针对昇腾硬件平台提供深度优化能力。昇思MindSpore着力构筑面向全球的人工智能开源社区,推动人工智能软硬件应用生态繁荣发展。航天宏图在加入MindSpore社区后,基于MindSpore框架自主研发耕地保护遥感检测平台,构建多种业务化服务模式,满足自然资源管理准确性、大范围、高频次、业务化的监测需求,为国家实施最严格的耕地保护制度提供决策支持。基于该解决方案,满足耕地监测的全流程处理需求,紧跟政策导向,基于丰富的自然资源监测项目案例,涵盖耕地变化监测、农作物空间分布监测、重点区域遥感督察等方面的经验,可有效助力于“非农化”“非粮化”监测工作开展。近期收到许多小伙伴想为自己的企业申请加入昇思MindSpore社区完成企业ISV认证,感谢大家的信任与支持,昇思MindSpore社区也会继续努力的帮助加入的企业伙伴们更加高效地完成项目落地,昇思MindSpore社区欢迎更多企业加入,一起实现梦想!如您也想加入昇思MindSpore社区,完成技术相关的认证可以将原由发送至邮箱:wujiacong1@huawei.com如有与昇思MindSpore社区相关的任何疑问,添加小助手(微信:mindspore0328)。往期推荐+轩辕研究院加入昇思MindSpore社区,自主研发AI科学计算平台,满足科研人员对科研数据存储、数据标注、模型训练等相关需求!+中海庭加入昇思MindSpore社区,自主研发数据自动化生产平台,已完成全国高速公路合计十几万公里的高精度电子地图数据!+慧远智控加入昇思MindSpore社区,自主研发HY智能行车控制系统,应用在智慧水域领域,在水厂的行车智能化改造有着重要作用!+博瓦加入昇思MindSpore社区,解决非结构化视频数据的结构化检索与视图对象的关系分析、行为分析等!MindSpore官方资料GitHub : https://github.com/mindspore-ai/mindsporeGitee : https : //gitee.com/mindspore/mindspore官方QQ群 : 486831414
  • [技术干货] 【技术长文】航天“星”科技走进大众生活
    转自https://news.sina.com.cn/c/2021-12-27/doc-ikyamrmz1419997.shtml  湖北武汉。一辆班列行驶在“一带一路”上,列车集装箱的实时数据,回传至航天科工行云公司测运控中心。通过“行云工程”的卫星,可以实时跟踪了解集装箱的位置、温湿度、开关门状态等信息。  江苏无锡锡山区。6辆全自动无人驾驶小巴,顺利地完成地铁站到居民区的人员接驳。借助基于卫星数据的车联网,小巴能自主完成行驶途中控制车速、超车变道、避让行人等行驶行为,目前已实现常态化运行。  “天问”登火、“羲和”探日、“天宫”揽胜……2021年,中国航天事业飞速发展。在拥抱星辰大海的同时,天上的卫星,如何日益密切与大众生活的关系,不再遥不可及?日前,记者就此进行了采访。  天基物联网:平均每30分钟一次卫星过顶,开启万物互联“星”时代  与互联网把人连接起来不同,物联网是把人与物、物与物都进行连接。生活中常见的共享单车、智能家居、自动贩卖机等,都是物联网为我们带来的便利。  地面物联网是基于地面通信基站的通信,主要用于人口稠密地区。受地面环境所限,全球依然有超过80%的陆地以及95%以上的海洋处于通信盲区。  “行云工程”有望改写这一局面,海洋、岛屿、沙漠等地或能轻松互联。  “行云工程”又称天基物联网、卫星物联网,通过发射行云卫星上天组网,以80颗常态化运行的覆盖全球的低轨卫星为基站,组成“天基”,实现地面通信全球覆盖,为地面用户提供物联网服务。  它不仅填补了陆地和海洋的通信盲区,还是我国首个投资建设的低轨窄带通信卫星星座。  中国航天科工集团“行云工程”总设计师刘萧磊介绍:“低轨道的通信卫星能够弥补高轨卫星的不足,通过赤道平面‘极轨道’的形式,为高纬度区域和两极提供较好的信号覆盖,让卫星的覆盖面积更广。‘窄带’,能以较低耗能提供长时间的通信服务,保证卫星运行的稳定性,降低设备日常维护成本。这两重特性使得天基物联网与地面物联网形成了强有力的互补关系。”  2020年5月12日,随着“行云二号”01、02号星成功发射,“行云工程”第一阶段建设已完成。在轨一年多来,两颗“行云二号”卫星成功验证了多项关键核心技术。  在空间段方面,这两颗卫星首次实现了我国低轨卫星星间激光通信。简单来说,两颗卫星不需要地面的基站进行信息“转述”,通过激光通信技术,就可以在太空中直接“打招呼”、传信息。  这打通了物联网卫星之间空间信息传输的瓶颈,提高了卫星通信的实时性,意味着在全球范围内的各种定位信息、图片信息的传递速度会更快、稳定性会更好。  行云卫星还首次采用了星载数字多波束通信载荷,通过自主创新的先进通信协议,实现了单颗卫星每小时服务25万个应用终端的海量短数据接入。  正是通过突破以这两项为主的关键核心技术,“行云工程”跨越山川和大海,致力于让通信信号无死角,从而实现“万物皆可互联”。  当前,行云卫星已经量产。“行云工程”第二阶段的首批6颗小卫星均已投产,预计2022年完成第二阶段共12颗卫星的发射任务。  航天科工行云公司董事长钱微介绍,第二阶段建设完成后,将实现小规模组网,在空间段、地面段及用户段再次提升多项关键核心技术。届时,中国及中国周边区域可以达到平均每30分钟就有一次卫星过顶、提供一次卫星通信服务的能力。这一阶段将在国内重点城市及“一带一路”沿线国家,航海、气象、环保、应急等10多个重点行业领域规模化推广应用,实现从“试用”到“实用”的跨越。  在珍稀动物保护和研究中,天基物联网能在不打扰它们的情况下,以有效的通信手段,向研究所回传数据;在地质灾害发生后,地面基站损毁,地面网络覆盖不足的情况下,天基物联网能提供有效补充,为灾情研究及救援提供帮助;在未来的城市生活中,天基物联网可以使无人机摆脱地面信号覆盖不到的苦恼,人们可以真正体验无人机快递上门……“万物皆可互联”,将为人们生产生活、经济社会发展带来更多便利。  即时遥感星座:任意地点分钟级观测  “中国杂粮之都”,山西忻州。  冬日严寒,国家级忻州杂粮市场的交易却十分火热。  市场有个特优农产品数字化种植基地监测平台。这个平台可不一般。  中国航天科工集团第三研究院航天海鹰卫星运营事业部总经理助理赵敏向记者介绍:“它利用遥感卫星数据和地面物联网设备监测、采集杂粮全生命周期相关信息,实现‘空天地’一体化监测。不仅能够提供市场内交易农作物分类和交易经营主体信息,还能提供微观和宏观结合的农作物种植、产量情况分析,以及田间设备的状态。”  杂粮怎样种植?忻州山大沟深、气候干旱,农作物生长环境算不上得天独厚。相比过去,如今当地很多种植企业和农业合作社在种植时省心很多。依托监测平台,人们通过终端操作,就可以直观地看到指定农场、指定农作物种植区域的土壤墒情、农作物生长状况、病虫害分析、农业设备等情况,及时调整应对措施。  杂粮怎么买卖?同样是通过监测平台,不仅交易公司可以动态掌握杂粮商品交易数据,对杂粮种植与产量波动、重大灾害、环境变动等引起的杂粮商品供应波动情况及时发布预警并做出交易决策,交易双方也可以快捷了解杂粮供需、成交等信息,提高交易效率,降低交易风险。玉米、小米、藜麦、莜麦、荞麦等杂粮,就这样销往山外。  全球首批国际湿地城市之一,江苏常熟。  自今年10月27日在酒泉卫星发射中心发射升空以来,“航天星云·常熟一号”一直在轨稳定运行。根据轨道预报,每当它掠出地平线,位于常熟南湖湿地公园内的常熟卫星地面接收站就能精准捕捉到它,开始进行跟踪交互。  目前,航天海鹰卫星运营事业部正在为常熟构建市级遥感卫星综合服务平台——“城市监测一张图系统”,从卫星图像上研究自然资源、规划建设、管理运营、生态等多方面城市治理数字化建设关键信息。  “航天星云·常熟一号”卫星与常熟卫星地面接收站的合作,可支撑常熟及长三角区域自然资源调查、生态环境监测、城市综合治理以及防灾减灾等领域的卫星应用。  农田什么时候灌溉,灌溉量多大,该使用哪些肥料?自然灾害位置在哪儿、损害程度如何、是否还会有次生灾害……越来越多的领域,需要对地球实时监测的信息来帮助人们决策、辅助人们行动。“即时遥感星座”应运而生。  “如果说遥感卫星是能给地球拍照的‘照相机’,那么‘星座’就是很多‘照相机’的集合。”赵敏打了个比方。  “即时遥感星座”,通常融合星上智能处理、星间链通信等多种高精尖技术,因而能实现任意目标分钟级重访,任意地区遥感数据小时级获取。  在今年11月召开的第七届中国(国际)商业航天高峰论坛上,航天科工集团第三研究院提出构建航天星云即时遥感星座(简称“星云星座”)计划,打造由卫星系统、地面系统和应用系统组成,智能、弹性的即时遥感星座。  与其它遥感星座不同,“星云星座”采用多元投资、分散建设、统一运营新模式。围绕灾害应急、生态环保、交通监管、自然资源管理等场景的全天候、全天时信息获取需求,以卫星协同组网实现全球快速覆盖。  “星云星座”具备什么特点?  “准实时、广覆盖、多谱段、高智能、强自主、云应用。”赵敏介绍,即时遥感卫星能够提供分钟级高分数据、高光谱数据、微光数据、红外数据和SAR数据,基于航天星云·卫星资源共享服务平台,实现分钟级(快速)和小时级(常规)的信息提取、分发与共享。  应用在灾害应急领域,“星云星座”可以满足灾害监测全过程各个关键时间点信息的即时获取需求,为建设全生命周期应急数据库提供数据支撑,为承灾体调查、灾害风险与损失评估、灾后恢复重建等应急场景的应急监测、指挥调度提供重要决策依据,有效降低生命财产损失。  应用在生态环保领域,“星云星座”丰富多源的卫星数据,可为生态红线与自然保护地监管、大气污染监测、水环境污染监测等生态环保日常监管和保护督查等工作,提供技术支持和问题线索。  应用在交通监管领域,“星云星座”可实现对舰船、大型车辆等重点目标以及公路稳定性调查、桥梁形变监测、海上搜救等场景的连续监测,有效提升交通运输部门应对突发事件的快速反应能力与决策指挥能力。  智能生产线:为小卫星组网提供量产能力  建设天基物联网、“星云星座”,都需要卫星量产规模的保障。  武汉卫星产业园内,今年5月首星下线、全面投入使用的国内首条小卫星智能生产线,正在有序生产。它把卫星制造从传统人工生产,转变为机器人流水线式制造,为低轨小卫星组网提供了量产能力。  “相对传统小卫星制造,效率提高了70%至80%,成本也降低了20%至30%。”航天科工空间工程公司武汉智能制造中心主任沈文发介绍,小卫星智能生产线的设计产能是每年240颗卫星,在国际上处于先进水平。  怎样提高卫星生产效率、提升卫星智能制造能力?空间工程公司在卫星柔性智能生产线建设上下足了功夫。  自2019年启动建设以来,空间工程公司突破了适应多品种变批量需求的可重构技术等11项关键技术。这些关键技术,可实现生产过程中精准感知、关键工序质量实时控制、制造全过程数据采集与控制等功能,全面提高了小卫星批量生产效率。  该产线由仓储与配送系统、部装系统、总装系统、测试系统和试验系统组成,具有“柔性智能化、数字孪生、云制造”的特点。通过“信息软件柔性+设备硬件柔性”,提高产线柔性智能化生产能力,实现不同产品的柔性共线生产;通过打通系统设计制造一体化流程,实现由物理现实中试错生产向虚拟空间优化迭代的研制生产模式转变,打造“数字孪生”;产线采用国际领先的云制造模式,强化资源的共享和协同,实现产业链上下游企业数字化集成,打造“三公里产业生态圈”。  批量生产的小卫星,逐渐揭去人们心中航天科技神秘的面纱。  如今,随处可见的卫星服务,正在与国计民生息息相关的众多领域发挥着重要作用。面向交通安全智能化监管应用需求,航天系统公司构建的基于北斗的车辆监管应用,通过“北斗+视频+大数据”形式,实现了对客运车辆状态、路段风险和17项不安全驾驶行为的实时预警和闭环监管,降低交通事故发生概率;运用“车联网+北斗高精度定位+AI人工智能”技术构建的“缓堵”生态系统,有效提升行车速度;构建的“空天地海一体化”卫星数据处理与应用服务体系,面向测绘、水利、环保、林草、海洋、农业、国土等行业领域,提供了全面的空间信息综合服务解决方案。  从气象卫星、导航系统,到国土资源监测、生态环境保护,再到应急救援、生物科技,航天“星”技术及其产品的应用,早已深入人们生产生活的各个方面。它们拥抱星辰大海,也帮助我们创造美好生活。(记者 初英杰)
  • [知识分享] 【AI系列】AI+云原生,把卫星遥感虐的死去活来
    >摘要:遥感影像,作为地球自拍照,能够从更广阔的视角,为人们提供更多维度的辅助信息,来帮助人类感知自然资源、农林水利、交通灾害等多领域信息。本文分享自华为云社区[《AI+云原生,把卫星遥感虐的死去活来》](https://bbs.huaweicloud.com/blogs/296183?utm_source=csdn&utm_medium=bbs-ex&utm_campaign=other&utm_content=content),作者:tsjsdbd。 # AI牛啊,云原生牛啊,所以1+1>2? 遥感影像,作为地球自拍照,能够从更广阔的视角,为人们提供更多维度的辅助信息,来帮助人类感知自然资源、农林水利、交通灾害等多领域信息。 AI技术,可以在很多领域超过人类,关键是它是自动的,省时又省力。可显著提升遥感影像解译的工作效率,对各类地物元素进行自动化的检测,例如建筑物,河道,道路,农作物等。能为智慧城市发展&治理提供决策依据。 ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/093315apivhi1m6mheyyog.png) 云原生技术,近年来可谓是一片火热。易构建,可重复,无依赖等优势,无论从哪个角度看都与AI算法天生一对。所以大家也可以看到,各领域的AI场景,大都是将AI推理算法运行在Docker容器里面的。 AI+云原生这么6,那么强强联手后,地物分类、目标提取、变化检测等高性能AI解译不就手到擒来?我们也是这么认为的,所以基于AI+Kubernetes云原生,构建了支持遥感影像AI处理的空天地平台。 不过理想是好的,过程却跟西天取经一般,九九八十一难,最终修成正果。 # 业务场景介绍 遇到问题的业务场景叫影像融合(Pansharpen),也就是对地球自拍照进行“多镜头合作美颜”功能。(可以理解成:手机的多个摄像头,同时拍照,合并成一张高清彩色大图)。 ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/093410rzv6cxp9khvasac7.png) 所以业务简单总结就是:读取2张图片,生成1张新的图片。该功能我们放在一个容器里面执行,每张融合后的结果图片大约5GB。 问题的关键是,一个批次业务量需要处理的是3000多张卫星影像,所以每批任务只需要同时运行完成3000多个容器就OK啦。云原生YYDS! # 业务架构图示 为了帮助理解,这里分解使用云原生架构实现该业务场景的逻辑图如下: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/0934319zurepst4vva3mkm.png) 在云上,原始数据,以及结果数据,一定是要存放在对象存储桶里面的。因为这个数据量,只有对象存储的价格是合适的。(对象存储,1毛钱/GB。文件存储则需要3毛钱/GB) 因为容器之间是互相独立无影响的,每个容器只需要处理自己的那幅影像就行。例如1号容器处理 1.tif影像;2号容器处理2.tif影像;一次类推。 所以管理程序,只需要投递对应数量的容器(3000+),并监控每个容器是否成功执行完毕就行(此处为简化说明,实际业务场景是一个pipeline处理流程)。那么,需求已经按照云原生理想的状态分解,咱们开始起(tang)飞(keng)吧~ 注:以下描述的问题,是经过梳理后呈现的,实际问题出现时是互相穿插错综复杂的。 # K8s死掉了 当作业投递后,不多久系统就显示作业纷纷失败。查看日志报调用K8s接口失败,再一看,K8s的Master都已经挂了。。。 K8s-Master处理过程,总结版: 1. 发现Master挂是因为CPU爆了 2. 所以扩容Master节点(此次重复N次); 3. 性能优化:扩容集群节点数量; 4. 性能优化:容器分批投放; 5. 性能优化:查询容器执行进度,少用ListPod接口; 详细版: 看监控Master节点的CPU已经爆掉了,所以最简单粗暴的想法就是给Master扩容呀,嘎嘎的扩。于是从4U8G * 3 一路扩容一路测试一路失败,扩到了32U64G * 3。可以发现CPU还是爆满。看来简单的扩容是行不通了。 ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/093523aeqvtmmu66a9tg80.png) 3000多个容器,投给K8s后,大量的容器都处于Pending状态(集群整体资源不够,所以容器都在排队呢)。而正在Pending的Pod,K8s的Scheduler会不停的轮训,去判断能否有资源可以给它安排上。所以这也会给Scheduler巨大的CPU压力。扩容集群节点数量,可以减少排队的Pod数量。 ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/093552g8ppd19ydniid6ko.png) 另外,既然排队的太多,不如就把容器分批投递给K8s吧。于是开始分批次投递任务,想着别一次把K8s压垮了。每次投递数量,减少到1千,然后到500,再到100。 同时,查询Pod进度的时候,避免使用ListPod接口,改为直接查询具体的Pod信息。因为List接口,在K8s内部的处理会列出所有Pod信息,处理压力也很大。 这一套组合拳下来,Master节点终于不挂了。不过,一头问题按下去了,另一头问题就冒出来了。 # 容器跑一半,挂了 虽然Master不挂了,但是当投递1~2批次作业后,容器又纷纷失败。 容器挂掉的处理过程,总结版: 1. 发现容器挂掉是被eviction驱逐了; 2. Eviction驱逐,发现原因是节点报Disk Pressure(存储容量满了); 3. 于是扩容节点存储容量; 4. 延长驱逐容器(主动kill容器)前的容忍时间; 详细版: (注:以下问题是定位梳理后,按顺序呈现给大家。但其实出问题的时候,顺序没有这么友好) 容器执行失败,首先想到的是先看看容器里面脚本执行的日志呗:结果报日志找不到~ ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/093712vg9kh9tiizftqqe1.png) 于是查询Pod信息,从event事件中发现有些容器是被Eviction驱逐干掉了。同时也可以看到,驱逐的原因是 DiskPressure(即节点的存储满了)。 ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/093723mdlavyw1zz2h5kqx.png) 当Disk Pressure发生后,节点被打上了驱逐标签,随后启动主动驱逐容器的逻辑: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/093735gxfl6r9dwzljojvu.png) 由于节点进入Eviction驱逐状态,节点上面的容器,如果在5分钟后,还没有运行完,就被Kubelet主动杀死了。(因为K8s想通过干掉容器来腾出更多资源,从而尽快退出Eviction状态)。 ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/093750ks9xrikgvzuoviqz.png) 这里我们假设每个容器的正常运行时间为1~2个小时,那么不应该一发生驱动就马上杀死容器(因为已经执行到一半的容器,杀掉重新执行是有成本浪费的)。我们期望应该尽量等待所有容器都运行结束才动手。所以这个 pod-eviction-timeout 容忍时间,应该设置为24小时(大于每个容器的平均执行时间)。 Disk Pressure的直接原因就是本地盘容量不够了。所以得进行节点存储扩容,有2个选择:1)使用云存储EVS(给节点挂载云存储)。 2)扩容本地盘(节点自带本地存储的VM)。 由于云存储(EVS)的带宽实在太低了,350MB/s。一个节点咱们能同时跑30多个容器,带宽完全满足不了。最终选择使用 i3类型的VM。这种VM自带本地存储。并且将8块NVMe盘,组成Raid0,带宽还能x8。 # 对象存储写入失败 容器执行继续纷纷失败。 容器往对象存储写入失败处理过程,总结版: 1. 不直接写入,而是先写到本地,然后cp过去。 2. 将普通对象桶,改为支持文件语义的并行文件桶。 详细版: 查看日志发现,脚本在生成新的影像时,往存储中写入时出错: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/09384315stm1iskuzbhlpv.png) 我们整集群是500核的规模,同时运行的容器数量大概在250个(每个2u2g)。这么多的容器同时往1个对象存储桶里面并发追加写入。这个应该是导致该IO问题的原因。 对象存储协议s3fs,本身并不适合大文件的追加写入。因为它对文件的操作都是整体的,即使你往一个文件追加写入1字节,也会导致整个文件重新写一遍。 最终这里改为:先往本地生成目标影像文件,然后脚本的最后,再拷贝到对象存储上。相当于增加一个临时存储中转一下。 ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/0939026vmn4m23wpjopxap.png) 在临时中转存储选择中,2种本地存储都试过: 1)块存储带宽太低,350MB/s影响整体作业速度。2)可以选择带本地存储的VM,多块本地存储组成Raid阵列,带宽速度都杠杠滴。 同时,华为云在对象存储协议上也有一个扩展,使其支持追加写入这种的POSIX语义,称为并行文件桶。后续将普通的对象桶,都改为了文件语义桶。以此来支撑大规模的并发追加写入文件的操作。 # K8s计算节点挂了 So,继续跑任务。但是这容器作业,执行又纷纷失败鸟~ 计算节点挂掉,定位梳理后,总结版: 1. 计算节点挂掉,是因为好久没上报K8s心跳了。 2. 没上报心跳,是因为kubelet(K8s节点的agent)过得不太好(死掉了)。 3. 是因为Kubelet的资源被容器抢光了(由于不想容器经常oom kill,并未设置limit限制) 4. 为了保护kubelet,所有容器全都设置好limit。 详细版,直接从各类奇葩乱象等问题入手: - 容器启动失败,报超时错误。 ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/0940108vpzfperpwohaud6.png) - 然后,什么PVC共享存储挂载失败: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/094022y39gidvn8otbxgm5.png) - 或者,又有些容器无法正常结束(删不掉)。 ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/0943418n1swzw6oehkuqyo.png) - 查询节点Kubelet日志,可以看到充满了各种超时错误: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/094421nfyhqcd89i8444dz.png) 啊,这么多的底层容器超时,一开始感觉的Docker的Daemon进程挂了,通过重启Docker服务来试图修复问题。 后面继续定位发现,K8s集群显示,好多计算节点Unavailable了(节点都死掉啦)。 ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/0944370uddil3r5sgngphu.png) 继续分析节点不可用(Unavailable),可以发现是Kubelet好久没有给Master上报心跳了,所以Master认为节点挂了。说明不仅仅是Docker的Daemon受影响,节点的Kubelet也有受影响。 那什么情况会导致Kubelet,Docker这些主机进程都不正常呢?这个就要提到Kubernetes在调度容器时,所设计的Request和Limit这2个概念了。 Request是K8s用来调度容器到空闲计算节点上的。而Limit则会传递给Docker用于限制容器资源上限(触发上限容易被oom killer 杀掉)。前期我们为了防止作业被杀死,仅为容器设置了Request,没有设置Limit。也就是每个容器实际可以超出请求的资源量,去抢占额外的主机资源。大量容器并发时,主机资源会受影响。 考虑到虽然不杀死作业,对用户挺友好,但是平台自己受不了也不是个事。于是给所有的容器都加上了Limit限制,防止容器超限使用资源,强制用户进程运行在容器Limit资源之内,超过就Kill它。以此来确保主机进程(如Docker,Kubelet等),一定是有足够的运行资源的。 # K8s计算节点,又挂了 于是,继续跑任务。不少作业执行又双叒失败鸟~ 节点又挂了,总结版: 1. 分析日志,这次挂是因为PLEG(Pod Lifecycle Event Generator)失败。 2. PLEG异常是因为节点上面存留的历史容器太多(>500个),查询用时太久超时了。 3. 及时清理已经运行结束的容器(即使跑完的容器,还是会占用节点存储资源)。 4. 容器接口各种超时(cpu+memory是有limit保护,但是io还是会被抢占)。 5. 提升系统磁盘的io性能,防止Docker容器接口(如list等)超时。 详细版: 现象还是节点Unavailable了,查看Kubelet日志搜索心跳情况,发现有PLEG is not healthy 的错误: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/094527rbwb8dvci3fahehy.png) 于是搜索PLEG相关的Kubelet日志,发现该错误还挺多: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/094537go04ngjofmcfjv0d.png) 这个错误,是因为kubelet去list当前节点所有容器(包括已经运行结束的容器)时,超时了。看了代码:https://github.com/kubernetes/kubernetes/blob/master/pkg/kubelet/pleg/generic.go#L203 kubelet判断超时的时间,3分钟的长度是写死的。所以当pod数量越多,这个超时概率越大。很多场景案例表明,节点上的累计容器数量到达500以上,容易出现PLEG问题。(此处也说明K8s可以更加Flexible一点,超时时长应该动态调整)。 缓解措施就是及时的清理已经运行完毕的容器。但是运行结束的容器一旦清理,容器记录以及容器日志也会被清理,所以需要有相应的功能来弥补这些问题(比如日志采集系统等)。 List所有容器接口,除了容器数量多,IO慢的话,也会导致超时。 这时,从后台可以看到,在投递作业期间,大量并发容器同时运行时,云硬盘的写入带宽被大量占用: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/094551ijb5jztvb76oxq85.png) 对存储池的冲击也很大: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/094608mvowj25qqpjerzor.png) 这也导致了IO性能变很差,也会一定程度影响list容器接口超时,从而导致PLEG错误。 该问题的解决措施:尽量使用的带本地高速盘的VM,并且将多块数据盘组成Raid阵列,提高读写带宽。 ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202112/03/094624r0f5vyh8yserwejn.png) 这样,该VM作为K8s的节点,节点上的容器都直接读写本地盘,io性能较好。(跟大数据集群的节点用法一样了,强依赖本地shuffle~)。 在这多条措施实施后,后续多批次的作业都可以平稳的运行完。
  • [行业资讯] 我国首个即时遥感星座启动建设 相关公司受益
    近日,从第七届中国(国际)商业航天高峰论坛了解到,我国一批空间基础设施建设正在有序推进。在本次论坛上,航天科工集团宣布我国首个即时遥感星座将启动建设,该星座将由上百颗低轨遥感卫星组成,形成全球覆盖的对地观测能力。尤其是观测效率将大幅提升。此外,我国正在建设的首个卫星物联网“行云工程”即将进入批量化组网建设阶段。“行云工程”将构建一套由80颗卫星组成的物联网星座系统,将全球各种物联网信息节点或传感器等进行连接。2022年将完成12颗卫星的发射任务。随着我国航天工程的稳步推进,相关产业链公司有望迎来机遇。天银机电(300342)子公司天银星际目前以国网星座项目、遥感星座项目为重点攻关对象开展业务,国外以广撒网多布点模式拓展市场;欧比特(300053)搭建的卫星星座系具有高时间分辨率、高空间分辨率、数据覆盖能力强、商业化程度高的商业遥感卫星星座。
  • [问题求助] mindspore实现遥感图像语义分割
    本人想用deeplabv3+实现遥感影像的分割,参考华为云提供的代码改写数据加载部分,然后报了如下错,改写unet中加载数据的代码,训练时也是加载数据出了错误,请问怎么才能实现加载遥感影像数据进行分割。
  • [公告] 加速遥感产业发展!西电携手昇腾AI共同举办智能遥感项目合作研讨会
    本次研讨会由西安电子科技大学人工智能学院执行院长侯彪主持,西安电子科技大学人工智能研究院院长、俄罗斯自然科学院外籍院士、欧洲科学院外籍院士焦李成,华为昇腾计算开源框架&生态产品总监田昆阳,西安电子科技大学研究生院副院长王爽等多位校企专家出席会议。◆ 焦李成院士在致辞中表示,遥感的发展关系到国家发展战略,与国计民生息息相关。西安电子科技大学是全国最早开始做雷达遥感解译研究与应用实践的高校,拥有深厚的技术积累,而华为拥有业界领先的全栈自主AI基础软硬件平台,包括Atlas系列硬件、异构计算架构CANN以及兼顾学术界研究灵活性与工业界高性能追求的全场景AI框架MindSpore。希望双方携手,发挥各自优势资源,基于雁塔区主导筹建的未来人工智能计算中心,快速推进智能雷达遥感科研项目合作,共同打开遥感应用领域的巨大产业空间。 ◆ 田昆阳指出,人工智能技术只有与场景化应用结合起来才能发挥最大价值,遥感应用场景丰富,从自然资源监测到应急救灾评估,再到城市规划建设,可以说关系到社会发展的每个链条,所以发展智能遥感意义重大,这就需要企业与高校科研院所共同携手,集中力量,加快产业生态圈的催熟。西安电子科技大学历史悠久,科研实力雄厚,华为坚持做好基础软硬件平台,能够结合遥感具体应用开发需求,提供AI平台层技术支持,支撑遥感应用快速开发,赋能遥感科研及行业应用发展。◆ 研讨会上,王爽教授作了雷达遥感技术发展及研发目标专题报告,她表示,雷达遥感技术具有全天候、全天时对地观测的能力,近年来在土地勘测、精细农业、城市发展、灾害监测、海洋观测等方面展现出重要作用。此外,雷达遥感与可与光学遥感获取的信息形成互补增强,因此深耕雷达遥感领域对产业发展具有深刻意义。此后,华为MindSpore首席架构师应江勇介绍了昇腾&MindSpore生态发展策略,并对此次合作项目方案进行重点介绍。本次研讨会的顺利召开,不仅增强了智能遥感领域内企业与高校之间的交流与合作,更有益于打通产、学、研、用全链路,为科研创新、产业发展注入新动能。相信在各界朋友的关注和共同努力下,智能遥感的发展会更加迅速,并有更多高质量的研究成果涌现。+以AI赋能文化传承,华为携手陕西师范大学共建MindSpore研究室+“中国人工智能学会-华为MindSpore学术奖励基金”第二期发布通知+华为以白金会员身份加入OpenChain项目
  • [公告] 大赛报名 | 2021“昇腾杯”遥感影像智能处理算法大赛招募启动!
    由国家自然科学基金委信息科学部支持,“空间信息网络基础理论与关键技术”重大研究计划指导专家组主办,武汉大学测绘遥感信息工程国家重点实验室、武汉大学遥感信息工程学院承办,武汉人工智能计算中心协办的2021“昇腾杯”遥感影像智能处理算法大赛(以下简称“大赛”)正式启动。本次大赛旨在“以赛促创”,推动人工智能技术在遥感影像领域的创新发展,为实现空间信息处理与应用能力的大幅提升提供支撑。在大赛期间,参赛队伍不仅能获得华为提供的赛事指导培训、武汉人工智能计算中心提供的昇腾NPU算力资源,还能从昇腾社区(hiascend.com)、MindSpore社区(mindspore.cn)获取海量文档、资料等丰富资源,并有机会获得MindSpore社区等级认证证书。此外,决赛时使用MindSpore框架的参赛队伍还可获得加分项。本次大赛分为细粒度语义分割和变化检测两大赛道,详细说明如下:细粒度语义分割参赛队伍需对遥感图像中各类地物光谱信息和空间信息进行分析,将图像中具有语义信息的各个像元分别赋予语义类别标签。主办方将从所提交算法的准确性、效率及创新性等方面对结果进行综合评价。变化检测参赛队伍需通过前后两时相的遥感影像,提取出地物发生变化的像元并赋予变化标签。主办方将从所提交算法在耕地-建筑/动土的像素级变化检测的能力、效率及创新性等方面对结果进行综合评价。大赛于2021年9月3日正式启动报名,经过层层角逐,每赛道将评选前10支队伍进入总决赛,获奖队伍最高可获得15万元现金大奖及7.5万NPU算力券。微信扫描下方二维码,添加小助手(mindspore0328)为好友,获取更多大赛信息。更多大赛信息访问大赛官网链接:http://rsipac.whu.edu.cn/MindSpore官方资料 GitHub : https://github.com/mindspore-ai/mindsporeGitee:https://gitee.com/mindspore/mindspore 官方QQ群 : 871543426
  • [问题求助] 遥感图像飞机目标检测样例 最后运行出现了这个
        import atlas_utils.utils as utils
  • [主题讨论] 专家视角 | 龚健雅院士:当“传统”遥感遇上AI, 未来产业应用值得期待
    本文来源于:人民网作者:龚健雅新一轮科技革命和产业变革的大幕早已掀开。作为全球科技竞争的制高点,人工智能已经成为世界主要国家推动科技跨越式发展、实现产业优化升级、赢得全球竞争主动权的关键抓手。在我国,人工智能更是上升到国家战略。随着人工智能的深入发展及其与各行业的深度融合,跨领域、全格局正在成为新趋势。许多行业可能在这一变革中消失,而其他一些行业则会获得快速发展。遥感是与人工智能紧密关联的领域,应用人工智能技术实现遥感影像的自动解译意义重大。智能遥感解译技术可广泛应用于国土资源与环境监测、农作物监测与估产、森林碳汇估算等许多领域,是国家的战略需求,相关研究和探索一直以来备受关注。智能遥感解译是深度学习与遥感应用深度耦合的交叉领域本次人工智能的热潮是从深度学习方法成功用于图像识别等领域开始,并在指纹识别、人脸识别等方面已得到广泛应用。遥感作为一种特殊的图像,早在2013年国内外学者就开始利用深度学习方法进行智能遥感解译的研究,涵盖目标与场景检索、目标检测、地物分类、变化检测、三维重建等多个应用场景,并取得了诸多研究成果。虽然深度学习方法在场景检索、目标检测等方面取得重要进展,并有部分成果达到了实用化水平。但是由于遥感影像比人脸识别的影像复杂得多,目前智能遥感解译方法并没有得到广泛应用,特别是在自然地物分类方面还难以满足业务化的应用需求,我国地理国情监测和第三次国土资源调查等重大工程主要还是采用人工解译的方法。由于遥感影像和应用具有特殊性,通用人工智能方法在遥感智能解译方面遇到了挑战。与人工智能的数据、算法及算力三要素相似,智能遥感解译也有三大核心要素,遥感影像样本库、遥感智能解译的算法与模型、能够进行大规模计算的硬件平台。目前算力基础设施可以采用通用硬件平台,但是由于遥感影像的特殊性和应用的多样性,需要构建一个开放、统一基准的影像样本库,和高效、可靠的遥感解译框架与模型。智能遥感解译研究面临的挑战与可行性对策尽管目前已有不少利用深度学习方法进行遥感解译的相关研究,但在实际应用上,影像样本库、深度学习框架以及AI算力等方面依然存在着挑战。首先,大规模样本库是遥感智能解译的数据驱动,但目前遥感领域尚无大规模“像素-目标-场景”多层级多任务,涵盖目标检索、目标检测、地物分类、变化检测、三维重建的开放解译样本库,公开数据集缺乏统一格式接口和标准规范,远不能满足遥感智能解译要求,亟需突破已有样本库的不完善造成的模型局限性,使得样本库能够智能扩展与精化,实现样本库的可持续构建。其次,通用深度学习网络难以用于遥感地物分类等应用场景,还没有达到商业化应用水平。在遥感专用深度学习框架模型中,需要顾及多维时空谱特性,满足高效灵活的内存自动扩展、尺度与通道的自适应优选要求。最后,虽然通过遥感深度神经网络可以训练专用模型,但由于算力昂贵且不足的问题突出,在未来数据集丰富后,如何高效利用已有算力解决自然地理要素地物分类等难题仍是很大的挑战。如何解决这些问题?经过多年的研究,笔者认为有三个对策方向可以参考。第一、围绕多源遥感影像的智能识别与解译,开展适合于遥感影像深度学习训练与测试用的样本库类型动态扩展与自动精化机制研究;第二、针对遥感影像特点和应用需求,研究遥感影像深度神经网络开源架构与模型,构建顾及遥感特性的专用遥感网络模型;第三、依托集约型算力基础设施,如武汉人工智能计算中心,高效利用其公共普惠算力,同时发挥其应用创新孵化以及智能遥感领域人才培养的赋能作用,为智能遥感解译研究提供源源不竭的动力。武汉大学提供智能遥感解译研究方案围绕国家重大需求,武汉大学建立了中国第一个测绘遥感学科国家级重点实验室——测绘遥感信息工程国家重点实验室,开展包括航空航天摄影测量、空间信息系统与服务、遥感信息处理、3S集成与网络通信及导航定位与位置服务等在内的针对性研究。具体落实到智能遥感解译研究,我们始终保持探索。2020年,武汉大学测绘遥感信息工程国家重点实验室和遥感信息工程学院申请获批了国家自然科学基金委“空间信息网络”重大计划集成项目“大规模遥感影像样本库构建及开源遥感深度网络框架模型研究”,目标是构建大规模遥感影像样本库和专用遥感深度学习网络框架与模型。项目明确提出了”五个一”的研发目标,即“一套”遥感框架与模型、“一个”样本库、“一套”众包样本采集工具、“一个”开源遥感智能解译社区和“一系列”研究与应用成果。目前,该项目组与华为保持着深度合作,致力于打造遥感影像样本库(LuojiaSet)和遥感影像专用框架(LuojiaNet),为自然资源监测、社会经济发展评估、灾害应急等重大科研任务提供技术、平台及应用支撑,助力建设中国遥感科研生态圈,推进中国遥感产业化应用。作为遥感影像样本库,LuojiaSet力图构建完备的遥感影像样本库,持续精化影像样本,使能模型可逐步进化。目前,项目组已完成五大类遥感典型任务的影像样本库概念、逻辑、物理设计,从区域到全球样本数量达500万以上。而遥感影像专用框架——LuojiaNet,与华为昇腾AI计算框架MindSpore团队密切合作打造而成,其可兼容其它计算构架和深度学习框架,具有高效的开发及运行能力,可实现遥感特性嵌入,能处理“大幅面,多通道”遥感影像,通过深度神经网络与遥感知识图谱推理深度耦合,实现遥感特性的全面优化。同时,融合全栈国产AI系统打造的遥感影像样本库及专用框架,在信息数据安全及技术应用的自主性方面,为我国的智能遥感研究筑起了一座牢固的安全堡垒,对于提升我国遥感领域研究竞争力具有重要意义。从未来产业应用方向来看,人工智能特别是深度学习方法已经在遥感目标与场景识别、信息提取、地物分类、变化检测、三维重建等方面取得重要进展,但还没有达到实用的水平。要进一步解决人工智能方法在遥感自动解译方面存在的问题,需要继续扩大样本数据库,并增加多样性和区域性的样本;另一方面需要设计遥感专用的深度学习神经网络,将光谱信息和地学知识融入到网络中,使之能够有效解决自然地理要素地物分类等难题。这无疑都需要依托于我国人工智能安全自主的核心技术和基础设施的发展,助力智能遥感解译研究等科研创新突破,实现产业生态繁荣。* 本文转载自人民网,版权归原媒体所有,点击文末“阅读原文”可跳转至原页面。MindSpore官方资料GitHub : https://github.com/mindspore-ai/mindsporeGitee:https : //gitee.com/mindspore/mindspore 官方QQ群 : 871543426预览时标签不可点收录于话题 #个上一篇 下一篇 阅读原文
  • [公告] 专家视角 | 龚健雅院士:当“传统”遥感遇上AI, 未来产业应用值得期待
    本文来源于:人民网作者:龚健雅新一轮科技革命和产业变革的大幕早已掀开。作为全球科技竞争的制高点,人工智能已经成为世界主要国家推动科技跨越式发展、实现产业优化升级、赢得全球竞争主动权的关键抓手。在我国,人工智能更是上升到国家战略。随着人工智能的深入发展及其与各行业的深度融合,跨领域、全格局正在成为新趋势。许多行业可能在这一变革中消失,而其他一些行业则会获得快速发展。遥感是与人工智能紧密关联的领域,应用人工智能技术实现遥感影像的自动解译意义重大。智能遥感解译技术可广泛应用于国土资源与环境监测、农作物监测与估产、森林碳汇估算等许多领域,是国家的战略需求,相关研究和探索一直以来备受关注。感解译是深度学习与遥感应用深度耦合的交叉领域本次人工智能的热潮是从深度学习方法成功用于图像识别等领域开始,并在指纹识别、人脸识别等方面已得到广泛应用。遥感作为一种特殊的图像,早在2013年国内外学者就开始利用深度学习方法进行智能遥感解译的研究,涵盖目标与场景检索、目标检测、地物分类、变化检测、三维重建等多个应用场景,并取得了诸多研究成果。虽然深度学习方法在场景检索、目标检测等方面取得重要进展,并有部分成果达到了实用化水平。但是由于遥感影像比人脸识别的影像复杂得多,目前智能遥感解译方法并没有得到广泛应用,特别是在自然地物分类方面还难以满足业务化的应用需求,我国地理国情监测和第三次国土资源调查等重大工程主要还是采用人工解译的方法。由于遥感影像和应用具有特殊性,通用人工智能方法在遥感智能解译方面遇到了挑战。与人工智能的数据、算法及算力三要素相似,智能遥感解译也有三大核心要素,遥感影像样本库、遥感智能解译的算法与模型、能够进行大规模计算的硬件平台。目前算力基础设施可以采用通用硬件平台,但是由于遥感影像的特殊性和应用的多样性,需要构建一个开放、统一基准的影像样本库,和高效、可靠的遥感解译框架与模型。智能遥感解译研究面临的挑战与可行性对策尽管目前已有不少利用深度学习方法进行遥感解译的相关研究,但在实际应用上,影像样本库、深度学习框架以及AI算力等方面依然存在着挑战。首先,大规模样本库是遥感智能解译的数据驱动,但目前遥感领域尚无大规模“像素-目标-场景”多层级多任务,涵盖目标检索、目标检测、地物分类、变化检测、三维重建的开放解译样本库,公开数据集缺乏统一格式接口和标准规范,远不能满足遥感智能解译要求,亟需突破已有样本库的不完善造成的模型局限性,使得样本库能够智能扩展与精化,实现样本库的可持续构建。其次,通用深度学习网络难以用于遥感地物分类等应用场景,还没有达到商业化应用水平。在遥感专用深度学习框架模型中,需要顾及多维时空谱特性,满足高效灵活的内存自动扩展、尺度与通道的自适应优选要求。最后,虽然通过遥感深度神经网络可以训练专用模型,但由于算力昂贵且不足的问题突出,在未来数据集丰富后,如何高效利用已有算力解决自然地理要素地物分类等难题仍是很大的挑战。如何解决这些问题?经过多年的研究,笔者认为有三个对策方向可以参考。第一、围绕多源遥感影像的智能识别与解译,开展适合于遥感影像深度学习训练与测试用的样本库类型动态扩展与自动精化机制研究;第二、针对遥感影像特点和应用需求,研究遥感影像深度神经网络开源架构与模型,构建顾及遥感特性的专用遥感网络模型;第三、依托集约型算力基础设施,如武汉人工智能计算中心,高效利用其公共普惠算力,同时发挥其应用创新孵化以及智能遥感领域人才培养的赋能作用,为智能遥感解译研究提供源源不竭的动力。武汉大学提供智能遥感解译研究方案围绕国家重大需求,武汉大学建立了中国第一个测绘遥感学科国家级重点实验室——测绘遥感信息工程国家重点实验室,开展包括航空航天摄影测量、空间信息系统与服务、遥感信息处理、3S集成与网络通信及导航定位与位置服务等在内的针对性研究。具体落实到智能遥感解译研究,我们始终保持探索。2020年,武汉大学测绘遥感信息工程国家重点实验室和遥感信息工程学院申请获批了国家自然科学基金委“空间信息网络”重大计划集成项目“大规模遥感影像样本库构建及开源遥感深度网络框架模型研究”,目标是构建大规模遥感影像样本库和专用遥感深度学习网络框架与模型。项目明确提出了”五个一”的研发目标,即“一套”遥感框架与模型、“一个”样本库、“一套”众包样本采集工具、“一个”开源遥感智能解译社区和“一系列”研究与应用成果。目前,该项目组与华为保持着深度合作,致力于打造遥感影像样本库(LuojiaSet)和遥感影像专用框架(LuojiaNet),为自然资源监测、社会经济发展评估、灾害应急等重大科研任务提供技术、平台及应用支撑,助力建设中国遥感科研生态圈,推进中国遥感产业化应用。作为遥感影像样本库,LuojiaSet力图构建完备的遥感影像样本库,持续精化影像样本,使能模型可逐步进化。目前,项目组已完成五大类遥感典型任务的影像样本库概念、逻辑、物理设计,从区域到全球样本数量达500万以上。而遥感影像专用框架——LuojiaNet,与华为昇腾AI计算框架MindSpore团队密切合作打造而成,其可兼容其它计算构架和深度学习框架,具有高效的开发及运行能力,可实现遥感特性嵌入,能处理“大幅面,多通道”遥感影像,通过深度神经网络与遥感知识图谱推理深度耦合,实现遥感特性的全面优化。同时,融合全栈国产AI系统打造的遥感影像样本库及专用框架,在信息数据安全及技术应用的自主性方面,为我国的智能遥感研究筑起了一座牢固的安全堡垒,对于提升我国遥感领域研究竞争力具有重要意义。从未来产业应用方向来看,人工智能特别是深度学习方法已经在遥感目标与场景识别、信息提取、地物分类、变化检测、三维重建等方面取得重要进展,但还没有达到实用的水平。要进一步解决人工智能方法在遥感自动解译方面存在的问题,需要继续扩大样本数据库,并增加多样性和区域性的样本;另一方面需要设计遥感专用的深度学习神经网络,将光谱信息和地学知识融入到网络中,使之能够有效解决自然地理要素地物分类等难题。这无疑都需要依托于我国人工智能安全自主的核心技术和基础设施的发展,助力智能遥感解译研究等科研创新突破,实现产业生态繁荣。MindSpore官方资料GitHub : https://github.com/mindspore-ai/mindsporeGitee:https : //gitee.com/mindspore/mindspore官方QQ群 : 871543426长按下方二维码加入MindSpore项目↓
总条数:20 到第
上滑加载中