• [教程] 【ModelArts-Lab AI实战营】ResNet模型解析(卷积神经网络)
    从2012年开始,卷积神经网络(Convolutional Neural Networks, CNN)极速发展,不断涌现出诸如AlexNet、VGGNet等优秀的神经网络。到了2015年,一个新型的网络更是颠覆了计算机视觉领域和深度学习领域,这就是ResNet。ResNet(Residual Neural Network)由微软研究院的何凯明等四名华人提出,其论文《Deep Residual Learning for Image Recognition》一举摘得CVPR2016最佳论文,下图就是它在 ILSVRC 和 COCO 2015 上的战绩。残差学习人们在探索深度学习网络的过程中,发现了“网络越深,效果越好”这一规律,从Alexnet的7层发展到了VGG的16乃至19层。然而在继续加深网络的时候遇到了问题:网络越深,模型训练难度越大,收敛速度变得很慢;当网络深度达到一定深度的时候,模型的效果很难再提升;甚至在继续增加深度时出现错误率提高的情况。出现这样类似“退化”的问题,主要是由于网络深度的增加,带来的在网络训练的时候,梯度无法有效的传递到浅层网络,导致出现梯度弥散(vanishing)。何凯明等人提出的残差结构就很好地解决了这个问题。残差的基本结构如下图所示:这有点类似与电路中的“短路”,所以是一种短路连接(shortcut connection),该残差块也被称为shortcut。它的原理是:对于一个堆积层结构(几层堆积而成)当输入为 x 时,其学习到的特征记为 H(x) ,现在我们希望其可以学习到残差 F(x)=H(x)-x ,这样其实原始的学习特征是 F(x)+x 。之所以这样是因为残差学习相比原始特征直接学习更容易。当残差为 0 时,此时堆积层仅仅做了恒等映射,至少网络性能不会下降,实际上残差不会为 0,这也会使得堆积层在输入特征基础上学习到新的特征,从而拥有更好的性能。总的来看,该层的神经网络可以不用学习整个的输出,而是学习上一个网络输出的残差,因此ResNet又叫做残差网络。ResNet网络结构作者为了表明残差网络的有效性,使用如下三种网络进行对比。其一为 VGG-19 网络(这是 VGG paper 中最深的亦是最有效的一种网络结构),另外则是顺着VGG网络思路继续简单地加深层次而形成的一种 VGG 朴素网络,它共有34个含参层。最后则是与上述34层朴素网络相对应的 Resnet 网络,由前面介绍的残差单元来构成。在论文中可以看到详细的实验对比结果,ResNet 的结构可以极快的加速神经网络的训练,收敛性能好;模型的准确率有比较大的提升,分类性能好。在 ResNet 中的网络结构单元被称为模块——block,其中会用到两种残差模块:一种是以两个 3x3 的卷积网络串接在一起作为一个残差模块,用于34-layer;另外一种,考虑到实际计算的时间和效率问题,作者提出了命名为 bottleneck 的结构块来代替常规的 Resedual block,将 1x1 、3x3、1x1 的3个卷积网络串接在一起作为一个残差模块,常用于层数更多的网络中。如下图所示。除上面展示的34-layer的ResNet,还可以构建更深的网络,如下表所示。上面一共提出了5种深度的ResNet,分别是18,34,50,101和152。比较常用的是50-layer,101-layer,152-layer。他们都是由上述的残差模块堆叠在一起实现的。在此以ResNet50为例,拆解其结构,使读者有更直观的了解。在Keras中,ResNet50的网络的整体结构示例为:data  1,3,224,224 conv  filter=64, kernel_size=7, pad=3,stride=2 1,64,112,112 bn activation('relu') maxpool kernel_size=3,stride=2  1,64,56,56 # block 1  (64,64,256) conv_block() in:1,64,56,56 filter=(64,64,256),out=1,256,56,56 identity_block  in=1,256,56,56, filter=(64,64,256),out=1,256,56,56 identity_block  in=1,256,56,56, filter=(64,64,256),out=1,256,56,56 # block 2  (128,128,512) conv_block  in=1,256,56,56 filter=(128,128,512),out=1,512,28,28 identity_block  in=1,256,56,56 filter=(128,128,512),out=1,512,28,28 identity_block  in=1,256,56,56 filter=(128,128,512),out=1,512,28,28 identity_block  in=1,256,56,56 filter=(128,128,512),out=1,512,28,28 # block 3 (256,256,1024) conv_block  in=1,512,28,28 filter=(256,256,1024),out=1,1024,14,14 identity_block  in=1,512,28,28 filter=(256,256,1024),out=1,1024,14,14 identity_block  in=1,512,28,28 filter=(256,256,1024),out=1,1024,14,14 identity_block  in=1,512,28,28 filter=(256,256,1024),out=1,1024,14,14 identity_block  in=1,512,28,28 filter=(256,256,1024),out=1,1024,14,14 identity_block  in=1,512,28,28 filter=(256,256,1024),out=1,1024,14,14 # block 4 (512,512,2048) conv_block  in=1,1024,14,14 filter=(512,512,2048),out=1,2048,7,7 identity_block  in=1,1024,14,14 filter=(512,512,2048),out=1,2048,7,7 identity_block  in=1,1024,14,14 filter=(512,512,2048),out=1,2048,7,7 maxpool kernel_size=7, stride=1 out=1,2048,1,1 flatten dence(1,1000) acivation('softmax') probbility(1,1000)在Keras代码中定义该网络模型,如下:def resnet_model(out_class, input_shape):     inputs = Input(shape=input_shape) #1,3,224,224     #     x = Conv2D(64, (7, 7), strides=2, padding='same')(inputs) #conv1  1,64,112,112     x = BatchNormalization(axis=-1)(x) #bn_conv1     x = Activation('relu')(x) #conv1_relu     x = MaxPool2D(pool_size=(3,3),strides=2)(x) # 1,64,56,56     # block1  (64,64,256) 1,2 in:1,64,56,56     x = conv_block(x, [64, 64, 256]) #out=1,256,56,56     x = identity_block(x, [64, 64, 256]) #out=1,256,56,56     x = identity_block(x, [64, 64, 256]) #out=1,256,56,56     # block2  (128,128,512) 1,3 in:1,256,56,56     x = conv_block(x, [128,128,512]) #out=1,512,28,28     x = identity_block(x, [128,128,512]) #out=1,512,28,28     x = identity_block(x, [128,128,512]) #out=1,512,28,28     x = identity_block(x, [128, 128, 512])  # out=1,512,28,28     # block 3 (256,256,1024) 1,5 in:1,512,28,28     x = conv_block(x, [256,256,1024])  # out=1,1024,14,14     x = identity_block(x, [256, 256, 1024])  # out=1,1024,14,14     x = identity_block(x, [256, 256, 1024])  # out=1,1024,14,14     x = identity_block(x, [256, 256, 1024])  # out=1,1024,14,14     x = identity_block(x, [256, 256, 1024])  # out=1,1024,14,14     x = identity_block(x, [256, 256, 1024])  # out=1,1024,14,14     # block 4 (512,512,2048) 1,2 in:1,1024,14,14     x = conv_block(x, [512,512,2048])  # out=1,2048,7,7     x = identity_block(x, [512, 512, 2048])  # out=1,2048,7,7     x = identity_block(x, [512, 512, 2048])  # out=1,2048,7,7     # maxpool kernel_size=7, stride=1 out=1,2048,1,1     x = MaxPool2D(pool_size=(7, 7), strides=1)(x)     # flatten     x = Flatten()(x)     # Dense     x = Dense(classes, activation='softmax')(x) # out=1,1000     model = Model(inputs=inputs, outputs=out)     return model下面是一些ResNets的其他特征:网络较深,控制了参数数量。存在明显层级,特征图个数层层递进,保证输出特征的表达能力。使用较少池化层,大量采用下采样,提高传播效率。没有使用 dropout,利用 Batch Normalization 和全局平均池化进行正则化,加快训练速度。层数较高时减少了3x3卷积核的个数,用1x1卷积核控制3x3卷积的输入输出特征 map 的数量。深度残差网络的提出是CNN图像史上的一件里程碑事件,随着对其的不断深入研究,有很多 ResNet 的变体已经出现,如:ResNeXt、DenseNet、WideResNet等,有待读者继续深入关注和了解。
  • [教程] 【ModelArts-Lab AI实战营】Mask R-CNN模型解析(深度学习)
    Mask R-CNN是由华人学者何凯明教授主导的一个多任务深度学习模型,能够在一个模型中完成图片中实例的分类和定位,并绘制出像素级的遮罩(Mask)来完成分割任务。Mask R-CNN是一个较为复杂的模型,使用了若干不同的网络模型,包括ResNet,FPN,RPN以及分类和回归模型。下面,我们对Mask R-CNN进行逐步的剖析。Mask R-CNN的三个主要网络Mask R-CNN包括三个主要的子网络:backbone网络RPN网络head网络整体结构如下图所示:下面,我们逐步分析这三个主要的网络。backbone网络Mask R-CNN的backbone网络,也称为骨干网,主要用于图像的特征提取。在Mask R-CNN之前,Faster R-CNN使用一个共享的卷积神经网络作为骨干网,Mask-RCNN的一个改进点在于,使用ResNet+FPN作为backbone网络,对于输入图片,生成多种尺寸的特征图,形成不同level的特征图金字塔,进一步强化了backbone网络的特征提取能力。ResNet网络我们在图像分类的任务中介绍过了VGG网络,在2014年,VGG的作者通过实验发现,增加卷积神经网络的深度可以提高模型精度,当时人们认为十几层的网络已经是非常深的网络了,VGG的作者推断,在VGG的基础上继续增加网络深度,模型的精度还可以继续提高。然而,人们通过实验发现,简单的叠加卷积层,会导致梯度弥散和梯度爆炸现象,通过合理的初始化和对中间层的正则化,使得我们可以训练深度达到几十层的网络。然而,随着深度的进一步增加,模型又出现了退化现象,即深度增加反而导致模型精度下降,这说明,深层神经网络不能通过简单的 增加深度进行优化。当时还在微软研究院的何凯明教授和他的同事们通过对深层网络的研究,提出了ResNet模型。既然简单粗暴的叠加神经层会导致精度下降,那么,通过加入一个残差模块,通过模型的训练,在适当的情况下让深度网络退化成一个浅层的网络,这样就能避免过深的网络带来的退化问题。通过在正常的深层网络中加入一个恒等映射,就可以实现残差模块,如图下所示:ResNet提出后,网络训练的深度从VGG时代的十几层,一举跃升至ResNet Xt的152层,ResNet也在VGG之后的2015年夺得ILSVRC图像识别的冠军,top5的错误率降低到5.37%,首次在ILSVRC竞赛中超过了人眼的识别精度5.1%。FPNMask R-CNN的backbone网络还包括了FPN(Feature Pyramid Network,图像特征金字塔)。FPN是Facebook的AI实验室FAIR在2017年提出的。2017年,何凯明教授已经从微软离开,加入FAIR,也参与了FPN的研究和论文发表,从ResNet到FPN再到Mask R-CNN,都有何教授的参与或主导,不得不令人佩服。直观的理解,图像在卷积神经网路的处理过程中,其尺寸逐步减小,而深度逐步增加,随着深度的增加,图像的细节特征逐步退化,而呈现出更抽象的语义特征。常规的卷积神经网络往往采用最后一个卷积的结果对图像进行分类,对于图片中一些较小的物体,则无法达到较好的效果。FPN的思想是,保留卷积过程中不同阶段的输出结果,同时进行训练,这样,既能在较为抽象的特征中识别较大物体,也能够在细节较多的特征中对小物体进行有效的识别,对不同层次的语义特征都能够进行有效的利用。ResNet在卷积处理的过程中,定义了不同的stage,每个stage输出不同尺寸的特征图,而这种结构恰好可以用来生成FPN,与FPN结合的天衣无缝,这两种模型的组合如下图所示:通过ResNet与FPN,我们得到了P2到P6这5中规格的特征图,用作后续两个模型的输入,下面是经过backbone处理的P2到P6的一个示例结果:RPN网络RPN网络主要用于生成Proposal,即带有前景、背景、包围框信息的区域。通过backbone网络,我们已经生成了不同尺寸的特征图。在RPN中,我们先对特征图上的每个像素都生成3个Anchor(像素区域的锚框),Anchor的长宽比为1:2, 1:1, 2:-1,即[0.5, 1, 2]。假设输入图片我们统一处理成1024x1024,则P2到P6特征图的边长分别为[256, 128, 64, 32, 16],特征图单个像素对应原图区域的边长则分别为[4, 8, 16, 32, 64],以P2为例,我们对每个像素生成的3个anchor尺寸为:比例长宽0.54 / (2^0.5)4 * (2^0.5)14424 * (2^0.5)4 / (2^0.5)需要注意的是,为了保证anchor面积不变,长宽的大小在变化时,要乘以或者除以根号2(表中用2^0.5表示)。对于P2,我们要生成anchor数量为256x256x3,P3的数量为128x128x3,以此类推。生成的全部anchor数量为3x(256^2+128^2+64^2+32^2+16^2)=261888。Anchor的训练Anchor生成之后,我们需要对Anchor进行处理,生成可以训练的数据,包括两个部分:Anchor是前景还是背景Anchor的包围框修正信息我们通过IoU(Intersection over Union)来判断一个Anchor是前景还是背景。我们对比一个Anchor和Ground Truth的包围框,计算两个框的交集与并集的商,即两个框重合的比例有多大,IoU如下图的示意:显然IoU的范围为[0, 1],当Anchor与Ground Truth box完全不相交时,IoU为0,当两者完全重合时,IoU为1,IoU越大,表示Anchor框住的物体面积越大。我们把IoU大于0.7的Anchor标记为前景(正样本),小于0.3的Anchor标记为背景(负样本),而IoU在0.3和0.7之间的Anchor认为是不明确的Anchor,我们在训练时丢弃不用。通过IoU我们标记出Anchor的正负样本,针对正样本,我们需要对其进行包围框的回归。假设Ground Truth box的中心点和宽高分别为x, y, w, h,Anchor的中心点和宽高分别为x', y', w', h',然后,我们计算下面4个量:dx = (x-x') / w'dy = (y-y') / h'dw = log((w-w') / w')dh = log((h-h') / h')然后对这4个量进行回归训练,得到Anchor的修正信息。在训练阶段,我们将输入的特征图进行一个3x3的卷积,得到F,对F进行一个(1x1,6)的卷积(代表卷积核大小为1x1,深度为6,即Anchor数量3乘以二分类数量2),再输入到一个softmax层得到二分类;对于包围框回归,则是对F进行一个(1x1, 12)的卷积,12即Anchor数量3乘以修正信息的个数4,再将卷积结果输入到一个线性回归层。这个过程如下图所示:其中分类问题使用交叉熵损失函数训练,回归问题使用SmoothL1损失函数进行训练。这样,通过对Anchor的训练,我们就得到了初步的Anchor分类和回归模型。RoIRoI,即Region of Interest,字面的意思就是"感兴趣区域",也就是我们认为有可能是框住物体的区域(我们对这样的区域是感兴趣的)。Anchor经过前面的训练,得到了前景背景分数,我们使用softmax做分类,因此,前景背景分数即anchor为前景或背景的概率。我们筛选出前景分数较高的Anchor,然后通过修正信息得到修正后的包围框,再对修正的包围框进行NMS(Non-Max Supression,非极大值抑制)处理,去掉重复的修正狂,最终得到与Ground Truth box最匹配的若干个修正框,即RoI。得到RoI后,我们生成head网络所需的数据。首先计算RoI与Ground Truth box的IoU并设置阈值0.5,IoU大于0.5的样本标记为正样本,小于0.5的标记为负样本,对于正样本,我们要给出head网络训练所需的三个值:正样本RoI所框住物体的分类id正样本RoI与Ground Truth box的偏移量(RoI是Anchor训练得到的,与Ground Truth box还会存在偏移差)正样本RoI的Mask信息RoI可能与多个Ground Truth的IoU大于0.5,我们取IoU最大的Ground Truth,将其分类id和Mask信息赋给RoI;RoI边框修正信息的计算方式与Anchor一致。这样,RoI的正样本中,就包含了某个具体物体的分类、Mask信息和边框修正信息,我们将带有这些信息的RoI称为Proposal,将其输入到RoI Align层后,再进入head网络进行进一步的训练。RoI AlignRoI Align是Mask R-CNN针对Faster R-CNN的一个重要改进。在Faster R-CNN模型中,需要将Proposal和特征图池化为固定的尺寸,以便于后续head网络的训练。Faster R-CNN中的backbone网络使用的是VGG16,生成的特征图stride为32,即尺寸为原图的1/32,因此原图的包围框向特征图映射时,除以32,会出现浮点数,Faster R-CNN中对浮点数直接进行了取整的操作,这一步损失了一部分精度。在RoI Pooling层中,要对包围框进一步进行池化操作,将大小固定为7x7,缩放后又会出现浮点数,RoI Pooling层会对浮点数再进行一次取整操作,因此又损失一部分精度。以下图为例,原图大小为800x800,物体大小为665x665,第一次映射后,边长变为655/32=20.78,取整后为20,原图映射为20x20的特征图。第二次映射后后,20x20的特征图被固定为7x7尺寸,20/7=2.86,则源特征图中的2个像素映射为1个像素,将7x7的特征图进行上采样映射会源特征图,发现对应的面积仅为14x14,误差非常大。这会导致head网络中的回归产生较大的偏差。Mask R-CNN的RoI Align层做法有所不同。作为对比,我们假设仍然使用VGG作为backbone网络,则原图向特征图映射时,655x655的物体特征图尺寸为20.78x20.78,这一步并不进行取整操作,而是保留浮点数。经过RoI Align池化为7x7的区域时,首先将20.78x20.78的区域分为7x7网格,则每个网格单元大小为20.78/7=2.97,也即池化后单位像素在特征图中对应的长度。接下来设置一个采样点的数量,一般为4,即把特征图中2.97x2.97的区域平均划分为2x2,共4个更小的区域,每个区域按照双线性差值算法计算中心点的像素值作为该区域的值,将得到的2x2采样区域的4个采样点的值计算出来,再进行一次池化,这样,最终也能生成7x7的区域,但是并没有丢失精度。RoI Align采样点的计算过程如下图所示:除了精度操作,由于Mask R-CNN使用ResNet+FPN作为backbone网络,输出的特征图尺寸有所不同,在原图向特征图进行映射时,需要先计算出特征图在FPN中的level,按照公式level=[k0 + log2(sqrt(w*h) / 244)],其中k0是w,h=244,244时对应的level,一般取4,得到FPN的level后,得到特征图对于原图的缩放比例,就可以进行映射了。由于Mask R-CNN中在head网络增加了mask分之,因此RoI Align除了将包围框固定为7x7,还会将mask则固定为14x14,计算的方式与上述过程是一致的。Head网络经过RoI Align的池化操作,就得到了head网络的训练数据。即:7x7的包围框,14x14的mask信息以及分类信息。分类与回归分支head的输入数据首先经过两层卷积网络,然后输入到两个全连接层,在分别输入到softmax和线性回归激活层。其中softmax层使用交叉熵损失函数训练,线性回归使用SmoothL1损失函数训练。这与RPN中Anchor的训练是一致的。Mask分支RoI Align池化固定的14x14 mask信息经过几层conv, BatchNorm, ReLU后,再进行2x2的反卷积操作,得到28x28的图像区域。然后经过大小1x1、深度为分类个数的卷积操作,输出每一个分类的28x28 mask信息,再经过一个sigmoid激活函数,这样28x28的像素区域,每个区域的值为0或1,代表是否为物体的遮罩。mask分支采用二元交叉熵损失函数进行训练,来预测每个像素位置为0还是1。至此,我们浏览了整个Mask R-CNN模型的结构,Mask R-CNN模型的损失函数一共有5个:Anchor二分类,交叉熵损失函数Anchor包围框回归,SmoothL1损失函数head网络的分类,交叉熵损失函数head网络的回归分支,SmoothL1损失函数head网络的mask分支,二元交叉熵损失函数
  • [教程] 【ModelArts-Lab AI实战营】基于ModelArts通过Keras来增广猫狗数据集(卷积神经网络)
    在【华为云 ModelArts-Lab AI实战营】第二期中的想提高猫狗识别率可以考虑增加训练数据来提高准确率。我们可以通过Keras来增广猫狗数据集。我们先把案例提供的25000张图片进行分类及分文件夹。因为,在华为云上的Notebook上增广图片的数量在500张比较好,一次增广量可达到4000,时间在3分钟左右。首先,我们先按500一份分装到50个文件夹内,再压缩成zip格式文件上传到notbook上。如图:我们再进入输入解压命令: unzip catdogdata.zip到文件目录界面可以看到解压出文件进行数据增广from keras.preprocessing.image import ImageDataGenerator import os import numpy as np import tensorflow as tf def creat_x_database(rootdir, resize_row, resize_col):     list = os.listdir(rootdir)     database = np.arange(len(list) * resize_row * resize_col * 3).reshape(len(list), resize_row, resize_col, 3)     for i in range(0, len(list)):         path = os.path.join(rootdir, list)  # 把目录和文件名合成一个路径         if os.path.isfile(path):  ##判断路径是否为文件             image_raw_data = tf.gfile.FastGFile(path, 'rb').read()             with tf.Session() as sess:                 img_data = tf.image.decode_jpeg(image_raw_data)                 resized = tf.image.resize_images(img_data, [resize_row, resize_col], method=0)                 database = resized.eval()     return database ''' 用以生成一个batch的图像数据,支持实时数据提升。训练时该函数会无限生成数据, 直到达到规定的epoch次数为止。 ''' datagen = ImageDataGenerator(     featurewise_center=True,  # 去中心化     featurewise_std_normalization=True,  # 标准化     rotation_range=10,  # 旋转范围, 随机旋转(0-180)度     width_shift_range=0.2,  # 随机沿着水平或者垂直方向,以图像的长宽小部分百分比为变化范围进行平移;     height_shift_range=0.2,     shear_range=0.2,  # 水平或垂直投影变换     zoom_range=0.2,  # 按比例随机缩放图像尺寸     horizontal_flip=True,  # 水平翻转图像     fill_mode='nearest')  # 填充像素, 出现在旋转或平移之后 x = creat_x_database('.xxx/xxx/训练文件路径', 256, 256) datagen.fit(x) i = 0 for batch in datagen.flow(         x,         batch_size=300,         save_to_dir='./训练完毕的路径',         save_prefix='1',         save_format='jpg'):     i += 1     if i > 15:         break最后得到的效果:不过这里还有个数据标注还没完成,下期再补上,因为,我也没搞出来!!!难受!!!
  • [技术干货] 【ModelArts-Lab AI实战营】基于Vgg16的猫狗识别扩展案例(卷积神经网络)
    作者:yiakwy内容本案例包含了部署在ModelArts上所必须的项目文件,代码入口,以及部署工具。本案例提供了一个针对猫狗识别可达到95%以上精度的案例模型Vgg16,并且易于扩展其他模型到训练作业上准备工作将获得的cat_and_dog_XX.tar.gz 文件放到本目录下的data。我已经在data里面存放了,在部分数据预训练得到的预训练模型参数。在本地训练执行:cd codes && sh train.sh会自动解压数据包, 训练模型,并创建output文件夹,用于序列化的存放模型架构(proto文件)和参数。代码在ModelArts作业训练执行时,会将输出文件同步到OBS对应的作业版本号下models文件夹。此位置比较重要,线上部署时,会根据这个位置读取由keras转换的tensorflow模型开始进行部署。部署首先参考脚本,安装ModelArts SDK。修改cloud/deploy/deploy.py中对象存储,桶名称和目标路径(和训练作业输出路径下model目录一致)。cd codes && sh deploy.sh即可将本地依赖代码文件拷贝到OBS推理入口文件所在文件夹。
  • [云早报] 2018 年中国云市场规模 963 亿元:公有云 437 亿元、私有云 525 亿元(北京时间)7月3日,星...
    云早报,(北京时间)7月3日,星期三【云头条】2018 年中国云市场规模 963 亿元:公有云 437 亿元、私有云 525 亿元 中国信通院在7月2日召开的“2019可信云大会”上正式发布《云计算发展白皮书(2019年)》。白皮书显示,我国公有云市场保持高速增长。2018年我国云计算整体市场规模达962.8亿元,增速39.2%。其中,公有云市场规模达到437亿元,相比2017年增长65.2%,预计2019-2022年仍将处于**速增长阶段,到2022年市场规模将达到1731亿元;私有云市场规模达525亿元,较2017年增长23.1%,预计未来几年将保持稳定增长,到2022年市场规模将达到1172亿元。在IaaS方面,榜单只包括计算、存储、网络(不包括CDN)、数据库等纯基础资源服务收入。其中,阿里云占据36.0%的市场份额,天翼云占据11.6%,腾讯云为10.9%,光环新网、UCloud、金山云本次榜单不进行具体排名,三家合计为12.4%,其他为29.1%。值得一提的是,白皮书还对主流云服务企业的信用评估情况进行了披露。目前被评为AAA的企业分别是:•中国电信股份有限公司云计算分公司•联通云数据有限公司•中国移动通信集团有限公司政企客户分公司•华为软件技术有限公司•网宿科技股份有限公司•京东云计算有限公司•浪潮信息技术有限公司【华为云】华为郑叶来:多元化云服务架构,助力企业智能化升级 (查看原文)华为公司副总裁、华为云业务总裁郑叶来在“成都·选择不凡华为云城市峰会2019”的主题演讲表示。华为云基于鲲鹏芯架构打造的鲲鹏云基础设施,将帮助企业更好地进行创新,消除技术壁垒,加速产业智能化升级。【互联网新闻】1.华为携中国联通建首个Wi-Fi 6地铁站7月2日消息,据华为中国消息,近日,深圳地铁携手华为、中国联通等合作伙伴,通过联通5G网络接入,采用Wi-Fi 6技术部署了全国首个Wi-Fi 6地铁车站——深圳地铁福田枢纽。2.滴滴举办安全开放日活动 分享安全攻坚300天新进展滴滴出行CEO、安全委主任程维委托总裁柳青在演讲时表示,后续滴滴将把开放日活动常态化,把滴滴更多真实的做法、感悟,以及拿不准的问题,面向公众坦诚沟通和探讨。“过去,我们一直认为滴滴是一家科技公司,每天匹配这么多订单,聊的都是人工智能,都是大数据。突然经历了去年这一年,我们的认知被颠覆,开始重新思考和审视自己。”柳青称,出行这个行业最重要的是服务属性,一切都是以人为本的,科技和人工智能只能改变一部分。滴滴首席出行安全官侯景雷还透露,目前滴滴已在行业中率先制定《网约车安全标准(试行)》,网约车安全体系已初步建成。侯景雷还宣布,2019年滴滴预计安全投入资金将超过20亿元;包括集团、公司、分公司安委会等在内的安全工作团队已扩充至2548人,并且制定了19项安全制度。3.格力电器发布文件:董明珠为九万员工话费买单7月2日,格力发布红头文件:“为满足大数据互联网时代工作通讯需求,经公司办公会议研究决定,实施全员免费使用工作电话方案”。文件指出,员工使用指定号码卡,除工作电话外还可用于生活电话,每人每月100元以内的费用由公司承担,包括每月国内语音800分钟、不限量国内流量,同时为员工办理4张以内家庭副卡,供家属共享使用。4.工信部点名18家企业!饿了么、小红书未经同意收集用户信息工信部官方微信公众号2日通报今年一季度电信服务质量情况。通报内容显示,2019年一季度用户个人信息保护检查发现,猎豹浏览器、饿了么、小红书、网易考拉、融360等多款APP存在未经用户同意收集个人信息的问题,此外,上述APP还存在误导用户同意收集使用个人信息的问题。5.清华大学在可重构芯片领域获重要进展7月2日消息,清华大学微电子与纳电子学系在可重构芯片和人工智能芯片领域取得重要进展。在日本京都举办的2019超大规模集成电路国际研讨会上,清华大学微纳电子系可重构芯片研究团队博士生郭瑞琦等发表了题为《A5.1pJ/Neuron 127.3us/Inference RNN-based Speech Recognition Processor using 16Computing-in-Memory SRAM macros in 65nm CMOS》(采用16个存内计算单元的高能效(5.1pJ/神经元)低延时(127.3us/推理)语音识别芯片)的学术论文,详细介绍了基于可重构计算架构,融合存内计算技术,支持完整人工智能算法的数模混合新型计算芯片。该芯片实现了5.1皮焦/神经元的能效,是已发表最好结果的2.8倍;单次推理最低消耗3.36微焦,单次推理的最小时延仅127.3微秒;语音识别应用中,识别精度超过90%。近期,该团队已经利用“数模混合、存算一体”这一新架构,针对语音识别场景设计了全球第一颗数模混合架构人工智能芯片Thinker-IM,为人工智能芯片的架构演进开拓了新方向。6.网易云音乐被下架,网易云音乐极速版上线:没有电台、直播等功能7月2日消息,“网易云音乐极速版”App在安卓手机应用市场悄然上线。在更新简介上,“网易云音乐极速版”介绍为更专注听歌核心体验,安装包更小,页面打开更**。网易云音乐方面表示,为更好满足用户对于音乐产品的差异化需求,公司按此前既定规划在手机端探索推出“网易云音乐极速版”App。和普通版相比,“网易云音乐极速版”内容简洁,在收听和发现歌曲的体验上与普通版并没有多大差别。目前,极速版取消了电台、视频、直播、商城、个性换肤等功能服务。所以,极速版使用起来能够让用户更加关注其听音乐的核心功能。7.IBM 拆分 Watson MarketingIBM现拆分广告业务IBM Watson Marketing,它称其为最大的独立营销云,希望叫板Adobe、Oracle和Salesforce。IBM Watson Marketing之前被一家成立于2005年的私人投资公司Centerbridge Partners LP收购。该公司计划在7月晚些时候宣布新的名称和品牌。IBM Watson Marketing不肯透露交易的规模,但新任首席执行官Mark Simpson表示,未来的公司将有1100名员工,将是“市面上一家规模相当大的公司”和“无论从哪个标准来衡量,都将是最大的独立营销云。”8.Canalys:5G手机数量2023将超4G手机7月2日上午消息,市场研究Canalys周一预计,5G手机数量将在2023年超过4G手机,此外,这类设备的普及将主要发生在中国,原因是中国政府和企业都在力推这项技术。Canalys估计,2023年的5G手机销量大约会达到8亿部,市场份额达到51.4%。中国在其中占据34%,北美为18.8%。9.AI首模拟宇宙 30毫秒生成高精度3D模型7月2日消息,近日,有科学家推出了全球首个AI宇宙三维模拟器,可在几毫秒内完成模拟,而且比传统模型更加准确。参与研究的科学家主要来自卡耐基梅隆大学和加州大学伯克利分校等机构。该项目开创性的利用深度神经网络模拟宇宙,并用来自8000多种传统模型的数据进行训练,完成了高精度、**速、复杂的宇宙三维模拟。10.腾讯云5.2亿中标长沙城市超级大脑项目7月2日上午消息,腾讯云近日以5.2亿元中标长沙市城市超级大脑项目。据长沙政府采购网公示内容,腾讯将与长沙市人民政府共同为长沙新型智慧城市建设“神经中枢”。同时,该项目还是腾讯城市发展解决方案“WeCity未来城市”的首个落地项目,据介绍, “WeCity未来城市”解决方案是以腾讯云产品和技术能力为底层,支撑数字政务、城市治理、城市决策和产业互联等领域的解决方案,并通过微信、小程序等工具,触达用户。【更多内容,欢迎访问】http://forum.huaweicloud.com/forum.php?mod=forumdisplay&fid=569&filter=typeid&typeid=266(内容来源于互联网,如侵犯您的合法权益或有其他任何疑问,请联系:huaweicloud.bbs@huawei.com沟通处理。谢谢!)
  • [云早报] 阿里布局“中国芯”,达摩院自研神经网络芯片~(北京时间)4月20日,星期五
    本帖最后由 Haru_lu 于 2018-4-21 09:33 编辑14155 管理与部署云早报,(北京时间)4月20日,星期五 【云头条】 阿里布局“中国芯”,达摩院自研神经网络芯片 阿里巴巴达摩院正研发一款神经网络芯片——Ali-NPU,该芯片将运用于图像视频分析、机器学习等AI推理计算。阿里达摩院研究员骄旸介绍,CPU、GPU作为通用计算芯片,是为处理线程逻辑和图形而设计,处理AI计算问题时功耗高,性价比低,在AI计算领域急需专用架构芯片解决上述问题。 【华为云新闻】 华为云获得CNCF基金会顶级席位,将参与云原生领域最高决策 美国时间4月17日,全球顶级开源社区Cloud Native Computing Foundation(云原生计算基金会,以下简称CNCF)正式宣布了基金会的技术监督委员会(Technical Oversight Committee,下称TOC)席位改选结果, 华为和Google进入TOC。这是华为首次,也是亚洲首家公司获得CNCF TOC成员席位。 作为Linux 基金会旗下的子基金机构,CNCF是在云技术领域的TOP级开源社区,一直备受业界主流科技巨头追捧。此次,华为进入TOC技术监督委员会,是CNCF社区对华为公司技术能力与对开源社区长期贡献的肯定,也是继去年进入Kubernetes社区Steering Committee后,华为更进一步参与整个Cloud Native领域最高的技术委员会...(查看原文) 【互联网新闻】 1.中兴要求全体员工重学欧美法律,考试满分才能过关 最近,因为违反禁运条款而被美国“封杀”的中兴,正在进一步强化公司的合规管理。澎湃新闻援引知情人士的消息称,中兴正在要求公司的每一个员工重新学习欧美法律法规、反贿赂等知识,参加合规考试要达到 100 分满分才能通过。目前,受美国商务部的出口禁令影响,中兴的主要供应商之一英特尔已经发表声明,称将按照规定停供零部件。而根据路透社的报道,知情人士透露,就在美国下达禁令的一个月之前,中兴首席合规官兼首席法务官程钢就已被解职,但内部备忘录并未给出具体的原因。 网友评论:好笑又心酸~ 2.美官员表示将紧急立法,限制中方投资敏感技术领域 财政部国际事务办公室助理秘书希思·塔伯特(Heath Tarbert)在华盛顿的一次会议上表示,美国财政部正在考虑紧急立法,从而遏制中国在美国对敏感技术领域的投资。投资限制将是特朗普总统在惩罚中国侵犯美国知识产权的计划中的最新举措。在上月美国政府公布其针对中国知识产权的调查结果后,特朗普曾让美国财长努钦(Steven Mnuchin)考虑对中国公司进行投资限制。塔伯特周四在华盛顿举行的一次会议上表示,财政部目前正在推动国会立法,扩大其审查外国投资的权力。 网友评论:党员们,立功表现的机会到了~ 3.高通:将重新向中国政府提交有关批准恩智浦收购的申请 4 月 19 日,高通公司宣布,将重新向中国政府提交申请,希望其批准有关收购恩智浦半导体公司的 440 亿美元交易。同时,高通也已经和恩智浦达成了一致,同意将这笔交易的有效期从 4 月 25 日延长至 7 月 25 日,以完成审核。目前,此案已获得美国、欧盟、韩国等地政府的审批,只剩下中国的许可。中国商务部 19 日在例行发布会上表示,将依法对此案进行审查,但双方合并可能会对市场产生负面影响。 网友评论:现在这个时期,略微有点尴尬~ 4 支付宝重磅更新,支持Siri唤醒付款码 网友近日发现iPhone已经可以使用Siri直接唤醒支付宝,并展示付款码进行付款。用户只需要在解锁的情况,使用Siri输入语音“支付宝付款”,随后Siri就会自动切入支付宝的APP并进入付款码页面,相比手动去启动APP找到付款码界面还要更快。 网友评论:最尴尬的是当你一顿操作后,Siri回了句:我好像不明白。 5.百度计划和美团合作无人驾驶送外卖,首单或落地雄安 4 月 19 日,百度在北京召开发布会,正式发布无人驾驶开放平台 Apollo 2.5 版本。新浪科技援引百度内部人士的消息称,百度已经与美团达成了相关合作,将把无人驾驶技术应用到送外卖的服务中,并计划率先在雄安新区试点。具体而言,无人驾驶送餐将改变过去点对点式的接单、送餐方式,更加偏向批量送餐,在安全性、人员成本方面都有一定提升,但速度可能会降低,更偏向相对封闭和限制性的区域。该知情人士还透露,本来这一合作计划在五一期间发布,但由于雄安的基础设施建设仍在进行中,合作发布可能会延后。 网友评论:百度布局无人驾驶也不是一天两天了~ 6.三大运营商将在北上广等城市试点 5G,手机网速至少快10倍 据《北京青年报》报道,经国内三大运营上内部人士证实,中国移动、中国联动和中国电信三家运营商均已获国家相关部门批准,将在北京上海广州等部分城市试点建设 5G 网络。理论上, 5G 网络能比目前的 4G 手机网速快 10 -100 倍。 网友评论:便宜一点,谢谢。 7.消息称德州类游戏将于 6 月 1 日起停止运营 根据界面新闻的报道,近日国家文化和旅游部市场司将对即将出台的“棋牌类网络游戏管理”政策做出重要提示,要求各平台立即停止德州类游戏的下载,并于 6 月 1 日前全面终止相关游戏的运营。同时,文化和旅游部将不再受理德州类游戏的备案和变更。 网友评论:未来转战小程序游戏? 8.乐视网确认腾讯京东对新乐视智家的投资 近日,传闻称腾讯、京东将对新乐视智家进行投资。18 日晚间,乐视网发表公告称,此次投资传闻属实,包括腾讯旗下的林芝利创、京东、苏宁体育、TCL 等八家公司,已经与新乐视智家达成了投资意向,合计将增资 19 亿元。之后,乐视网对新乐视智家的持股比例将下降至 33.46%。19 日,新乐视智家在公司群发了内部信,表示:“我们已经迎来反转:所有的质疑都会成为过去,超级电视将全新起航。” 网友评论:故事要反转了? 9.经营许可条件放宽,无人机市场或迎来大爆发 《无人机管理办法(暂行)》将于6月1日起正式实施,放宽了取得无人驾驶航空器经营许可证的条件,由原来的10项减少为4项,且无人机经营许可证申领过程进行了全程简化。不过,鉴于载客类、载货类通航飞行活动的运行情况复杂、风险等级不确定,因此该《办法》仅适用于目前应用领域较广的作业类和培训类飞行活动。专家认为,《办法》对我国无人机行业,特别是大疆等国内商用无人机生产厂商是重大利好。无人机商业运营有法有规可依,会极大刺激无人机经营**业发展,特别是农保、巡线等应用场景无人机有很大的比较性优势,有利于提升相关工农业生产的效率,有效降低相关作业成本。 网友评论:快递小哥要开始焦虑了~ 10.两男子想抢劫马云,蹲守两天连阿里几个门都没摸清楚 有两名男子直奔杭州想抢劫马云,但他们发现连阿里巴巴公司有几个大门都不清楚。后来又计划抢劫海澜集团老板,还没实施就被警方抓获。 14156 网友评论:马云:我从99年创业到现在没拿过工资,对钱也没有任何兴趣,关键是我不用现金只用支付宝,你抢我啥啊? 【本周早报】 刘主任家搞了个AI平台究竟是什么来头 (北京时间)4月16日,星期一 数人云与UMCloud宣布合并 业务全面整合完善云产品线(北京时间)4月17日,星期二谷歌用AI从嘈杂环境中提取单人音轨(北京时间)4月18日,星期三 美国将禁止当地运营商用补贴采购中国电信设备(北京时间)4月19日,星期四 【更多内容,欢迎访问】http://forum.huaweicloud.com/for ... r=typeid&typeid=266 (请尊重劳动成果,转载请标明来源!)
总条数:936 到第
上滑加载中