-
——————————————————【华为云·微话题】——————————————————— 网络基础设施在生产生活中变得越来越重要,但其运维也变得越来越复杂,因此当前网络向自动化与智能化快速演进,以提高运维效率,降低运维复杂度和能耗。——————————————【微话题活动】———————————————今天我们邀请到网络与算法专家Zonghua Zhang和大家讨论一下:【AI能帮网络运维多大忙?】活动时间2020年3月6日-2020年3月28日参与方式直接在本帖回复关于以下4个问题中的任意问题的理解或评论1, 得益于近来人工智能技术特别是深度学习算法的发展和应用(特别是Alpha Go,图像与音声处理领域等),“自动驾驶”概念近年来被频繁提及,包括在网络管理与运维领域。你认为最终可能实现么?你认为存在哪些技术难点?AI是否能帮我们搞定一切?2, 列举几个你认为AI可以帮助解决的具体问题,例如网络测量,异常检测?3, 将要到来的5G网络时代,高传输速率,大规模数据流量,动态的网络结构,多元的网络服务(如自动驾驶汽车),可能会使网络运维变得更加困难,你认为AI在哪些方面能帮上忙么? 4, 如果网络最终实现自动驾驶,安全,隐私,可信等问题将变得更加不可控,我们应该如何防患于未然?有哪些潜在的安全风险?本期奖品A.回帖参与本次讨论,回复与话题相关的原创内容,即可获得精美鼠标垫1个(数量有限,先到先得)。B.网络与算法专家Zonghua Zhang评出3名优质评论奖,各送出华为云定制双肩包1个。(两样奖品不可同时获得,奖品于活动结束发放) 评奖标准回复话题数量和内容质量 优质评论奖3名 参与奖
-
—————————————————【华为云·微话题】———————————————————云计算被称为21世纪初期最具颠覆性的信息科学技术创新,在过去10年间推动了大数据、人工智能、物联网等相关应用的飞速发展。随着云技术的快速发展和迭代更新,各行各业都在“云”中快速成长,继在社交、电商、游戏、视频等领域应用后,正朝着政务、金融、制造、医疗等纵深行业蔓延。甚至有人断言,全面云化的时代已悄然来袭,国内的云服务也在蓬勃生长。云服务是一项基于互联网、面向企业提供的、基于云存储技术的文件存储、访问、备份、共享、管理、协作服务。随着云业务的持续演进,基于云存储的云服务已经成为企业实践的主流选择。——————————————【微话题活动】———————————————今天我们邀请到华为鲲鹏高级产品经理和大家讨论一下:【什么样的云服务产品能助你轻松上云?】活动时间2019年12月5日-12月19日参与方式直接在本帖回复关于以下3个问题中的任意1个或多个问题的理解或评论1.您使用云服务主要用于哪些应用场景?2.您目前使用过市面上哪些云服务产品?这些产品吸引你的地方是什么?3.鲲鹏弹性云服务器对比行业内其他弹性云服务器有哪些优缺点?请说出3个点本期奖品A.回帖参与本次讨论,回复与话题相关的原创内容,即可获得大号鼠标垫1个(数量有限,先到先得)。B.华为高级产品经理smart 评出3名优质评论奖,各送出华为云定制双肩包1个。(两样奖品不可同时获得,奖品于活动结束发放) 评奖标准回复话题数量和内容质量 优质评论奖3名 参与奖 (图案随机,已实物为准) 优质评论:andyleung:1.您使用云服务主要用于哪些应用场景?跑公司的OA 系统 ERP 系统 还有wiki等各种系统。2.您目前使用过市面上哪些云服务产品?这些产品吸引你的地方是什么?华为云 阿里云 腾讯云 ,吸引我的地方就是售后服务够好,还有云服务的稳定性、云服务的质量是否够好。然后可以节省我自己去部属云服务的维护工作,总的来说费用不大,我的规模使用不到,就是特别希望云服务的质量、效果比我自己搞的好,然后省很多事情,就是稳定性有保证。当然我云下也还是有备份的。3.鲲鹏弹性云服务器对比行业内其他弹性云服务期有哪些优缺点?请说出3个点优点:1-华为自主研发的,避免以后被外国技术卡不给我们芯片的危险;2-自主可控芯片了,后门等安全也得到很好的保证,3-走一个新的路子,可能弯道超车超越欧美,走出自己特殊的芯片路子;缺点:1-华为自研的,未来生态走的路还是挺远的;2-软件支持兼容性是否有问题?;3-新的芯片成熟度和稳定性个人觉得还是没有够X86的稳定,毕竟人家玩了几十年了。但是未来很难讲,可能鲲鹏弯道超车。小小2018:1.您使用云服务主要用于哪些应用场景?更多的场景应用在一些信息化软件,以及门户网站的的布置。对于一些高性能的服务器,主要用于图形渲染及模型的力学分析。2.您目前使用过市面上哪些云服务产品?这些产品吸引你的地方是什么?阿里云,华为云,腾讯云单独从云服务上来说,几个厂家提供出来的服务都差不多,毕竟底层的实际硬件资源对我们不可见,性能方面腾讯云的性能可能没有那么好。对于服务方面,华为云可以说是最好的了。阿里云有问题提个工单基本反馈很慢,或不反馈。产品最吸引的地方就是用着方便,以及问题的及时解决,关键业务必须要有保障的。提供更全的方案,如各个功能如何很好的搭配使用,减少运维烦恼。3.鲲鹏弹性云服务器对比行业内其他弹性云服务期有哪些优缺点?请说出3个点优点1:鲲鹏弹性云服务器是自主的品牌,可以做到全栈,可以保证一直有服务器可用。优点2:当然了自主的产品,价格方面能做到极致,这也是我们最想享受的,有最高的性价比。优点3:多维知识回馈,及时掌握鲲鹏最新技能,有自己的社区及论坛,有自己的生态。这个要是建立起来,很好的前景。缺点:性能上没有进行极限测试。这个不作评价。Hero:1.您使用云服务主要用于哪些应用场景?目前我使用云服务主要用于公司和客户业务的云端部署,还有自己试用,测试和学习2.您目前使用过市面上哪些云服务产品?这些产品吸引你的地方是什么?使用过阿里云的弹性云主机吸引的地方:阿里云口碑,稳定性比较好,产品相对可靠,让用户放心。相较于传统机架服务器,云主机利用弹性计算优势,可以根据自身需要定义服务器配置,灵活选择设定所需的内存、CPU、带宽资源等配置,并且可以根据业务需要和伸缩策略为用户自动调整计算资源3.鲲鹏弹性云服务器对比行业内其他弹性云服务期有哪些优缺点?请说出3个点优点1、基于鲲鹏芯片的鲲鹏云主机具有计算高效能优势,大幅提升ARM原生应用的高并发处理性能优点2、鲲鹏云主机提供了鲲鹏BMS裸金属服务器、鲲鹏ECS弹性云主机、鲲鹏Kubernetes容器和鲲鹏Serverless容器,实现多元架构选择模式优点3、鲲鹏云服务器支持混合云交付模式,它支持与X86资源池混合部署,以及多厂商软硬件异构纳管缺点:应运环境场景相对局限,和一些软件适配还有待验证,毕竟问世时间不长,产品可靠性,稳定性,易用性还有待考证,产品口碑还没有形成。
-
本期体验产品: 华为云智能视频算法商城Huawei HoloSens Store什么是HoloSens Store? 2019年安博会上华为智能安防发布了基于智能视觉与感知的智能视频算法商城Huawei HoloSens Store,该算法商城中的算法主要应用于华为软件定义摄像机及服务器等产品。商城中的算法可以通过客户端加载到华为软件定义摄像机中使用。比如小区门口装了一个华为摄像机用作普通监控用,过段时间小区安全服务升级,提供人脸识别系统,可以在现有摄像机上装人脸识别算法及相关应用予以实现。如果想要计数功能统计小区门口每天的进出人数,也可以从商城中选购相应的人员计数算法装到摄像机中去。 HoloSens Store集合了可运行于华为软件定义摄像机和智能视频云平台的优秀第三方算法,满足金融、能源、教育、园区等诸多行业智能化诉求。致力于让开发者从“算法”到“应用”不再空中楼阁;让使用者从“想法”到“算法”,不再遥不可及。HoloSens Store及其支撑体系统一操作系统:基于摄像机和智能视频云平台提供标准化、服务化的API接口,保证第三方算法可运行、可管理、可升级、可监控。一站式开发平台:基于华为云ModelArts的开发、算法训练能力及智能安防开放生态实验室远程对接能力,为开发者提供便捷、高效的算法开发和调测服务。HoloSens iClient:基于华为智能安防产品提供第三方算法管理功能,实现算法批量加载、升级、License管理等能力。开发者社区:依托华为云建立的开发者论坛,供开发者交流、提问、获取文档,解决开发过程中遇到的问题。体验说明: 本次体验采用有奖征集体验评测报告+群内交流反馈的形式。首先从体验官社群中筛选出20人,按照附件体验指导体验产品并按照测评维度输出产品体验评测报告。报名并筛选成功的体验官,按照报告要求的体验维度,完成产品体验即可。 我们会按照评测体验维度、深度、意见建议等方面,从中筛选出高质量体验报告,给予礼品奖励。中奖率超高哟~~☆奖品设置如下☆ 金牌测评体验报告奖:3名奖品:华为蓝牙小艺AI智能音响1个 银牌测评体验报告奖:7名奖品:华为云定制双肩包1个 体验评测报告优秀参与奖:15名奖品:精美鼠标垫1个☆产品体验评测报告内容要求☆体验评测报告内容需要包含以下维度: 本次体验的主题是算法上线商城,我们会提供给体验算法demo(详见附件体验指导,开发者也可以用自己的算法),体验者将算法demo上传一站式开发平台,在一站式开发平台中完成模型转换和算法打包,然后申请在线摄像机进行算法调试,最后进行算法上线商城。整个过程体验者可以通过开发者社区获取相应的指导文档,及相关求助。请针对整体流程,写出您的体验感受。开发者社区网址:https://bbs.huaweicloud.com/forum/forum-798-1.html算法商城网址:https://marketplace.huaweicloud.com/holosensstore一站式开发平台:http://113.200.78.43:8088体验评测报告交稿时间: 2020年3月6日 16:00前,请报名评测的体验官将评体验测报告发帖上传到华为云社区开发者交流论坛中,分类选择(体验官)。并同步微信告知小助手(微信:hwyxzs)微信号。2020年3月15日 16:00前,将获奖信息告知体验官。 体验报告发帖地址:https://bbs.huaweicloud.com/forum/forum-557-639-1.html发帖时,请上传已填些完毕的任务卡,并在帖子内标注微信群昵称,以便评奖时使用 。
-
——————————————————【华为云·微话题】———————————————————=====【华为云·微话题】AutoML助力机器学习Case开发=====人工智能当前是最火的领域,没有之一。由于其涉及到线性代数、概率统计、优化算法等理论,而且调参也是一个技术活,且很漫长。对于想入门机器学习项目的开发人员,往往望而却步。为了解决这些问题,AutoML应运而生。今天我们就讨论,使用 AutoML 跑步上手一个机器学习 Case。——————————————【微话题活动】———————————————今天我们邀请到资深算法专家胡大海和大家讨论一下:【AutoML助力机器学习Case开发】活动时间2019年12月31日-2020年1月14日参与方式直接在本帖回复关于以下4个问题中的任意1个或多个问题的理解或评论1) 如何从业务中提取机器学习问题?2) 机器学习问题如何分类?3) 如何使用AutoML来解决常见的机器学习问题?4) 讨论下常用特征工程方法有哪些?本期奖品A.回帖参与本次讨论,回复与话题相关的原创内容,即可获得精美鼠标垫1个(数量有限,先到先得)。B.资深算法专家胡大海评出3名优质评论奖,各送出华为云定制双肩包1个。(两样奖品不可同时获得,奖品于活动结束发放) 评奖标准回复话题数量和内容质量 优质评论奖3名 参与奖
-
本期体验产品: 华为云API Explorer本次体验采用有奖征集体验评测报告+内交流反馈的形式。首先从体验官社群中筛选出20人,使用任务卡(正式开始活动后详见附件)体验产品并输出产品体验评测报告。邀约成功的体验官,我们会为您提供华为云免费资源,用于本次体验。报名链接:https://275956.weixin.drip.im/form/detail/18a10765-490a-4a12-a044-9ff4386ceb32?special=275956我们会按照评测体验维度、深度、意见建议等方面,从中筛选出高质量体验报告,给予礼品奖励。中奖率超高哟~~☆奖品设置如下☆ 优秀测评体验报告奖:3名奖品:雷柏(Rapoo) V500PRO 机械键盘 高质量测评体验报告奖:7名奖品:荣耀运动臂带AW19 体验评测报告优秀参与奖:10名奖品:华为云定制双肩包☆产品体验评测报告内容要求☆体验评测报告内容需要包含以下维度:本次体验活动主要聚焦华为云API Explorer和竞品对比。请各位体验官分别按照两个任务卡的要求完成全部任务,并根据自己的使用体验,给两者在使用方面带来的感受评分,并针对产品存在的体验问题及意见提供建议等。体验评测报告交稿时间: 11月25日 16:00前,请报名评测的体验官将填完后的2张任务卡发帖上传到华为云社区开发者交流论坛中,分类选择(体验官)。并同步微信告知小助手(微信:hwyxzs)微信号。12月2日 16:00前,将获奖信息告知体验官。体验报告发帖地址:https://bbs.huaweicloud.com/forum/forum-557-639-1.html请在落款标注姓名和群内昵称,以便评奖时使用。API Explorer为开发者提供一站式API解决方案平台,集成华为云服务所有开放API,支持全量快速检索、可视化调试、帮助文档、交流咨询,现诚邀您来参与体验,更有机会获得精美礼品!产品链接:https://apiexplorer.developer.huaweicloud.com/apiexplorer/overview
-
微话题 “ModelArts实现人脸情绪识别有哪些应用场景?”请大家能够畅所欲言,有机会得到专家回复哦。=======【华为云·微话题】人脸识别技术门槛是什么,有哪些应用场景? =======在苦恼猜不透女友的小情绪?快来听华为云顶级AI专家的技术公开课吧!华为云MVP、上汽集团云计算中心AI架构师【任如意】老师将亲自为大家展示如何利用ModelArts实现人脸情绪识别。不论你的她是不露声色还是喜形于色,AI出马,瞬间便知~再也不怕猜不透她的小情绪,AI让她更爱你!还有价格超低的云服务器,购买后就能立刻上线部署人脸情绪识别小程序,多种趣味应用创意立刻走起,服务天下苦爱群体,瞬间激增男友力,开启你创业的第一桶金!微话题活动:参与本次微话题讨论,有机会获得优质评论奖,赢取书籍。活动时间:2019年8月27日-9月1日参与方式:直接在本帖回复关于以上5个问题中的任意1个或多个问题的理解或评论获奖方式:活动结束后,将由EI小助手 选取出3名优质评论奖,各送出《极简人工智能》书籍1本。评奖标准:回复话题数量和内容质量。本期微话题奖品优质评论:张辉:在现实中,可以预见的场景可能有以下几种:(1)车站、地铁安检反恐(2)医院防止医闹,医患,避免冲突激化(3)HR现场面试求真(4)由家庭智能设备识别家人的情绪,对其进行心理安抚和指导(5)工作场所针对情绪不佳者提醒,避免出现安全事故(6)儿童情绪实时侦测与应对优质评论:不做梦的星星:人工智能:替代人的重复劳动力,及模拟人的一些操作场景。 大家最多的使用:监督学习,非监督学习。 在机器学习和深度学习方面 目前哪些场景能靠机器学习解决,哪些场景可以用深度学习。 人工智能的典型场景:人大战阿尔法狗下围棋,机器人安防,机器人踢足球,无人驾驶,仿生智能飞鸟等 未来:自动学习,有钱人,有科技玩具替代真实生活中的动物。 还有那些是人工智能不能做到,思想,艺术设计,有知识的创新等。 人工智能是帮助人更轻松,更舒适,更高效和便捷。帮助人更了解自己。
-
微话题 “如何利用GPU云资源训练自己的TensorFlow模型?”希望大家能够畅所欲言。如果大家有其他任何与TensorFlow模型相关的问题,也可以在本帖回复直接咨询云享专家江魁。=====【华为云·微话题】如何利用GPU云资源训练自己的TensorFlow模型? =====人工智能的火热,带来了一波学习TensorFlow深度学习框架的热潮。聊深度学习免不了要用GPU,但目前一块GPU费用较高,对于个人学习者和创业公司来讲的话,按需配置的云GPU服务器是一个不错的选项。华为云提供了按需配置的GPU服务器。云资源购买很方便,但GPU服务器的配置安装往往依赖一些Nvidia开发的组件,其文档晦涩难懂,很容易把新手拒之门外。幸运的是,在这个Docker流行的时代,有一些工作可以用容器化的服务来简化。Nvidia也开发了Nvidia-docker支持容器化。今天我们就来讨论一下如何利用GPU云资源训练自己的TensorFlow模型?期望看到大家精彩的评论:1、你是如何训练自己的TensorFlow模型?2、你在华为云服务器上训练自己的TensorFlow模型有没有碰到什么问题?如何解决的?3、你尝试着在GPU云资源部署你的Nvidia-docker时最大的收获是什么?4、你的TensorFlow训练的模型在用Restful API发布时有没有碰到什么问题?微话题活动:参与本次微话题讨论,有机会获得优质评论奖,赢取华为小天鹅蓝牙音箱。活动时间:2019年7月24日-8月7日参与方式:直接在本帖回复关于以上4个问题中的任意1个或多个问题的理解或评论获奖方式:活动结束后,将由云享专家 江魁 选取出2名优质评论奖,各送出华为小天鹅蓝牙音箱1个。评奖标准:回复话题数量和内容质量。优质评论:云的记忆:1、你是如何训练自己的TensorFlow模型?接触人工智能一年多,报了网课,前段时间第一次在华为提供的Modelarts AI实践营上 训练了 花草识别,猫狗识别 以及一个YOLO3模型。也是通过你们华为云第一次训练自己的第一个TensorFlow模型,算是入门,感谢华为。 2、你在华为云服务器上训练自己的TensorFlow模型有没有碰到什么问题? 记得第二期实践的时候,上传数据集到你们 对象存储的那个桶,通过你们那个 Browers传东西 传到 66%的时间就一直传不上去了,这个东西是个大的bug,需要修复,后面是通过另外一种命令行的方式上传的,后面多次遇到其他的一些大大小小的问题,但是都解决了,后面遇到再反馈 3、你尝试着在GPU云资源部署你的Nvidia-docker时最大的收获是什么? 没有实践过,通过你们Modelarts 学会做深度学习的时候,后面有计划这样去部署。因为感觉更自由。 4、你的TensorFlow训练的模型在用Restful API发布时有没有碰到什么问题? 还没遇到过。 buyi:利用TensorFlow,然后基于 CNN 数字识别的代码,采用简单的卷积神经网络模型,模型为: 输入 - 第一层卷积 - 第一层池化 - 第二层卷积 - 第二层池化 - 第一层全连接 - 第二层全连接。实现1—9的数字识别,根据ModelArts开发步骤,总结下列流程。1. 训练数据集下载上传2. CNN 模型构建3. 创建一个源文件 mnist_model.py123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778from __future__ import absolute_importfrom __future__ import divisionfrom __future__ import print_function import argparseimport sysimport tempfile from tensorflow.examples.tutorials.mnist import input_data import tensorflow as tf FLAGS = None def deepnn(x): with tf.name_scope('reshape'): x_image = tf.reshape(x, [-1, 28, 28, 1]) #第一层卷积层,卷积核为5*5,生成32个feature maps. with tf.name_scope('conv1'): W_conv1 = weight_variable([5, 5, 1, 32]) b_conv1 = bias_variable([32]) h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1) #激活函数采用relu # 第一层池化层,下采样2. with tf.name_scope('pool1'): h_pool1 = max_pool_2x2(h_conv1) # 第二层卷积层,卷积核为5*5,生成64个feature maps with tf.name_scope('conv2'): W_conv2 = weight_variable([5, 5, 32, 64]) b_conv2 = bias_variable([64]) h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)#激活函数采用relu # 第二层池化层,下采样2. with tf.name_scope('pool2'): h_pool2 = max_pool_2x2(h_conv2) #第一层全连接层,将7x7x64个feature maps与1024个features全连接 with tf.name_scope('fc1'): W_fc1 = weight_variable([7 * 7 * 64, 1024]) b_fc1 = bias_variable([1024]) h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64]) h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1) #dropout层,训练时候随机让某些隐含层节点权重不工作 with tf.name_scope('dropout'): keep_prob = tf.placeholder(tf.float32) h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob) # 第二层全连接层,1024个features和10个features全连接 with tf.name_scope('fc2'): W_fc2 = weight_variable([1024, 10]) b_fc2 = bias_variable([10]) y_conv = tf.matmul(h_fc1_drop, W_fc2) + b_fc2 return y_conv, keep_prob #卷积def conv2d(x, W): return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME') #池化def max_pool_2x2(x): return tf.nn.max_pool(x, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')#权重def weight_variable(shape): initial = tf.truncated_normal(shape, stddev=0.1) return tf.Variable(initial) #偏置def bias_variable(shape): initial = tf.constant(0.1, shape=shape) return tf.Variable(initial) 训练模型123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596from __future__ import absolute_importfrom __future__ import divisionfrom __future__ import print_function import argparseimport sysimport tempfile from tensorflow.examples.tutorials.mnist import input_data import tensorflow as tf import mnist_model FLAGS = None def main(_): mnist = input_data.read_data_sets(FLAGS.data_dir, one_hot=True) #输入变量 x = tf.placeholder(tf.float32, [None, 784]) #输出变量,数字是1-10 y_ = tf.placeholder(tf.float32, [None, 10]) # 构建网络,输入—>第一层卷积—>第一层池化—>第二层卷积—>第二层池化—>第一层全连接—>第二层全连接 y_conv, keep_prob = mnist_model.deepnn(x) #第一步对网络最后一层的输出做一个softmax,第二步将softmax输出和实际样本做一个交叉熵 #cross_entropy返回的是向量 with tf.name_scope('loss'): cross_entropy = tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y_conv) #求cross_entropy向量的平均值得到交叉熵 cross_entropy = tf.reduce_mean(cross_entropy) #AdamOptimizer是Adam优化算法:一个寻找全局最优点的优化算法,引入二次方梯度校验 with tf.name_scope('adam_optimizer'): train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy) #在测试集上的精确度 with tf.name_scope('accuracy'): correct_prediction = tf.equal(tf.argmax(y_conv, 1), tf.argmax(y_, 1)) correct_prediction = tf.cast(correct_prediction, tf.float32) accuracy = tf.reduce_mean(correct_prediction) #将神经网络图模型保存本地 graph_location = tempfile.mkdtemp() print('Saving graph to: %s' % graph_location) train_writer = tf.summary.FileWriter(graph_location) train_writer.add_graph(tf.get_default_graph()) #将训练的网络保存下来 saver = tf.train.Saver() with tf.Session() as sess: sess.run(tf.global_variables_initializer()) for i in range(5000): batch = mnist.train.next_batch(50) if i % 100 == 0: train_accuracy = accuracy.eval(feed_dict={ x: batch[0], y_: batch[1], keep_prob: 1.0})#输入是字典,表示tensorflow被feed的值 print('step %d, training accuracy %g' % (i, train_accuracy)) train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5}) test_accuracy = 0 for i in range(200): batch = mnist.test.next_batch(50) test_accuracy += accuracy.eval(feed_dict={x: batch[0], y_: batch[1], keep_prob: 1.0}) / 200; print('test accuracy %g' % test_accuracy) save_path = saver.save(sess,"mnist_cnn_model.ckpt") if __name__ == '__main__': parser = argparse.ArgumentParser() parser.add_argument('--data_dir', type=str, default='./', help='Directory for storing input data') FLAGS, unparsed = parser.parse_known_args() tf.app.run(main=main, argv=[sys.argv[0]] + unparsed) for i in range(200): batch = mnist.test.next_batch(50) test_accuracy += accuracy.eval(feed_dict={x: batch[0], y_: batch[1], keep_prob: 1.0}) / 200; print('test accuracy %g' % test_accuracy) save_path = saver.save(sess,"mnist_cnn_model.ckpt") if __name__ == '__main__': parser = argparse.ArgumentParser() parser.add_argument('--data_dir', type=str, default='./', help='Directory for storing input data') FLAGS, unparsed = parser.parse_known_args() tf.app.run(main=main, argv=[sys.argv[0]] + unparsed) 4. 然后执行5. 实现预测代码创建源文件 predict_mnist_model.py12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061from __future__ import absolute_importfrom __future__ import divisionfrom __future__ import print_function import argparseimport sysimport tempfile from tensorflow.examples.tutorials.mnist import input_data import tensorflow as tf import mnist_modelfrom PIL import Image, ImageFilter def load_data(argv): grayimage = Image.open(argv).convert('L') width = float(grayimage.size[0]) height = float(grayimage.size[1]) newImage = Image.new('L', (28, 28), (255)) if width > height: nheight = int(round((20.0/width*height),0)) if (nheigth == 0): nheigth = 1 img = grayimage.resize((20,nheight), Image.ANTIALIAS).filter(ImageFilter.SHARPEN) wtop = int(round(((28 - nheight)/2),0)) newImage.paste(img, (4, wtop)) else: nwidth = int(round((20.0/height*width),0)) if (nwidth == 0): nwidth = 1 img = grayimage.resize((nwidth,20), Image.ANTIALIAS).filter(ImageFilter.SHARPEN) wleft = int(round(((28 - nwidth)/2),0)) newImage.paste(img, (wleft, 4)) tv = list(newImage.getdata()) tva = [ (255-x)*1.0/255.0 for x in tv] return tva def main(argv): imvalue = load_data(argv) x = tf.placeholder(tf.float32, [None, 784]) y_ = tf.placeholder(tf.float32, [None, 10]) y_conv, keep_prob = mnist_model.deepnn(x) y_predict = tf.nn.softmax(y_conv) init_op = tf.global_variables_initializer() saver = tf.train.Saver() with tf.Session() as sess: sess.run(init_op) saver.restore(sess, "mnist_cnn_model.ckpt") prediction=tf.argmax(y_predict,1) predint = prediction.eval(feed_dict={x: [imvalue],keep_prob: 1.0}, session=sess) print (predint[0]) if __name__ == "__main__":main(sys.argv[1])这样就可进行一个简单的数字预测,利用率TensorFlow相关函数和简单神经网络。
-
1、简介交叉编译,简单地说,就是在一个平台上生成另一个平台上的可执行代码。本指南主要内容为在非ARM架构服务器环境下搭建ARM的GCC编译环境,编译基于ARM架构的应用软件。交叉编译工具链是为了编译、链接、处理和调试跨平台体系结构的程序代码。除了体系结构相关的编译选项以外,其使用方法与Linux主机上的GCC相同。搭建交叉编译环境,即安装、配置交叉编译工具链。在该环境下编译出ARM架构下Linux系统所需的操作系统、应用程序等,然后再上传到ARM服务器执行。2、环境类别版本配置备注ARM测试服务器CentOS7.5ARM通用计算增强型 | rc3.xlarge.4 | 4vCPUs | 14GB华为云官网正在公测x86编译服务器CentOS7.52vCPUs|4GB|s3.large.2 1.在华为云官网购买https://www.huaweicloud.com/product/ecs.html2.本地服务器部署Centos7.5x86编译服务器Ubuntu16.042vCPUs|4GB|s3.large.21.在华为云官网购买https://www.huaweicloud.com/product/ecs.html2.本地服务器部署Ubuntu16.04交叉编译器arm-linux-gcc 5.5.0https://releases.linaro.org/components/toolchain/binaries/5.5-2017.10/aarch64-linux-gnu/gcc-linaro-5.5.0-2017.10-x86_64_aarch64-linux-gnu.tar.xz3、交叉编译器安装(x86服务器)3.1.安装标准的C开发环境执行以下命令:Ubuntu: apt-get install build-essentialCentOS: yum groupinstall Development Tools3.2.在/usr/local下建立名为ARM-toolchain的文件夹mkdir /usr/local/ARM-toolchain3.3 下载gcc-linaro-5.5.0-2017.10-x86_64_aarch64-linux-gnu.tar.xz 可以通过wget的形式下载cd /usr/local/ARM-toolchainwget https://releases.linaro.org/components/toolchain/binaries/latest-5/aarch64-linux-gnu/gcc-linaro-5.5.0-2017.10-x86_64_aarch64-linux-gnu.tar.xz 也可以从网页上下载后上传到/usr/local/ARM-toolchain目录下。交叉编译工具链的地址在https://releases.linaro.org/components/toolchain/binaries/latest-5/aarch64-linux-gnu/ 下载gcc-linaro-5.5.0-2017.10-x86_64_aarch64-linux-gnu.tar.xz下载完成后,解压tar包tar -xvf gcc-linaro-5.5.0-2017.10-x86_64_aarch64-linux-gnu.tar.xz3.4.配置环境变量修改配置文件,在配置文件的最后一行加入路径配置:Ubuntu:vim /etc/bash.bashrc # Add ARM toolschain pathPATH= /usr/local/ARM-toolchain/gcc-linaro-5.5.0-2017.10-x86_64_aarch64-linux-gnu/bin:"${PATH}"CentOS: vim /etc/profile# Add ARM toolschain pathexport PATH=$PATH:/usr/local/ARM-toolchain/gcc-linaro-5.5.0-2017.10-x86_64_aarch64-linux-gnu/bin3.5.环境变量生效与测试执行以下命令:Ubuntu:source /etc/bash.bashrc aarch64-linux-gnu-gcc -v执行上面的命令,显示arm-linux-gnueabi-gcc -v信息和版本CentOS: source /etc/profile aarch64-linux-gnu-gcc -v执行上面的命令,显示arm-linux-gnueabi-gcc -v信息和版本4、测试4.1.在x86服务器交叉编译1、创建hello.c执行:vim hello.c#include <stdio.h>int main(void){ printf("hello linux\n"); return 0;}2.交叉编译执行:aarch64-linux-gnu-gcc -o arm-hello hello.c4.2.测试执行1、在x86服务器上测试执行:chmod +x arm-hello执行:./arm-hello页面显示:-bash: ./arm-hello: cannot execute binary file 2. 拷贝执行文件至ARM服务器执行:chmod +x arm-hello执行:./arm-hello页面显示:hello linux 5、参考信息 交叉编译指导: https://releases.linaro.org/components/toolchain/binaries/https://blog.csdn.net/mars1743/article/details/20492285 6、FAQ 待补充
-
这是云EI 企业智能的官网吧,说实话,之前一直在玩华为云的各种服务,第一次进入到这个页面。一般都会直接从上面的下拉框进入到各类详情了就。 不过我觉得对这方向感兴趣的,从下拉框就能够直白的找到自己想要的内容了。我是平时用云服务器非常多的,而且喜欢玩一玩新的东西,平时大部分时间都在用华为云,对这些东西也了解,所以有的东西找的快。但是其实有些东西我从名字上总觉得很容易混淆,功能上很相近,就比如MRS和批处理,我不是很明白为什么批处理算在AI里面,,,我觉得这不只是AI吧,当然,可能有一些更细节的东西我还没注意到。 字太多了,就是我的第一感受。描述的话可以更多的用关键词,而不是整段的描述,,, 我比较喜欢这一种,有什么功能,直接列出来,简单明了,而且一眼就知道ModelArts是做什么的,能做什么,产品优势看完了会有点云里雾里,主要是这么大段的文字也没人会认真读下去。 关于价格问题,我喜欢直接看文档嗯,由于我被分配到了初学组,所以我发现这个价格很好算。这个页面,在我第一次使用modelArts的时候坑了很久,我搞了半天才知道所谓的自动学习是什么,功能方便强大,但是能不能吧流程列一下,这样让开发者知道都是做什么的。光写了功能强大,但是不知道是做什么的也是没有用啊。 我想,这应该不是个例,不只是华为云,毕竟这么写对路过的人来说的确是非常有吸引力的。但是对于一个真的想用这个产品的人来说,我还是希望能够一眼知道这个产品有什么功能,这样我自然就能知道他是做什么的,也不需要过多的描述。我在文档里看到了这个图,我觉得看文档的应该是少数,,尤其是做开发的话。 下面正题,使用自动识别。(吐槽一下,我前两天刚刚自己试用了一下jupyter开发,但是没搞明白MoXing框架封装的TensorFlow是啥意思,然后刚刚也没找到相关信息,是说通过moxing使用其他框架效率更高?) 数据标注,能不能支持一下键盘翻页,这样就非常好了。不过看文档,应该是通过SDK和API进行二次开发,开发自己的数据标注平台才是正解吧,穷学生并不能接触到这些跟钱相关的内容(笑还有,我标注的时候单词拼错了,请忽略,我可能考了个假的托福 接下来,训练和部署一气呵成……这一口气5分钟,没差点憋死我记得训练可以选模型之类的?或者说不需要,全自动。也没有任何实质上的参数需要设置。既然这样的话,我觉得可以预估一下模型训练时间,给人个心理准备?华为云一般不都是异步发送数据吗,为什么还要手动刷新 QAQ,模型应该早就部署好了测试图片1 Tesla 概念卡车,图片上的水印能证明他是一辆卡车预测时候的动画是不是有点问题?我要被闪瞎了 结果如我所料,他错了。当然,这主要是数据的问题 换一张,这个很卡车了吧 还是不对????难道是因为头部太圆润了。话说卡车不应该是从整体体量来看嘛,看来数据问题很大,只检测头部,可以提示一下数据标注的一些注意事项 看了一眼接口调用指南,有一个想法就是,如果发送请求之后,response超时,或者客户端崩掉等各种原因,那不就是说要重新调用接口获取数据,能不能直接调用另一个接口获取数据。还有,图片大小问题也没有说明。 说到深度学习,当然还要来一个Google Cloud,AWS我用着不舒服,就算了,虽然是我第一个云服务器。 跟华为云相比,谷歌是真的差距太大了,不多说,连中文都没有,我们都用不了你的服务你居然还在用中文做示例233333 主界面干净简洁,嗯,一眼看上去功能是不如华为云多的对比一下 但是谷歌吧各部分的功能,以及技术实现写了出来。这部分主要面向开发者,下面看重头,面向AI开发的部分。借鉴一下谷歌,我觉得对于开发者来说,尤其是已经会TensorFlow或者Pytorch的开发者,一个好的开发工具才是更重要的。谷歌是用实际说明了他是全流程的,包括开发和部署,还展示了高性能的TPU,华为云平台展示了高性能,但是开发部署全流程全靠一句话,这也是我前面说的,看了介绍之后有点一头雾水,不知道是要怎么使用这个平台进行开发。看了谷歌的我就知道,使用notebook和TPU甚至是在容器内开发同时部署和管理项目。这些功能做的这么好,可以直接写出来,当然,这只是我个人想法。 谷歌的产品开发流程图,在AI Platform详情页,一会中文一会英文我有点受不了华为云的这个图在文档里面,而文档大部分人是看不到的但是谷歌很奇怪,我点两下就会进入文档页面,他在疯狂的把我跳转到文档页面,让我直接看文档,而且文档写的不错,我觉得还挺好的。我平时是经常看华为云文档的,因为只有文档是写的最清晰的,以及,我还经常发些文档里的bug,顺便提个工单233333(后来我发现有留言功能,,也不知道我发留言能不能正常解决,反正有点小bug我也还能看得懂)补充:这不就是AutoML,阿里的AutoML好像有高阶配置,不过上手难度也会高很多,就要求有基础,所以可能也不算是一类产品了。不过可以支持一下高阶配置。参考 https://zhuanlan.zhihu.com/p/57896464然后就是,华为云论坛的登陆逻辑还是有点问题啊,是不是令牌过期时间和控制台设置的不一样
-
感谢关注华为云 · 云享读书会系列活动~本期活动已结束~查看本期读书会领读视频 请戳:云享读书会《区块链技术及应用》获取近期读书会活动安排,请私信小助手咨询哈~开发者,你好哟~欢迎参加云享读书会系列活动!本期阅读书籍是华为云区块链技术团队所著《区块链技术及应用》经过作者团专家的视频领读,如果你有些区块链的知识收获,欢迎在此帖留下你的读书笔记~01. 征集时间2019.7.15 - 2019.7.2202. 读书笔记要求1. 每篇读书笔记字数要求≥300字;2. 内容要求与每日领读视频、《区块链技术及应用》书籍或是华为云区块链服务优化意见相关;3. 内容原创不可抄袭;4. 回帖时请务必留下你的微信昵称和华为云账号。03. 注意事项1. 读书笔记提交后,小助手会在3个工作日内按续完成审核,并增加活动积分200分/篇;2. 本次活动通过提交读书笔记,可获得的积分上限为400分;3. 请务必按照上述要求提交内容,以免影响积分增加;4. 其他积分获取方式请查看活动社群公告;5. 其他未说明事项请参照 云享读书会《区块链技术及应用》 。04. 关于云享读书会每期云享读书会活动,会选取一本技术相关的畅销书籍,由原作者或明星专家提炼书籍精华,在读书会的专属微信社群中,每日输出精华知识的领读视频,帮助大家快速积累专业知识。活动期间会设置每日自测题、结业实践任务、提交读书笔记三种积分获取任务,并根据活动结束后的积分排行发放活动奖励。05. 活动奖励
-
【问题简要】关于USM转外线的问题【问题类别】IVR,USM问题【问题现象描述】具体想咨询一下,关于USM转外线的问题,第一次转到外线双方通话能听见声音,对方挂机后,在流程不结束的情况下,再次转到外线没有声音,换3300排队机不会出现这种问题
-
人工智能概述1. 什么是人工智能人工智能(Artificial Intelligence):它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。1956年由约翰.麦卡锡首次提出,当时的定义为“制造智能机器的科学与工程”。人工智能目的就是让机器能够像人一样思考,让机器拥有智能。时至今日,人工智能的内涵已经大大扩展,是一门交叉学科2. 人工智能的层次结构基础设施层:回顾人工智能发展史,每次基础设施的发展都显著地推动了算法层和技术层的演进。从20世纪70年代的计算机的兴起,80年代计算机的普及,90年代计算机运算速度和存储量的增加,互联网兴起带来的电子化,均产生了较大的推动作用。到21世纪,大规模集群的出现,大数据的积累,GPU与异构/低功耗芯片兴起带来的运算力的提升,促成了深度学习的诞生,点燃了人工智能的爆**潮,其中海量的训练数据是人工智能发展的重要燃料。算法层:机器学习是指利用算法使计算机能够像人一样从数据中挖掘出信息,而深度学习作为机器学习的一个子集,相比于其他学习方法,使用了更多的参数、模型也更复杂,从而使得模型对数据的理解更加深入也更加智能。计算机视觉:计算机视觉的历史可以追溯到1966年,人工智能学家Minsky在给学生布置的作业中,要求学生通过编写一个程序让计算机告诉我们它通过摄像头看到了什么,这也被认为是计算机视觉最早的任务描述。计算机视觉借鉴了人类看东西的方法,即“三维重构”与“先验知识库”。计算机视觉除了在比较成熟的安防领域外,也应用于金融领域的人脸识别身份验证、电商领域的商品拍照搜索、医疗领域的智能影像诊断、机器人/无人车上作为视觉输入系统等。语音处理:让机器学会“听”和“说”,实现与人类的无障碍交流一直是人工智能、人机交互领域的一大梦想。1920年生产的“Radio Rex”玩具狗可能是世界上最早的语音识别器,第一个真正基于语音识别系统出现在1952年,AT&T贝尔实验室开发的Audrey的语音识别系统,能够识别10个英文数字,正确率高达98%。比如Apple Siri,Echo等。自然语言处理:人类的日常社会活动中,语言交流是不同个体间信息交换和沟通的重要途径。对机器而言,能否自然的与人类进行交流、理解人类表达的意思并作出合适的回应,被认为是衡量其智能程度的一个重要参照。规划决策系统:人工智能规划决策系统的发展,一度是以棋类游戏为载体的。比如,AlphaGo战胜李世石,Master对顶级选手取得60连胜,机器人,无人车。3. 人工智能应用场景3.1. 语音处理• 语音处理主要是自动且准确的转录人类的语音。一个完整的语音处理系统,包括前端的信号处理、中间的语音语义识别和对话管理以及后期的语音合成。– 前端处理:说话人声检测,回声消除,唤醒词识别,麦克风阵列处理,语音增强等。– 语音识别:特征提取,模型自适应,声学模型,语言模型,动态解码等。– 语义识别和对话管理:更多属于自然语言处理的范畴。– 语音合成:文本分析、语言学分析、音长估算、发音参数估计等。• 应用:包括医疗听写、语音书写、电脑系统声控、电话客服等。• 未来:真正做到像正常人类一样,与他人流畅沟通,自由交流,还有待时日。3.2. 计算机视觉• 计算机视觉指计算机从图像中识别出物体、场景和活动的能力,包含图像处理、识别检测、分析理解等技术。– 图像处理:去噪声、去模糊、超分辨率处理、滤镜处理等。– 图像识别:过程包括图像预处理、图像分割、特征提取、判断匹配,可以用来处理分类、定位、检测、分割问题等。– 图像理解:本质是图像与文本间的交互,可用来执行基于文本的图像搜索、图像描述生成、图像问答等。• 应用:– 医疗成像分析被用来提高疾病的预测、诊断和治疗。– 在安防及监控领域被用来指认嫌疑人。– 在购物方面,消费者现在可以用智能手机拍摄下产品以获得更多信息。• 未来:计算机视觉有望进入自主理解、分析决策的高级阶段,真正赋予机器“看”的能力,在无人车、智能家居等场景发挥更大的价值。3.3. 自然语言处理• 自然语言处理的几个核心环节:知识的获取与表达、自然语言理解、自然语言生成等,也相应出现了知识图谱、对话管理、机器翻译等研究方向。– 知识图谱:基于语义层面对知识进行组织后得到的结构化结果。– 对话管理:包含闲聊、问答、任务驱动型对话。– 机器翻译:由传统的PBMT方法到Google的GNMT,流畅度与正确率大幅提升。• 应用:搜索引擎、对话机器人、机器翻译、甚至高考机器人、办公智能秘书。4. AI、机器学习、深度学习的关系4.1. 人工智能四要素1) 数据如今这个时代,无时无刻不在产生大数据。移动设备、廉价的照相机、无处不在的传感器等等积累的数据。这些数据形式多样化,大部分都是非结构化数据。如果需要为人工智能算法所用,就需要进行大量的预处理过程。2) 算法主流的算法主要分为传统的机器学习算法和神经网络算法。神经网络算法快速发展,近年来因为深度学习的发展到了高潮。3) 算力 人工智能的发展对算力提出了更高的要求。以下是各种芯片的计算能力对比。其中GPU领先其他芯片在人工智能领域中用的最广泛。GPU和CPU都擅长浮点计算,一般来说,GPU做浮点计算的能力是CPU的10倍左右。另外深度学习加速框架通过在GPU之上进行优化,再次提升了GPU的计算性能,有利于加速神经网络的计算。如:cuDNN具有可定制的数据布局,支持四维张量的灵活维度排序,跨步和子区域,用作所有例程的输入和输出。在卷积神经网络的卷积运算中实现了矩阵运算,同时减少了内存,大大提升了神经网络的性能。4) 场景人工智能经典的应用场景包括:l 用户画像分析 l 基于信用评分的风险控制 l 欺诈检测 l 智能投顾 l 智能审核 l 智能客服机器人 l 机器翻译 l 人脸识别4.2. 三者关系简述人工智能:是研究、开发用于模拟、延伸和扩展人的智能的理论、方法及应用系统的一门新的技术科学。机器学习:专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。是人工智能的核心研究领域之一,任何一个没有学习能力的系统都很难被认为是一个真正的智能系统。深度学习:源于人工神经网络的研究,含多隐层的多层感知器就是一种深度学习结构。深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。5. 机器学习监督学习:利用已知类别的样本,训练学习得到一个最优模型,使其达到所要求性能,再利用这个训练所得模型,将所有的输入映射为相应的输出,对输出进行简单的判断,从而实现分类的目的,即可以对未知数据进行分类。无监督学习:对于没有标记的样本,学习算法直接对输入数据集进行建模,例如聚类,即“物以类聚,人以群分” 。我们只需要把相似度高的东西放在一起,对于新来的样本,计算相似度后,按照相似程度进行归类就好。半监督学习:试图让学习器自动地对大量未标记数据进行利用以辅助少量有标记数据进行学习。强化学习:学习系统从环境到行为映射的学习,以使奖励信号(强化信号)函数值最大,强化学习不同于连接主义学习中的监督学习,主要表现在教师信号上,强化学习中由环境提供的强化信号是对产生动作的好坏作一种评价(通常为标量信号),而不是告诉强化学习系统如何去产生正确的动作。机器学习是人工智能的一个子集。它是人工智能的核心。什么是机器学习?我们习惯上这样理解,传统机器学习就是:用一大堆数据,同时通过各种算法(比如SVM、决策树、逻辑回归等),去训练出来一个模型,然后用这个训练好的模型去完成任务(比如预测任务等)。常用的机器学习算法有:线性回归、逻辑回归、决策树、随机森林、支持向量机、贝叶斯、K近邻、Kmeans、xgboost等。6. 深度学习深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。深度学习的概念由Hinton等人于2006年提出。基于深度置信网络(DBN)提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。此外Lecun等人提出的卷积神经网络是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。深度学习是机器学习中一种基于对数据进行表征学习的方法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务(例如,人脸识别或面部表情识别)。深度学习的好处是用非监督式或半监督式的特征学习和分层特征提取高效算法来替代手工获取特征。深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。同机器学习方法一样,深度机器学习方法也有监督学习与无监督学习之分.不同的学习框架下建立的学习模型很是不同.例如,卷积神经网络(Convolutional neural networks,简称CNNs)就是一种深度的监督学习下的机器学习模型,而深度置信网(Deep Belief Nets,简称DBNs)就是一种无监督学习下的机器学习模型。7. 机器学习与深度学习的区别7.1. 对数据量要求不同深度学习和机器学习对数据量的依赖程度是不一样的,当数据量很少的时候,深度学习的性能并不好,因为深度学习算法需要大量数据才能很好理解其中蕴含的模式。而数据量比较小的时候,用传统机器学习方法也许更合适。7.2. 对计算机硬件的要求不同通常情况下,用机器学习处理任务时,一方面由于数据量不太大,另一方面由于所用算法已经确定,所以对计算机硬件的要求不是太高。而深度学习由于要处理大量数据,且涉及许多矩阵运算,因此对计算机硬件要求非常高,很多时候普通cpu已经无法顺利完成任务,而必须借助于诸如GPU等硬件。7.3. 特征处理方式不同机器学习和深度学习的主要区别在于特征。如下图所示。在传统的机器学习算法中,我们首先需要用一些算法(比如PCA、LDA等)来进行特征的提取,然后再用机器学习算法(如svm等)进行模型训练。特征提取的过程很麻烦,对工作者要求也很高。相比之下,在深度学习中,特征由算法本身自动完成提取,通常不需要我们另外写一个算法来进行特征提取。比如CNN网络中,卷积层的作用就实现了特征的提取。7.4. 解决问题方式不同在解决问题的时候,传统机器学习通常会将问题分解为多个子问题,逐个子问题解决后,最后获得最终结果。而深度学习更提倡“直接的端到端”的解决问题。比如在做OCR(文字识别)任务时,传统机器学习算法,一般要对原始图片进行灰度化、二值化、降噪、文字切分、文字识别等一步步操作。而如果用某些深度学习算法(如CRNN-CTC),则可以实现端到端的解决问题,直接传入一张图片,经过模型学习之后直接识别出文字。7.5. 可解释性不同机器学习的可解释性很强,许多传统的机器学习算法有明确的数学规则,解释起来相对容易。比如说线性回归,逻辑回归、决策树等这些算法解释起来就很容易。但是深度学习的可解释性就没有那么强了。深度神经网络更像是一种“黑箱子”,网络里面具体每一层是怎么操作的,神经元做了什么,很多时候是不明确的。深度学习的可解释性是一个热门研究话题。7.6. 使用的开源库和框架不同我们做机器学习和深度学习时,如果使用相关的开源库和框架,会使我们的工作事半功倍。虽然许多开源库和框架既可以解决传统机器学习问题,也可以解决深度学习问题,但是如果有针对性的去选择使用,效果会更好。比如,scikit-learn库用来做机器学习问题,是很不错的。百度的开源框架 百度的开源框架PaddlePaddle、以及谷歌的tensorflow用来处理深度学习问题会更好。
-
技术实践深度学习框架的来龙去脉——史上最全面最新的深度学习框架对比分析 21天转型微服务实操手册 浅谈服务化和微服务化(上)带着canvas去流浪系列之一:绘制柱状图 Code Review与结对编程 由Spring应用的瑕疵谈谈DDD的概念与应用 7天晋级机器学习-附加题解析 K8S漏洞报告 | 近期bug fix解读 HBase on Sql客户端操作指南使用香浓熵实现DNS Tunnel检测 WebSocket 从入门到写出开源库头条资讯让华为云MVP告诉你——在华为的一天可以做什么?华为云开放日,要将开发者“宠”上天?爆款C3升级,华为云全新一代旗舰云服务器C6开启公测华为云+AI,携手伙伴驱动全行业数字化转型与智能升级!精彩回顾 |全栈人工智能、区块链等服务亮相2019华为云峰会香港站华为云@华为中国生态伙伴大会2019精彩预告华为云给生态伙伴的一封信,三天后福州揭晓!为物流+智能,华为云发布智慧物流解决方案一张图了解华为FusionPlant工业互联网平台如何在热门技术领域崭露头角?华为云微认证带你快速上分华为云&久泽科技,让手游不掉线不发烫不宕机不断电不…斯坦福DAWNBench深度学习训练及推理榜单:华为云ModelArts拿下双料冠军华为云发布国内首家AI模型市场,加速企业AI应用落地专题轻松学习ECS选购和配置技巧华为云故事汇:2019年第01期1分钟DBA系列华为云MVP动态精彩活动体验官有奖体验 | 华为云MapReduce产品体验及评测关于举办华为生态大学“2019华为中国区大学生ICT大赛”的通知体验产品,反馈赢大奖!运维体验官,全员征集中
-
[中国,深圳,2019年3月22日] 3月20日,斯坦福大学发布最新的DAWNBench榜单,华为云ModelArts一站式AI开发平台获得图像识别训练和推理性能双料冠军,将模型训练时间大幅缩减的同时实现了超强推理性能,体现了其在全球深度学习平台技术的领先性。在训练性能方面,ResNet50_on_ImageNet上的测试结果显示,当采用128块V100时,华为云ModelArts上模型训练时间仅需4分08秒,较其2018年12月创下的9分22秒纪录快了一倍,比此前fast.ai在AWS平台上的训练速度快4倍;在推理性能方面,华为云ModelArts识别图片的速度是排名第二厂商的1.7倍,亚马逊的4倍,谷歌的9.1倍。ModelArts:领先的深度学习平台技术作为人工智能最重要的基础技术之一,近年来深度学习也逐步延伸到更多的应用场景,如自动驾驶、互联网、安防、医疗等领域。随着深度学习模型越来越大,所需数据量越来越多,所需的AI算力资源和训练时间越来越长,深度学习的训练和推理性能将是重中之重。斯坦福大学DAWNBench是全球人工智能领域最权威的竞赛之一,是用来衡量端到端的深度学习模型训练和推理性能的国际权威基准测试平台,相应的排行榜反映了当前业界深度学习平台技术的领先性。华为云ModelArts支持海量数据预处理、大规模分布式训练、自动化模型生成,并具备端-边-云模型按需部署能力,可帮助用户快速创建和部署模型、管理全周期AI工作流。在本次斯坦福大学DAWNBench深度学习训练时间及推理性能挑战中,华为云ModelArts运用了高性能分布式模型训练和极速推理技术。斯坦福大学DAWNBench推理性能榜单斯坦福大学DAWNBench训练时间榜单用户:高效地在云端获得和利用AI计算资源稀缺且昂贵的算力和开发效率低是当前AI开发过程中的主要痛点,例如开发者、企业或高校机构等通常期望借助更高性能的大规模计算集群来加速训练过程,然而采购和维护如此规模的高性能计算集群意味着高昂的成本。对于华为云ModelArts用户来讲,可以高效地在云端,获得和利用规模的高性能GPU计算集群资源,按需付费,算力的获取门槛大幅下降;ModelArts还借助华为云对特定硬件(高性能服务器、网络、存储等)、软件和算法协同优化来实现加速;加上对分布式系统和算法的优化,以及对用户体验的优化,可以进一步帮助用户降低成本,快速实现或优化AI业务。为了赋能生态,进一步加速AI产品的开发与落地,3月21日华为云发布了在ModelArts基础上构建的开发者生态社区——华为云AI市场,提供AI模型、API交易功能以及数据、竞赛案例等内容共享功能,为高校科研机构、AI应用开发商、解决方案集成商、企业及个人开发者等群体,提供安全、开放的共享及交易环境。华为云AI市场中包含的AI模型市场,是国内首个提供发布及订阅AI模型服务的平台。自发布以来,华为云ModelArts一站式AI开发平台已经逐步覆盖医疗、智能制造、自动驾驶、智慧城市、建筑、园区等人工智能场景,帮助金域医学、广联达、云庐科技等企业进行AI开发应用落地。截至2018年底,华为云EI企业智能服务已经增加至56种、159种功能,在城市、制造、物流、物联网等8大行业超过200个项目进行探索,致力做行业升级新引擎。斯坦福大学DAWNBench榜单链接:dawn.cs.stanford.edu/benchmark/--------------------------------------阅读原文
-
序言:MoXing是华为云深度学习服务提供的网络模型开发API。相对于TensorFlow和MXNet等原生API而言,MoXing API让模型的代码编写更加简单,而且能够自动获取高性能的分布式执行能力。1、初识华为云深度学习的王牌利器 — MoXing首先,“MoXing”是“模型”一词的汉语拼音。因为深度学习时代,中国的科研和工程团队逐步成为行业的引领者,使用源于中文的名称,彰显了深度学习服务(DLS)研发团队的自信,DLS研发团队将努力把MoXing API打造为模型开发领域的业界标杆。点击阅读2、基于TensorFlow运行参数教程这章主要介绍用户在定义运行参数时遇到的常见报错及解决办法。MoXing没有对运行参数定义特殊API,用户可根据自己的习惯定义运行参数。建议使用TensorFlow的flags组件来定义。点击阅读3、数据输入教程本文主要介绍MoXing将数据的输入定义在input_fn方法中,并在mox.run时注册该方法。点击阅读4、模型定义教程本文主要讲述MoXing将模型定义在model_fn方法中,并在mox.run时注册该方法。点击阅读5、优化器配置用户可以使用mox.get_optimizer_fn来获取MoXing内置的Optimizer,也可以使用TensorFlow定义或由用户自己实现的Optimizer。此外,MoXing还提供了OptimizerWrapper的用法。点击阅读6、运行与公共组件本文为MoXing系列文章第六篇,主要介绍MoXing运行及公共组件。点击阅读
推荐直播
-
华为云码道-AI时代应用开发利器2026/03/18 周三 19:00-20:00
童得力,华为云开发者生态运营总监/姚圣伟,华为云HCDE开发者专家
本次直播由华为专家带你实战应用开发,看华为云码道(CodeArts)代码智能体如何在AI时代让你的创意应用快速落地。更有华为云HCDE开发者专家带你用码道玩转JiuwenClaw,让小艺成为你的AI助理。
回顾中 -
Skill 构建 × 智能创作:基于华为云码道的 AI 内容生产提效方案2026/03/25 周三 19:00-20:00
余伟,华为云软件研发工程师/万邵业(万少),华为云HCDE开发者专家
本次直播带来两大实战:华为云码道 Skill-Creator 手把手搭建专属知识库 Skill;如何用码道提效 OpenClaw 小说文本,打造从大纲到成稿的 AI 原创小说全链路。技术干货 + OPC创作思路,一次讲透!
回顾中 -
码道新技能,AI 新生产力——从自动视频生成到开源项目解析2026/04/08 周三 19:00-21:00
童得力-华为云开发者生态运营总监/何文强-无人机企业AI提效负责人
本次华为云码道 Skill 实战活动,聚焦两大 AI 开发场景:通过实战教学,带你打造 AI 编程自动生成视频 Skill,并实现对 GitHub 热门开源项目的智能知识抽取,手把手掌握 Skill 开发全流程,用 AI 提升研发效率与内容生产力。
回顾中
热门标签