• [热门活动] 【活动已结束】算法精英赛第一期
    【立即参加】https://developer.huaweicloud.com/activity/algorithm_elite/algorithm_elite-1.html【赛事介绍】算法精英赛是华为云面向开发者举办的轻量竞技活动,每期算法精英赛将公布若干道算法题目,参赛者可提交解题代码,挑战最优算法!同时华为云提供专属微信交流群,为热爱算法的开发者们提供交流、分享的平台。【参赛对象】面向全社会热爱算法的开发者们开放。 【活动时间】参赛者提交作品阶段:2019年11月22日~2019年12月12日赛事评委评选阶段:   2019年12月13日~2019年12月17日最优算法公示阶段:   2019年12月17日~2019年12月20日【本期赛题】可任选初级、中级、高级赛题中的一道或多道>初级赛题:判断输入天数为当年的第几天·题目介绍输入一个日期,格式为xxxx-xx-xx,判断这一天为当年的第几天?·示例输入:2019-1-2输出:2 >中级赛题:"水仙花数"判断·题目介绍输入一个三位数判断是否为"水仙花数",水仙花数指该三位数每个位上的数字立方和等于它本身,即A³+B³+C³=ABC·示例输入:153输出:True >高级赛题:概率计算·题目介绍一辆客车行驶路线为从A站-B站-C站,小明每天要在B站乘坐客车去C站上学。客车从A站到达B站的时间服从均值20分钟、标准差2分钟的正态随机分布。请计算小明每天准时赶上客车的概率。·示例客车早上从A站发车的时刻和概率为:出发时刻           8:00     8:03     8:05概率                  0.5       0.3       0.2 小明早上到达B站的时刻和概率为:到站时刻           8:18     8:20     8:22     8:24概率                  0.4       0.3       0.1       0.2【考评体系及要求】 一级指标二级指标分值   代码评价代码完整度(代码完成程度)0-10代码便于理解程度(命名方法、函数设计、格式、注释)0-10代码结构(代码的写作格式、规范、流程)0-10代码易于修改程度(可复用、可拓展、灵活性)0-10完成结果代码运行成功,并且结果正确性60 作品提交要求1要求代码结构清晰、逻辑合理2要求代码整体简洁、易于理解3要求提交完整题目代码4要求完成线上代码运行5要求提交题目运行结果【奖项设置】一等奖:高级赛题最优算法(1名):荣耀8X手机(全网通6GB+64GB)+电子获奖证书二等奖:中级赛题最优算法(1名):荣耀FlyPods无线耳机(标配版)+电子获奖证书三等奖:初级赛题最优算法(1名):华为手环 3 Pro+电子获奖证书参与奖:提交任意赛题的正确解题算法(若干名):DevCloud会员中心1000码豆  【赛事评委】祝志杰华为云MVP | 东北财经大学统计学院副教授 | 中国人民大学博士国家社科基金获得者,大连市高新区大数据产业协会监事,大连金融大数据联合研发创新中心副主任,大连市大数据培训中心副主任,东北财经大学风险统计研究中心副主任,大连市科普讲师团统计学专家,大连市科技创业导师,大连市同爱教育科学研究中心首席数据科学总监,东北财经大学EDP中心统计学特聘教师,大连市银行协会培训师资大数据讲师。多年来一直从事大数据分析研究工作,先后参与国家社科重大课题《改革和完善我国国民经济核算体系研究》、教育部重点研究基地重大项目《知识经济和可持续发展量化与应用研究》多项国家重大课题的研究工作。 邱鑫高级数据架构师 | 大数据产品先行实践者蘑菇数据科技有限公司总经理,约投征信服务有限公司首席信息官,海汇数据科技有限公司监事,曾参与负责银联商务个人征信建模、泸天化集团工业大数据分析与处理、教育应用平台设计、南京农业大学大数据课程研发、山西联通智慧城市等项目,对机器学习、深度学习等人工智能算法具有较深入的研究。【立即参加】https://developer.huaweicloud.com/activity/algorithm_elite/algorithm_elite-1.html【赛事交流】大赛设立微信群,供选手进行沟通和交流。请添加华为云大赛小助手微信号,备注:算法精英赛,小助手将拉您进群。【活动规则】https://bbs.huaweicloud.com/forum/thread-29589-1-1.html
  • [介绍/入门] 我国区块链进入创新发展迎政策利好
    中国电子报/2019 年/11 月/5 日/第 003 版 政策解读  我国区块链进入创新发展迎政策利好  赛迪区块链研究院院长  刘权      10月 24 日下午,**中央政治局就区块链技术发展现状和趋势进行第十八次集体学习。习 近平总书记在主持学习时高度强调了区块链技术的集成应用在新技术革新和产业变革中的重要 作用,并将区块链作为核心技术自主创新的重要突破口。总结此次总书记的讲话精神,政策引导、 应用牵引将推动我国区块链进入创新发展快车道。     政策引导打造了良好的区块链创新环境     2017 年以来,我国区块链政策如雨后春笋不断涌现,国家及各部委纷纷出台相关政策鼓励区 块链与人工智能、大数据、物联网等新兴信息技术的融合与创新应用,规范区块链行业秩序,加 快区块链赋能实体经济。据赛迪区块链研究院统计,2019 年上半年国家及各部委出台的相关区块 链政策已达 12 项,已超过 2018 年整年的 10 项。这充分说明随着区块链技术的成熟,国家对区 块链的关注度和重视度也逐渐提高。此外,全国各省市也在加速区块链产业布局,仅 2019 年上 半年就出台相关支撑政策 27 项,以天津市、河北省、广东省、云南省、福建省等地区最为活跃。     在主持集体学习时,**总书记深刻分析了当前我国区块链技术发展现状,指出“我国在 区块链领域拥有良好基础”。2017 年后,我国区块链产业规模快速增长,企业数量不断增加,研 究机构接连落地,清华大学、北京大学、中国政法大学等一批国内“双一流”高校开设区块链课 程。据赛迪区块链研究院统计,截至 2019 年上半年,我国具有实际投入产出的区块链企业数量 超过 700 家,研究机构累积达 83 家,34 家银行参与部署区块链业务,累计投融资事件超 500 笔, 逐渐形成了集产学研金服用一体的产业生态。   
  • [第二届大赛] 【初赛截止倒计时4天】大咖评委团豪华上线,评委揭秘介绍!
    为保证“AII第二届工业APP开发与应用创新大赛”公平公正的进行,我们邀请了众多工业互联网与工业APP领域的大咖担当本届大赛评委。在此推出大赛评委团专题介绍,带大家了解那些推动工业互联网研究不断向前的专家们~ 博士,教授级高工。现为上海优也信息科技有限公司首席科学家,走向智能研究院大数据首席研究员。工信部人才开发中心专家库成员、广东省工业互联网专家委员会委员。走向智能研究院执行院长。中国发明协会常务理事、发明方法研究分会会长,科技部创新方法专家,工信部CPS发展论坛副秘书长,清华大学特聘课程教授,高级工程师。清华大学大数据系统软件国家工程实验室、数据科学研究院工业大数据中心总工程师,四川省工业大数据制造业创新中心总经理,昆仑数据联合创始人。中科院沈阳自动化研究所工业控制系统与网络研究室项目研究员。多年来主要从事工业互联网平台、数字化工厂规划以及智能制造信息化系统的规划、研究与实施。上海中车瑞伯德研究院副院长。日本国立广岛大学博士,浙江大学博士后,法国尼斯大学DBA,高级工程师,数字化工厂事业部副总经理,中国中车工业4.0创新中心技术负责人。上海智能制造研究院常务副院长。上海交通大学机械制造及其自动化学科、机械系统与振动国家重点实验室教授、博士生导师。现任上海市网络化制造与企业信息化重点实验室主任,主要从事智能制造系统、感知与物联技术研究。物联网智库创始人。清华大学自动化系控制理论与科学专业毕业,获工学硕士学位。10年前开始关注全球物联网的新趋势,经过与大量物联网企业的长期交流与研究,对物联网行业的发展形成了独特的认知。兼任清华校友TMT协会副秘书长、中国软件产业协会嵌入式系统分会理事、北京物联网智能技术应用协会理事等职。北京工商大学计算机与信息工程学院计算机系主任,教授。从事无线自组织网络、机器学习、工业大数据分析领域研究工作。泉州海天材料科技股份有限公司副总经理。2016年被评为全国百佳首席信息官;组织实施时尚梦工厂项目,被工信部评为2016年全国智能制造试点示范项目。现任中国纺织工业联合会信息化部主任,中国纺织行业工业互联网联盟理事长,教授级高级工程师。任全国信息化和工业化融合管理标准化技术委员会委员,纺织服装物联网应用标准工作组组长。大咖荟萃,名企如云,距离初赛截止还剩4天,还不快来报名参赛!
  • 鲲鹏生态 |【大数据精华帖 | 精品内容汇总~推荐收藏~持续更新~】
    鲲鹏BoostKit大数据使能套件 移植、部署、调优使用流程和一站式资源获取1. 大数据组件1.1 Apache版本1.1.1 移植篇Apache平台移植组件Apache源码包文档链接Hadoophadoop-3.1.1-src.tar.gzHadoop 移植指南cid:link_16HBasehbase-2.1.0-src.tar.gzHBase 移植指南cid:link_18Hivehive-rel-release-3.0.0.tar.gzHive 移植指南cid:link_28Sparkspark-2.3.0.tar.gzSpark 移植指南cid:link_19Druiddruid-0.12.1.tar.gzDruid 移植指南cid:link_20Flinkflink-release-1.9.1.tar.gzFlink 移植指南cid:link_21Kafkakafka-0.10.1.1-src.tgzKafka 移植指南cid:link_22Zookeeperzookeeper-release-3.4.6.tar.gzZookeeper 移植指南cid:link_13Phoenixphoenix-v5.0.0-HBase-2.0.tar.gzPhoenix 移植指南cid:link_151.1.2 部署篇Apache平台部署组件文档链接Hadoop开源Hadoop集群部署指南cid:link_17HBase开源HBase集群部署指南cid:link_23Hive开源Hive集群部署指南cid:link_29Flink开源Flink集群部署指南cid:link_24Kafka开源Kafka集群部署指南cid:link_25Solr开源Solr集群部署指南cid:link_30Spark开源Spark集群部署指南cid:link_26Storm开源Storm集群部署指南cid:link_27Zookeeper开源Zookeeper集群部署指南cid:link_141.2 HDP版本1.2.1 部署篇Ambari部署rpm源码包HDP平台部署组件文档链接AmbariAmbari 部署指南cid:link_0AccumuloHDP3.1 Accumulo部署指南cid:link_1Atlas&Kafka&solrHDP3.1 Atlas&Kafka&solr部署指南cid:link_2HBase&PhoenixHDP3.1 HBase&Phoenix部署指南cid:link_3KafkaHDP3.1 Kafka部署指南cid:link_4KnoxHDP3.1 Knox部署指南cid:link_5OozieHDP3.1 Oozie部署指南cid:link_6PigHDP3.1 Pig部署指南cid:link_7RangerHDP3.1 Ranger部署指南cid:link_8spark&livyHDP3.1 spark&livy部署指南cid:link_9SqoopHDP3.1 Sqoop部署指南cid:link_10StormHDP3.1 Storm部署指南cid:link_11ZeppelinHDP3.1 Zeppelin部署指南cid:link_12
  • [交流分享] #百因必有果#2019年HC大会关于鲲鹏生态的看法(七)
    #百因必有果#鲲鹏聚数,“芯”融合数据基础设施,使能数字经济会场。下面就是我们的中科院计算生物学重点实验室副主任李奕学带来了生物医学大数据,促进人类健康发展的精彩演讲。与华为的深度合作,生物医学大数据!大数据的时代,创新方法,人工智能,大数据为基础,癌症是人类所面临的重大疾病。我们国家提出了计划。肿瘤发生发展的机制,大数据技术带来了非常大的改变。生物医学计算环境即时华为合作建成了数据基础设施,鲲鹏实现了高维度的数据整合。
  • [迁移工具] 鲲鹏大数据解决方案
    #化鲲为鹏,我有话说#背景:随着5G+云+AI时代来临,数据变得更多、更复杂、更精细亟待我们解决的问题是:如何用一种更高效、更实用的解决方案,处理爆炸式增长的数据解决方案:2019年全联接大会上,发布了鲲鹏大数据容器解决方案BigData Pro,BigData Pro是业界首个鲲鹏大数据解决方案,该方案采用基于公有云的存算分离架构,以可无限弹性扩容的鲲鹏算力作为计算资源,以支持原生多协议的OBS对象存储服务为统一的存储数据湖。
  • [交流分享] 华为云怎么与地信专业更好的结合?
    #化鲲为鹏,我有话说#华为云怎么与地信专业更好的结合?本人是学地理信息科学的,其中有学到遥感,其中遥感数据是极大的,随便一副遥感图像都差不多一个T,而且想研究一个地区的信息,就要用到几幅图像,整个过程包括下载,剪切,转移,处理,使用,这是极其麻烦的后面在做GIS开发的时候大多都只用在本地使用。后来租用了华为的弹性云服务器ECS,云数据库MySQL。这样把数据存到数据库,再使用服务器做云端处理,自己又做了前端开发部署,处理的结果可以显示在网站上,这样老师检查作业的时候,直接访问网站,就知道干了什么,不用再跑到老师办公室一一检查了
  • [分享交流] 华为大数据FusionInsight HD安装教程,三台linux 模拟大数据学习环境的安装视频
    华为大数据FusionInsight HD安装教程,三台linux 模拟大数据学习环境的安装视频链接:https://*********.com/s/10ndCXiA7L1H612p_vt28WQ提取码:7fhb 复制这段内容后打开百度网盘手机App,操作更方便哦腾科IT教育
  • Maven大数据软件迁移组件但不确定内部组件的版本号怎么办
    背景:在做软件移植时,第一步一般是扫描依赖,看是否包含X86的动态库,接着确定使用该库存的JAR包。有些场景中,这个jar包并不是布署在mvn库的,而是通过编译生成的,即:我们看到的动态库与这个JAR的关系并不是直接包含关系,这个JAR是使用了仓中的某个JAR包,而因有这个动态库。这种情况一下,我们就不知道这个中间JAR的版本。怎么办呢?方法一:1、先问,google等手段,确定出使用你这个动态库存的jar包名称;2、在源码目录中,使用grep -rn "jar包名称" , 看一下有没有文件在描述它。幸运的话,你会发些一些文件在描述依赖,你就可以找到版本,然后下载对应源码后在本地部署。然后重新编译你的大数据组件,动态库就可以被替换方法二:1、找到这个中间jar包的mvn目录,然后移值(重命名)2、重新启动编译,之后到相同目录中,可以看到新生成的版本目录3、记下来,尝试手工编译,然后覆盖还有没有其它方法,也请分享。
  • [需求建议] 大数据技术如何强化风险治理
    着城市规模逐渐扩大、城市人口日益多元复杂,城市社会风险也随之加剧。不过,大数据时代的到来,使得城市灾害风险治理模式有望出现重大变革。根据过去发生的灾害风险来分析把握现在、预测未来成为可能,也为破解传统城市灾害风险治理的事后型、粗放式等难题提供了契机。提前预警风险大数据风险治理过程包括风险辨识、风险预警、风险分析、风险评估和风险决策五个阶段。大数据技术的 日趋成熟,为基于多维度、多层次、多群体、多因素的巨型数据分析提供了可能。例如,借助于大数据技术的分析、预判功能,治理主体可以运用大数据、云计算等现代技术平台,充分收集目标信息,并通过对海量数据进行综合分析,挖掘和甄别潜在风险,识别城市风险管理中的重点人群与重点区域,从而提前预知将要发生的危机和风险、及时制订预案予以化解。建立风险预警指标体系,设立风险预警红线,能够在数据分析与监测中实时预警做出反应,缩短城市灾害风险治理中的时间差,降低风险发生概率。此前,四川长宁发生6.0级地震,当地应急管理部门利用电视、手机、专用地震预警终端等提前向宜宾、乐山、成都等地的居民发出预警提示,很大程度上减少了人员伤亡,达到了良好的灾害风险预警效果。大数据与人工智能技术的结合,有助于提升风险预警的精确性和准确性。特别是,利用专业化技术手段,可以自动识别受灾地区图像,提升公共建筑与设施、交通、人群密集度等要素的监测能力,进而最大限度地挽救生命、减少损失。近年来,在不少台风登陆之前,相关政府机构和部门会对登陆时间和路径进行预测,并及时部署预防和应对措施。背后就与气象部门通过采用大数据、云计算、人工智能等技术,建立天气预报专家系统、智能天气信息采集系统等有着紧密关系。通过在天气预报中应用人工神经网络等,依据机器学习的办法,台风预报与常规天气预测的精准概率比纯人工操作提高了至少20%。及时精准辟谣大数据技术的应用不仅仅体现在预警与预测灾害风险方面,而且在减灾救灾、灾后重建、受灾地区疾病预防等方面日益扮演重要角色。2017年8月8日21时19分,四川九寨沟发生7.0级地震。21时37分15秒,中国地震台网新闻机器人就自动编写完成了有关新闻报道。相比同时段的其他媒体,这则新闻内容更为丰富、详尽,并配有地震参数图、地形图等科学可视化信息,让人对灾害有更好的感知与理解。此外,在自然环境差、交通阻塞等不利情况下,利用无人机与卫通系统等技术手段,可以获取受灾地区、人群等图像传至应急指挥与决策部门,进而提高灾后救济、发现险情、抢救生命、现场指挥的工作效率。通过算法推荐系统,还可及时设立专门的救灾平台,通过多元媒体渠道,及时公布有关灾情信息,如寻人启事、救灾物资诉求、救援服务等,进而提升灾情信息的公开性与透明性,助力灾害风险沟通和救助救援。在灾害风险信息核实方面,还能促进灾情信息的“自动化事实核查”与“精准辟谣”。2017年,国内某家APP尝试通过“机器算法+用户反馈”,高效识别虚假信息,准确率达到60%,结合人工复审可进一步提升至90%。例如,在台风“山竹”登陆深圳后,网络平台上出现了“山竹”时速堪比高铁、“山竹”中心呈水果山竹剥开后的样子、港珠澳大桥扛不住台风、美国太空总署拍摄到“世纪最强太平洋恶魔风暴山竹”等谣言,引发一些人的担忧和恐慌。面对不实信息,有关方面及时识别、核查、辟谣并说明真相,安抚社会情绪。助力灾后救援大数据技术可以实现灾害信息的自动化识别与核查,并在灾情信息沟通共享和协同服务中发挥重要作用,进而有针对性地帮助灾后精准救援工作。同时,通过对灾害前后社会情绪和情感的监测,建立相应的指标体系与评价模型,可以对灾区人群的情感和利益诉求进行实时监测,对灾后社会心态进行评估与疏导。在决策方面,依托海量信息聚成系统平台,加之通过历史灾害的经验总结,可以建立“城市灾害事件数据库”和“城市灾害风险决策支持系统”。针对易受灾区域的风险重点评估与预警,还可实现“灾前—灾中—灾后”风险的全方位实时把握、全要素风险治理。总之,规模庞大、类型多样、更新频繁、价值巨大的大数据,为城市风险治理提供了新的可能。面对海量数据,如何系统整合、综合分析,将大数据技术与科学决策有效衔接,成为城市社会治理的新机遇和新挑战。纳讯网络
  • [需求建议] 大数据技术如何强化风险治理
    随着城市规模逐渐扩大、城市人口日益多元复杂,城市社会风险也随之加剧。不过,大数据时代的到来,使得城市灾害风险治理模式有望出现重大变革。根据过去发生的灾害风险来分析把握现在、预测未来成为可能,也为破解传统城市灾害风险治理的事后型、粗放式等难题提供了契机。随着城市规模逐渐扩大、城市人口日益多元复杂,城市社会风险也随之加剧。不过大数据时代的到来,使得城市灾害风险治理模式有望出现重大变革。根据过去发生的灾害风险来分析把握现在、预测未来成为可能,也为破解传统城市灾害风险治理的事后型、粗放式等难题提供了契机。提前预警风险大数据风险治理过程包括风险辨识、风险预警、风险分析、风险评估和风险决策五个阶段。大数据技术的日趋成熟,为基于多维度、多层次、多群体、多因素的巨型数据分析提供了可能。例如,借助于大数据技术的分析、预判功能,治理主体可以运用大数据、云计算等现代技术平台,充分收集目标信息,并通过对海量数据进行综合分析,挖掘和甄别潜在风险,识别城市风险管理中的重点人群与重点区域,从而提前预知将要发生的危机和风险、及时制订预案予以化解。建立风险预警指标体系,设立风险预警红线,能够在数据分析与监测中实时预警做出反应,缩短城市灾害风险治理中的时间差,降低风险发生概率。此前,四川长宁发生6.0级地震,当地应急管理部门利用电视、手机、专用地震预警终端等提前向宜宾、乐山、成都等地的居民发出预警提示,很大程度上减少了人员伤亡,达到了良好的灾害风险预警效果。大数据与人工智能技术的结合,有助于提升风险预警的精确性和准确性。特别是,利用专业化技术手段,可以自动识别受灾地区图像,提升公共建筑与设施、交通、人群密集度等要素的监测能力,进而最大限度地挽救生命、减少损失。近年来,在不少台风登陆之前,相关政府机构和部门会对登陆时间和路径进行预测,并及时部署预防和应对措施。背后就与气象部门通过采用大数据、云计算、人工智能等技术,建立天气预报专家系统、智能天气信息采集系统等有着紧密关系。通过在天气预报中应用人工神经网络等,依据机器学习的办法,台风预报与常规天气预测的精准概率比纯人工操作提高了至少20%。及时精准辟谣大数据技术的应用不仅仅体现在预警与预测灾害风险方面,而且在减灾救灾、灾后重建、受灾地区疾病预防等方面日益扮演重要角色。2017年8月8日21时19分,四川九寨沟发生7.0级地震。21时37分15秒,中国地震台网新闻机器人就自动编写完成了有关新闻报道。相比同时段的其他媒体,这则新闻内容更为丰富、详尽,并配有地震参数图、地形图等科学可视化信息,让人对灾害有更好的感知与理解。此外,在自然环境差、交通阻塞等不利情况下,利用无人机与卫通系统等技术手段,可以获取受灾地区、人群等图像传至应急指挥与决策部门,进而提高灾后救济、发现险情、抢救生命、现场指挥的工作效率。通过算法推荐系统,还可及时设立专门的救灾平台,通过多元媒体渠道,及时公布有关灾情信息,如寻人启事、救灾物资诉求、救援服务等,进而提升灾情信息的公开性与透明性,助力灾害风险沟通和救助救援。在灾害风险信息核实方面,还能促进灾情信息的“自动化事实核查”与“精准辟谣”。2017年,国内某家APP尝试通过“机器算法+用户反馈”,高效识别虚假信息,准确率达到60%,结合人工复审可进一步提升至90%。例如,在台风“山竹”登陆深圳后,网络平台上出现了“山竹”时速堪比高铁、“山竹”中心呈水果山竹剥开后的样子、港珠澳大桥扛不住台风、美国太空总署拍摄到“世纪最强太平洋恶魔风暴山竹”等谣言,引发一些人的担忧和恐慌。面对不实信息,有关方面及时识别、核查、辟谣并说明真相,安抚社会情绪。助力灾后救援大数据技术可以实现灾害信息的自动化识别与核查,并在灾情信息沟通共享和协同服务中发挥重要作用,进而有针对性地帮助灾后精准救援工作。同时,通过对灾害前后社会情绪和情感的监测,建立相应的指标体系与评价模型,可以对灾区人群的情感和利益诉求进行实时监测,对灾后社会心态进行评估与疏导。在决策方面,依托海量信息聚成系统平台,加之通过历史灾害的经验总结,可以建立“城市灾害事件数据库”和“城市灾害风险决策支持系统”。针对易受灾区域的风险重点评估与预警,还可实现“灾前—灾中—灾后”风险的全方位实时把握、全要素风险治理。总之,规模庞大、类型多样、更新频繁、价值巨大的大数据,为城市风险治理提供了新的可能。面对海量数据,如何系统整合、综合分析,将大数据技术与科学决策有效衔接,成为城市社会治理的新机遇和新挑战。纳讯网络
  • [技术干货] 华为和Aislelabs合作为客户提供热力图和客流分析
    1. 客户简介中东某项目在2018年开业,占地约37000平方米,是海湾地区最大的零售门店之一。客户希望以消费者体验为中心,构建智慧运营平台,用于实时门店客流量分析和营业数据统计。2. 业务挑战客户面临着两个方面的挑战。一方面是用户体验,客户希望随时随地为消费者提供高质量的无线网络接入,提升消费者的购物体验。另一方面是智慧运营,客户希望打造数字化运营平台,整合分析各业务环节的数据,提升运营效率。3. 解决方案第三方合作伙伴Aislelabs是总部位于多伦多的大数据分析服务商,其主要业务包含客流分析等,为个性化的实时店内销售和实体零售商提供智能云平台。华为和Aislelabs合作为客户提供整套解决方案。华为的AP7050DE智能天线阵列技术,实现对移动终端定向精准覆盖,其内置蓝牙可实现1m的高精度室内定位。华为的AC6605和CloudCampus云平台可与Aislelabs Cloud无缝集成。通过大数据分析平台和无线定位技术,完成客流分析和位置计算。4. API调用调用华为CloudCampus北向位置服务API。5. 客户价值华为CloudCampus解决方案为客户提供高质量的Wi-Fi网络,精准大数据营销,精准室内导航,用户画像,客流分析等众多智慧运营功能。满足客户的众多需求,提升客户的竞争力。
  • [技术干货] 华为智简园区联合奕通助力深业上城,打造未来商业
    1. 客户简介深业上城UpperHills集产业研发、公寓、酒店、商业于一体大型城市综合体。深圳CBD北区地标性建筑群,无线网络是智慧上城的重要基础组成部分。第三方合作伙伴奕通信息公司专注于为客户提供融合无线接入控制技术、无线定位技术、云计算技术、大数据挖掘技术于一体的移动互联网解决方案。包括无线接入门户、大数据挖掘和公安审计、室内地图绘制和呈现、室内定位和导航、广告和资讯推送、客流统计分析、客户画像、商业大数据分析等。2. 业务挑战客户面临着两个方面的挑战。一方面是客户体验,客户希望为消费者提供高密度高质量的无线网络接入,帮助160+的店铺和30000+的车位实现精准的室内导航。另一方面是智慧运营,利用大数据分析技术刻画客户行为,可视化工作人员位置信息,支撑营销和运营决策。3. 解决方案三射频AP独立射频,为终端定位WiFi TAG提供定位扫描。地下车库结合蓝牙beacon,可实现1m~3m的高精度定位。华为开放API接口对接奕通应用平台,实现客流分析和室内导航,精准营销,并提供运营决策支撑。4. API调用调用华为CloudCampus北向位置服务API和AP设备南向API。5. 客户价值华为CloudCampus解决方案联合奕通利用大数据分析技术刻画客户行为,可视化工作人员位置信息,支撑营销和运营决策。为深业上城带来了三个方面的价值:网络质量:高质量的WIFI网络。客流分析:大数据精准营销。室内导航:提升客户购物体验。
  • [公告] 【ModelArts-Lab AI训练营】百余海内外选手参加大数据人工智能训练营 人才共聚碰撞智慧...
    7月13日,2019深圳开放数据应用创新大赛的大数据与人工智能训练营在坪山区创新广场举行,100余名来自粤港澳和海内外的参赛选手参加训练营。据介绍,“华为云杯”2019深圳开放数据应用创新大赛由深圳市政务服务数据管理局联合深圳市坪山区人民政府与深圳市前海深港现代服务业合作区管理局共同主办,以“数聚粤港澳,智汇大湾区”为主题,面向内地和港澳地区高等院校、专业研究机构、数据分析公司、开发者等专业对象举办的大型数据创新类竞赛。截至7月12日,本届大赛共有469个选手报名参赛。大数据与人工智能训练营是本届大赛环节之一,主要目的是通过对参赛选手进行集中培训,包括对参赛规则、比赛数据、数据分析技巧、作品展示技巧以及区域性的人才、科技政策等进行深入解读,以提高选手实战技能,激发创新思维,促进赛事作品质量提升,加强人才的培养和交流。训练营特邀全球最大的开源社区Apache基金会成员陈亮、华为云人工智能解决方案专家石伟等5位大数据与人工智能领域的产业导师进行理论和技术授课,并对参赛选手进行指导。现场气氛热烈,赛题解析环节各领域专家与参赛选手进行了密切的互动。
  • [教程] 开源大数据平台Hadoop和Spark对接OBS操作指南
    1      背景介绍华为云对象存储服务可以提供稳定、安全、高效、易用的云存储服务。当前,华为云OBS可以与Hadoop和Spark大数据生态进行对接,为用户提供计算存储分离的大数据解决方案。该方案具有高性能、低成本的优势,且无扩容问题,使用维护更加方便简洁。本操作指导书旨在帮助华为云用户在开源大数据平台Hadoop和Spark上**速对接OBSFileSystem组件,更好的使用华为云对象存储OBS进行大数据计算。2      部署视图2.1      安装版本硬件:1master+3core(配置:8U32G,操作系统:Centos7.5)软件:Hadoop 2.8.3、Spark 2.3.02.2      部署视图开源大数据平台已安装完成,本文主要介绍在Hadoop和Spark平台中通过OBSFileSystem组件与OBS进行对接的操作步骤。对接OBS后,用户的数据即可存储在OBS平台,通过Hadoop和Spark进行大数据计算,实现计算存储分离。 3      开源大数据平台对接OBS操作步骤3.1      Hadoop平台更新OBSFileSystem3.1.1        上传obs的jar包1、  从网址https://bbs.huaweicloud.com/forum/thread-12142-1-1.html 中下载OBSFileSystem后进行解压缩,其中Package目录中包含obs所需要的jar包,列表如下:2、  将obs所需要的jar包放在/mnt/obsjar目录中3.1.2        增加hadoop-huaweicloud的jar包1、  将hadoop-huaweicloud的jar包拷贝到如下各个目录中(/home/modules/hadoop-2.8.3/share/hadoop/common/lib;/home/modules/hadoop-2.8.3/share/hadoop/tools/lib)命令:cp /mnt/obsjar/hadoop-huaweicloud-2.8.3.13.jar /home/modules/hadoop-2.8.3/share/hadoop/common/lib/.cp /mnt/obsjar/hadoop-huaweicloud-2.8.3.13.jar /home/modules/hadoop-2.8.3/share/hadoop/tools/lib/.3.1.3        增加esdk-obs-java的jar包1、  将esdk-obs-java的jar包拷贝到如下各个目录中(/home/modules/hadoop-2.8.3/share/hadoop/common/lib;/home/modules/hadoop-2.8.3/share/hadoop/tools/lib)命令:cp /mnt/obsjar/esdk-obs-java-3.0.1.jar /home/modules/hadoop-2.8.3/share/hadoop/common/lib/.cp /mnt/obsjar/esdk-obs-java-3.0.1.jar /home/modules/hadoop-2.8.3/share/hadoop/tools/lib/.3.1.4        更换java-xmlbuilder的jar包1、  备份并删除hadoop-2.8.3所有目录中原有的java-xmlbuilder-0.4.jar(通过find查找后删除)。命令:rm -rf /home/modules/hadoop-2.8.3/share/hadoop/common/lib/java-xmlbuilder-0.4.jarrm -rf /home/modules/hadoop-2.8.3/share/hadoop/tools/lib/java-xmlbuilder-0.4.jar2、  将java-xmlbuider-1.1.jar包拷贝到如下各个目录中进行替换命令:cp /mnt/obsjar/java-xmlbuider-1.1.jar /home/modules/hadoop-2.8.3/share/hadoop/common/lib/.cp /mnt/obsjar/java-xmlbuider-1.1.jar /home/modules/hadoop-2.8.3/share/hadoop/tools/lib/.3.1.5        更换okhttp的jar包1、  备份并删除hadoop-2.8.3所有目录中原有的okhttp-2.4.0.jar(通过find查找后删除)。命令:rm -rf /home/modules/hadoop-2.8.3/share/hadoop/common/lib/okhttp-2.4.0.jarrm -rf /home/modules/hadoop-2.8.3/share/hadoop/tools/lib/okhttp-2.4.0.jarrm -rf /home/modules/hadoop-2.8.3/share/hadoop/httpfs/tomcat/webapps/webhdfs/WEB-INF/lib/okhttp-2.4.0.jarrm -rf /home/modules/hadoop-2.8.3/share/hadoop/hdfs/lib/okhttp-2.4.0.jar2、  将java-xmlbuider-1.1.jar包拷贝到如下各个目录中进行替换命令:cp /mnt/obsjar/okhttp-3.10.0.jar /home/modules/hadoop-2.8.3/share/hadoop/common/lib/.cp /mnt/obsjar/okhttp-3.10.0.jar /home/modules/hadoop-2.8.3/share/hadoop/tools/lib/.cp /mnt/obsjar/ okhttp-3.10.0.jar /home/modules/hadoop-2.8.3/share/hadoop/httpfs/tomcat/webapps/webhdfs/WEB-INF/lib/.cp /mnt/obsjar/okhttp-3.10.0.jar /home/modules/hadoop-2.8.3/share/hadoop/hdfs/lib/.3.1.6        更换okio的jar包1、  备份并删除hadoop-2.8.3所有目录中原有的okio-1.4.0.jar(通过find查找后删除)。命令:rm -rf /home/modules/hadoop-2.8.3/share/hadoop/common/lib/okio-1.4.0.jarrm -rf /home/modules/hadoop-2.8.3/share/hadoop/tools/lib/okio-1.4.0.jarrm -rf /home/modules/hadoop-2.8.3/share/hadoop/httpfs/tomcat/webapps/webhdfs/WEB-INF/lib/okio-1.4.0.jarrm -rf /home/modules/hadoop-2.8.3/share/hadoop/hdfs/lib/okio-1.4.0.jar2、  将java-xmlbuider-1.1.jar包拷贝到如下各个目录中进行替换命令:cp /mnt/obsjar/okio-1.14.0.jar /home/modules/hadoop-2.8.3/share/hadoop/common/lib/.cp /mnt/obsjar/okio-1.14.0.jar /home/modules/hadoop-2.8.3/share/hadoop/tools/lib/.cp /mnt/obsjar/ okio-1.14.0.jar /home/modules/hadoop-2.8.3/share/hadoop/httpfs/tomcat/webapps/webhdfs/WEB-INF/lib/.cp /mnt/obsjar/okio-1.14.0.jar /home/modules/hadoop-2.8.3/share/hadoop/hdfs/lib/.3.2      Hadoop平台更新配置文件操作步骤在/home/modules/hadoop-2.8.3/etc/hadoop目录中配置core-site.xml。注:fs.defaultFS 、fs.obs.access.key、fs.obs.secret.key、fs.obs.endpoint请根据实际情况进行修改。<property>   <name>fs.defaultFS</name>   <value>hdfs://ecs-bigdata-hdtest-0000.novalocal:8020</value> </property><property>   <name>hadoop.tmp.dir</name>   <value>/home/modules/hadoop-2.8.3/tmp</value> </property> <property>   <name>fs.obs.access.key</name>   <value>myaccesskey</value> </property> <property>   <name>fs.obs.secret.key</name>   <value>mysecretkey</value> </property> <property>   <name>fs.obs.endpoint</name>   <value>myendpoint</value> </property> <property>   <name>fs.obs.buffer.dir</name>   <value>/home/modules/data/buf</value> </property> <property>   <name>fs.obs.impl</name>   <value>org.apache.hadoop.fs.obs.OBSFileSystem</value> </property> <property>   <name>fs.obs.connection.ssl.enabled</name>   <value>false</value> </property> <property>   <name>fs.obs.fast.upload</name>   <value>true</value> </property>配置成功后即可执行hadoop命令3.3      Spark平台更新OBSFileSystem3.3.1        增加obs的jar包1、  备份并删除spark-2.3.0所有目录中原有的版本较低的java-xmlbuilder-X.X.jar、okhttp-X.X.X.jar和okio-X.X.X.jar(通过find查找后删除)。命令:rm -rf /home/modules/spark-2.3.0/jars/java-xmlbuilder*rm -rf /home/modules/spark-2.3.0/jars/okhttp*rm -rf /home/modules/spark-2.3.0/jars/okio*2、  将obs的jar包(hadoop-huaweicloud-2.8.3.13.jar、esdk-obs-java-3.0.1.jar、java-xmlbuilder-1.1.jar、okhttp-3.10.0.jar和okio-1.14.0.jar)拷贝到如下各个目录(/home/modules/spark-2.3.0/jars/)后即可启动spark使用OBS进行大数据计算。命令:cp /mnt/obsjar/hadoop-huaweicloud-2.8.3.13.jar /home/modules/spark-2.3.0/jars/.cp /mnt/obsjar/esdk-obs-java-3.0.1.jar /home/modules/spark-2.3.0/jars/.cp /mnt/obsjar/java-xmlbuilder-1.1.jar /home/modules/spark-2.3.0/jars/.cp /mnt/obsjar/okhttp-3.10.0.jar /home/modules/spark-2.3.0/jars/.cp /mnt/obsjar/okio-1.14.0.jar /home/modules/spark-2.3.0/jars/.