• [技术干货] 【HPC】鲲鹏HPC解决方案介绍
    【背景】HPC(High-performance computing,高性能计算)是能够执行一般电脑无法处理的大资料量与高速运算的并行计算系统,将大规模运算任务拆分并分发到各个服务器上进行并行运算,再将计算结果汇总得到最终结果,从而实现强大的计算功能。HPC解决方案已经广泛应用于政府HPC、制造、气象、EDA等行业,但仍然面临诸多挑战:命令行交互操作复杂HPC集群用户大多数为非IT从业人员,不擅长使用命令行方式进行任务管理和数据管理操作。资源管理的维度不是基于客户视角设计,使用之前需要学习一些概念。资源管理配置比较复杂,用户不能快速掌握,配置容易出错。行业应用复杂HPC应用行业复杂,多种类型软件并存,需持续升级。数据安全问题数据频繁传输,效率和安全性问题需要保障。异常监控需及时发现集群中的异常、实现多集群统一管理、用户异常行为监控,异常监控项多变。工作流程不连续传统高性能计算系统与用户现有的工作流程脱节。用户需要登录不同的终端分别进行数据处理和传输,没有统一的门户对仿真业务流程进行整合。资源利用率较低孤岛式的用户工作模式,每个用户在自己的桌面工作站上工作,并不利于协同作业,容易因为资源闲置而造成浪费。集群规模小集群规模小,需要多个集群才能支持业务,增加运维工作量,无法支撑大规模并行MPI作业。集群吞吐量低,资源利用率低集群吞吐量随集群规模的增大逐渐下降,当前开源或者商业的调度器架构陈旧,对新场景无法支持,造成一个业务一个集群,进一步降低资源利用率。MPI耗时MPI通信耗时问题凸显,成为集群计算关键瓶颈。为应对以上挑战,Kunpeng Computing HPC Solution应运而生。Kunpeng Computing HPC Solution通过自研线下集群统一监控和调度平台CCPortal(Cluster Computing Portal)、集群管理调度器CCScheduler(Cluster Computing Scheduler)和华为高性能通信库Hyper MPI,构建HPC集群核心软件系统,充分释放计算性能,实现智能集群管理与调度以及通讯接口性能优化。【方案简介及优势】Kunpeng Computing HPC Solution将大量服务器和存储设备通过高性能网络互联构建大规模计算集群,集群中各个计算节点相互协同并行处理多个子任务。这种并行计算的方式可以帮助解决普通计算机和服务器难以完成或无法快速完成的大型模型计算、复杂课题研究等问题。Kunpeng Computing HPC Solution的优势如下:集群统一监控和调度平台CCPortal提供统一门户的集群管理软件。提供界面友好的集群使用环境与功能完备的HPC运维管理系统。构建完整HPC解决方案。集群管理调度器CCScheduler负责集群资源的统一管理和分配,调度作业运行,最大化的利用资源完成客户的各种类型的任务,加快客户的业务迭代。支持MPI并行作业。高资源利用率。高性能通信库Hyper MPI华为自研MPI,针对MPI通信TOP瓶颈,采用集合通信加速创新方案,性能逼近并逐渐超越业界最佳。安全可靠自研芯片、MPI、编译器、数学库等,掌握关键核心技术,提供产品可持续供应能力。遵从商业环境要求,信息安全主动防护,保障客户放心部署应用。提供三员管理+安全可信的信息安全高标准。业务应用覆盖制造、气象、EDA和政府HPC平台4个重点行业完成核心应用覆盖。高性能多调度器支持,业界首个提供异构调度器统一管理能力的高性能解决方案,支持HPC统一调度,华为智能网卡、SSD和GPU加速卡,加速高性能计算应用,提升客户应用性能表现。开放生态开放合作,兼容主流企业应用软件,支持丰富应用快速平滑移植,降低客户迁移成本。【功能架构】HPC功能架构分层结构如下图所示,针对各层HPC解决方案都有相应的产品布局。当前版本,继续提升应用移植与性能优化的数量;重点实现自研中间件软件栈的功能交付,HPC软件层具备商用销售能力。CCPortal主要实现应用中心与报表中心,支持作业提交、作业管理、应用集成、远程可视化、报表展示、计费等核心功能,对外提供简单易用的界面。CCScheduler是华为全自研的调度器,提供大规模集群下的高资源利用率、高吞吐量的作业调度能力。Hyper MPI实现Allreduce、Bcast、Barrier集合通信算法优化,小包场景下相比Intel MPI性能持平。使能x86服务器,集成OceanStor Pacific分布式存储系统,使能RoCE组网,支持解决方案集成交付。
  • [技术干货] 高性能计算特性术语
    高性能计算特性术语
  • [优秀实践] 鲲鹏高性能计算解决方案bcftools-1.10.2鲲鹏移植
    CentOS7.61.获取源码wget https://github.com/samtools/bcftools/releases/download/1.10.2/bcftools-1.10.2.tar.bz2因为国外源的问题下载非常慢,可以通过翻墙或者找其他源的方式下载上传到服务器2.安装相关依赖yum install zlib-devel bzip2 bzip2-devel xz-devel libcurl-devel -y3.执行以下命令解压安装包并进入目录。tar jxvf bcftools-1.10.2.tar.bz2cd bcftools-1.10.24.执行以下命令进行配置./configure --prefix=/usr/local/src/Install CFLAGS="-O3 -march=armv8.2-a"   这个是你想要安装的位置。出现如下错误,应该是gcc版本较低,现在是4.8.5,升级一下三个小时后,我回来了。。。。gcc升级成功果然可以了:5.编译安装makemake install6.添加环境变量export PATH=/usr/local/src/Install/bin:$PATH7.验证8.测试数据cd bcftools-1.10.2make test最终显示
  • [技术干货] HPCC&HPL;测试指导(二)
    3、HPCC GCC安装编译3.1 MKL安装下载链接http://registrationcenter-download.intel.com/akdlm/irc_nas/tec/13575/l_mkl_2019.0.117.tgzhttp://registrationcenter-download.intel.com/akdlm/irc_nas/tec/13005/l_mkl_2018.3.222.tgzhttp://registrationcenter-download.intel.com/akdlm/irc_nas/tec/12414/l_mkl_2018.1.163.tgzhttp://registrationcenter-download.intel.com/akdlm/irc_nas/tec/12725/l_mkl_2018.2.199.tgzhttp://registrationcenter-download.intel.com/akdlm/irc_nas/tec/12070/l_mkl_2018.0.128.tgzhttp://registrationcenter-download.intel.com/akdlm/irc_nas/tec/12147/l_mkl_2017.4.239.tgzhttp://registrationcenter-download.intel.com/akdlm/irc_nas/tec/11544/l_mkl_2017.3.196.tgzhttp://registrationcenter-download.intel.com/akdlm/irc_nas/tec/11306/l_mkl_2017.2.174.tgzhttp://registrationcenter-download.intel.com/akdlm/irc_nas/tec/11024/l_mkl_2017.1.132.tgzhttp://registrationcenter-download.intel.com/akdlm/irc_nas/tec/9662/l_mkl_2017.0.098.tgzhttp://registrationcenter-download.intel.com/akdlm/irc_nas/tec/9068/l_mkl_11.3.3.210.tgzhttp://registrationcenter-download.intel.com/akdlm/irc_nas/tec/8711/l_mkl_11.3.2.181.tgz 安装软件# tar -xvf l_mkl_2018.3.222.tgz# cd l_mkl_2018.3.222# ./install.sh 配置文件vi /etc/ld.so.conf.d/intel_mkl.conf/opt/intel/lib/intel64/opt/intel/mkl/lib/intel64 保存退出以后,执行ldconfig使文件生效。3.2 MPI安装下载链接http://registrationcenter-download.intel.com/akdlm/irc_nas/tec/12748/l_mpi_2018.2.199.tgzhttp://registrationcenter-download.intel.com/akdlm/irc_nas/tec/13112/l_mpi_2018.3.222.tgzhttp://registrationcenter-download.intel.com/akdlm/irc_nas/tec/13741/l_mpi_2018.4.274.tgzhttp://registrationcenter-download.intel.com/akdlm/irc_nas/tec/13584/l_mpi_2019.0.117.tgzhttp://registrationcenter-download.intel.com/akdlm/irc_nas/tec/14879/l_mpi_2019.1.144.tgzhttp://registrationcenter-download.intel.com/akdlm/irc_nas/tec/9278/l_mpi_p_5.1.3.223.tgz 安装软件# tar -xvf l_mpi_2018.3.222.tgz# cd l_mpi_2018.3.222# ./install.sh  3.3 HPCC使用GCC编译编辑Makefile文件# tar -xvf hpcc-1.5.0.tar.gz# cd hpcc-1.5.0/hpl# vi Make.Linux_Intel64配置文件如下: #SHELL        = /bin/sh#CD           = cdCP           = cpLN_S         = ln -fsMKDIR        = mkdir -pRM           = /bin/rm -fTOUCH        = touch## ----------------------------------------------------------------------# - Platform identifier ------------------------------------------------# ----------------------------------------------------------------------#ARCH         = Linux_Intel64## ----------------------------------------------------------------------# - HPL Directory Structure / HPL library ------------------------------# ----------------------------------------------------------------------#TOPdir       = /root/hpcc-1.5.0/hplINCdir       = $(TOPdir)/includeBINdir       = $(TOPdir)/bin/$(ARCH)LIBdir       = $(TOPdir)/lib/$(ARCH)#HPLlib       = $(LIBdir)/libhpl.a## ----------------------------------------------------------------------# - Message Passing library (MPI) --------------------------------------# ----------------------------------------------------------------------# MPinc tells the  C  compiler where to find the Message Passing library# header files,  MPlib  is defined  to be the name of  the library to be# used. The variable MPdir is only used for defining MPinc and MPlib.# MPdir        = /opt/intel/impi/2018.2.199/intel64 MPinc        = -I$(MPdir)/include64 MPlib        = /opt/intel/compilers_and_libraries_2018.2.199/linux/mpi/intel64/lib/libmpi_ilp64.a## ----------------------------------------------------------------------# - Linear Algebra library (BLAS or VSIPL) -----------------------------# ----------------------------------------------------------------------# LAinc tells the  C  compiler where to find the Linear Algebra  library# header files,  LAlib  is defined  to be the name of  the library to be# used. The variable LAdir is only used for defining LAinc and LAlib.#LAdir        = /opt/intel/mkl/ifndef  LAincLAinc        = $(LAdir)/includeendififndef  LAlibLAlib        = -L$(LAdir)/lib/intel64  $(LAdir)/lib/intel64/libmkl_intel_lp64.a \               -Wl,--start-group \               $(LAdir)/lib/intel64/libmkl_sequential.a \               $(LAdir)/lib/intel64/libmkl_intel_thread.a \               $(LAdir)/lib/intel64/libmkl_core.a \               -Wl,--end-group -L $(LAdir)/lib/intel64 -lpthread -lmendif## ----------------------------------------------------------------------# - F77 / C interface --------------------------------------------------# ----------------------------------------------------------------------# You can skip this section  if and only if  you are not planning to use# a  BLAS  library featuring a Fortran 77 interface.  Otherwise,  it  is# necessary  to  fill out the  F2CDEFS  variable  with  the  appropriate# options.  **One and only one**  option should be chosen in **each** of# the 3 following categories:## 1) name space (How C calls a Fortran 77 routine)## -DAdd_              : all lower case and a suffixed underscore  (Suns,#                       Intel, ...),                           [default]# -DNoChange          : all lower case (IBM RS6000),# -DUpCase            : all upper case (Cray),# -DAdd__             : the FORTRAN compiler in use is f2c.## 2) C and Fortran 77 integer mapping## -DF77_INTEGER=int   : Fortran 77 INTEGER is a C int,         [default]# -DF77_INTEGER=long  : Fortran 77 INTEGER is a C long,# -DF77_INTEGER=short : Fortran 77 INTEGER is a C short.## 3) Fortran 77 string handling## -DStringSunStyle    : The string address is passed at the string loca-#                       tion on the stack, and the string length is then#                       passed as  an  F77_INTEGER  after  all  explicit#                       stack arguments,                       [default]# -DStringStructPtr   : The address  of  a  structure  is  passed  by  a#                       Fortran 77  string,  and the structure is of the#                       form: struct {char *cp; F77_INTEGER len;},# -DStringStructVal   : A structure is passed by value for each  Fortran#                       77 string,  and  the  structure is  of the form:#                       struct {char *cp; F77_INTEGER len;},# -DStringCrayStyle   : Special option for  Cray  machines,  which  uses#                       Cray  fcd  (fortran  character  descriptor)  for#                       interoperation.#F2CDEFS      = -DAdd__ -DF77_INTEGER=int -DStringSunStyle## ----------------------------------------------------------------------# - HPL includes / libraries / specifics -------------------------------# ----------------------------------------------------------------------#HPL_INCLUDES = -I$(INCdir) -I$(INCdir)/$(ARCH) -I$(LAinc) $(MPinc)HPL_LIBS     = $(HPLlib) $(LAlib) $(MPlib) -lpthread -ldl -lm## - Compile time options -----------------------------------------------## -DHPL_COPY_L           force the copy of the panel L before bcast;# -DHPL_CALL_CBLAS       call the cblas interface;# -DHPL_CALL_VSIPL       call the vsip  library;# -DHPL_DETAILED_TIMING  enable detailed timers;## By default HPL will:#    *) not copy L before broadcast,#    *) call the BLAS Fortran 77 interface,#    *) not display detailed timing information.#HPL_OPTS     = -DHPL_DETAILED_TIMING -DHPL_PROGRESS_REPORT## ----------------------------------------------------------------------#HPL_DEFS     = $(F2CDEFS) $(HPL_OPTS) $(HPL_INCLUDES)## ----------------------------------------------------------------------# - Compilers / linkers - Optimization flags ---------------------------# ----------------------------------------------------------------------#CC       = mpicc     //mpicc为使用GCC编译,mpiicc为使用ICC编译CCNOOPT  = $(HPL_DEFS)# OMP_DEFS = -openmpCCFLAGS  = $(HPL_DEFS) -fomit-frame-pointer -O3 -funroll-loops -Wall -Wrestrict## On some platforms,  it is necessary  to use the Fortran linker to find# the Fortran internals used in the BLAS library.#LINKER       = $(CC)LINKFLAGS    = -L$(LAdir)/lib/intel64#ARCHIVER     = arARFLAGS      = rRANLIB       = echo#    报错退出,进入hpcc根目录,执行make arch=Linux_Intel64. 执行测试参考2.5章节。   参考链接https://blog.csdn.net/qq_37206769/article/details/88826447https://blog.csdn.net/gyx1549624673/article/details/86495953  4、HPL多节点测试HPL介绍LINPACK是线性系统软件包(Linear system package)的缩写,用于测试高性能计算机系统浮点性能的benchmark。通过利用高性能计算机,用高斯消元法求解N元一次稠密线性代数方程组的测试,评价高性能计算机的浮点性能。Linpack的测试程序为HPL,HPL即High Performance Linpack,也叫高度并行计算基准测试,它是针对现代并行计算机提出的测试方式。用户在不修改任意测试程序的基础上,可以调节问题规模大小N(矩阵大小)、使用到的CPU数目、使用各种优化方法等来执行该测试程序,以获取最佳的性能。当求解问题规模为N时,浮点运算次数为(2/3 * N^3-2*N^2)。因此,只要给出问题规模N,测得系统的计算时间T,就可以得出系统的浮点计算性能=计算量(2/3 * N^3-2*N^2)/计算时间T,测试结果以浮点运算每秒(Flops)给出。浮点计算性能包括理论浮点峰值和实测浮点峰值:理论浮点峰值是该计算机理论上能达到的每秒钟能完成浮点计算最大次数,计算公式如下:         理论浮点峰值=CPU主频×CPU每个时钟周期执行浮点运算的次数×系统中CPU核心数目实测浮点峰值是指Linpack测试值,也就是说在这台机器上运行Linpack测试程序,通过各种调优方法得到的最优的测试结果  HPL安装配置修改hpl.dat文件Ø  上传测试程序l_mklb_p_2017.3.018.tgz到共享测试目录/homeØ  解压测试程序l_mklb_p_2017.3.018.tgzØ  进入测试目录:l_mklb_p_2017.3.018/benchmarks_2017/linux/mkl/benchmarks/mp_linpack/Ø  需要修改的测试文件为HPL.dat、runme_intel64_static Ø  HPL.dat需要修改的参数为:Ns/NBs/Ps/Qs这四个参数:•        Ns 为Linpack测试的问题规模,计算方法为:根据测试经验,内存以“GB”为单位,问题规模以“万”为单位,内存容量的开方就是问题规模Ns的值,比如节点的内存为64GB,那么Ns就应该配置为8万左右,64的开方就是8。在比如8个节点的集群,每个节点的内存为128GB,集群总的内存为1024GB,那么Ns的值为32万左右。•        NBs参数为块大小,是将问题规模划分为块的基本单元,针对Intel V3/V4处理器固定设置为192。•        为了提高计算效率,Ns问题规模在微调设置为NBs的整数倍,也就是192的整数倍,比如上面NS≈32万,调整为318720的精确值。此精确值并不是唯一,只要在32万左右能整除192即可。•        Ps值固定设置为2•        Qs值设定为节点数量,比如集群有100台节点,Qs值就等于100•        64节点集群,每节点配置128GB内存的参数配置如下:  修改执行文件•        runme_intel64_static需要修改的内容如下•        第34行export MPI_PER_NODE=2,确保值=2,当前版本默认值为2。•        第37行export NUMMIC=2,将值改为0•        第85行mpirun -perhost ${MPI_PER_NODE} -np ${MPI_PROC_NUM} ./runme_intel64_prv "$@" | tee -a $OUT,需要删除“-np ${MPI_PROC_NUM}”,并增加“-f hosts”参数,hosts为文件名,需要在此文件中加入测试节点的主机名。 创建hosts文件在当前目录创建hosts文件,内容包括HPL测试的主机名,每台主机占用一行: 执行测试运行runme_intel64_static启动测试       
  • [技术讨论] 【鲲鹏高性能计算解决方案】HTCondor 指导书无法指导安装部署
    按照指导书编译报错,无法正常完成部署Determining if the TCP_KEEPALIVE exist failed with the following output:Change Dir: /opt/HPC/HTCONDOR/htcondor-8_9_2/CMakeFiles/CMakeTmpRun Build Command:/usr/bin/gmake "cmTryCompileExec825947035/fast"/usr/bin/gmake -f CMakeFiles/cmTryCompileExec825947035.dir/build.make CMakeFiles/cmTryCompileExec825947035.dir/buildgmake[1]: Entering directory `/opt/HPC/HTCONDOR/htcondor-8_9_2/CMakeFiles/CMakeTmp'/usr/bin/cmake -E cmake_progress_report /opt/HPC/HTCONDOR/htcondor-8_9_2/CMakeFiles/CMakeTmp/CMakeFiles 1Building C object CMakeFiles/cmTryCompileExec825947035.dir/CheckSymbolExists.c.o/usr/bin/cc    -o CMakeFiles/cmTryCompileExec825947035.dir/CheckSymbolExists.c.o   -c /opt/HPC/HTCONDOR/htcondor-8_9_2/CMakeFiles/CMakeTmp/CheckSymbolExists.c/opt/HPC/HTCONDOR/htcondor-8_9_2/CMakeFiles/CMakeTmp/CheckSymbolExists.c: In function ‘main’:/opt/HPC/HTCONDOR/htcondor-8_9_2/CMakeFiles/CMakeTmp/CheckSymbolExists.c:10:19: error: ‘TCP_KEEPALIVE’ undeclared (first use in this function)   return ((int*)(&TCP_KEEPALIVE))[argc];                   ^/opt/HPC/HTCONDOR/htcondor-8_9_2/CMakeFiles/CMakeTmp/CheckSymbolExists.c:10:19: note: each undeclared identifier is reported only once for each function it appears ingmake[1]: *** [CMakeFiles/cmTryCompileExec825947035.dir/CheckSymbolExists.c.o] Error 1gmake[1]: Leaving directory `/opt/HPC/HTCONDOR/htcondor-8_9_2/CMakeFiles/CMakeTmp'gmake: *** [cmTryCompileExec825947035/fast] Error 2File /opt/HPC/HTCONDOR/htcondor-8_9_2/CMakeFiles/CMakeTmp/CheckSymbolExists.c:
  • [API使用] 【MindSpore中的AKG】【模型推理加速】请问AKG的加速原理是什么?与TVM有何区别和联系?支持pytorch么?
    【功能模块】  大家好,最近听闻AKG可以做推理加速,代码链接:https://github.com/mindspore-ai/akg    有以下几点问题想请教大家:1.请问其加速原理是什么?2.与TVM有何区别和联系?3.支持pytorch么?4.支持CV和NLP中的常见模型么?5.有何限制及瓶颈?
  • [技术干货] 鲲鹏高性能计算解决方案介绍和使用
    鲲鹏高性能计算解决方案介绍和使用 
  • [交流分享] 【悦识鲲鹏系列 第09期】鲲鹏高性能计算解决方案介绍和使用
    高性能计算(High Performance Computing,HPC)是一个计算机集群系统,它通过各种互联技术将多个计算机系统连接在一起,利用所有被连接系统的综合计算能力来处理大型计算问题,所以又通常被称为高性能计算集群。鲲鹏高性能计算解决方案 方案介绍:cid:link_2鲲鹏高性能计算解决方案 文档聚合: cid:link_0鲲鹏高性能计算解决方案 精华帖:cid:link_1
  • [云早报] 欧盟宣布斥资8.4亿欧新建8个超算中心(北京时间)6月11日,星期二
    云早报,(北京时间)6月11日,星期二【云头条】欧盟宣布斥资8.4亿欧新建8个超算中心6月10日消息,欧盟委员会日前发布公报说,“欧洲高性能计算共同计划”已从欧盟成员国中选定8处地点建设“世界级”超级计算机中心,来自各方的项目总预算高达8.4亿欧元。“欧洲高性能计算共同计划”旨在研发欧洲高性能计算及大数据系统,于2019年至2026年实施。【华为云】华为云&南开大学,智慧校园让未来更近一步 (查看原文)【互联网新闻】1.格力举报奥克斯事件升级:格力官微放出举报奥克斯证据6月10日消息,实名举报奥克斯空调不合格后,格力电器再次在微博爆出猛料。格力表示,用事实说话,已准备好充分证据供监管部门调阅,并视情况适时向社会公布。格力电器表示,生产销售此类产品不仅严重侵害了消费者的合法权益,对国家节能减排环保政策。网友评论:相互监督,消费者受益~23332.百度回应“要求医疗健康平台签排他协议”:系自愿,很常见36氪讯,有消息称百度要求近60家医疗健康平台签排他协议。对此,百度回应称,在独家合作协议签署中,双方完全是平等、自愿的,不存在强迫的情况,且独家合作的范围仅限于资源方主动通过合作通道提交给百度的共建数据。独家合作范围内的数据内容,将按照双方约定禁止第三方索引、抓取。百度方还表示,在互联网领域,资源方与平台进行内容共建或独家合作,是非常常见的现象。网友评论:众里寻他千百度...3.Salesforce花157亿美元收购Tableau36氪讯,今日,Salesforce宣布157亿美元收购企服领域另一家上市公司Tableau。根据相关信息,这次的交易以换股的形式进行,Tableau的A类和B类普通股股票可以换取1.103股的Salesforce普通股,股票的价格则是截至2019年6月7日Salesforce股的平均价格。Tableau主要做数据可视化报表业务。网友评论:I hate data...4.亚马逊计划为信用不良或“存款不足”用户推出信用卡亚马逊(Amazon)正在寻找一种方式,让更多的人获得其Prime信用卡。这家电子商务巨头与美国消费金融公司同步银行(Synchrony Financial)合作推出了“亚马逊信用构建者”(Amazon Credit Builder)计划,该计划向没有信用记录或信用不良的购物者提供贷款,否则他们将被取消亚马逊会员卡。Synchrony执行副总裁兼零售卡业务首席执行官汤姆-昆德伦在接受采访时表示:“总有一些人无法获得信用卡——这是我们无法接触到的一大群人。这是一个新的市场领域。”网友评论:这年头不知道你姓名,还愿意借钱给你的人不多了5.滴滴高级副总裁俞军离职:因家庭原因离开北京 滴滴出行CTO张博在一封邮件中宣布,公司产品高级副总裁俞军因家庭原因需搬离北京,近期将从滴滴离职。邮件中还宣布,张博将兼任产品部负责人;俞军担任产品委员会荣誉主席,参与重大产品决策,主持高阶产品晋级评审、共同制定产品序列发展规划。随后,俞军在个人朋友圈确认了这一消息,俞军称,“很遗憾因为家庭原因不得不搬去其他城市。”网友评论:因为副总裁买不起北京学区房?6.联想成立数据智能BG 蓝烨担任总经理6月10日上午消息,联想集团董事长兼CEO杨元庆今日发表内部信,宣布将在原联想大数据团队和业务的基础上,成立数据智能事业部 (Data Intelligence Business Group, DIBG),由新入职的高级副总裁蓝烨担任总经理,直接向杨元庆汇报。同时,联想副总裁田日辉负责数据智能事业部的技术和产品研发,向蓝烨汇报。蓝烨曾于1993加入联想,在此后的15年里,曾担任联想集团副总裁,全面负责中国区销售业务,2008年前后离开。此外。他曾任职京东集团执行副总裁,并曾先后担任京东集团首席营销官(CMO)和首席公共事务官(CPO)。7.腾讯吃鸡手游5月收入约10亿元,同比增加24倍据第三方研究机构Sensor Tower统计,腾讯出品吃鸡手游《绝地求生》与《和平精英》,在2019年5月收入总和为1.46亿美元,约合人民币10亿元,相比去年同期的570万美元,增长约24.6倍。其中,《和平精英》占总收入的48%(约7000万美元),海外运营的《绝地求生》占7600万美元,该统计还不包括中国地区的安卓手机市场的收入。(21世纪经济报道 )网友评论:吃鸡对腾讯的贡献,或将不亚于王者荣耀和微信8.比特易创始人惠轶逝世数字货币市场分析公司比特易创始人惠轶于2019年6月5日逝世。根据网上流传出来的信息,惠轶疑似100倍杠杆爆仓,最终选择自杀。比特易是一家数字货币市场专业分析平台,为数字货币投资者提供专业的市场分析工具、数据指标和风险管理策略,帮助投资者控制数字货币投资风险;同时,比特易也在为监管机构、行业研究机构提供市场数据监控,项目风险监控,非法交易发现与监控等各项专业服务。2018年4月,数字货币市场分析平台比特易宣布在近期获得软银中国资本、蓝驰创投的A轮战略投资。据比特易创始人惠轶介绍,这是软银中国投的第一个区块链项目。9.腾讯改革职级体系,优化年轻员工晋升通道6月10日,腾讯发内部信称将进行“系统性升级,重新定义专业职级体系”,具体动作包括取消大级子等设置,合并部分子等,职级的设置也将从目前的1.1-6.3级改为4-17级。另外,内部信还指出,将持续优化或设置通道职位;实现专业体系线性化;进一步厘清管理通道和专业通道。腾讯内部员工表示,此轮调整最大的亮点被认为是基层晋升通道被放松。(搜狐科技)10.前ofo联合创始人薛鼎再创业:转向共享住宿 前ofo联合创始人薛鼎目前已创立麦极智能,希望通过技术手段和标准化的服务,让经营者省时省力地对房屋进行管理维护。目前该队伍包括10余人。薛鼎表示:“ofo曾经花了很大精力推进‘大共享计划’,就是希望能快速吸收闲置的自行车,但并不顺利。对于自行车这种‘极轻资产’,用户并没有足够的动力去获得这种极低的共享收入,而是更倾向将车子卖掉。”网友评论:共享住宿和酒店有啥区别?【更多内容,欢迎访问】http://forum.huaweicloud.com/forum.php?mod=forumdisplay&fid=569&filter=typeid&typeid=266(内容来源于互联网,如侵犯您的合法权益或有其他任何疑问,请联系:huaweicloud.bbs@huawei.com沟通处理。谢谢!)
  • [热门活动] 华为云高性能计算型H3云服务器于2018年12月1日00:00(北京时间)调价通知
    尊敬的华为云客户:华为云对高性能计算型H3云服务器的产品价格进行相应调整,新价格从2018/12/01 00:00:00正式生效,生效后高性能计算型H3云服务器新购、续费均按调整后价格收取费用。具体价格详情如下:调价前实例规格规格大小价格单位小时月1年2年3年高性能计算型 H32核4 G元0.7324.73117.35065.35610.8高性能计算型 H34核8 G元1.41649.36233.610129.111219.9高性能计算型 H38核16 G元2.831298.712467.120259.722441.5高性能计算型 H312核24 G元4.2194818700.730388.633661.3高性能计算型 H316核32 G元5.772597.324934.340517.944881.3高性能计算型 H324核48 G元8.66389637401.460777.367322.5高性能计算型 H332核64 G元11.545194.649868.581036.489763.4高性能计算型 H32核8 G元0.78357.43430.95575.46175.9高性能计算型 H34核16 G元1.56714.76860.811149.312350高性能计算型 H38核32 G元3.111429.513722.722300.224701.8高性能计算型 H312核48 G元4.672144.320584.833450.337052.6高性能计算型 H316核64 G元6.372858.927445.444598.849401.8高性能计算型 H324核96 G元9.564288.541169.666900.674105.3高性能计算型 H332核128 G元12.745717.854890.989197.798803.6调价后实例规格规格大小价格单位小时月1年2年3年高性能计算型 H32核4 G元0.55263263044194734高性能计算型 H34核8 G元1.1525.9525988369467高性能计算型 H38核16 G元2.191051.9105191767318935高性能计算型 H312核24 G元3.291577.9157792650828402高性能计算型 H316核32 G元4.382103.8210383534437869高性能计算型 H324核48 G元6.573155.8315585301756804高性能计算型 H332核64 G元8.774207.6420767068875737高性能计算型 H32核8 G元0.73350.3350358846305高性能计算型 H34核16 G元1.46700.470041176712607高性能计算型 H38核32 G元2.921400.9140092353525216高性能计算型 H312核48 G元4.382101.4210143530437825高性能计算型 H316核64 G元5.842801.7280174706950431高性能计算型 H324核96 G元8.764202.7420277060675649高性能计算型 H332核128 G元11.675603.45603494138100862具体价格请在新价格生效后参考产品的计费详情页。如有任何问题,请联系华为云客户服务热线:4000-955-988或者联系客户经理。感谢您的支持与理解!
  • [热门活动] 华为云超高性能计算型Hi3云服务器于2018年11月20日00:00(北京时间)下线通知
    尊敬的华为云客户:华为云计划于2018/11/20 00:00:00将超高性能计算型Hi3云服务器正式下线。华为云在此提醒您,产品下线后,该产品实例将不可被使用,云服务器资源将被删除,为了避免影响您的业务,建议您在2018/11/19 23:59:59前做好迁移数据及数据备份。如您有任何问题,欢迎拨打华为云服务热线:4000-955-988与我们联系。感谢您对华为云的支持!https://www.huaweicloud.com/notice/2018/20181112181330620.html
  • 清华大学基于华为云高性能计算解决方案完成癌症基因组学大数据分析项目
    本帖最后由 speedy2016 于 2018-6-28 20:11 编辑清华大学基于华为云高性能计算解决方案完成癌症基因组学大数据分析项目 近期,清华大学生命科学学院杨雪瑞课题组基于华为云HPC基因组学大数据分析解决方案,完成了二十余种癌症的转录调控网络构建。华为云针对项目的大规模计算需求进行了个性化配置,极大的减少计算时间,从海量癌症多组学数据中挖掘基因转录调控通路,向揭示癌症发生发展机制又迈进了一大步。 该项目主要是为了探索在癌症进程中,转录因子(TFs)、靶基因(target genes)、长链非编码RNA(lncRNAs)三者之间的调控关系,构建转录调控网络;并基于该网络揭示癌症的发生发展机制,同时比较不同癌症中转录调控网络的异同。近年来,随着基因测序数据的不断积累和壮大,长链非编码RNA(lncRNAs)不断被发现并且执行了重要的生物学功能。因此在传统的转录因子和靶基因的调控关系中加入长链非编码RNA的因素,构建新型的转录调控网络,为探索癌症的发生过程和调控机制提供了新的可能。 基于华为云成熟的HPC解决方案,为该项目提供了极具针对性的资源配置优化,实现了大规模计算资源的合理分配,不仅实现了高效率计算,还节省了30%以上的时间成本。 当前华为云HPC基因测序方案,可提供基于FPGA测序加速的基因测序主机、基于超高IO块存储构建的lustre集群,以及超高上传下载性能的OBS browser工具和120TB大容量传送立方数据快递服务。相比传统基因测序流程可缩短5倍的测序时间,综合成本可降低40%。 清华大学生命科学学院有着悠久的历史,在科学研究、学科建设和人才培养方面都有着强大的优势,已发展成为我国最具特色和最有影响力的生命科学科研和教学基地之一。以基因组学为重要研究内容之一的计算生物学是学院的重要发展方向,而相关研究的深入也对高性能计算资源提出了大量迫切的需求。 测序行业的持续繁荣和测序数据的快速增长对平台的计算能力以及数据安全都提出了更大的挑战。未来,随着测序技术的不断发展,华为云将联合科研伙伴一起不断推动基因行业的发展和进步。
总条数:42 到第
上滑加载中