• 【竞享实例,瞬享自由算力】云服务每核时低至0.035元了啦!
            近年来,随着企业上云转型、互联网信息产业技术不断发展与革新,云上的业务越来越多样化,上云成本也越来越高,除了对性能和稳定性要求外,如何在保证性能前提下,有效降低用云成本也是成为各大企业的关注重点! 根据业务对服务器稳定性的要求,可以将上云业务分为两大类,1.通用场景类:业务为长周期业务、对计算资源的需求量相对稳定,对云服务器稳定性要求高的业务,如:数据库服务、ERP系统等企业核心应用。2.无状态任务场景类:业务具有短周期、高容错,可中断等业务特点,对短时大规模算力需求较高,算力中断或减少不影响业务正常运行。如离线渲染,离线转码,基因测序,在线爬虫等无状态业务。 不同场景选择不同实例类型:通用场景类业务,对稳定性要求高,且计算资源使用周期长,可选择包周期实例,固定时间内使用固定量级的计算资源更优惠,且各厂商经常推出特惠活动,购买时间越长,价格越低。在偶尔业务高峰时可以通过配置按需资源,按使用量计费节约成本。无状态任务型场景,对稳定性要求不高,计算资源使用周期短,可选择按需实例,根据任务量和使用时间,随取随用,按使用时长计费,且可以根据不同的业务需求灵活选择实例的性能和规格。 虽然目前包周期实例和按需实例已经满足大部分业务场景的用云需求,但对于短周期高容错的任务型计算业务来说,包周期实例和按需实例的成本还是较高,而对算力有性能高要求的企业,需要花费更多的成本才能支撑业务负荷。 一句话总结高容错,可容忍中断的任务型场景对实例的需求是短周期!强性能! 低成本!所以,华为云的竞享实例来了! 竞享实例是华为云针对无状态、可容错的应用场景推出的全新计算服务,旨在帮助用户降低用云成本!竞享实例支持多种机型规格购买,超高性价比!原来1台云服务的钱现在可以买6台云服务器啦!>>竞享实例购买入口<<竞享实例具有四大优势ü  超高性价比:同规格同性能的机型价格低至按需实例的1.5折,这就意味着,业务使用竞享实例要比按需实例节省85%的算力成本,ü  性能优异:支持华为云C系列高性能云服务器,最高性能配置为64核256G,可支撑高性能业务的需求ü  规模运行:支持申请超大规模算力负载用于业务快速闭环,最高可支持万核资源购买申请,以超低价格构建计算集群,万核资源每小时使用费用低至350元ü  灵活便捷:竞享实例支持短周期可容错业务,随取随用,用户根据业务量选择购买时长,到期后自动释放实例。配合业务的自身的容错机制与弹性伸缩机制,可对竞享实例实现自动化管理。 竞享实例适合多场景使用竞享实例将成为弹性Web应用、离线渲染、视频转码、基因测试、新品设计、舆情获取业务、重定向广告、AI学习等场景降低成本的不二之选!用户可以以极低成本构建临时计算资源池,通过业务调度平台将超大量级任务分发至资源池中多台竞享实例分别进行计算,从而提高计算速度,保障业务高峰期高校平稳度过。                        竞享实例小tips为了更好的运用竞享实例,需要遵循以下小提示:1.     因为竞享实例存在一定的中断概率,避免在竞享实例上运行对稳定性要求高的服务2.     在配置资源池时,按一定比例配置包周期、按需,竞享实例,核心稳定业务部署在包周期或按需实例,无状态业务部署在竞享实例。3.     竞享实例到期释放或中断释放均秒级释放,需要提前做好备份策略,避免损失 
  • 竞享实例场景小贴士之影视渲染
    竞享实例在离线渲染场景应用场景介绍:使用 竞享实例扩展本地部署或云化渲染集群,以远低于按需价格的成本和充足资源储备满足项目和时间表要求,经济高效地完成离线渲染任务。场景特点:批量操作:需支持批量创建及删除操作按需付费:根据运行时间按需精准计费处理性能:对存储,批创以及渲染处理性能要求高规格要求:无超分,大规格(常见16U-64U)集中部署:同Region部署渲染集群离线转码使用场景小贴士:
  • 《哪吒之魔童降世》爆红背后的影视渲染有多酷?
    通常,从数据上来说,一部电影渲染时长越长,说明画面制作越精良,以下这组数据可以给大家一些参考:《阿凡达》在渲染的时候,用了40000颗CPU,104TB内存,10G网络带宽,整整渲染了1个多月。而《哪吒》渲染花费了多长时间呢,据了解,这部影片共计创建了约5000个任务,289,077帧,耗费了近10万个小时...我们在观看电影的时候,无不为其画面的真实感及强大的视觉冲击而震撼,原来,国产电影也可以值得骄傲,而这值得骄傲的背后,当然也和日益发展的影视行业后期的技术发展息息相关。今天,我们就来聊一聊离线渲染。什么是渲染?渲染就是指把模型在视点、光线、运动轨迹等因素作用下的视觉画面计算出来的过程。什么是离线渲染?离线渲染就是在计算出画面时并不显示画面,计算机根据预先定义好的光线、轨迹渲染图片,渲染完成后再将图片连续播放,实现动画效果。这种方式的典型代表有3DMax和Maya,其主要优点是渲染时可以不考虑时间对渲染效果的影响,缺点是渲染画面播放时用户不能实时控制物体和场景。什么是实时渲染?实时渲染,是指计算机边计算画面边将其输出显示,这种方式的典型代表有Vega Prime和Virtools。实时渲染的优点是可以实时操控(实现三维游戏、军事仿真、灾难模拟等),缺点是要受系统的负荷能力的限制,必要时要牺牲画面效果(模型的精细、光影的应用、贴图的精细程度)来满足实时系统的要求。离线渲染和实时渲染有什么区别:离线渲染主要用于电影、广告等预先设计好的模式的演示。实时渲染主要用于无预定脚本的视景仿真,例如飞行训练、3D游戏和交互式建筑演示等。两者都是模拟真实和想象的世界,用高度细节模型,产生平滑连线的运动,并以一定的帧率进行绘制来达到对三维模型的渲染和演示;离线渲染的重点是美学和视觉效果,主要是“展示美”,在渲染过程中可以为了视觉的美感将模型的细节做得非常丰富,将贴图纹理做到以假乱真的效果,并辅以灯光设置,最后渲染时还可以使用高级渲染器;实时渲染的重点是交互性和实时性,其模型通常具有较少的细节,以提高绘制速度并减少“滞后时间”(指用户输入和应用程序做出相应反应之间的时间)。比起离线渲染,实时渲染更看重对现实世界各种现象的模拟和对数据的有效整合,而不是炫目的图像。有一定的相似性,但区别也是很明显的。离线渲染得到的是更加精细的画面效果,代价是花费更长的时间,而实时渲染为了达到随时调整随时看到画面的目的,牺牲了画面的精细度。离线渲染的每帧是预先绘制好的,即设计师设置帧的绘制顺序并选择要观看的场景。每一帧甚至可以花数小时进行渲染;实时渲染对渲染的实时性要求严格,因为用户改变方向、穿越场景、改变视点时,都要重新渲染画面。在视景仿真中,每帧通常要在1/30秒内完成绘制。离线渲染主要依托于中央处理器(CPU)的计算能力,实时渲染主要依托于图形处理器(GPU)的计算能力。如今,在渲染过程中,不会再依赖于单一处理器的计算能力,计算机中的越来越多的性能会被调用。同时计算机本身的性能也在不断提升,多硬件之间协同渲染的方式也逐渐成为当下的主流技术。华为云最新推出竞享实例,特别适合各种无状态、可中断、高容错的场景,例如我们前文提到的离线渲染这一场景,可大幅度缩短影视渲染的时间,节约渲染成本。国产动漫,未来可期,相信会有越来越多优秀的影视作品,大放异彩!!
  • 竞享实例场景小贴士之效果图渲染
    竞享实例在离线渲染中的应用:场景介绍:使用 竞享实例扩展本地部署或云化渲染集群,以远低于按需价格的成本和充足资源储备满足项目和时间表要求,经济高效地完成离线渲染任务。场景特点:批量操作:需支持批量创建及删除操作按需付费:根据运行时间按需精准计费处理性能:对存储,批创以及渲染处理性能要求高规格要求:无超分,大规格(常见16U-64U)集中部署:同Region部署渲染集群场景小贴士至效果图渲染:
  • 竞享实例场景小贴士之影视渲染,将竞享实例在影视渲染的优势安排的明明白白~~
  • 竞享实例在离线渲染场景应用
    场景介绍使用 竞享实例扩展本地部署或云化渲染集群,以远低于按需价格的成本和充足资源储备满足项目和时间表要求,经济高效地完成离线渲染任务。场景特点:批量操作:需支持批量创建及删除操作按需付费:根据运行时间按需精准计费处理性能:对存储,批创以及渲染处理性能要求高规格要求:无超分,大规格(常见16U-64U)集中部署:同Region部署渲染集群典型客户群体:电脑动画工作室、影视视效工作室、建筑设计可视化工作室、游戏及商业广告公司等应用架构图: 使用优势:成本降低:最高可帮助用户节省成本灵活便捷:支持API方式进行批量操作规模运行:用户可申请超大规模集群处理转码任务性能保障:与按需ECS相同底层资源,性能一致无缝对接:与EVS,SFS等服务无缝搭配
  • 竞享实例适用场景及优势解读
    1、  离线渲染使用 竞享实例扩展本地部署或云化渲染集群,以远低于按需价格的成本和充足资源储备满足项目和时间表要求,经济高效地完成离线渲染任务。典型客户群体:电脑动画工作室、影视视效工作室、建筑设计可视化工作室、游戏及商业广告公司等优势:成本降低:最高可帮助用户节省成本灵活便捷:支持API方式进行批量操作规模运行:用户可申请超大规模集群处理转码任务性能保障:与按需ECS相同底层资源,性能一致无缝对接:与EVS,SFS等服务无缝搭配2、  离线转码使用竞享实例为海量媒体数据转码提供充足算力,节省转码时间同时降低转码成本典型客户群体:广电运营商,IPTV运营商,有音视频转码需求的各类企业优势:成本降低:最高可帮助用户节省成本灵活便捷:用户可设置实例持续时间,到期释放规模运行:用户可申请超大规模集群处理转码任务性能保障:与按需ECS相同底层资源,性能一致3、生物医药使用竞享实例为基因组测序,DNA分析等高强度计算业务提供经济高效的计算资源,所需时间从数周缩短为几天典型客户群体:高校实验室,研究所,基因检测机构,生物技术公司优势:成本降低:最高可帮助用户节省成本灵活便捷:用户可设置实例持续时间,到期释放规模运行:用户可申请超大规模集群处理转码任务性能保障:与按需ECS相同底层资源,性能一致4、Web 应用使用竞享实例配合负载均衡和弹性伸缩服务实现以较低成本在业务高峰智能调节后端集群,保持Web最佳性能典型客户群体:社交学习平台、在线交易平台、电商、O2O等
  • [交流吐槽] 【求助】该怎么给客户解答什么是We码小程序?
    如题,今天客户问了个问题。We码小程序是什么?客户需要专业解释,从技术层面解释,怕客户听不懂。哪位能给个答案呢?
  • [问题求助] 调用接口数据,渲染显示不出任何信息?请问是否有相应的模板参考?
    如题?????
  • Cloud VR连接服务的界面中指标统计功能介绍
    Cloud VR连接服务的指标统计功能介绍,包括:如何调出这个实时的指标显示页面?指标是基于什么计算的,打点准确性如何?具体每个指标的计算方法。如何导出这些粗颗粒度的统计指标?1. 如何调出这个实时的指标显示页面?打开服务器端的Cloud VR连接服务,点击关于,再点击“显示高级设置”,在右侧点击“实时”。此时就能够看到实时的统计指标了。实时指标示例:2. 指标是基于什么计算的,打点准确性如何?指标只能在应用层进行计算,并非网络侧探针等技术。部分指标是估算出来的。在具体指标的计算方法中有说明。3. 具体每个指标的计算方法。物理时延:输入动作(头部转动或控制器操作等)与屏幕更新显示(从刷新的屏幕发出的光线)内容之间的时延。预测间隔:一帧动作预测的显示时间 - 获取动作的时间。代表了向前预测多久的动作,作为画面的输入。服务器渲染时延:游戏应用完成一帧画面渲染所消耗的时延。编码时延:完成一帧画面编码所消耗的时延。帧传输时延:一帧画面从服务器传输第一个字节,到客户端接收到最后一个字节所消耗的时延。解码时延:客户端解码所消耗的时延客户端渲染时延:客户端完成一帧画面的一次渲染所消耗的时间动作信息传输时延:客户端传输动作信息到服务器接收到所消耗的时延吞吐率:从服务器侧计算的收包速率,计算音频和视频两个流量之和RTT:客户端到服务器之间的网络端到端时延。客户端发送消息0给服务器,服务器收到后,构建消息1并将当前的时间戳t1返回给客户端;客户端构建消息2,并将消息1中的服务器时间戳t1加入,发送给服务器,服务器收到后记录时间戳t2;RTT=t2-t1分辨率:在服务端编码的分辨率帧率:在客户端实际显示的帧率丢包率:每一秒,画面内容从服务器传输到客户端过程中的丢包率黑边度数:横向Fov上的黑边角度(Yaw)帧传输时延的误差说明:起点:服务器开始发送第n帧内容的第一个数据包终点:客户端接收到第n帧内容的最后数据包终点时间戳-起点时间戳+时间同步差值备注:客户端和服务器上的时间存在同步差值,此时间是以client时间为基准,在client上计算的。时间同步差值计算方法:服务器发包时间+RTT/2-客户端接收包的时间。因为客户端和服务端时间同步是通过RTT/2补平的,所以存在一定误差。动作信息传输时延原理相同,也存在一定误差。4. 如何导出这些粗颗粒度的统计指标?首先需要在“调试”菜单中开启本地统计量,然后在Cloud VR的安装目录下,CloudVR\logs\目录下,找到Excel文件。文件的格式如下:每一秒会记录当前一秒的打点值。数据字典如附件《CloudVR原型系统指标集 V1.1.xlsx》
  • [分享交流] 【华为云社区 19年11月刊】本期推荐:一个服务器爱好者的华为云服务评测报告
    一个服务器爱好者的华为云服务评测报告解密昇腾AI处理器--DaVinci架构(存储系统)五分钟了解物联网SIM卡华为云服务器新体验云硬盘还可以这样共享?华为鲲鹏云之我见快速入门NB-IoT常用的AT指令集Web应用防火墙之“防网页篡改”:挂马检测,抵御篡改威胁!ContainerOps在手,效率提升不用愁鲲鹏弹性云服务器如何配置 Tomcat?DevOps on DevCloud|如何采用流水线践行CI/CD理念如何用鲲鹏弹性云服务器部署《Hadoop伪分布式》解密昇腾AI处理器--Ascend310简介WebRTC在浏览器中如何获得指定格式的PCM数据物联网平台安全如何破?GDG Xi'an DevFest2019闪电演讲《假如我是一个浏览器》PPT分享DevOps on DevCloud|如何采用流水线践行CI/CD理念人脸检测MTCNN和人脸识别Facenet 原理和实践高性能Web动画和渲染原理系列(1)——CSS动画和JS动画高性能Web动画和渲染原理系列(2)——渲染管线和CPU渲染高性能Web动画和渲染原理系列(3)——transform和opacity为什么高性能高性能Web动画和渲染原理系列(4)“Compositor-Pipeline演讲PPT”学习摘要高性能Web动画和渲染原理系列(5)合成层的生成条件和陷资料下载:软件开发团队如何管理琐碎、突发性任务智能标注和notebook演示数据下载2019年全国边缘计算学术研讨会论文集怎么实现用地图上各个省份来链接不同页面java上传图片至OBS后,返回的url访问不到图片,求解答华为云人脸识别并发量多少无公网IP的弹性云服务器访问Internet请问用ModelArt训练完的权重怎么保存?CentOS 6系列弹性云服务器安装图形化界面离线式的设备通过MQTT连接物联网平台,第三方应用何时发送命令给设备?无法将数据写入传输连接: 远程主机强迫关闭了一个现有的连接。IAM访问控制列表生效条件描述不严谨window 服务器 opengl版本过低 升级驱动使用obs java sdk下载香港节点的obs存储总是出错这个回调地址也就是上传证书时的IP到底在哪里找啊用MQTT模拟器,对应的服务IP在哪里看 ?每一段播放视频,能分别设置播放权限吗?OBS使用URL进行授权访问,怎么上传文件了备案app上真实性人像验证一直通不过
  • [热门活动] 【51VR】 5G实时云渲染平台率先落地北京通州
    2019年1月30日,51VR 5G实时云渲染平台51 Cloud正式落地北京通州当代万国城ΜΟΜΛ,这是51 Cloud继2018年12月18日对外发布后落地的第一个项目,旨在全面提升数字化营销效率。                        数字化地产营销存在已久,51 Cloud实时云渲染平台又为其带来了哪些改变?在以往销售案场的数字化营销中,要做到实时渲染,必须配有高性能处理器,才能保证画质清晰和观感流畅,否则,软件运行将十分迟缓,甚至卡顿,极大影响用户体验。为了达到实时渲染,数字化展示设备的性能至少要达到ipad-pro高性能级别。高性能意味着高成本。▲高性能一体机实时渲染效果展示而在5G实时云渲染技术的加持下,图像信息的处理可直接在云端实时完成,案场只需配备普通性能的显示设备,如普通平板电脑、手机等,即可达到以往高性能设备(如上图高性能一体机效果):同样的效果,更低的成本。案场未来将不再需要购买费用昂贵的GPU。▲5G实时云渲染应用于ipad展示随着5G信号的普及,实时云渲染技术将可广泛应用于每一个联网的屏幕,而不受处理器限制。基于当前5G的普及程度,51VR采用边缘计算,通过千兆路由器模拟5G传输速度,将图像处理与图像显示分离,通过模拟5G信号能将画面实时传输至多台平板电脑和设备。▲实时云渲染用于智慧社区运营效果展示就应用而言,5G浪潮的到来,将带动51 Cloud从三个方面为数字化营销带来全面提升:一、便捷性由于51Cloud实时云渲染可泛用于不同终端,如一体机、平板电脑、手机等,移动性将大大增强,便于各类场景进行更为灵活而便捷的讲解。二、真实性通过51Cloud,终端渲染效果可达到照片级真实,且不影响流畅观感,极大提升用户体验。三、成本低由于实时渲染直接在云端完成,低配设备也能体验高性能主机级别的清晰画质和流畅效果,大幅降低设备成本。▲实时云渲染下的体验效果自2018年12月对外发布51Cloud以来,51VR已与各大企业和机构就5G应用达成合作。目前,51 Cloud实时云渲染已进驻华为5G展厅,与联通、英伟达的合作也正逐步展开。据悉,早在2018年4月,发改委已正式批准12个5G试点城市名单,《5G产业与应用发展白皮书》指出,在2019年中国的5G将进入为期5年左右的主建设期。日前,中国移动、中国电信、中国联通三大运营商已公布即将陆续开通5G试点的城市,包括北京、天津、青岛、杭州、南京、武汉、贵阳、成都、深圳、福州、郑州、沈阳、广州、苏州、兰州、雄安等,并以直辖市、省会城市及珠三角、长三角、京津冀区域为中心进行重点建设。作为首批将5G真正进行商业化落地的科技公司,51VR将与三大运营商密切合作,逐步在全国各地铺设基于5G信号的51 Cloud产品与服务,不断提升终端体验及服务效率。推荐阅读:⊙51VR地球克隆计划2正式发布,全面落地无人驾驶、智慧城市及5G应用
  • [技术干货] 谷歌研究人员创造了一个惊人的场景渲染AI
    原文链接:https://arstechnica.com/science/2018/06/this-amazing-google-software-can-sketch-scenes-its-never-seen-before/? 19500来自谷歌英国DeepMind子公司的新研究表明,深度神经网络具有非凡的能力来理解场景,以紧凑的格式表示,然后从网络没有的角度“想象”同一场景的样子之前见过。人类擅长推测。如果显示只有前三条腿可见的桌子的图片,大多数人直观地知道桌子可能在另一侧有第四条腿,桌子后面的墙可能与他们可以看到的部分颜色相同。通过练习,我们可以学习从另一个角度绘制场景,同时考虑透视,阴影和其他视觉效果。由Ali Eslami和Danilo Rezende领导的DeepMind团队开发了基于具有相同功能的深度神经网络的软件 - 至少对于简化的几何场景。给定一些虚拟场景的“快照”,该软件称为生成查询网络(GQN) - 使用神经网络来构建该场景的数字表示。然后,它使用该表示以一个神经网络从未见过的视角去渲染房间的图像。研究人员没有编码任何关于他们将在GQN中呈现的环境的先验知识。人类是利用多年看待现实世界物体的经验。DeepMind网络则通过检查来自类似场景的一堆图像,发展出自己类似的直觉。Eslami在周三接受电话采访时告诉我们,“我们看到它可以做一些像透视和遮挡,照明和阴影这样的事情是最令人惊讶的结果之一。” “我们知道如何编写渲染器和图形引擎,”他说。然而,DeepMind软件的显着之处在于,程序员并未 尝试将这些物理定律编码到软件中。相反,Eslami说,软件开始时的空白板块能够“通过查看图像有效地发现这些规则”。这是深度神经网络令人难以置信的多功能性的最新证明。我们已经知道如何使用深度学习来分类图像,赢得围棋比赛 ,甚至玩Atari 2600游戏。现在我们知道了他们有很强的推理三维空间的能力。DeepMind的生成查询网络如何工作这是DeepMind的简单原理图,它有助于提供关于如何将GQN组合在一起的直觉:19501在引擎盖下,GQN实际上是连接在一起的两个不同的深度神经网络。在左侧,表示网络接收表示场景的图像集合(以及关于每个图像的摄像机位置的数据),并将这些图像压缩为场景的紧凑数字表示(基本上是数字矢量)。然后是生成网络的工作来反转这个过程:从表示场景的矢量开始,接受摄像机位置作为输入,并生成该角度应该会出现的图像场景。显然,如果生成网络被给予对应于输入图像之一的摄像机位置,则它应该能够再现原始输入图像。但是该网络也可以提供其他摄像机位置 - 网络从未见过相应图像的位置。GQN能够从这些位置生成与从同一位置拍摄的“真实”图像紧密匹配的图像。“这两个网络是以端到端的方式共同培训的,”DeepMind论文中写道。该团队使用随机梯度下降的标准机器学习技术来迭代地改进两个网络。该软件将一些训练图像输入网络,生成输出图像,然后观察该图像偏离预期结果的程度。传统的神经网络使用外部提供的标签来判断输出是否正确,而GQN的训练算法使用场景图像作为表示网络的输入,并作为判断生成网络输出是否正确的方法。如果输出与所需图像不匹配,则软件反向传播错误,更新数千个神经元的数字权重以提高网络性能。然后,软件多次重复该过程,并且在每次传递时,网络在获得输入和输出图像以匹配方面会更好一些。“你可以把它想象成两个漏斗相互连接,瓶颈连接在中间,”Eslami告诉Ars。“由于这个瓶颈很紧张,两个网络学会了共同努力,以确保场景内容的紧密沟通。” 网络可以对其无法看到的区域进行有根据的猜测在训练过程中,神经网络被提供有多个图像,每个图像来自具有相似特征的一堆不同“房间”。在一个实验中,团队生成了一堆程式化的方形“房间”,其中包含多种几何形状,如球体,立方体和圆锥体。每个房间还有随意选择的光源和墙壁颜色和纹理。由于网络是根据来自多个“房间”的数据进行培训的,因此必须找到以一种概括性方式表示房间内容的方法。一旦GQN被训练,就可以为它提供来自之前没有见过的新“房间”的一个或多个图像。通过对一系列具有类似特征的其他房间进行培训,网络对于通常看起来像什么房间有很好的直觉,因此能够对房间中不可见的部分做出有根据的猜测。19502例如,GQN可以预测墙壁上的重复图案可能在被其他物体遮挡的墙壁部分上继续。它可以预测场景中的对象如何在墙壁,地板和其他对象上投射阴影。如果没有研究人员对光的物理特性或被分析场景的特征进行任何明确的规则,它就可以做到这一切。“它可以学习我们不知道如何手工学习的东西,”Eslami告诉我们。“桌子通常位于椅子旁边 - 这是我们直观地知道的事实,但难以量化和编码。神经网络可以了解到,就像它学习对象投射阴影一样。”换句话说,假设GQN用一堆家庭内部的图像进行训练,然后从之前没有见过的房子中获得图像。如果可用的图像只显示餐桌的一半,网络可能会弄清楚桌子另一半的样子 - 并且桌子旁边可能有椅子。如果楼上有一个房间大小的房间,但其内部不在其中一个图像中,网络可能会猜测它会有一张床和一个梳妆台。而这不是因为网络对桌椅或床铺的概念有所了解。从统计学上讲,桌子形状的物体往往会在它们旁边放置椅子形状的物体,而卧室形状的房间往往在它们内部有床形物体。生成查询网络非常通用DeepMind团队构建的网络可以从非常有限的数据中获取非常丰富的推论。在另一项实验中,研究人员通过向网络展示一堆随机生成的形状来训练网络,这些形状看起来像三维俄罗斯方块。在训练过程中,网络显示了一系列不同的随机生成的片段,每个片段有几个图像。一旦网络接受了培训,研究人员就会给网络提供一张以前没见过的新俄罗斯方块形状的图像。从这张单张图片中,网络通常能够从任何其他角度生成该作品的逼真三维图像:19503当然,这并不总是可行的。如果单个示例图像是从一个片段的某些片段被隐藏的角度拍摄的,那么网络就无法知道模糊片段的外观。在这种情况下,网络将随机生成与观察到的图像部分一致的许多形状之一。但是,如果示例图像中的所有片段都可见,则网络非常擅长推断片段的形状并从任何角度渲染图像。GQN可以处理令人惊讶的复杂场景。在另一项实验中,研究人员构建了三维迷宫,看起来有点像微型Doom。由于这些虚拟环境具有多个房间和通道,因此没有一个图像可以显示整个环境的一小部分。但是如果它给出了一个新迷宫的六个快照,GQN能够组装整个迷宫的精确模型 - 或至少在至少一个图像中显示的那些部分。GQN令人期待的实际应用到目前为止,我们所描述的所有实验都使用表示和生成网络来重现特定场景的图像。但研究人员还发现,网络对场景的紧缩表示- 由表示网络产生,然后由生成网络使用 。机器学习中的标准问题是控制机器人手臂以执行诸如拾球之类的简单任务。理想情况下,算法应该能够仅使用机器人当前位置的视频输入作为输入。一种称为强化学习的技术允许软件在没有来自操作员的明确指导下学习如何自主地执行这样的任务。 这不是一个新问题:机器学习研究人员在使用其他技术之前已经解决了这个问题。但DeepMind研究人员发现,GQN对机器人手臂的表示为学习过程提供了非常有用的输入。强化学习算法不是试图分析原始视频输入,而是可以使用机器人手臂位置的GQN矢量表示来理解当前情况。 “因为这个向量的维度低于原始输入图像,所以我们观察到了更加强大和数据有效的策略学习,获得了收敛级别的控制性能,与使用原始像素的标准方法相比,环境的交互量大约为四分之一。 “研究人员写道。 值得强调的是,研究人员在将其提供给强化学习算法之前,并没有以任何方式注释GQN的场景矢量表示。强化学习算法最初不会知道场景的GQN矢量表示中的值如何对应于机器人手臂的当前位置。尽管如此,使用GQN的矢量表示作为输入,通过试验和错误来学习这些信息要比使用基于原始视频源的学习更加容易。 实际的?Eslami向我们强调,这是一项远非实际应用的初步研究。它几乎完全在计算机渲染的虚拟“房间”和物体上进行了测试。它尚未在我们在现实世界中遇到的更复杂的环境中进行测试,这些技术的概括程度尚不清楚。 实际上,GQN成功的关键在于能够将复杂场景压缩成紧凑的数值表示。但这隐含地假设场景足够简单,可以用相对较少的数值来表示。但是,如果您尝试表示的典型场景中包含数十,数百或数千个对象,该怎么办?如果它们中的一些是像树木,猫和汽车这样复杂的物体呢? 在某些时候,场景可能变得太复杂而无法使用DeepMind软件所基于的紧凑数学表示来有效地表示。研究人员必须弄清楚是否可以扩展相同的技术来表示具有更多和更多变化的对象的更复杂的场景。 但是,如果这些技术可以推广到现实世界的对象- 似乎有人会想出如何做到这一点 - 可能性很诱人。自动驾驶汽车似乎是一个明显的应用。目前,自动驾驶软件在很大程度上依赖于人类开发的模型,甚至是道路场景的明确的人类注释,以了解特定场景中的哪些物体是汽车,行人,自行车,树木,建筑物等等。今天的自动驾驶软件需要这些标签,因为它们可以帮助车辆预测哪些附近物体(行人,自行车,威廉·夏特纳)可能会突然进入道路以及哪些物体(灌木丛,垃圾袋)几乎肯定会留在原地。 类似GQN的网络可以帮助自动驾驶汽车开发更多类似人类的关于驾驶情况的直觉- 可以直接从原始传感器数据中学习的直觉,而不是依靠人类在每个场景中费力地标记物体。我们无法确切地说你如何将这样的网络整合到现有的自驾车中- 比我们更聪明的人需要更多的研究。但是,我们相信这种强大的技术可以帮助自动驾驶汽车更好地了解世界。
  • web页面渲染字符串时,自动将字符串中的 url 显示成链接
    例如:输入ni haohttps://s.geekbang.orghello world页面将会展示[indent]ni haohttps://www.a.com/bcd/e?a=1&c=2hello world[/indent]就如同 SegmentFault 提问编辑器中具有功能一样。请问是怎么做到的?
总条数:44 到第
上滑加载中