-
艾伦·麦席森·图灵(英语:Alan Mathison Turing,1912年6月23日—1954年6月7日),英国数学家、逻辑学家,被称为计算机科学之父,人工智能之父。1931年图灵进入剑桥大学国王学院,毕业后到美国普林斯顿大学攻读博士学位,第二次世界大战爆发后回到剑桥,后曾协助军方破解德国的著名密码系统Enigma,帮助盟军取得了二战的胜利。1952年,英国政府对图灵的同性恋取向定罪,随后图灵接受化学阉割(雌激素注射)。1954年6月7日,图灵吃下含有氰化物的苹果中毒身亡,享年41岁。2013年12月24日,在英国司法大臣克里斯·格雷灵的要求下,英国女王伊丽莎白二世向图灵颁发了皇家赦免。图灵对于人工智能的发展有诸多贡献,提出了一种用于判定机器是否具有智能的试验方法,即图灵试验,每年都有试验的比赛。此外,图灵提出的著名的图灵机模型为现代计算机的逻辑工作方式奠定了基础。 1949年,图灵成为曼切斯特大学(University of Manchester )计算实验室的副院长,致力研发运行Manchester Mark 1型号储存程序式计算机所需的软件。1950年他发表论文《计算机器与智能》( Computing Machinery and Intelligence),为后来的人工智能科学提供了开创性的构思。提出著名的“图灵测试”,指出如果第三者无法辨别人类与人工智能机器反应的差别, 则可以论断该机器具备人工智能。1956年图灵的这篇文章以“机器能够思维吗?”为题重新发表.此时,人工智能也进入了实践研制阶段。图灵的机器智能思想无疑是人工智能的直接起源之一。而且随着人工智能领域的深入研究,人们越来越认识到图灵思想的深刻性:它们如今仍然是人工智能的主要思想之一。1931年,图灵考入剑桥大学国王学院 ,由于成绩优异而获得数学奖学金。在剑桥,他的数学能力得到充分的发展。1935年,他的第一篇数学论文“左右殆周期性的等价”发表于《伦敦数学会杂志》上。同一年,他还写出“论高斯误差函数”一文。这一论文使他由一名大学生直接当选为国王学院的研究员,并于次年荣获英国著名的史密斯(Smith)数学奖,成为国王学院声名显赫的毕业生之一。1936年5月,图灵向伦敦权威的数学杂志投了一篇论文,题为《论数字计算在决断难题中的应用》。该文于1937年在《伦敦数学会文集》第42期上发表后,立即引起广泛的注意。在论文的附录里他描述了一种可以辅助数学研究的机器,后来被人称为“图灵机”,这个设想最有变革意义的地方在于,它第一次在纯数学的符号逻辑,和实体世界之间建立了联系,后来我们所熟知的电脑,以及还没有实现的“人工智能”,都基于这个设想。这是他人生第一篇重要论文,也是他的成名之作。1937年,图灵发表的另一篇文章“可计算性与λ可定义性”则拓广了丘奇(Church)提出的“丘奇论点”,形成“丘奇-图灵论点”,对计算理论的严格化,对计算机科学的形成和发展都具有奠基性的意义。1936年9月,图灵应邀到美国普林斯顿高级研究院学习,并与丘奇一同工作。在美国期间,他对群论作了一些研究,并撰写了博士论文。1938年在普林斯顿获博士学位,其论文题目为“以序数为基础的逻辑系统”,1939年正式发表,在数理逻辑研究中产生了深远的影响。1938年夏,图灵回到英国,仍在剑桥大学国王学院任研究员,继续研究数理逻辑和计算理论,同时开始了计算机的研制工作。二战经历第二次世界大战打断了图灵的正常研究工作,1939年秋,他应召到英国外交部通信处从事军事工作,主要是破译敌方密码的工作。由于破译工作的需要,他参与了世界上最早的电子计算机的研制工作。他的工作取得了极好的成就,因而于1945年获政府的最高奖——大英帝国荣誉勋章(O.B.E.勋章)。1945年,图灵结束了在外交部的工作,他试图恢复战前在理论计算机科学方面的研究,并结合战时的工作,具体研制出新的计算机来。这一想法得到当局的支持。同年,图灵被录用为泰丁顿(Teddington)国家物理研究所的研究人员,开始从事“自动计算机”(ACE)的逻辑设计和具体研制工作。这一年,图灵写出一份长达50页的关于ACE的设计说明书。这一说明书在保密了27年之后,于1972年正式发表。在图灵的设计思想指导下,1950年制出了ACE样机,1958年制成大型ACE机。人们认为,通用计算机的概念就是图灵提出来的。1945年到1948年,他在英国国家物理实验室工作,负责自动计算引擎的研究。跑步比赛中的图灵跑步比赛中的图灵1946年的8月,图灵参加了他正式跑步训练后的第一个比赛。那是在他加入沃尔顿田径俱乐部后参加的3英里(4.8公里)比赛,图灵以15分37秒的成绩夺得第一,这一成绩当年在英国排名第20位。1947年,在莱斯特郡拉夫堡(Loughborough)大学体育场举行的英国业余田径协会马拉松锦标赛上,图灵跑出了他在马拉松赛中的个人最好成绩2小时46分03秒,在那场比赛中列第五名。 [3] 1948年,图灵接受了曼彻斯特大学的高级讲师职务,并被指定为曼彻斯特自动数字计算机(Madam)项目的负责人助理,具体领导该项目数学方面的工作,作为这一工作的总结。1949年成为曼彻斯特大学计算机实验室的副主任,负责最早的真正意义上的计算机——“曼彻斯特一号”的软件理论开发,因此成为世界上第一位把计算机实际用于数学研究的科学家。1950年,图灵编写并出版了《曼彻斯特电子计算机程序员手册》(The programmers’handbook for the Manchester electronic computer)。这期间,他继续进行数理逻辑方面的理论研究。并提出了著名的“图灵测试”。同年,他提出关于机器思维的问题,他的论文“计算机和智能(Computingmachiery and intelligence),引起了广泛的注意和深远的影响。1950年10月,图灵发表论文《机器能思考吗》。这一划时代的作品,使图灵赢得了“人工智能之父”的桂冠。1951年,由于在可计算数方面所取得的成就,成为英国皇家学会会员,时年39岁。1952年,他辞去剑桥大学国王学院研究员的职务,专心在曼彻斯特大学工作.除了日常工作和研究工作之外,他还指导一些博士研究生,还担任了制造曼彻斯特自动数字计算机的一家公司——弗兰蒂公司的顾问。1952年,图灵写了一个国际象棋程序。可是,当时没有一台计算机有足够的运算能力去执行这个程序,他就模仿计算机,每走一步要用半小时。他与一位同事下了一盘,结果程序输了。后来美国新墨西哥州洛斯阿拉莫斯国家实验室的研究群根据图灵的理论,在MANIAC上设计出世界上第一个电脑程序的象棋。
-
这次做《对抗示例生成》吧。打开 https://www.mindspore.cn/tutorials/zh-CN/r1.3/intermediate/image_and_video/adversarial_example_generation.html 页面,看样子似乎支持cpu下运行,而且支持MindSpore 1.3,而这个,张小白在做小Mi老师的作业中刚刚弄好这个环境:https://bbs.huaweicloud.com/forum/forum.php?mod=redirect&goto=findpost&ptid=154274&pid=1334908&fromuid=70062所以很简单,先下载这个Notebook,将其拷贝到 D:\ipynb目录下去,然后在jupyter lab中执行。。。开始跑跑看吧:首先,是老错误。但是,验证能通过,所以这关应该算是过了吧。(后来发现并不算)然后下载数据集:报了wget不存在,文件夹也不存在。张小白也没时间去安装个wget,就做了两件事:手工建目录:并将wget的内容统统在浏览器上打开,下载这四个数据集的文件:然后将下载好的文件集放到相应的目录下:训练集:测试集:攻击准备,将device_target改为CPU:依次执行训练LeNet的脚本:。。。又报了ds没定义。而ds应该是前面加载什么模块失败导致没import进去的吧。。。。张小白感觉用现在的Mindspore 1.3是不行的。今天专家说mindspore 1.4解决了这个bug,那就重装1.4吧。到Mindspore的官网 https://mindspore.cn/versions 找到1.4.1 CPU版本的下载链接:https://ms-release.obs.cn-north-4.myhuaweicloud.com/1.4.1/MindSpore/cpu/x86_64/mindspore-1.4.1-cp37-cp37m-win_amd64.whl 将mindspore 1.3的安装指令对应的文件名换为刚才1.4.1的文件名:pip install https://ms-release.obs.cn-north-4.myhuaweicloud.com/1.4.1/MindSpore/cpu/x86_64/mindspore-1.4.1-cp37-cp37m-win_amd64.whl --trusted-host ms-release.obs.cn-north-4.myhuaweicloud.com -i https://pypi.tuna.tsinghua.edu.cn/simple好像报错了,需要加个--user参数安装:这回安装成功了。重新打开JupyterLab:jupyter lab --no-browser复制链接,浏览器重新进入JupyterLab:这回mindspore的验证倒是没报错。专家说的都对。。。下面需要重做除了下载数据集的所有步骤。攻击准备:依次执行脚本,直到开始训练LeNet网络:这回顺利训练成功了1个epoch,看一下精度:0.9644.checkpoint文件也生成了:根据文档操作:运行实现FSGM攻击的相关脚本:。。。运行攻击:eps=0时的效果:eps设置成0.5:此时,精度为0.469250。。。看下实际的效果:要装 matplotlib:!pip install matplotlib -i https://pypi.tuna.tsinghua.edu.cn/simple重新执行脚本看效果:可见生成了攻击后加入噪声的图片,这就算是完成了挑战作业。最后附上修改后的ipynb文件(想用脚本试验的曼友们可以将ipynb.txt改名为ipynb文件,放入jupyterlab的目录下就可以运行了)邮箱:zhanghui_china2020@163.com(全文完,谢谢阅读)
-
AI识别 新开发的SickZil-Machine可以AI识别,一键去字,省力省时间。 AI识别图中的文字呈现红色,这一操作被称为mask,也就是创建蒙版,相当于给文字部分盖上面罩。调节 非文字部分被错误识别出来的话还可以手动调节。 调节完成后红色的文字部分被擦除,AI在这时候还可以智能还原被擦除的背景。数据模型 AI文本识别的功能基于SegNet和CompNet两个数据模型。 SegNet负责识别文本区域,CompNet负责删除文本区域,最终输出没有文字的漫画原图。SegNet的灵感来自U-net 图像分割技术,该技术最初是用在医学图像领域,但其性能和结果都很好,也被用在了其它很多领域里。预期 目前ComgNet已经练习了3万多张图,识别的精确度已经达到了较高水平,开发者KUR Creative也在继续努力减少软件识别误差。 除了提高文本识别的精确度,开发者也在开发自动排版功能,并进一步完善软件数据库。
-
合作 华为云与深圳交警实现合作之后,可以让驾车者借助“润物细无声”的科技力量,享受智慧交通的便利。每次出门少在路上堵个十分钟,就能回家多陪陪家人。深圳交警携手华为云EI(企业智能)以深圳过往通行效率较低的部分路口作为首批试点,在人工智能、大数据、物联网、边缘计算等技术的协同下,通过感知交通流量与事件,能依据即时交通状况对信号灯进行实施智能控制,实现了从“车看灯,读秒数通行”到“灯看车,按车数放行”的提升和转变,从而大幅减少交通拥堵。开放 华为云EI将AI的技术积累,以云服务的方式开放出来 凭借领先的全栈全场景AI能力,华为于2019年8月入选国家新一代人工智能开放创新平台。基于华为的全栈全场景AI能力,华为云EI(Enterprise Intelligence)面向各行各业将华为多年在人工智能领域的技术积累,以云服务的方式开放出来。 截至2020年6月底,华为云EI可提供60款人工智能服务(平台类、视觉类、语音类、决策类),160项功能(平台功能、APIs,行业预集成方案),面向行业领域的AI能力,还在持续加强与更新。围绕老百姓生活的衣食住行的“行”这一方面,华为云EI还有诸多代表性的落地案例。华为云与深圳机场开展合作,基于人工智能等技术,完成智慧机位分配、智慧助航灯、地勤可视化等联合创新项目。其中,智慧机位分配是基于大数据和AI实现机位资源调优,从而提高廊桥机位的使用效率,降低旅客乘坐摆渡车的时间。城市智能 不仅在深圳,借助华为云EI城市智能体的支持,天津生态城核心区域“彩虹桥”附近主要片区在早高峰总车流量不变的情况下,主干道车辆完成18%的平均车速提升,早高峰期间的道路排队溢出次数减少60%,早高峰提前10分钟至15分钟结束,民众可明显感知到出城时间缩短了,道路更加通畅了。
-
本文分享自华为云社区《[语音情感识别的应用和挑战](https://bbs.huaweicloud.com/blogs/297370?utm_source=csdn&utm_medium=bbs-ex&utm_campaign=ei&utm_content=content)》,作者:SSIL\_SZT\_ZS。 情感在人与人的交流中扮演者重要的角色。情感识别具有极大的应用价值,成功的检测人的情感状态对于社交机器人、医疗、教育质量评估和一些其他的人机交互系统都有着重要意义。本文的要点有: 1、情感识别的基础知识和应用场景。 2、语音情感识别技术的介绍以及面临的挑战。 3、如何解决数据缺乏问题,我们的方案是什么。 ## 1.什么是情感识别? 情感是人对外部事件或对话活动的态度。人的情感一般分为:高兴、生气、悲伤、恐惧和惊喜等。机器对采集的信号进行分析,从而得到人的情感状态,这一过程就是情感识别。通常,能用来进行情绪识别的信号包括两个方面,一个是生理信号如呼吸、心率和体温,另一个是行为表现包括面部表情、语音和姿态等等。人脸与语音得益于简单的采集方式,经常被用来识别对象的情感。情感识别能帮助系统了解对象的情感状态以及其对某个话题或事务的态度。 在人工智能(AI)产品和人的交互过程中,如果能够准确地把握人当前的情感状态,根据情感状态做出回应,可以极大地提升用户对AI产品的体验。这在商品推荐,舆论监控,人机对话等方面都有着重要的意义。例如,在销售过程中,了解用户对商品的满意度,可以帮助平台制定更好的销售策略;在影视行业,了解观众对节目的喜怒哀乐,能帮助制定更精彩的剧情以及安排特定节目的上线时间;在人机对话中,掌握人的情感状态可以帮助智能机器人做出恰当的回复,并适时地表达安抚和谅解,提升用户体验;在舆论方面,行政部门通过了解群众对热门事件的情感倾向、掌握舆论导向,从而更及时有效的进行舆情监控,为制定政策提供支持。情感识别还能应用于许多现实的场景中。情感识别算法具有很高的研究价值。 考虑到采集难度、隐私等因素,本文的工作聚焦于使用语音来识别说话人情感的语音情感识别(SpeechEmotionRecognition,SER)任务。 ## 2.语音情感识别技术介绍 语音是日常生活中交流的主要媒介,它不仅传达了思想,还表达了说话人的情感状态。语音情感识别的目标是从语音中识别出人类的情感状态。其主要包含两个步骤:特征提取与分类器构建。 音频信号输入是近似连续的数值。提取音频特征通常首先对音频进行分帧,加窗,进行短时傅里叶变换(STFT)。然后得到了维度为T\\timesD_T_×_D_的频谱特征,其中T_T_表示帧数与时间长度相关,D_D_是特征维度,每个维度对应不同的频率。有一些工作也会对此频谱进行一些mel滤波操作。  频谱特征包含丰富的信息,比如说话内容、节奏、语气、语调等等。与情感相关的语音特征提取仍然是一个尚未成熟研究方向。深度学习的出现简化了人工特征提出过程,使用数据驱动的方法,利用情感标签作为监督信号来训练深度模型提取与情感相关的隐含语义特征。由于音频输入的序列化特点,深度特征提取通常也有基于CNN/GRU/LSTM方法,或者基于CRNN或CNN+Attention的方法。 传统的机器学习方法可以基于人工语音特征或者深度语音特征构建分类器,例如高斯混合模型(GMM),隐马尔科夫模型(HMM),支持向量机(SVM)等经典方法。此外,得益于深度学习的发展,基于神经网络的分类器可以与深度特征提取器一起端到端(end-to-end)训练,得到情感分类器。 ## 3.语音情感识别面临的挑战 我们前面介绍了语音情感分析中常用的方法,但语音情感识别在实际中也面临着一些挑战: 1. 情感主观性与模糊性问题:语音情感识别是一个比较年轻的领域,在情感定义上缺乏官方标准。不同听者对同一段语音的情感可能有不同的观点。此外,一段语音往往有情感变化,主观性较强,导致许多研究工作没有普适性。 2. 情感特征提取和选择问题:语音说话人各种各样,情感类别多变,语音片段长短不一等,这些问题导致人工设计特征无法涵盖全部情感信息。另一方面,深度特征虽然效果好,但不具有可解释性。 3. 标注数据缺乏问题:深度学习方法取得很好的性能要求大量的高质量的标注数据。由于情感的主观性与模糊性,标注语音情感非常费时费力,同时要求大量专业人员。收集大量情感标注数据,是语音情感识别领域亟需解决的问题。 ## 4.如何解决数据缺乏的问题? 数据是深度学习的驱动力,大规模高质量的数据是深度学习取得成功的关键。然而,在很多实际问题中,由于标注代价问题,只存在少量的标注数据,这严重限制深度学习方法的发展。随着互联网社交平台的发展,每天都回生产大量的多媒体数据,大规模无标注的数据很容易获得。这就促进了能同时使用标注数据和无标注数据的半监督学习(Semi-SupervisedLearning)方法的发展。另一方面,多媒体数据通常情况下都包含多个模态,因此也有一些工作探索利用一个模态的标注知识去加强在另一个模态上的任务的效果。下面介绍这两种方法。 ### 4.1半监督学习 半监督学习一般有两个数据集,一个小规模的有标注数据集,一个大规模的无标注数据集。其目的是利用无标注数据来增强,监督学习的效果。经典半监督学习方法包含很多类别,例如self-training(自训练算法),generativemodels(生成模型),SVMs(半监督支持向量机),graph-basedmethods(图论方法),multiviewlearing(多视角算法)等等。下面介绍几类主要半监督学习方法。 - 简单自训练算法(self-training) self-training算法的步骤为:(1)首先利用标注训练集数据训练分类器;(2)利用分类器对无标注数据进行分类,并计算误差;(3)选择分类结果中误差较小的样本,将分类结果作为其标签,加入到训练集。循环次训练过程,直到所有的无标注数据被标注。 - 多视角学习(multiviewlearing) 这是self-training算法的一种。其假设每个数据可以从不同的角度进行分类。算法步骤如下:(1)在角度用标注数据集训练出不同的分类器;(2)用这些分类器从不同的角度对无标注数据进行分类;(3)根据多个分类结果来选出可信的无标签样本加入训练集。循环前面的训练过程。此方法的优点是不同角度的预测结果可以相互补充,从而提高分类精度。 - 标签传播算法(LabelPropagationAlgorithm) 标签传播算法是一种基于图的半监督算法,通过构造图结构来找无标签数据和有标签数据之间的关系,然后通过这个关系来进行标签传播。 在深度学习上的半监督学习方法,叫做半监督深度学习。半监督深度学习主要包括三类:Fine-tune;基于深度学习的self-training算法;半监督的方式训练神经网络。 Fine-tune方式,利用无标签数据训练网络(重构自编码或基于伪标签训练),然后使用有标签数据在目标任务上进行微调。 基于深度学习方法的self-training,基本的步骤:(1)利用有标注数据训练深度模型;(2)利用深度模型作为分类器或者利用深度特征对无标签数据进行分类;(3)选择执行度高的加入有标签训练集,重复此过程。 半监督的方法训练深度网络包含许多技术,例如Pseudo-Label\[1\],LadderNetworks\[2\],TemporalEnsembling\[3\],Meanteachers\[4\]还有FixMatch等等。下面我们介绍几个主要的工作。 1.Pseudo-Label方法\[1\] 此方法将网络对无标签数据的预测结果,作为无标签数据的标签,来训练网络。方法虽然简单,效果却很好。从下图我们可以看出,加了无标签数据之后,同一个类别的数据点聚集得更笼了。  2.TemporalEnsembling\[3\] TemporalEnsembling是Pseudo-Label方法的发展。其目标是构造更好的伪标签。下图给出了此方法的结构图,此方法有两种不同的实现,即π_π_\-model和temporalensembling。  π_π_\-model的无监督代价是对同一个输入在不同的正则或数据增强的条件下模型输入应具有一致性,这样可以鼓励网络学习数据内部的不变性。 Temporalensembling对每一次迭代的预测z\_i_zi_进行移动平均得个\\hat{z\_i}_zi_^作为无监督训练的监督信号。 3.Meanteacher\[4\] Meanteacher方法另辟蹊径,从模型的角度提高伪标签质量,其奉行“平均的就是最好的”原则。对每次迭代之后的student模型参数进行移动平均(weight-averaged)得到teacher模型,然后用teacher模型来构造高质量的伪标签,来监督student模型的无标签loss。 4.FixMatch\[5\] FixMatch发扬了TemporalEnsembling方法中的一致性正则化(consistencyregularization)原则,即同一个样本的不同增广,模型应该得到一致的结果,从而学习数据内部的不变性。因此FixMatch方法利用弱增广的样本生成一个伪标签,利用此伪标签来监督模型对强增广样本的输出。 ### 4.2跨模态知识迁移 跨模态知识迁移基于多媒体数据中各个模态之间的内在联系,将标注信息由一个模态向目标模态迁移从而实现数据标注。如下图所示,跨模态知识迁移包括视觉到语音的迁移,文本到图像的迁移等等。下面介绍几种经典的跨模态知识迁移工作。  1.基于跨媒体迁移的图像情感分析\[6\] 此方法利用推特上成对的文本图像数据,完成图像情感分析任务,具体步骤如下图。  其使用训练好的文本情感分类器,对文本进行情感分类,然后将标签直接给对应的图片。然后使用具有伪标注的图片训练图片情感分类器。 2.SoundNet\[7\]  通过预训练的视频对象和场景识别网络实现从视觉模态到语音模态的知识迁移,利用迁移的标签训练语音模型,完成语音场景或语音对象分类。 3.EmotionRecognitioninSpeechusingCross-ModalTransferintheWild\[8\]  此方法利用预训练好的人脸情感识别模型作为teacher模型,然后利用teacher模型的预测结果来训练语音情感识别模型。 ## 5.我们的语音情感识别方案 这一节将介绍我们处理标注数据缺乏的方案。 ### 联合跨模态知识迁移与半监督学习方法 为了解决语音情感识别领域数据缺乏的问题,我们在2021年提出了联合跨模态知识迁移与半监督学习的架构,该方法在CH-SMIS以及IEMOCAP数据集上取得了语音情感识别任务当前最优的结果,同时我们将此工作发表在SCI一区期刊knowledge-basedsystem上发表论文Combiningcross-modalknowledgetransferandsemi-supervisedlearningforspeechemotionrecognition。下面是我们的方案的架构图:  我们的方案基于两个观察: 1. 直接跨模态标签迁移存在误差,因为人脸情感与语音语音情感之间的关系十分复杂,并不是完全一致。 2. 半监督学习方法,标注数据很少的情况下,表现并不好。模型的预测错误可能会不断的得到加强,导致模型在某些类别上精度很低。 我们的方法收到了多视角学习思路的启发,利用视频数据中存在两种模态,在两个模态上识别情感,融合它们获得更加准确的伪标签。为了进行语音情感识别,本方案首先提取了语音的STFT特征,然后进行了Specaugment数据增广。因为Transformer在建模序列数据的成功,本方案采用了Transformer的encoder进行语音的编码,最后利用均值池化来得到语音特征并分类情感。 ### 跨模态知识迁移 为了进行跨模态情感迁移,本方案基于MobileNet模型利用大量的人脸表情数据集训练了一个性能强大的人脸表情识别模型。使用此模型对从视频中抽取的图片帧进行人脸表情识别。然后将多个帧识别的结果综合到一起得到整个视频段的人脸表情预测结果。 ### 半监督语音情感识别 受到FixMatch中一致性正则化假设的启发,我们设计了半监督语音情感识别方法。具体的,此方法对语音样本输入采取了两种类型的增广,利用强增广方法SpecAugment算法获得到语音严重扭曲版频谱特征,利用弱增广方法(特征上的dropout等)得到变化不大的语音特征。模型使用弱增广的样本生成伪标签,来监督强增广的样本的训练。 ### 结合半监督学习与跨模态知识迁移 在模型的每一次迭代中,本方法利用弱增广样本生成一个伪标签,然后将其与跨模态迁移的伪标签进行融合,以提高伪标签的质量。本工作探索了两种融合方法,一个是加权求和,一个是多视角一致性。得到高质量的伪标签之后,用此标签监督强增广样本的训练。 模型通过多次迭代,不断提升伪标签质量。 相对于半监督学习方法和跨模态方法,本方法在CH-SIMS和IEMOCAP数据集上均取得了最好的效果。结果如下:   ## 参考文献 \[1\]Pseudo-Label:TheSimpleandEfficientSemi-SupervisedLearningMethodforDeepNeuralNetworks \[2\]Semi-SupervisedLearningwithLadderNetworks \[3\]TemporalEnsemblingforSemi-supervisedLearning \[4\]Meanteachersarebetterrolemodels:Weight-averagedconsistencytargetsimprovesemi-superviseddeeplearningresults \[5\]FixMatch:SimplifyingSemi-SupervisedLearningwithConsistencyandConfidence \[6\]Cross-MediaLearningforImageSentimentAnalysisintheWild \[7\]SoundNet:LearningSoundRepresentationsfromUnlabeledVideo \[8\]EmotionRecognitioninSpeechusingCross-ModalTransferintheWild
-
10年前你能想到,人工智能会如此迅猛而快速的充斥于自己的生活吗?无人驾驶的汽车轻松躲避障碍物;智能交通信号灯根据路况实时调整信号颜色;路灯上传路面信息、空气质量、噪音水平等数据到云端帮助城市管理……随着人工智能的应用场景越来越多,传统的AI算力难以满意日益增长的需求,人工智能计算中心便成为了填补这个巨大鸿沟的关键所在。人工智能计算中心为城市提供AI大脑人工智能计算中心是什么?人工智能计算中心以昇腾AI基础软硬件平台为基础,涵盖了从基建、硬件到软件基础设施的大规模系统工程。不论是政府、企业,还是高校和科研机构,都能从人工智能计算中心获得普惠算力。换一个角度来看,单独一个计算中心只提供算力,但要是和其他产业链条相结合呢?这样一来,作为城市的AI大脑,人工智能计算中心的作用可就更大了。在科技部的指导下,各个城市依托这“一个中心”打造公共算力服务平台、应用创新孵化平台、产业聚合发展平台、科研创新和人才培养平台,形成“一中心四平台”的产业布局。可以窥见,人工智能计算中心在未来很长一段时间内都会是各城市发展的重要技术底座,与整个城市的智能化、产业化息息相关。而在武汉和西安,这样的项目已经陆续开花。每秒10亿亿次计算速度 武汉率先打造“神算子”荆楚大地、九省通衢——武汉这座英雄城市,率先落地人工智能计算中心,从进场施工到正式运营仅5个月,成为科技部批复的15个国家人工智能创新发展试验区中最早落地的一个。武汉人工智能计算中心提供的算力高达100P,相当于每秒十亿亿次的计算速度,堪称“神算子”,而投运当天算力负荷便达到了90%,随后迅速进入满负荷状态。在这一新兴基础设施的助力下,武汉的多个产业在人工智能时代跑出了新的加速度:科研创新方面,武汉大学联合华为,基于武汉人工智能计算中心打造全球首个遥感专用框架武汉.LuojiaNet,针对“大幅面、多通道”遥感影像,在整图分析和数据集极简读取处理等方面实现了重大突破。中科院自动化所借助武汉人工智能计算中心打造了全球首个三模态预训练大模型“紫东.太初”,进一步完善了以图生音、以音生图的技术和表现,实现了图文音语义的统一表达。在智慧城市、安全生产领域,倍特威视已有170+算法,同时,模型迭代训练任务已迁移到武汉人工智能计算中心。这样一来,算法的迭代速度比独立部署训练服务器提升10倍。通过应用创新孵化平台,库柏特将智能机器人运用于智慧医疗领域,打造出全球首创的机器人补药系统,将药品分拣时长从50秒缩短至3秒,提升药师工作效率的同时,也普惠于广大病患。依托人工智能计算中心提供的算力,长江计算率先孵化智能制造解决方案,完成智能制造算法训练,实现检测准确率提高10%,约2小时完成产线算法更换与迭代,大幅提高企业生产效率和经营效益。……目前,武汉人工智能计算中心已为40家企业、4家高校与科研院所提供算力和产业服务,而这些仅仅是一个开始。打造西部“最强大脑” 西安布局未来产业城9月9日,西安未来人工智能计算中心正式上线,这是西北地区第一个人工智能计算中心。中心机房采用华为预制模块化方案建设,算力平台基于昇腾AI基础软硬件平台,将提供精准可靠的模型训练及推理。而它的应用场景更为广泛——自动驾驶、智慧医疗、智慧城市、智慧交通、智慧矿山等多种场景。西安未来人工智能计算中心一上线,便签约了众多项目——西安电子科技大学遥感项目、西北工业大学语音大模型项目、陕西师范大学“MindSpore研究室”等,充分发挥“中心”定位与科技价值,快速推动规模化的项目合作与发展。西安未来人工智能计算中心将是西北地区向人工智能迈进的一个重要里程碑,在助力雁塔区“一区五城一根本”的战略布局,支撑大西安“6+5+6+1”现代产业体系发展的同时,大力强化西安乃至整个西北地区的人工智能产业集群,为西北人工智能产业的高质量发展提供强有力的科技支撑。除了武汉、西安之外,中原人工智能计算中心正在建设中;大连、南京等多个城市都已在筹备建设。未来,华为将汇聚各方力量,大力发展以人工智能计算中心为代表的新型城市基础设施,让AI算力像水和电一样,成为新型的城市公共资源,让智能触手可及。人工智能计算中心还有哪些新的研究成果?未来将如何发展?9月23-25日的华为全联接2021,等你来揭晓!
-
9月16日,在苏州举办的2021全球人工智能产品应用博览会上,华为人工智能计算中心解决方案(简称“人工智能计算中心”)凭借出色的人工智能计算能力与产业赋能能力,荣获“2021全球人工智能产品应用博览会产品金奖”。人工智能计算中心是专注于AI计算的新型城市基础设施,以普惠算力为科研创新与数字经济提供新动能,通过提供Atlas系列硬件、异构计算架构CANN、全场景AI框架MindSpore、应用使能MindX、AI开发平台ModelArts等人工智能全栈能力,具备极致性能、快速交付、持续运营等一系列优势。依托人工智能计算中心,打造公共算力服务平台、应用创新孵化平台、产业聚合发展平台、科研创新和人才培养平台,形成“1中心+4平台”的人工智能产业布局,同时,配套建设昇腾人工智能生态创新中心,以提供辅助运营服务和生态服务,驱动新产业的孵化、促进科技创新和产业升级。目前,人工智能计算中心已在多省市落地应用,其中武汉人工智能计算中心已经为40家企业、4家高校与科研院所提供算力和产业服务,并已开始进行二期扩容;西安未来人工智能计算中心已签约西安电子科技大学遥感项目、西北工业大学语音大模型项目、陕西师范大学“MindSpore研究室”等项目,助推西北人工智能产业的高质量发展。此外,全国共有20多个城市正在积极布局人工智能计算中心。华为将汇集各方力量,大力发展以人工智能计算中心为代表的新型基础设施,推动人工智能产业发展,让智能无所不及。
-
【中国,苏州,2021年9月16日】今天,在第四届全球人工智能产品应用博览会(以下简称“2021全球智博会”)首日,华为云盘古大模型凭借多项突破性技术创新以及对千行百业AI工业化的推动,荣获“智博会产品金奖”。华为云盘古大模型荣获第四届全球人工智能产品应用博览会产品金奖 全球人工智能产品应用博览会是国内首个在国家《新一代人工智能发展规划》旗帜下的综合性展会,由苏州市人民政府和新一代人工智能产业技术创新战略联盟联合主办,是国家新一代人工智能开放创新平台的唯一集中展示窗口。“智博会产品金奖”是博览会的重磅奖项之一。大会组委会围绕计算引擎、数据资源、人工智能算法等角度,综合考量了参选产品的创新性、先进性和产业化实际应用进展等要素,在行业龙头、业界领军人物、投资人、创业者以及众多权威媒体的关注下,由评审专家和网络用户综合投票产生。当前,深化大数据、人工智能等研发应用,壮大数字经济已成为社会共识。然而很多企业与开发者在应用人工智能技术时仍面临诸多挑战,原因之一是企业和开发者往往需要针对每个模型完成模型选择、数据处理、模型优化、模型迭代等一系列环节,开发效率低,难于泛化和复制。华为云盘古大模型旨在降低人工智能开发的门槛和成本,建立一套易用且通用的开发工作流,让传统的“作坊式开发模式”走向新的“工业化开发模式”。华为云人工智能领域首席科学家田奇表示:“通过与行业知识相结合,华为云盘古大模型突破性地实现了AI模型的通用性、泛化性和可复制性,一个模型可适配多个场景;相比传统开发模式,华为云盘古大模型开发效率可提升10~100倍,并在超过100个实际场景中平均节省了80%以上的研发成本。”华为云盘古大模型包括自然语言处理(NLP)、计算机视觉(CV)、多模态和科学计算四大系列,其核心是基于大量数据,利用深度学习技术,打造一个拥有超大规模参数、具备超高精度的预训练模型。其中,盘古NLP大模型是业界首个千亿参数的中文预训练大模型,首次使用Encoder-Decoder 架构,兼顾NLP理解与生成的能力,在CLUE榜单上中文理解能力接近人类水平。盘古CV大模型在业界首次实现了模型的按需抽取,根据不同部署环境的运行要求可以自动抽取出的适合的模型,模型差异动态范围可达三个数量级;提出基于样本相似度的对比学习,在ImageNet数据集上小样本学习能力业界第一。盘古大模型拥有30多项专利申请,获得了十多项业界挑战赛冠军。目前,盘古大模型已应用于金融、工业、电力、零售、政务等多个行业、100多个场景,促进了人工智能在千行百业的批量化落地应用。例如,盘古大模型助力国网重庆永川公司智能电力巡检项目的数据筛选效率提升30倍、在金融机构企业异常行为检测项目中实现了90%以上的检测准确率、在医疗尘肺检测项目中将病例识别准确率提升22%。未来,盘古大模型还将落地更多项目,使更多的行业、企业及开发者能够以更低成本进行人工智能实践,让人工智能更快、更好、更安全地走进人们的生产生活,不断提升人民群众幸福感和安全感。
-
近日,在“世界阿尔茨海默病日(9月21日)”即将来临之际,由北京邮电大学、华为云、慧脑云、中国图象图形学学会脑图谱专业委员会、阿尔茨海默病防治协会影像学分会联合举办的“PRCV 2021阿尔茨海默病分类技术挑战赛”成功落下帷幕。本次大赛旨在提高基于影像的阿尔茨海默病早期识别准确性,推动脑科学、医学影像等智慧医疗产业发展,促进机器学习、深度学习等人工智能技术在智慧医疗中的落地应用。华为云为本次大赛的参赛者提供了总计超十万元的云计算资源。同时,大赛优胜方案将有机会获得华为云提供的专项资源来支持项目转化,并集成到“华为云AI脑科学平台”脑疾病辅助筛查专区。比赛期间,共有373支队伍、1015名选手在华为云AI大赛平台报名参赛。其中,85%的参赛选手来自国内外200余所科研机构,包括清华大学、北京大学、中国科学院大学、北京邮电大学、牛津大学、哥伦比亚大学、多伦多大学等,遍布中、美、英、澳、加等7个国家。硕士、博士比例超过半数。大赛组委会以测试集上的macro F1-score为依据,对队伍所提交的模型进行评分、排名。经评估,来自北京大学基础医学院的“邵世豪-崔庆华导师组”队伍以0.7033的分数位居第一,夺得冠军,其余16支队伍分别获得季军、亚军和优秀奖项。组委会将在第四届中国模式识别与计算机视觉大会(PRCV 2021)期间,于北京国际会议中心举行大赛颁奖仪式。“PRCV 2021阿尔茨海默病分类技术挑战赛”获奖名单 作为本次挑战赛的唯一举办平台,华为云AI大赛平台公开了从2600位被试者中提取出的经脱敏处理的多中心、多脑图谱的脑影像特征数据的训练集。千余名参赛者基于训练集中的灰质体积和平均皮层厚度数据,使用了AAL、Gordon、MIST、Schaefer等脑图谱,利用华为云一站式AI开发平台ModelArts的能力,实现了从数据获取、模型搭建、模型部署,到模型判分等环节的一站式开发,探索能够用于阿尔茨海默病早期诊断的影像学标志,突破脑疾病影像数据的研究和应用现状。后续,基于ModelArts开发的华为云医学影像和脑科学平台,将给广大用户提供一系列AI+HPC赋能的脑影像和脑电分析处理模块,支撑研究及开发人员在脑疾病筛查、类脑计算、脑机交互等领域的高效创新,助力成果转化。北京邮电大学人工智能学院刘勇教授表示,本次挑战赛不仅是PRCV 2021的官方赛事之一,同时也是利用机器学习、深度学习等人工智能技术解决阿尔茨海默病识别问题的一次创新性尝试,为新技术在智慧医疗中的落地与应用提供了可参考的有效路径。这个过程也验证了基于华为云一站式AI开发平台ModelArts和脑科学平台赋能脑科学研究的有效性和先进性。冠军团队代表、北京大学基础医学院博士生邵世豪表示,从医学角度来看,一个细胞的分裂、分化乃至衰老,都涉及到极其复杂的代谢逻辑,这正好与人工智能技术的所长相符,这次大赛是团队将脑科学与人工智能技术结合的一次成功实践。华为云一站式AI开发平台ModelArts在开发和部署阶段提供了更高的资源配置、更快的读写速度,数据资源无需在开发环境手动挂载即可访问,方便科研工作者在线上进行快速开发;同时提供了更稳定的访问性能,支撑科研工作的可靠性。团队将基于本次赛事的设计成果,继续实验人工智能与医疗相结合的泛化性,希望将人工智能技术更好地应用于智慧医疗领域。 更多大赛信息,请访问:https://competition.huaweicloud.com/information/1000041489/introduction
-
分析 生物特征识别就是采用某种技术和手段对人的身份进行标识,从而依据该标识对人进行身份识别,以达到监督、管理和控制目的的一种技术。用于身份识别和个人信息管理的技术和手段层出不穷,传统的个人信息鉴定方法包括个人特征。如身份证、工作者、学生证、磁卡、智能卡、口令密码等,这些分身验证方法普遍存在易丢失、易破解、易伪造、不易携带等缺点,而且在安全性和鉴定速度方面也已经不能满足人们的需求,这些技术虽然方便快捷,但其致命的缺点是安全性差、易伪造、易窃取等。近年来,计算机的广泛应用使得生物特征识别进行身份识别成为可能。生物特征 生物特征识别的方法越来越多地被应用于身份识别领域。生物特征识别技术(Biometric Identification Technology)是指**固有的特征为判别标准,达到精确鉴定人身份的技术。这些固有特征包括人脸、虹膜、指纹、掌纹等,也被称为生物模态。这些特征除了外伤等特殊情况下一般会伴随人的一生,而不会改变或者变化很小。生物识别技术对每个个体都具有随身携带性和持久性;对不同个体具有普遍性和唯一性等优于传统身份识别的特点。基于人类生物特征的识别技术具有安全可靠、特征唯一、不易伪造、不可窃取等优点。结合 结合计算机技术,发展起来了众多jiy基于人类生物特征的人类身份识别技术,如人脸识别技术、指纹识别技术、虹膜识别技术。这些识别技术具有特征录入较为方便、信息丰富、使用范围广等优点。因此有着广阔的应用前景。识别 1)人脸识别主要通过人脸特征进行识别,也是人们最早使用的生物特征识别技术之一,是一种比较友好、直观、更容易被人接受的识别方式。在实际应用中,人脸识别易于使用,无须使用者的主动参与,尤其适用于视屏监控等应用。但人脸识别的缺点在于稳定性较差,很容易受周围环境、饰物、年龄、表情等干扰,造成错误的识别。另外,对双胞胎、多胞胎的鉴别仍然无能为力。 2)虹膜识别主要基于虹膜的生理结构,利用虹膜中存在的细丝、斑点、凸点、射线、皱纹和条纹等特征进行识别。据称,没有任何两个虹膜是一样的。虹膜身份认证的可靠性高,其错误接受率和错误拒绝率很低。 3)指纹识别主要通过分析指纹的全局特征和局部特征进行识别,常用的特征如指纹中的嵴、谷、终点、分叉点和分歧点等。随着指纹识别技术的发展和指纹采集设备的价格降低,指纹识别不仅广泛应用于司法和商务活动中,也越来越多地在笔记本电脑、手机、存储器等终端设备中使用。但采集指纹时要求保持手指的洁净和光滑,污垢和疤痕都会给识别带来困难。老年人和手工劳动者的指纹由于磨损严重而不易识别。另外,在实际采集中发现,由于在犯罪记录中常使用指纹,导致很多人害怕将指纹记录在案,从心理上不愿意接收这种识别方式。目前 目前,无论是字符识别(如手写数字识别、邮政编码识别、汽车牌照识别、文字识别等)还是人类生物特征识别(如人脸识别、指纹识别、虹膜识别等)的项目开发技术,他们涉及数字图像处理、模式识别、人工智能、智能计算等多个学科领域。随着高科技的发展,这些项目应用已成为衡量当代高科技水平的重要手段。
-
分析 智能应用系统提供包括但不限于疫情、环保和应急等方面的AI模型服务,让客户可以通过我们的产品具备AI分析的能力,解决客户自身的痛点。 利用AI视觉模型通过边缘计算的方式,对视频监控区域进行安全隐患的检测,针对工业园区、工地、危化企业等,预防安全隐患对人员以及厂区资产造成重大损失。 本服务能力集中在对需要佩戴安全帽才能进入的区域,对人员是否佩戴安全帽的识别;对禁止进入的危险区域进行非法入侵的检测;对全区域进行烟火的检测,及时发现烟火燃烧的迹象,避免出现大的火灾事件;对图像或者视频中的人群进行是公共区域安全隐患的检测,尤其是,疫情期间各公共场所、重点防疫场所、人群聚集地、火车站、飞机场等人流密级的人员可以通过本服务对未佩戴口罩人群、人群危险聚集进行监控预警。具体模型 烟火检测模型:对禁烟监控区域内发生的燃烧、火苗等进行监控,一旦发现,即刻进行报警,提醒安保人员及时前往进行熄灭,避免更大的火灾隐患出现 佩戴口罩模型:对画面中人员是否佩戴口罩进行检测,及时发现违规人员 人群聚集模型:对画面上出现的人,进行人群聚集检测 安全帽检测模型:对需要佩戴安全帽出入的区域,实时进行监控,及时发现违规未佩戴安全帽的人员,提醒其按照规定佩戴好安全帽 危险区域入侵模型:可以对视频画面范围内划定禁止进入的区域或者全区域进行监测,可以对视频监控区域进行24小时的AI识别,一旦出现非法入侵,即可报警,提醒相关安保人员采取措施
-
组合:华为AI音箱+华为HiLink欧瑞博wifi智能插座+小夜灯,轻松实现智能开关灯。还能手动按钮关闭。太棒了!口令“小艺小艺,5分钟之后关闭插座”。
-
介绍 每个城市都会产生大量的废物,而且我们需要花费巨额资金来处理这些废物。 仅每年就需要花费巨资来处理产生的废物。 而智能城市有可能彻底改变这种散发着臭味却必不可少的服务。分析 我们可以借助安装好的摄像头和基于图像的机器学习,快速了解到游客会在公园的哪些区域丢弃大量的垃圾(机器学习的服务)。 然后,我们可以让清洁工及时地清扫,如果乱丢垃圾的现象依然继续,则可以在该地区增设垃圾桶。 还有一种更好的方法,我们可以设立带有太阳能压缩机的智能垃圾桶,如此一来 1)在感知到垃圾桶已满后,触发压缩; 2)发现垃圾桶快满的时候,及时通知卫生部门。最后 我们还可以利用传感器监控每个家庭产生的废物和回收率。 然后,利用这些数据激励大家积极地配合废物处理工作。 例如,智能城市可以征收一般废物的处理税,同时奖励塑料、金属以及有机物的回收。
-
本次研讨会由西安电子科技大学人工智能学院执行院长侯彪主持,西安电子科技大学人工智能研究院院长、俄罗斯自然科学院外籍院士、欧洲科学院外籍院士焦李成,华为昇腾计算开源框架&生态产品总监田昆阳,西安电子科技大学研究生院副院长王爽等多位校企专家出席会议。◆ 焦李成院士在致辞中表示,遥感的发展关系到国家发展战略,与国计民生息息相关。西安电子科技大学是全国最早开始做雷达遥感解译研究与应用实践的高校,拥有深厚的技术积累,而华为拥有业界领先的全栈自主AI基础软硬件平台,包括Atlas系列硬件、异构计算架构CANN以及兼顾学术界研究灵活性与工业界高性能追求的全场景AI框架MindSpore。希望双方携手,发挥各自优势资源,基于雁塔区主导筹建的未来人工智能计算中心,快速推进智能雷达遥感科研项目合作,共同打开遥感应用领域的巨大产业空间。 ◆ 田昆阳指出,人工智能技术只有与场景化应用结合起来才能发挥最大价值,遥感应用场景丰富,从自然资源监测到应急救灾评估,再到城市规划建设,可以说关系到社会发展的每个链条,所以发展智能遥感意义重大,这就需要企业与高校科研院所共同携手,集中力量,加快产业生态圈的催熟。西安电子科技大学历史悠久,科研实力雄厚,华为坚持做好基础软硬件平台,能够结合遥感具体应用开发需求,提供AI平台层技术支持,支撑遥感应用快速开发,赋能遥感科研及行业应用发展。◆ 研讨会上,王爽教授作了雷达遥感技术发展及研发目标专题报告,她表示,雷达遥感技术具有全天候、全天时对地观测的能力,近年来在土地勘测、精细农业、城市发展、灾害监测、海洋观测等方面展现出重要作用。此外,雷达遥感与可与光学遥感获取的信息形成互补增强,因此深耕雷达遥感领域对产业发展具有深刻意义。此后,华为MindSpore首席架构师应江勇介绍了昇腾&MindSpore生态发展策略,并对此次合作项目方案进行重点介绍。本次研讨会的顺利召开,不仅增强了智能遥感领域内企业与高校之间的交流与合作,更有益于打通产、学、研、用全链路,为科研创新、产业发展注入新动能。相信在各界朋友的关注和共同努力下,智能遥感的发展会更加迅速,并有更多高质量的研究成果涌现。+以AI赋能文化传承,华为携手陕西师范大学共建MindSpore研究室+“中国人工智能学会-华为MindSpore学术奖励基金”第二期发布通知+华为以白金会员身份加入OpenChain项目
-
“开源”一词的核心,是“自由与分享”,并以此为基础建立生生不息的开源生态。如何推动开源技术在我国市场健康落地,成为当前国内相关领域的当务之急。上线仪式中,西安电子科技大学、西北工业大学、陕西师范大学研究团队与华为技术有限公司、西安昇腾智能科技有限公司签订了合作协议,致力于将基于昇腾AI算力底座的解决方案用于自动驾驶、智慧医疗、智慧城市、文化资源开发利用等多种应用场景,支撑国家战略任务落地,促进经济与产业发展融合。 MindSpore是面向万物智能时代覆盖端、边、云的全场景AI框架,提供统一API,为全场景AI的模型开发、模型运行、模型部署提供端到端能力。此次共建的“MindSpore研究室”,与吴晓军教授团队合作,将充分发挥陕西师范大学在文化科技、教育科技领域的优势,基于昇腾AI基础软硬件平台(包括超强算力的Atlas系列硬件、异构计算架构CANN以及AI框架MindSpore等),共同开展开源数据集、深度神经网络算法、文化教育特色相关场景、生态社区等建设。“MindSpore研究室”是未来人工智能计算中心重要合作项目之一,此后将会有更多伙伴加入,共建繁荣、健康的人工智能生态,加快实现人工智能对经济社会发展的带动和支撑作用。正如华为昇腾计算业务总裁许映童在上线仪式致辞中表示,华为将助力雁塔区打造人工智能“一中心四平台”整体框架,通过建设集约化、统一化的人工智能计算中心,实现政、产、学、研、用五位一体,通过算力集群,赋能产业集群,推动陕西人工智能产业数字化与智能化加速发展。
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签