• [热门活动] 1年吸引17万开发者,和大牛一起用音乐聆听开源之声
    他喜欢音乐尤其喜欢在多样性的音乐中感受丰富多彩的世界他热爱开源与开源的渊源可以追溯到十几年前他从一个大数据技术爱好者一路成长为开源社区的贡献者核心CommitterApache软件基金会的Member他——华为计算副总裁开放原子开源基金会TOC主席堵俊平点击图片可跳转到原文中观看 根深才能叶茂。华为聚焦鲲鹏和昇腾基础软硬件创新,全场景AI计算框架MindSpore、开源操作系统openEuler、企业级数据库openGauss,与合作伙伴共同构建全球主流的基础软件生态。开源全场景AI计算框架MindSporeMindSpore开源以来,已有超过17万的开发者,下载量超过22万,日均下载量600+,超过100家高校选择MindSpore进行教学,超过40家科研团队选择MindSpore进行科学研究,MindSpore已经成为国内第一热度的AI开源社区。MindSpore能实现全自动并行、“端-边-云”全场景自适应、全流程极简开发。在即将举办的2021华为开发者大会(Cloud)上,我们会正式发布MindSpore1.2版本,提供超大模型的训练能力。 开源操作系统openEuler自2019年12月openEuler开源以来,社区已有60多家企业、机构和组织,3000多位贡献者,80多个SIG组,国内主流的操作系统厂商均已推出基于openEuler的商业发行版,在金融、政府、运营商和电力等各行业广泛商用。开源企业级数据库openGaussopenGauss聚焦打造“高性能、高可靠、高安全”的数据库内核版本,支持伙伴完善企业级特性,稳步推进商用。目前,已有6家伙伴推出基于openGauss的商业发行版,超过16家企业和机构加入社区。社区已成立技术委员会,并将在今年下半年成立社区理事会。堵俊平总结出开源社区成功运营的四个关键亲爱的开发者们关于开源社区你还有什么好奇?华为开发者大会2021(Cloud)你想听的想问的想学的这里统统都有我们与你不见不散!享技术趋势洞察,业务场景选型考虑,案例实践剖析,现场解读工具和产品的核心技术,来自华为各领域最顶尖、最优秀的技术专家将共聚一室,华为开发者大会2021(Cloud) “扫地僧见面会”,干货满满与你不见不散!MindSpore官方资料 GitHub :  https://github.com/mindspore-ai/mindsporeGitee:https://gitee.com/mindspore/mindspore 官方QQ群 : 871543426 长按下方二维码加入MindSpore项目↓
  • [公告] 关于开源,MindSpore做的如何?2021中国软协年会分享总结!
    由中国软件行业协会,开放原子开源基金会共同举办的“ 2021中国软件产业年会开源软件创新发展论坛”于2021年4月7日在北京召开。本次大会以探讨软件开源方向,深化开源软件应用价值为核心,邀请知名开源项目负责人共济一堂,交流如何更高层次的更开放地推动开源项目发展。以更先进的开源协作创新模式,加入制造强国,网络强国,数字中国和智慧社会建设如火如荼的建设中。MindSpore运营总监胡晓曼编写的《MindSpore开源元年回顾》,介绍如何将MindSpore开源项目在一年内从零打造为制造业主流的人工智能框架,并通过MindSpore项目实践总结了开源运营的定义和核心内容。开放原子开源基金会秘书长杜玉杰发表《开放包容 和而不同》的演讲,通过开源演进的历史分析开源和社会发展以及科技发展间的关系,介绍不同开源基金会的运作模式,并详细阐述了在国内外不同法律体系、产业发展阶段和机遇下开放原子开源基金会的独特之处。百度资深研发工程师郑旗进行《可信账本内核项目介绍》的演讲,阐述了区块链的核心特点及XuperChain的发展历程,XuperChain具有可扩展、高性能、易使用、多场景等特点,已经在电子签约、广告监播、电子处方流转、商圈积分兑换、知识产权保护等领域得到应用。中科院软件所开源治理负责人罗未做了《OpenHarmony开源治理探索》的分享,梳理了OpenHarmony项目由开源捐赠到多个玩家共同组建开源工作组的过程,并介绍了OpenHarmony工作组的组成、职责及和Eclipse基金会合作的探索,让大家了解多个玩家如何共同治理开源项目。OpenEuler技术委员会委员马全一通过《openEuler— 从社区发展到商业闭环的实践》演讲,介绍了openEuler社区如何拓展种子用户、openEuler社区中个人开发者和商业开发者角色如何转变、openEuler将如何开源项目带入高校课堂以及不同开源模式间的比较,让大家了解开源社区的功能以及如何同商业进行闭环。 最后由开放原子开源基金会技术监督委员会主席堵俊平主持人《开源项目发展经验与总结》的面板,对开源运营的价值,专职团队建立以及和商业的结合,海外开源项目的成功经验,社区开发和本次论坛的各个副本和圆桌中,各位嘉宾和相互热烈参与讨论,为开源如何在数字化时代中使能软件产业的发展出谋划划策,提供理论和实践基础。 MindSpore开源已经有一周年啦,近期刚刚发布一款新的开源工具集——TinyMS旨在基于MindSpore提供简单有效的高阶API、低运行开销、模块化开发以及敏捷部署。堪称AI开发神器,上手简单又好用! MindSpore社区的小伙伴们为了降低学习门槛专门为大家配套了「TinyMS教程网剧」,每天用几分钟时间轻松学习使用MindSpore这样的新式硬核框架,边追剧边深度学习,AI开发能力不经意间提升! 开源一周年的MindSpore社区,将在4月底的华为开发者大会为大家展示大量新特性,敬请期待! MindSpore官方资料 GitHub : https://github.com/mindspore-ai/mindsporeGitee:https : //gitee.com/mindspore/mindspore 官方QQ群 : 871543426 长按下方二维码加入MindSpore项目↓
  • [公告] @所有人:我们把社区运营也开源吧!
    以下文章来源于开放原子,作者开放原子今天,我们怀着“共建“、”共治“、”共享”的初心,以理想主义者的赤子情怀,发布“把社区运营也开源”的0xCommops社区召集令。即日起,让我们共同发起一个“把社区运营也开源”的开源社区0xCommops,欢迎一切与开源社区运营相关的项目,我们希望能持续完善开源社区运营体系,共同打造一个开源社区运营的知识库、工具库。欢迎大家挖坑、填坑、使用、传播、围观。开放原子开源基金会X-lab开放实验室Mindspore社区开源社杜玉杰、黄之鹏、王伟、谭中意、姜宁、郭晧、庄表伟、刘洁 、崔锦国、滕召智……在孵化“社区运营开源”项目这一过程中我们将一起完成以下工作建立共同愿景制定社区路线图鼓励新贡献者加入委派和激发新的倡导者输出社区运营的开源图谱项目将以开源协作的形式公开迭代和评审以轻量级方式进行社区治理,一些初步的建议可参见一号坑草案4月9日@深圳,首次线下0xCommops meetup研讨活动,共商怎么实现0xCommops这么多的小目标(地址:深圳福田区新一代产业园4栋23楼)。网站(建设中):https://0xcommops.org邮箱:contact@0xcommops.orgSLACK:0xcommops SlackGitee:0xCommopsX-lab开放实验室·王伟开源教育是开源人才的持续发动机,只有解决了人的问题,这项重要的工作才能系统发展,而社区生态建设也是目前各开源社区所面临的共性问题,社区健康发展才能孵化出具有国际影响力的开源项目,进而创建出具有国际影响力的全球化生态。X-lab开放实验室与开放原子开源基金会基于上述共识,结合自身在相关领域的优势,希望通过0xCommops社区合作的形式,广泛开展与开源教育及社区生态任务相关的合作,带动全国乃至全球的开源发展。Mindspore社区·黄之鹏这是一个新一代全场景深度学习训练推理框架开源社区,以“开发者第一”为社区运营核心宗旨,开展创新的全维度开源社区运营。希望与开放原子开源基金会一起,打造立足中国面向全球的优秀开源社区0xCommops。开放原子开源基金会TOC副主席·谭中意自开源软件诞生之日起, 开源社区的运作就一直是开源项目繁荣的关键之一。有很多开源界的专家写了不少这方面的著作和文章来传播经验,在开源日益重要的今天,欣喜的看到国内众多开源同仁在各自领域内都有很多有益的探索,并取得了很好的效果。现在,开放原子开源基金会作为目前首个且唯一的注册在中国的国际开源基金会,希望搭建这样一个平台把这些经验整理起来,一来可以让大家学习借鉴,二来可以为开源界的更多新人尤其是高校学子或新晋工程师提供更好的参考,以便大家更快的融入开源社区,参与社区贡献。当然,开源人做开源事,自然用开源的方式。今天,由开放原子开源基金会牵头,组织国内外一线开源专家发起这个0xCommops开源社区,致力于共同“把社区运营也开源”,希望大家都能积极参与进来。ALC Beijing发起人·姜宁 开源社区的发展与社区运营密切相关,以往这样的事情基本都是靠程序员自己摸索。现在我们把社区运营按照开源项目的方式运作起来,集一线开源社区运营专家的经验与智慧帮助解决大家在开源项目运营过程中的痛点问题,这将极大造福还在黑暗中摸索的程序员们!现在就加入“0xCommops”这个大家庭吧!开放原子开源基金会·原子僧郭晧我们都是社区人,开源社区都是高尚人。在开放原子开源基金会的0xCommops召集令下,集群体的智慧,把开源社区的运营“套路”也开源了。这是中国开源历程的一个重大突破,为国内众多的开源社区提供了指引。十分期待众人拾柴火焰高,一起做出点点滴滴的贡献,开源社区将会呈现欣欣向荣百花齐放的新局面。社区运营开源的坑已埋好,今天你入坑了吗?再不跳,坑就满了……填坑志愿者·刘洁人人都在说Community Over Code,但只有运营俑们都知道,真要做到这三个单词背后藏着的是各种工作细项,每位运营俑都有过挑灯夜战恨不得自己三头六臂的日子。但从今天起,无论你是全职开源运营还是兼职运营的运营俑,你都不再是孤军奋战,0xCommops就是我们的大本营,大家一起来搭建自己的社区运营Community,在这里,不区分企业、职位高低,一切以贡献说话,一起填坑吧 开放原子开源基金会·杜玉杰社区就是人与人的连接,最重要的是这些人聚在一起共同成长,也许技术终将被淘汰,但只要社区在,还可以再创造一个未来。任何值得做的事情都需要多年的努力,社区也不是一天两天就能成长起来的,我们所能做的只有不断学习,不断进步。欢迎加入0xCommops社区,共同探究开源社区运营那些事儿~大龄退役学生哥·崔锦国开源前路多荆棘,需要我们的实践积累,伸出你的友善之手,抚平运营路上的坑洼,加入0xCommops社区,开启开源运营的非凡之旅。开源社·庄表伟开源社区,需要很多非技术性的知识,这些知识同样可以通过开源协作的方式,汇集起来。希望0xCommops这个项目,能够让每一位身在运营大坑里的开源人,互相帮助,互相启发,互相扶植,互相成就。MindSpore官方资料GitHub : https://github.com/mindspore-ai/mindsporeGitee:https : //gitee.com/mindspore/mindspore官方QQ群 : 871543426长按下方二维码加入MindSpore项目↓
  • [其他] 资料学习 - 开源深度学习框架tinygrad
    在深度学习时代,谷歌、Facebook、百度等科技巨头开源了多款框架来帮助开发者更轻松地学习、构建和训练不同类型的神经网络。而这些大公司也花费了很大的精力来维护 TensorFlow、PyTorch 这样庞大的深度学习框架。除了这类主流框架之外,开发者们也会开源一些小而精的框架或者库。比如今年 4 月份,特斯拉人工智能部门主管 Andrej Karpathy 开源了其编写的微型 autograd 引擎micrograd,该引擎还用 50 行代码实现了一个类 PyTorch api 的神经网络库。目前,micrograd 项目的 GitHub star 量达到 1200 星。不久前,天才黑客 George Hotz(乔治 · 霍兹)开源了一个小型 Autograd Tensor 库 tinygrad,它介于 PyTorch 和 micrograd 之间,能够满足做深度学习的大部分要求。上线不到一个月,该项目在 GitHub 上已经获得 1400 星。地址:https://github.com/geohot/tinygrad
  • [公告] MindSpore开源周年狂欢,量子机器学习与深度分子模拟等巨量新特性来袭,发布新开源TinyMS工具包!
    大家好,在MindSpore开发团队和社区开发者共同努力下,MindSpore很多的新特性马上要与大家见面了,比如动态图分布式训练效率的大幅提升、一键模型迁移、模型鲁棒性检测、深度分子模拟及量子机器学习等,无论是在效率提升、易用性,还是创新方面,都是干货满满。下面就给大家快速预览即将到来的这些关键特性的文字描述,欢迎大家在3月29日MindSpore官方B站观看直播讲解讲解哦~大幅提升动态图下分布式训练的效率在深度学习中,当数据集和参数量的规模越来越大,训练所需的时间和硬件资源会随之增加,最后会变成制约训练的瓶颈。分布式并行训练,可以降低对内存、计算性能等硬件的需求,是进行训练的重要优化手段。当前MindSpore动态图模式已经支持数据并行,通过对数据按batch维度进行切分,将数据分配到各个计算单元中进行模型训练,从而缩短训练时间。基于ResNet50 v1.5+ImageNet数据集测试,在昇腾计算硬件平台,MindSpore动态图模式分布式的表现,可以达到PyTorch典型分布式场景的1.6倍, 静态图模式分布式的表现也可以达到TensorFlow典型分布式场景的2倍。PyNative快速入门:https://www.mindspore.cn/tutorial/training/zh-CN/r1.2/advanced_use/debug_in_pynative_mode.html数据预处理加速Dvpp数据是机器学习的基础。在网络推理场景中,我们需要针对不同的数据进行数据的预处理,从中过滤出核心信息放入我们训练好的模型中进行推理预测。在实际应用场景中,我们往往需要对大量的原始数据进行推理,比如实时的视频流等。因此,我们在昇腾推理平台引入了Dvpp模块,来针对网络推理数据预处理流程进行加速。Dvpp数据预处理模块提供C++接口,提供图片的解码、缩放,中心抠图、标准化等功能。在Dvpp模块的设计中,考虑到整体的易用性,其功能与MindData现有CPU算子有重叠,我们将其API统一,通过推理执行接口设置运行设备来进行区分。用户可以根据自身硬件设备环境来选择最佳的执行算子。Dvpp数据预处理流程如下图所示:我们在一台昇腾推理服务器上测试了Dvpp系列算子的性能收益。该服务器拥有128个主频为2.6GHz的CPU核心,以及128Gb的内存空间。在实验中,我们选取yoloV3网络,同时选取coco2017推理数据集40504张图片进行推理,最终得到模型输入尺寸为[416, 416]的图片。我们分别使用Dvpp算子和CPU算子进行数据预处理,得到如下性能对比:可以看到Dvpp系列算子相较于CPU算子在处理大量数据时性能优势明显,在本实验中处理40504张图片性能FPS提升129%。查看教程:https://www.mindspore.cn/tutorial/inference/zh-CN/r1.2/multi_platform_inference_ascend_310_mindir.html#ascend-310分子模拟库(SPONGE),来自社区分子动力学工作组MindSpore版的SPONGE是在社区中的分子动力学工作组(MM WG)中,由北大、深圳湾实验室高毅勤课题组与华为MindSpore团队联合开发的分子模拟库,具有高性能、模块化等特性。为何需要开发SPONGE分子动力学模拟是用牛顿定律近似来描述微观原子和分子尺度演化的计算机模拟方法。其既可用于基础科学研究也可用于工业实际应用。在基础科学领域,分子动力学方法有助于科研学者从微观研究体系的物理化学性质。在工业生产中,其可以利用大规模计算的能力辅助药物分子的设计和蛋白靶点的搜寻[1,2]。由于模拟的时间和空间尺度限制,传统分子动力学软件的应用范围受到较大限制。科研工作者也在不断的开发新的力场模型[3,4]、抽样方法[5,6]以及尝试结合新兴的人工智能[7,8]来进一步拓展分子动力学模拟的适用领域。由此,新一代的分子动力学软件就需要被提上日程。其应该具有模块化的特性,能够支持科学家高效的创造和搭建出能够验证其理论模型的结构。同时,它还需要兼顾传统模拟方法的高效性,能够兼容其在传统领域上的使用。此外,为实现分子模拟+机器学习的自然融合,其还应该拥有嵌入人工智能框架的形态。SPONGE就是基于这些理念而被创造出的全新的,完全自主的分子模拟软件。相比于之前在传统分子模拟软件上结合SITS方法进行生物分子增强抽样[9],SPONGE原生支持SITS并对计算流程进行优化使得其使用SITS方法模拟生物体系更加高效。针对极化体系,传统分子模拟采用结合量化计算等方式来解决电荷浮动等问题[10]。即使采用机器学习降低计算量也会浪费大量时间在程序数据传送的问题上。而SPONGE利用模块化的特点可支持内存上直接与机器学习程序通信大大降低了整体计算时间。图1:结合SITS等方法可进行Na[CpG], Lys生物分子模拟 图2:机器学习+分子模拟方法可更快更准确地模拟极化体系,图为[C1MIm]Cl离子液体模拟MindSpore + SPONGE基于MindSpore自动并行、图算融合等特性,SPONGE可高效地完成传统分子模拟过程。SPONGE利用MindSpore自动微分的特性,可以将神经网络等AI方法与传统分子模拟进行结合。SPONGE模块化设计结构图随MindSpore1.2版本开源的SPONGE具备以下优势:1、全模块化分子模拟。模块化构建分子模拟算法,易于领域研发人员进行理论和算法的快速实现,并为外部开发人员贡献子模块提供友好的开源社区环境。2、传统分子模拟与MindSpore结合的人工智能算法的全流程实现。在MindSpore中,研发人员能便利的将AI方法作用于分子模拟中。全算子化的SPONGE将与MindSpore进一步结合成为新一代端到端可微的分子模拟软件,实现人工智能与分子模拟的自然融合。教程文档:https://www.mindspore.cn/tutorial/training/zh-CN/r1.2/advanced_use/hpc_sponge.htmlMindSpore+SPONGE展望近期展望:在后续的版本更新中会陆续加入已经理论验证好的MetaITS模块、有限元计算模块等功能。这些模块将帮助SPONGE能更好的从事相变和金属表面相关的模拟。同时,MindSpore版SPONGE各模块逐步支持自动微分和自动并行,对于衔接机器学习方案提供更友好的支持。远期展望:拓展SPONGE的各种特色模块,使其能够描述大部分微观体系并同时具有较高的计算和采样效率。对特定工业需求,如药物筛选或晶型预测,将基于SPONGE衍生出完整的流程化计算方案,能够满足大规模并行计算的需求。在MindSpore框架下,SPONGE具有元优化功能,从而实现更准确和更快的力场拟合。量子机器学习(MindQuantum),来自社区量子力学工作组MindQuantum是结合MindSpore和HiQ开发的量子机器学习框架,支持多种量子神经网络的训练和推理。得益于华为HiQ团队的量子计算模拟器和MindSpore高性能自动微分能力,MindQuantum能够高效处理量子机器学习、量子化学模拟和量子优化等问题,性能达到业界TOP1(Benchmark),为广大的科研人员、老师和学生提供了快速设计和验证量子机器学习算法的高效平台。MindQuantum vs TF Quantum/Paddle Quantum性能对比查看教程:https://www.mindspore.cn/tutorial/training/zh-CN/r1.2/advanced_use/parameterized_quantum_circuit.html多跳知识推理问答(TPRR)TPRR是华为泊松实验室与华为MindSpore团队提出的解决开放域多跳问题的通用模型。相比于传统问答仅需从单个文档中检索答案,多跳知识推理问答需要从多个佐证文档得到最终答案,并返回问题到答案的推理链。TPRR基于MindSpore混合精度特性,可以高效地完成多跳问答推理过程。全路径建模:TPRR模型在多跳问题推理链的每一个环节中基于全部推理路径的条件概率建模,模型以“全局视角”进行知识推理。动态样本选取:TPRR模型采用动态样本的建模方式,通过更强的对比学习提升模型多跳问答的能力。算法流程图如下:TPRR模型在国际权威的多跳问答榜单HotpotQA评测中荣登榜首,榜单图如下:查看教程:https://www.mindspore.cn/tutorial/inference/zh-CN/r1.2/nlp_tprr.html一键模型迁移(MindConverter)脚本迁移工具(MindConverter)旨在帮助算法工程师将存量的基于三方框架开发的模型快速迁移至MindSpore生态。根据用户提供的TensorFlow PB或ONNX模型文件,工具通过对模型的计算图(Computational Graph)解析,生成一份具备可读性的MindSpore Python模型定义脚本(.py)以及相应的模型权重(.ckpt)。一键迁移:通过MindConverter CLI命令即可一键将模型迁移为MindSpore下模型定义脚本以及相应权重文件,省去模型重训以及模型定义脚本开发时间;100%迁移率:在MindConverter具备跨框架间算子映射的情况下,迁移后脚本可直接用于推理,实现100%迁移率;支持模型列表:目前工具已支持计算机视觉领域典型模型、自然语言处理BERT预训练模型脚本及权重的迁移,详细模型列表见 README。BERT模型定义迁移结果展示(部分代码):查看教程:https://www.mindspore.cn/tutorial/training/zh-CN/r1.2/advanced_use/migrate_3rd_scripts_mindconverter.html?highlight=mindconverter鲁棒性评测工具助力OCR服务达成首个AI C4鲁棒性标准要求MindSpore鲁棒性测试工具MindArmour,基于黑白盒对抗样本(20+方法)、自然扰动(10+方法)等技术提供高效的鲁棒性评测方案,帮助客户评估模型的鲁棒性性,识别模型脆弱点。OCR是指利用光学设备去捕获图像并识别文字,减少人工成本,快速提升工作效率;如果攻击者通过对待识别的文字做出人眼不易察觉的修改,而模型无法对其正确识别或处理,就会导致OCR服务对文字识别的准确率下降,且使用人员不清楚问题背后的原因。测评团队使用MindArmour对OCR服务的鲁棒性进行测评,发现OCR服务中部分模型对自然扰动和对抗样本的防御能力较差,如文本框检测模型在校验噪声、PGD、PSO(粒子群)等攻击算法下准确率小于66%;并以此指导模型开发团队通过对抗样本检测、数据增强训练等技术,使得模型对恶意样本的识别准确率达到95+%,提高了模型及OCR服务的鲁棒性。AI C4标准链接:https://www.bsi.bund.de/SharedDocs/Downloads/EN/BSI/CloudComputing/AIC4/AI-Cloud-Service-Compliance-Criteria-Catalogue_AIC4.html五. TinyMS新工具TinyMS项目简介TinyMS是一款主要用PyThon语言编写的开源深度学习开发工具包,基于以MindSpore为代表的新型开源深度学习框架,提供面向从数据准备到模型部署全流程的极简易用的高阶API封装,并通过易于扩展的模块化设计,提供覆盖多种业务场景的能力。TinyMS主要由data, model, serving等模块组成,分场景分领域提供transform数据预处理算子,复用MindSpore原生数据集提供常用数据集,如:cifar-10等。data提供部分自定义数据集和常用的数据下载和解压等常用工具集,model提供常用的预置模型,并提供模型构建,模型编译,模型训练、验证与推理。serving通过搭建服务器来提供AI模型应用服务,为新手提供快速推理的体验。TinyMS面向的主要用户群体为深度学习初学者、研究领域涉及深度学习结合的科研人员、以及深度学习相关业务应用开发的企业开发人员。通过搭配完整的在线课程教学,TinyMS提供目前业界最佳的深度学习入门与开发体验。 TinyMS vs Keraskeras 是一个用 Python 编写的高级神经网络 API,将把用户体验放在首要位置,支持短时间内出实验。keras项目可以说是“大而全”,主要由dataset, layer, model和backend模块构成,提供较多常用的预置数据集,并分场景分领域提供数据预处理函数,layer网络层提供较完善,如:convolution卷积层,embedding嵌入层,pooling池化层等。backend支持多个后端(TensorFlow,CNTK和Theano),与TensorFlow版本不强耦合。Model提供模型选择(sequential)、网络层构建(输入层、输出层和池化层等),模型编译,模型训练、验证与推理。TinyMS在高阶API方面会更为简单抽象,较keras来说复杂度更低,比如提供了只需一行代码即可完成数据集的预处理,而且在设计中重点考虑到了Keras尚未提供单独好用的工具库,以及尚未提供的快速部署推理模块等。 TinyMS vs FastaiFastai是为了帮助新手快速轻松出结果的高阶API项目, 其基于PyTorch的深度学习库,利用底层PyTorch库的灵活性,分领域分场景地提供包括对vision,text,tabular和collab模型的“开箱即用”的支持,后端对PyTorch的版本要求紧耦合。 fastai 深度学习库项目较轻便,目录清晰易理解,可以说是“小而美”,主要由data, models和learner三大模块构成,其中,data提供了transform类方便开发者进行数据预处理操作。models按应用领域,提供部分预置网络,如:unet,快速实现模型构建。learner实现数据和模型的关联,并定义了一系列回调函数,帮助开发者快速厘清深度学习的架构,提供模型训练、模型评估、模型保存与加载和模型推理。除此之外,还拥有较丰富好用的工具集,如:数据下载,解压,图片验证和文件处理等工具函数。 TinyMS在高阶API方面理念与Fastai相近,不同点在于TinyMS提供了常用的MindSpore预置数据集,方便开发者简化对数据集的调用,而且提供了Fastai尚未提供的快速部署推理模块等。 TinyMS开源社区简介TinyMS开源社区中除了TinyMS项目外,还有如下一些项目和活动:l  Specification项目:主要用来协作制定面向模型训练脚本的格式规范。由于TinyMS提供了较为高阶的API抽象,因此诞生了ModelZoo脚本规范性和标准化的需求,便于高阶封装的持续迭代l  tinyms-ai.github.io:开源实现的简单官方网站搭建,基于Github Pagel  RustedAI Team:目前只有组织成员可见,RustedAI是TinyMS旨在推动利用Rust语言编写更多的低运行时开销的深度学习组件。l  社区活动:我们会不定期的组织TinyMS模型拉力赛,以及多种多样的Meetup活动TinyMS与开发者TinyMS是一个新生的开源项目,我们站在Keras、fastai等巨人的肩膀上,虽然在设计理念上有所创新,但依然需要社区开发者一起持续的协作,才能达到可以更好的服务学术界、产业界和开发者的深度和广度。六. 更多值得期待其实MindSpore即将带来的大量新特性,不止于文中所展示的举例,比如超大规模参数模型、可解释AI、MindSpore IoT支持等更加前卫的特性,将在4月底的华为开发者大会2021(Cloud)大会亮相,而社区也会在近期发布一款新的开源工具集,敬请关注!开源一周年的MindSpore社区,将为大家带来源源不断的惊喜![1] De Vivo M, Masetti M, Bottegoni G, et al. Role of molecular dynamics and related methods in drug discovery[J]. Journal of medicinal chemistry, 2016, 59(9): 4035-4061.[2] Liu X, Shi D, Zhou S, et al. Molecular dynamics simulations and novel drug discovery[J]. Expert opinion on drug discovery, 2018, 13(1): 23-37.[3] Robustelli P, Piana S, Shaw D E. Developing a molecular dynamics force field for both folded and disordered protein states[J]. Proceedings of the National Academy of Sciences, 2018, 115(21): E4758-E4766.4. Nerenberg P S, Head-Gordon T. New developments in force fields for biomolecular simulations[J]. Current opinion in structural biology, 2018, 49: 129-138.[5] Yang Y I, Shao Q, Zhang J, et al. Enhanced sampling in molecular dynamics[J]. The Journal of chemical physics, 2019, 151(7): 070902.[6] Bernardi R C, Melo M C R, Schulten K. Enhanced sampling techniques in molecular dynamics simulations of biological systems[J]. Biochimica et Biophysica Acta (BBA)-General Subjects, 2015, 1850(5): 872-877.[7] Wang H, Zhang L, Han J, et al. DeePMD-kit: A deep learning package for many-body potential energy representation and molecular dynamics[J]. Computer Physics Communications, 2018, 228: 178-184.[8] Ribeiro J M L, Bravo P, Wang Y, et al. Reweighted autoencoded variational Bayes for enhanced sampling (RAVE)[J]. The Journal of chemical physics, 2018, 149(7): 072301.[9] Yang L, Qin Gao Y. A selective integrated tempering method[J]. The Journal of chemical physics, 2009, 131(21): 12B606.[10] Kan Z, Zhu Q, Yang L, et al. Polarization effects on the cellulose dissolution in ionic liquids: Molecular dynamics simulations with polarization model and integrated tempering enhanced sampling method[J]. The Journal of Physical Chemistry B, 2017, 121(17): 4319-4332.如何度过一个充实而精彩的周末呢?当然是来看~开源大咖、领军企业领袖、资深布道师,在线为你传授经验的直播呀!如果你周末只想快乐度过,无心学习~那更应该来看被快乐的氛围环绕的↓MindSpore 周年直播啦!躺着就能领取直播间各种惊喜“礼物”!3月28日(周日)上午10:00开始~直播开场即高能!MindSpore定制好礼100份,B站直播间弹幕数的前100名小伙伴,可领取一周年惊喜好礼哦~当然,任何奖品都没法与这个环节相比较,领军企业领袖空降直播间等你来撩,提前备好刁钻古怪的问题弹幕发出,在线为你解答~如果你才接触AI,想进一步了解AI框架相关的知识~直播间为你准备了:经验丰富的AI专家和优秀开发者与你分享学习心得。华为MindSpore 运营总监 胡晓曼,一个有美貌又有才华的小姐姐为大家带来:MindSpore 社区 2021年为大家精心设计的新工具「TinyMS」预告!晚上最适合寻找灵感啦,资深开源大咖圆桌讨论就在晚间开启,让我们激发自己的脑力,和大咖一起头脑风暴!MindSpore是华为发布的一款支持端边云全场景AI计算框架,旨在为数据科学家和算法工程师提供设计友好、运行高效的开发体验!(以下视频点击后会跳转到原文中观看)MindSpore已经在2020年3月28日开源,从0.1到1.1,短短一年时间为广大开发者提供了18个实用特性, 看视频回顾 MindSpore 特性的变化~从差分隐私通过已有模型数据,推测出个体特征属性;二阶优化比同样软硬件环境下的一阶优化足足快了近1倍;PyTorch一键转化的特性~到MindIR:实现端云互通;Serving:高效部署在线推理服务;端侧特性:AI越用越精准;PyNative:动态图模;调试器的检查能力,定位更精准;单节数据缓存明显的性能提升;约束编程:约束优化器SOMAS;在线体验功能:免费使用线上GPU、CPU环境……周年直播(3.28-3.29)即将给大家带来什么实用亮眼的新特性呢?锁定MindSpore公众号将向你展现最详细的新特性解析~学习任何一款AI框架的过程中都有可能遇到一些困惑,MindSpore从诞生之初,就致力于打造一个属于开发者自己的开源社区。在这里,可以学习交流硬核的技术,可以自由舒适探索你无限的潜能!「MindSpore 深度学习实战营」帮助小白更快的上手高性能深度学习框架!「MindSpore 两日集训营」让你快速入门MindSpore,结合技术前沿讲解新特性,让你的部署、调优不再成为瓶颈~「MSG」MindSpore Study Group给你提供软硬结合的必备知识!带你了解前沿的技术成果!帮你完成第一个社区PR的提交!「MindCon极客周」一场为期12天将分别在12个城市举办的极客狂欢活动。大家每天聚集在一个城市,修复社区bug,分享学习心得,还可以参加「昇腾模型王者挑战赛」不断挑战自己!开发者的全维度宇宙 —— MindSpore开源社区开发者的世界是丰富多彩的,写代码只是一部分。MindSpore努力为开发者们打造一个多姿多彩的社区~「MindTalk」大咖思想的碰撞;「梗百科」轻松聊聊梗,快乐涨知识;「MindSpore 街舞挑战」干饭人动起来;「MindSpore小剧场」开源界首个小剧场:17个3秒短剧,每天一集,带你感受程序员的日常,包含悬疑、搞笑、温情、以及所有你能get到的技术点~MindSpore 开源一周年,感谢全世界各地开发者在百忙之中抽出时间给社区送祝福,先透露一部分祝福视频。无论时间多久,MindSpore社区始终热爱着你们——致开发者,诚挚地邀请你来参加MindSpore开源一周年狂欢活动!新特性体验活动,火热进行中!下载指定版本体验并分享,即有机会获取精美礼品!活动时间:4月1日—4月15日活动链接:【有奖活动】MindSpore版本更新,新特性诚邀体验!奖品展示:
  • [交流分享] 课程笔记 openEuler操作系统及社区介绍
    ### 课程名称及链接 [openEuler操作系统及社区介绍](https://education.huaweicloud.com/courses/course-v1:HuaweiX+CBUCNXK044+Self-paced/about)   ### 课程大纲 1. 第1章 什么是openEuler 2. 第2章 openEuler优势 3. 第3章 共建开源生态 4. 第4章 参与openEuler社区   ### 备注 1. 感谢老师的教学与课件 2. 欢迎各位同学一起来交流学习心得^_^ 3. 沙箱实验、认证、博客和直播,其中包含了许多优质的内容,推荐了解与学习。
  • [问题求助] docker-ce的static包好像没有20.10.x版本的下载
    docker-ce的static包好像没有20.10.x版本的https://repo.huaweicloud.com/docker-ce/linux/static/stable/x86_64/https://download.docker.com/linux/static/stable/x86_64/
  • 【转载】Linux内核发展史-3
    转自:https://openeuler.org/zh/blog/luoyuzhe/%20004History-of-Linux-kernel-3/004History-of-Linux-kernel-3%20.html作者:罗宇哲正文:作者:罗宇哲,中国科学院软件研究所智能软件研究中心这一小节我们主要介绍Linux系统应用程序的主要来源——GNU。一、GNULinux包含系统内核和提供系统服务和工具的应用程序两个部分。Linux所使用的应用程序是由许多程序元编写并自由发布的。Linux支持自由软件的概念,即软件本身不应受限,它们应遵守GNU(GNU是GNU's Not UNIX的递归缩写)通用公共许可证(GPL)[1]。软件通常是以源代码的形式发布的,但也可能需要支付一定的费用。这里提到的GNU项目最初是由自由软件基金会(Free Software Foundation)发起的,这个基金会的创始人是Richard Stallman。GNU项目的宗旨是:试图创建一个与UNIX系统兼容,但并不受UNIX名字和源代码私有权限制的操作系统和开发环境。[1]因此GNU为软件社区贡献了许多UNIX系统上应用程序的仿制品,这些应用程序都遵循GPL许可证。下面是在GPL条款下发布的一些主要的GNU项目软件[1]:GCC: GNU编译器集,它包括GNU C编译器。G++: C++编译器,是GCC的一部分。GDB:源代码级的调试器。GNU make: UNIX make命令的免费版本。Bison:与UNIX yacc兼容的语法分析程序生成器。bash:命令解释器(shell)。GNU Emacs:文本编辑器及环境。许多其他的软件包也是在遵守自由软件的原则和GPL条款的情况下开发和发行的,包括电子表格、源代码控制工具、编译器和解释器、因特网工具、图形图像处理工具(如Gimp),以及两个完整的基于对象的环境(GNOME和KDE)。二、常见开源协议简介木兰协议:木兰协议是我国首个开源协议,这一开源协议共有五个主要方面,涉及授予版权许可、授予专利许可、无商标许可、分发限制和免责申明与责任限制。在版权许可方面,木兰协议允许“每个‘贡献者’根据’本许可证‘授予您永久性的、全球性的、免费的、非独占的、不可撤销的版权许可,您可以复制、使用、修改、分发其‘贡献’,不论修改与否。”木兰协议比Apache License更友好一些,Apache License要求列出每个修改文件,其实很多项目做不到这一点,所以MulanPSL直接取消了这项要求[2]。GPL协议:GPL协议采取两种措施来保护程序员的权利:(1)给软件以版权保护;(2)给程序员提供许可证。它给程序员复制,发布和修改这些软件的法律许可。在复制和发布方面,GPL协议规定“只要你在每一副本上明显和恰当地出版版权声明和不承担担保声明,保持此许可证的声明和没有担保的声明完整无损,并和程序一起给每个其他的程序接受者一份许可证的副本,你就可以用任何媒体复制和发布你收到的原始的程序的源代码。你可以为转让副本的实际行动收取一定费用。你也有权选择提供担保以换取一定的费用。”[3]GPL的出发点是代码的开源/免费使用和引用/修改/衍生代码的开源/免费使用,但不允许修改后和衍生的代码做为闭源的商业软件发布和销售。GPL协议的主要内容是只要在一个软件中使用(“使用”指类库引用,修改后的代码或者衍生代码)GPL协议的产品,则该软件产品必须也采用GPL协议,既必须也是开源和免费[4]。LGPL协议:LGPL是一个为主要为类库使用设计的开源协议。和GPL要求任何使用/修改/衍生之GPL类库的的软件必须采用GPL协议不同。LGPL允许商业软件通过类库引用(link)方式使用LGPL类库而不需要开源商业软件的代码。这使得采用LGPL协议的开源代码可以被商业软件作为类库引用并发布和销售。但是如果修改LGPL协议的代码或者衍生,则所有修改的代码,涉及修改部分的额外代码和衍生的代码都必须采用LGPL协议[4]。BSD协议:BSD开源协议是一个给于使用者很大自由的协议。可以自由的使用,修改源代码,也可以将修改后的代码作为开源或者专有软件再发布。当你发布使用了BSD协议的代码,或者以BSD协议代码为基础做二次开发自己的产品时,需要满足三个条件:1.如果再发布的产品中包含源代码,则在源代码中必须带有原来代码中的BSD协议。2.如果再发布的只是二进制类库/软件,则需要在类库/软件的文档和版权声明中包含原来代码中的BSD协议。3.不可以用开源代码的作者/机构名字和原来产品的名字做市场推广。BSD代码鼓励代码共享,但需要尊重代码作者的著作权。BSD由于允许使用者修改和重新发布代码,也允许使用或在BSD代码上开发商业软件发布和销售,因此是对商业集成很友好的协议[5]。三、总结本小节中我们简要介绍了有关Linux应用程序的一个重要来源——GNU。从下一小节开始我们将介绍Linux内核源码结构。参考文献[1] 《Linux程序设计(第四版)》[2] https://iot.ofweek.com/2019-08/ART-132216-8120-30401877.html[3] https://baike.baidu.com/item/GPL/2357903?fromtitle=GPL%E5%8D%8F%E8%AE%AE&fromid=8274607&fr=aladdin[4] https://blog.csdn.net/xiaoxiao133/article/details/83049959[5] https://www.runoob.com/note/13176
  • 【转载】Linux内核发展史-1
    转载自:https://openeuler.org/zh/blog/luoyuzhe/002History-of-Linux-kernel-1/002History-of-Linux-kernel-1.html             作者:罗宇哲正文:作者:罗宇哲,中国科学院软件研究所智能软件研究中心openEuler是基于Linux 内核的企业级Linux服务器操作系统平台的开源社区发行版。openEuler支持鲲鹏架构,可运行在TaiShan服务器上。本技术连载将会从理论基础、源码分析和实操方法三个方面来比较全面地介绍内核编程与应用编程的基础知识,到2020年8月之前主要介绍内核编程部分。通过本连载的介绍,您将对openEuler内核编程和应用编程的理论和实践知识有一个基本的了解。本小节将从Linux内核发展史出发,带您走进openEuler的世界,一起学习操作系统的基础知识和openEuler内核的技术细节。一、Linux内核发展简史1991年,刚刚过完21岁生日的芬兰赫尔辛基大学计算机系单身狗Linus负债DIY了一台性能彪悍的计算机。他准备用这台计算机运行在操作系统课上学会的Minix操作系统并黑进学校性能更加强大的计算机系统来上网或者看新闻[1]。然而,Minix系统的价格让Linus望而却步,且当时Minix系统的协议只支持教学用途,于是这个小伙子决定开发一套自己的操作系统[2]。有三分之一的国土在北极圈内的芬兰冬季严寒而漫长,这给了Linus充分的时间构建自己的系统。在独自开发操作系统的漫长的日子里,只有学校每周三晚上的party给Linus的生活带来一点亮色,但他很快因为没有女伴而放弃了party并沉迷OS无法自拔。1991年9月17日,Linux内核(当时叫Freax)的0.01版被上传至FTP服务器,从此拉开了一个传奇的序幕……从0.01版的内核开始,Linux内核经过不断迭代成熟,从最初的一万行左右的代码成长至今天千万行级的巨无霸。第一个版本只是一个内核。为了有一个工作系统,还需要一个shell、编译器、库等等。这些全部来自其他GNU软件。一年后的1992年,第一个Linux发行版诞生了。到今天为止,著名的发行版包括Debian、Ubuntu、RedHat Enterprise Linux和Fedora等。下表简要列出了迄今为止各版本内核的一些更新情况和发行日期[4]:内核版本号时间内核发展情况0.001991.2-4两个进程分别显示AAABBB0.011991.9第一个正式向外公布的Linux内核版本0.021991.10.5LinusTorvalds将当时最初的0.02内核版本发布到了Minix新闻组,很快就得到了反应。LinusTorvalds在这种简单的任务切换机制上进行扩展,并在很多热心支持者的帮助下开发和推出了Linux的第一个稳定的工作版本。0.031991.10.50.101991.10Linux0.10版本内核发布,0.11版本随后在1991年12月推出,当时它被发布在Internet上,供人们免费使用。0.111991.12.8基本可以正常运行的内核版本0.121992.1.15主要加入对数学协处理器的软件模拟程序0.95(0.13)1992.3.8开始加入虚拟文件系统思想的内核版本0.961992.5.12开始加入网络支持和虚拟文件系统0.971992.8.10.981992.9.290.991992.12.131.01994.3.14Linux1.0版本内核发布,使用它的用户越来越多,而且Linux系统的核心开发队伍也建起来了。1.21995.3.72.01996.2.92.21999.1.262.42001.1.4Linux 2.4.0版本内核发布。2.62003.12.17Linux 2.6版本内核发布,与2.4内核版本相比,它在很多方面进行了改进,如支持多处理器配置和64位计算,它还支持实现高效率线和处理的本机POSIX线程库(NPTL)。实际上,性能、安全性和驱动程序的改进是整个2.6.x内核的关键。2.6.152006Linux 2.6.15版本内核发布。它对IPv6的支持在这个内核中有了很大的改进。2.6.302009.6改善了文件系统、加入了完整性检验补丁、TOMOYOLinux安全模块、可靠的数据报套接字(datagramsocket)协议支持、对象存储设备支持、FS-Cache文件系统缓存层、nilfs文件系统、线程中断处理支持等等。2.6.322009.12增添了虚拟化内存de-duplication、重写了writeback代码、 改进了Btrfs文件系统、添加了ATIR600/R7003D和KMS支持、CFQ低传输延迟时间模式、perftimechart工具、内存控制器支持softlimits、支持S+Core架构、支持IntelMoorestown及其新的固件接口、支持运行时电源管理、以及新的驱动。2.6.342010.5添加了Ceph和LogFS两个新的文件系统,其中前者为分布式的文件系统,后者是适用于Flash设备的文件系统。Linux Kernel 2.6.34的其他特性包括新的Vhostnet、改进了Btrfs文件系统、对Kprobesjump进行了优化、新的perf功能、RCUlockdep、GeneralizedTTLSecurityMechanism(RFC5082)及privateVLANproxyarp(RFC3069)支持、asynchronous挂起恢复等等。2.6.362010.10Tilera处理器架构支持、新的文件通知接口fanotify、Intel显卡上实现KMS和KDB的整合、并行管理工作队列、Inteli3/5平台上内置显卡和CPU的智能电源管理、CIFS文件系统本地缓存、改善虚拟内存的层级结构,提升桌面操作响应速度、改善虚拟内存溢出终结器的算法、整合了AppArmor安全模型(注:与SELinux基于文件的标注不同,AppArmor是基于路径的)。2.6.372011.1.4Linux2.6.37包含了对Ext4和XFS的几个SMP可伸缩性改进,一个在禁用大内核锁的情况下编译内核的选项,对每个cgroup IO限制的支持,一个基于Ceph集群文件系统的网络设备,几个Btrfs改进,更有效的静态探测,对探测模块的性能支持和可访问列表本地和全局变量、使用LZO压缩的图像休眠、IPv4支持的PPP、一些网络微优化和许多其他小的更改、改进和新的驱动程序。2.6.382011.3.14此版本增加了对自动进程分组(在新闻中称为“wonder patch”)的支持、VFS的显著可扩展性改进、Btrfs LZO压缩和只读快照、对B.a.T.M.a.N.mesh协议(有助于在发生自然灾害、军事冲突或互联网审查时提供网络连接,)、透明的大页面支持(不使用hugetblfs)、在多个cpu上自动传播即将到来的网络流量、支持AMD Fusion apu、许多驱动程序和其他更改。2.6.392011.5.18EXT4 SMP的可伸缩性改进,初始TCP拥塞窗口的增加,一种称为Unicore-32的新架构,一种允许创建称为IPset的网络资源组的功能,Btrfs更新,一种允许将崩溃信息存储在固件中的功能,以便在重新引导后恢复它,通过handle syscalls打开,perf更新,以及许多其他的小变化和新的驱动。3.02011.7.21除了一个新的版本编号方案,Linux3.0还有几个新的特性:Btrfs数据清理和自动碎片整理,XenDOM0支持,ECHO中没有特权的ICMP,WakeonWLAN,Berkeley包过滤器JIT过滤,一个类似memcached的页面缓存系统,一个对sendmsg()调用和setns()进行批处理的sendmsg()系统调用,一个系统调用允许更好地处理轻量级虚拟化系统,如容器。增加了新的硬件支持:例如,Microsoft Kinect、AMD Llano Fusion APU、Intel iwlwifi 105和135、Intel C600串行连接scsi控制器、Ralink RT5370 USB、多个Realtek RTL81xx设备或Apple iSight网络摄像头。增加了许多其他驱动和小的改进。3.12011.10.24支持OpenRISC 开源 CPU,对写回限制的性能改进,slab分配器中的一些加速,新的iSCSI实现,支持用于移动支付的近场通信芯片,通用软件RAID层中的坏块管理,一个新的用于电源管理的“cpupowerutils”用户空间实用程序、默认情况下在ext3中启用的文件系统屏障、Wii遥控器支持和新的驱动程序以及许多小的改进。3.22012.1.4此版本包括对大于4KB和小于1MB的ext4块的支持,这将提高大文件的性能;btrfs已更新为更快的清理、关键文件系统元数据的自动备份和用于手动检查文件系统的工具;进程调度器添加了对设置CPU时间上限的支持;在大量写操作的情况下,桌面的响应能力得到了改进,TCP被更新为包括一个算法,该算法可以在丢失数据包后加快连接的恢复;分析工具“perf-top”增加了对任务和库的实时检查的支持,并可以看到带注释的程序集代码;设备映射器增加了对任务和库的支持对于存储的“精简配置”,我们增加了一个新的架构:高通公司的Hexagon DSP处理器。在这个版本中还提供了其他驱动程序以及一些小的改进和修复。3.32012.3.18这个版本最重要的特点是合并了Android项目的内核代码。但是,它还包括对新体系结构(TI C6X)的支持、大大改进的平衡和Btrfs中不同RAID配置文件之间的重排能力,以及一些网络改进:为虚拟化场景设计的虚拟交换机实现(Open vSwitch),一种比“绑定”驱动程序更快、更可扩展的替代方案,对网络设备的传输队列进行可配置的限制,以抵抗缓冲区膨胀,网络优先级控制组和每个cgroup的TCP缓冲区限制。也有许多小功能和新的驱动程序和修复程序也可用。3.42012.5.20此版本包括几个Btrfs更新:支持大于4KB的元数据块,大大提高了元数据性能,更好的错误处理和更好的恢复工具;还有一个新的X32 ABI,它允许在64位模式下运行带有32位指针的程序;对GPU驱动程序的几项更新:Nvidia GeForce 600“开普勒”的早期模式设置,AMD Radeon 7xxx和AMD Trinity APU系列的支持,以及Intel Medfield graphics的支持;还支持x86 CPU驱动程序自动robing,一个设备映射器目标,它存储块的加密散列以检查入侵,另一个目标是使用外部只读设备作为精简配置的LVM卷的源,一些性能改进,如GTK2报表GUI和新的“Yama”安全模块。也有许多小功能和新的驱动程序和修复程序也可用。3.52012.7.21此版本包括对Ext4中的元数据校验和的支持,使用诸如StaseTAP或PERP之类的工具进行性能分析的用户空间探针,沙盘机制允许过滤SysCurts,设计了一种新的网络队列管理算法,用于打击Buffer-BuLAT,支持检查点和恢复TCP连接,支持TCP早期重传(RFC 5827)、支持Android风格的机会挂起、btrfs I/O故障统计以及通过Firewire和USB的SCSI。许多小功能和新的驱动程序和修复程序也可用。3.62012.9.30这个Linux版本在Btrfs中包含了一些新特性:子卷配额、配额组和快照差异(也称为“发送/接收”)。它还包括支持同时挂起到磁盘和内存、TCP“快速打开”模式、“TCP小队列”功能以防止缓冲区膨胀;支持通过NFS/NBD进行安全交换、更好的Ext4配额支持、支持PCIe D3cold电源状态;以及VFIO,允许从客户机驱动程序安全访问裸机主机设备。许多小功能和新的驱动程序和修复程序也可用。3.72012.12.10此Linux版本包括对ARM 64位体系结构的支持,ARM支持使用同一内核引导到不同系统,签名的内核模块,Btrfs支持使用chattr和faster fsync()在每个文件的基础上禁用写时拷贝,这是一个模仿strace的新“perf trace”工具,支持服务器端的TCP快速打开功能、实验性的SMBv2协议支持、稳定的NFS4.1和并行的NFS支持、允许通过UDP传输第2层以太网数据包的新隧道协议,以及支持Intel“管理器模式访问保护”(SMAP)安全功能。许多小功能和新的驱动程序和修复程序也可用。3.82013.2.18这个Linux版本在Ext4中支持在inode中嵌入非常小的文件,这大大提高了这些文件的性能并节省了一些磁盘空间。还有一个新的Btrfs特性,允许快速替换磁盘,一个为ssd优化的新文件系统F2FS,支持文件系统挂载,UTS,IPC,PIDs,以及为没有特权的用户提供的网络堆栈名称空间,内存资源控制器中的内核内存,XFS中的日志校验和,改进的NUMA策略重新设计和取消了对386处理器的支持。许多小功能和新的驱动程序和修复程序也可用。3.92013.4.28这个Linux版本包括对实验性RAID5/6模式的支持,以及对Btrfs中快照共享的文件进行更好的碎片整理;对Android SDK使用的“金鱼”模拟器的支持,能够将固态硬盘存储作为缓存设备;两个新的架构端口:Synopsys ARC 700和Meta Imagination处理器;ARM中的KVM虚拟化支持体系结构,一个Intel驱动程序,它“注入”空闲状态以提高每瓦特的性能,支持Chrome OS笔记本电脑,一个新的挂起电源状态,并删除过时的配置实验配置选项。许多小功能和新的驱动程序和修复程序也可用。3.102013.6.30此版本增加了对bcache的支持,它允许使用SSD设备缓存来自其他块设备的数据;Btrfs格式的改进,使专用于存储数据块信息的树小30-35%;支持XFS元数据校验和自描述元数据、无时钟多任务、SysV IPC,rwlock和mutex可伸缩性改进,减少短事务尾部延迟的TCP尾部丢失探测算法,MIPS体系结构中的KVM虚拟化支持,混合不同类型cpu的ARM big.LITTLE体系结构,跟踪快照,新驱动程序和许多小改进。3.112013.9.2此版本增加了对一个新的O_TMPFILE open(2)标志的支持,该标志允许轻松创建安全的临时文件,自r600以来所有Radeon GPU的实验性动态电源管理,对NFS4.2和标记为NFS的SELinux的初步支持,对Lustre分布式文件系统的实验性支持,对程序写入的页的详细跟踪,ARM对ARM64的巨大页面支持和KVM/Xen支持,SYSV IPC消息队列可伸缩性改进,低延迟网络轮询机制,压缩交换缓存,新驱动程序和许多小改进。3.122013.11.2此版本增加了对Btrfs中离线重复数据消除的支持,双GPU笔记本电脑中的自动GPU切换,对AMD Radeon图形的性能提升,更好的RAID-5多核性能,改进了对内存不足情况的处理,改进了VFS路径名分辨率的可扩展性,改进了无时间多任务模式,在图形DRM层中独立的模式设置和渲染设备节点,改进了虚拟化客户机的锁定性能,XFS目录递归可伸缩性改进,IPC可伸缩性改进,tty层锁定改进,新驱动程序和许多小的改进。3.132014.1.19此版本包括nftables,iptables的后续产品,为高性能固态硬盘设计的块层的改进,英特尔RAPL设备功耗上限框架,改进的squashfs性能,默认启用的AMD Radeon电源管理和自动Radeon GPU交换,改进的NUMA性能,改进的性能与庞大的网页工作负载,TCP快速开放默认启用,支持NFC支付,支持高可用性无缝冗余协议,新的驱动程序和许多其他小的改进。3.142014.5.30此版本包括实时任务的截止时间任务调度策略、内存压缩机制现在被认为是稳定的、锁定验证器到用户空间的端口、存储属性(如Btrfs中每个inode的压缩)的能力、对跟踪事件的触发器支持、对用户空间探测的改进,内核地址空间随机化,TCP自动合并某些类型的连接,一个新的网络包调度程序来对抗缓冲区膨胀,新的驱动程序和许多其他小的改进。3.152014.6.8这个版本在有硬盘的系统中恢复得更快,它增加了对原子交叉重命名两个文件的支持,它增加了新的fallocate(2)模式,允许删除一个文件的范围或将其设置为零,它增加了一个新的文件锁定API,内存管理更好地适应工作集大小的变化,它提高了FUSE写性能,它还增加了支持zram中的LZ4算法,允许从32位EFI固件加载64位内核,增加了对即将加入英特尔CPU的AVX-512矢量指令的支持,增加了新的驱动程序和许多其他小改进。3.162014.8.3此版本通过支持动态切换Nvidia卡上的时钟频率来提高性能,它还支持将用户空间内存映射到Intel设备上的GPU,XFS有一个免费的inode btree用于更快的inode分配,ARM64内核可以用作EFI存根,IPv6支持TCP Fast Open,一些radeon设备有更好的性能得益于改进的电源管理支持,支持Intel Cherryview图形,控制组获得了可选的统一层次结构模式,还添加了新的驱动程序和许多其他小的改进。3.172014.10.5此版本增加了对IP上USB设备共享的支持,对Xbox One控制器的支持,对Apple的thunderbolt的支持,一个新的sealing API,它限制了对共享内存文件描述符的操作,使开发人员可以更容易地进行共享内存编程,支持perf trace中的页面故障跟踪,在kexec中只支持使用有符号的内核、getrandom()系统调用以生成更安全的随机数以及图形“渲染节点”不再是实验性的。也有新的驱动和许多其他小的改进。3.182014.12.7此版本增加了对overlayfs的支持,它允许在单个装载点组合两个文件系统;支持将用户空间内存映射到Radeon设备上的GPU,一个bpf()系统调用,它允许上载可附加到事件的类似bpf的程序;一个为数据中心优化的TCP拥塞算法;Geneve虚拟化封装,支持在UDP上嵌入IP协议,通过批处理套接字缓冲区提高网络性能,以及可选的多队列SCSI支持。也有新的驱动和许多其他小的改进。3.192015.2.8此版本增加了对Btrfs清理和用RAID 5和6快速替换设备的支持,对帮助阻止缓冲区溢出的Intel内存保护扩展的支持,对AMD HSA体系结构的支持,对调试ARM Coresight子系统的支持,对Altera Nios II CPU体系结构的支持,用于路由和交换卸载的网络基础设施、有助于支持Beaglebone或Raspberry Pi等消费者开发板上的扩展总线的设备树覆盖、NFSv4.2中对穿孔和预分配的支持,以及Android活页夹已从暂存区移到稳定区。也有新的驱动和许多其他小的改进。4.02015.4.12此版本增加了对内核代码进行实况补丁的支持,主要目的是在不重启的情况下修复安全更新;DAX,当文件系统在具有持久内存存储的系统上运行时,避免使用内核缓存的方法;KASAN,一种动态内存错误检测器,允许在空闲和越界bug之后找到使用;lazytime,relatime的一种替代方法,它只会在缓存中进行访问、修改和更改时间更新,并有机会写入磁盘;允许overlayfs具有多个较低层,支持并行NFS服务器体系结构;以及dm-crypt CPU可伸缩性的改进。也有新的驱动和许多其他小的改进。4.12015.6.21此版本增加了对Ext4加密的支持,对管理群集raid阵列的实验性支持,一个记录所有对设备的写入并允许重放它们的新设备映射器目标,一个在块设备中打开持久性内存系统中的内存的驱动程序,对禁用多用户支持的支持,支持基于路径标签而不是长网络地址路由数据包的多协议标签交换,允许将BPF程序附加到kprobes以进行更好的探测,ACPI支持ARM64体系结构,以及允许改进软件rasterizer的虚拟GEM驱动程序。也有新的驱动和许多其他小的改进。4.22015.8.30此版本为现代AMD Radeon硬件添加了一个新的amdgpu驱动程序,一个使用客户机内部主机GPU功能的virtio GPU驱动程序,新的原子模式设置图形API已声明稳定,支持堆叠安全模块,更快和更可扩展的自旋锁实现,cgroup写回支持,以及重新引入H8/300架构。也有新的驱动程序和许多其他小的改进。4.32015.11.1此版本删除ext3文件系统,并保留Ext4作为主Ext文件系统,Ext4还可以挂载ext3文件系统;它还添加了userfaultfd(),一个用于处理用户空间中的页面错误的系统调用;membarrier(),一个用于在一组线程上发出内存屏障的系统调用;一个用于限制cgroup中的PID数量的PID控制器,更易于使用的“环境”功能;空闲页跟踪,更精确地跟踪应用程序使用的内存;支持IPv6标识符定位器寻址;网络轻量级通道、虚拟路由和转发精简版支持,以及许多其他改进和新驱动程序。4.42016.1.10此版本增加了对虚拟GPU驱动程序中3D支持的支持,该驱动程序允许虚拟化客户机中的3D硬件加速图形;对直接I/O和异步I/O的循环设备支持,该支持节省内存并提高性能;对开放通道ssd的支持,该设备共享Flash转换层的职责在操作系统中,TCP侦听器处理是完全无锁的,允许更快和更可扩展的TCP服务器;MD层中的日志RAID5修复了RAID写入漏洞;eBPF程序现在可以由没有特权的用户运行,它们可以被持久化,perf还增加了对eBPF程序的支持;一个新的mlock2()系统调用,允许用户请求在页面错误时锁定内存;并阻止轮询支持,以提高高端存储设备的性能。也有新的驱动和许多其他小的改进。4.52016.3.13此版本添加了一个新的copyfilerange(2)系统调用,允许在不通过用户空间传输数据的情况下复制文件;现代Radeon GPU的实验性Powerplay电源管理;Btrfs可用空间处理的可扩展性改进;支持GCC的未定义行为Sanitizer(-fsanitize=Undefined);设备映射器的verity目标中的转发错误更正支持;在madvise()中支持MADVFREE标志;新的cgroup统一层次结构被认为是稳定的;SOREUSEPORT UDP套接字的可伸缩性改进;epoll的可伸缩性改进,以及内存控制器中套接字的更好的内存计算。也有新的驱动和许多其他小的改进。4.62016.5.15此版本增加了对USB 3.1 SuperSpeedPlus(10 Gbps)的支持、新的分布式文件系统OrangeFS、更可靠的内存不足处理、对Intel内存保护密钥的支持、使应用层协议实现更简单和更快的功能、对802.1AE MAC级加密(MACsec)的支持、对V版的支持BATMAN协议的一个OCFS2在线inode检查器,支持cgroup名称空间,支持pNFS SCSI布局,以及许多其他改进和新的驱动程序。4.72016.7.24此版本增加了对最近RADON RX 480 GPU的支持,支持同一目录中的并行路径名查找,一个新的实验“SeeDuuls'频率调速器,它应该比现有的管理者更快和更精确,支持EFI 'Capsule'升级固件的机制,支持USB/IP中的虚拟USB设备,使模拟的手机像真正的USB设备一样工作;新的安全模块“LoadPin”,确保所有内核模块都从同一个文件系统加载;在ftrace接口中创建事件直方图的接口;支持将BPF程序附加到内核跟踪点;支持调用链perf trace实用程序中的事件,对Android的sync_文件围栏机制的稳定支持,以及许多其他改进和新的驱动程序。4.82016.10.2此版本增加了对在页面缓存中使用透明的大页面的支持,对eXpress Data Path的支持,这是一个高性能、可编程的网络数据路径;对XFS反向映射的支持,它是几个即将推出的功能的构建块;使用强化的usercopy对内存副本进行更严格的检查;支持IPv6安全标签(CALIPSO,RFC 5570);GCC插件支持;virtio vsocks,以方便客户/主机通信;新的Vegas TCP拥塞控制算法;文档已移动到reStructuredText格式,以及许多其他改进和新驱动程序。4.92016.12.11这个版本增加了对共享扩展数据块(cp——reflink支持)和XFS上的写时拷贝支持;虚拟映射的内核栈使内核更加可靠和安全;一个更高效的BPF分析器,使Linux部分地支持Dtrace;基于带宽测量而非数据包丢失的新的可选BBR-TCP拥塞控制算法;使用保护密钥硬件功能的系统调用;对Ara项目中的Greybus总线的支持;用于检测固件引起的延迟的硬件延迟跟踪程序,以及许多其他改进和新的驱动程序。4.102017.2.19此版本增加了对虚拟化GPU的支持,一个用于NUMA系统中缓存行冲突分析的新“perf c2c”工具,一个用于任务调度详细历史记录的新“perf sched timehist”命令,改进的写回管理应该使系统在重写负载下更具响应性,一个新的混合块轮询方法使用更少CPU比纯轮询,支持ARM设备,如Nexus5&6或Allwinner A64,允许将eBPF程序附加到cGroup的功能,一个实验性的MD RAID5写回缓存,支持Intel缓存分配技术,以及许多其他改进和新驱动程序。4.112017.4.30此版本增加了对多队列块层中可插入IO调度程序框架的支持,在关闭write hole的MD RAID5实现中的日志支持,对在SSD中放置的交换进行更可扩展的交换实现,一个新的STATx()系统调用,解决了stat()的缺陷,作为ftrace接口前端的新perf ftrace工具,对实现OPAL存储规范的驱动器的支持,对RFC7609中定义的共享内存通信RDMA协议的支持,所有VGA控制台的持久滚动缓冲区,以及许多新的驱动程序和其他改进。4.122017.7.2此版本包括一个新的BFQ I/O调度程序,它提供了更好的交互体验;它还包括对Radeon RX Vega图形卡的初步支持和对USB Type-C连接器的支持;对实时内核修补功能的改进,对允许关闭RAID5 write hole的Intel IMSM部分奇偶校验日志的支持;支持将OpenChannel ssd公开为设备块,并支持另一个I/O调度程序Kybe,它允许为读写配置延迟目标4.132017.9.3这个版本增加了Ext4对大量目录项的支持,Ext4对64k以下扩展属性的支持,异步I/O的改进,后台写入的错误处理的改进,块层的错误处理的改进,内核TLS加速,以及许多其他改进。4.142017.11.12此版本包括支持x86硬件中更大的内存限制(128PiB虚拟地址空间,4PiB物理地址空间);支持AMD安全内存加密;提供更好内核跟踪和更小内核大小的新放卷机;一种cgroup“线程模式”,允许在一组进程的线程之间分配资源;对zstd压缩算法的支持已添加到Btrfs和Squashfs中;支持从用户内存到套接字的数据零拷贝;更好的异步缓冲I/O支持;支持未来GPU所需的异构内存管理;在某些情况下更好的cpufreq行为;使用PCID CPU特性的更长生命周期的TLB条目;异步非阻塞缓冲读取;以及许多新的驱动程序和其他改进。4.152018.1.28除了处理Meltdown/Spectre的最新代码外,此版本还包括amdgpu驱动程序的模式设置和高级显示功能;改进了对具有SATA积极链路电源管理的系统的电源管理支持;开放RISC-V cpu的端口;对AMD cpu中虚拟内存加密的初始支持;对Intel的支持用户模式指令预防功能;cgroups v2中对CPU控制器的支持;允许直接写入由文件系统管理的持久内存的新mmap(2)标志;以及许多新的驱动程序和其他改进。4.162018.4.1除了处理CPU安全漏洞的最新代码外,此版本还宣布反向映射和reflink功能稳定,membarrier(2)添加了快速支持,SMB3 Direct(RDMA)支持,添加了x86 jailhouse hypervisor,它能够静态地将多核系统划分为多个所谓的单元,支持PowerPC内存保护密钥、AMD安全加密虚拟化的管理程序部分,以及许多新的驱动程序和其他改进。4.172018.6.3此版本增加了对AMD Radeon Vega 12的支持,并在支持的AMD Radeon GPU中默认启用“显示代码”;还添加了内核TLS接收路径;更有效的空闲循环,防止CPU在shallow idle states下花费太多时间;删除了八个未维护的体系结构,另一个,添加了Andes NDS32体系结构;XFS获得了lazytime支持;修改了CPU负载估计;支持Intel Cannonlake gpu并添加了内核内存一致性模型;以及许多新的驱动程序和其他改进。4.182018.8.12此版本包括新的“可重新启动序列”系统调用,它使编写可扩展的用户空间代码变得更容易;对未授权的装载的支持;旨在使用BPF提供netfilter功能的bpfilter项目的开始;零拷贝TCP接收API;对高性能网络的新AF-XDP地址系列的支持;对高通Snapdragon 845 SoC的支持;以及许多新驱动程序和其他改进的支持。4.192018.10.22此版本还增加了:CAKE network queue management用于对抗bufferbloat,其设计初衷是为了从最慢的ISP链路和路由器中挤出最大的带宽和延迟;支持保证cGroup的最小I/O延迟目标;对未来Wi-Fi 6(802.11ax-drafts)的实验性支持;overlayfs用户的内存使用得到了改进;一个实验性的、为只读使用而优化的EROFS文件系统;一个新的异步I/O轮询接口;支持避免对攻击者控制的FIFO或世界上可写的粘性目录中的常规文件的无意写入;支持一个Intel特性,它将部分CPU缓存锁定为一个应用程序;以及许多新的驱动程序和其他改进。4.202018.12.23此版本包括对测量系统负载的新方法的支持;它增加了对未来AMD Radeon Picasso和Raven2的支持,并启用了对Radeon Vega20的非实验性支持;它增加了对C-SKY CPU体系结构和x86 Hygon Dhyana CPU的支持;TLB微优化在某些工作负载中带来了小的性能优势;TCP已经切换到“提前离开时间”模式;一种将memfd区域转换为dma buf的机制允许qemu改进虚拟化图形性能;它还包括针对CPU安全漏洞的最新一轮修复;它还添加了许多新的驱动程序和其他改进。5.02019.3.3此版本包括对energy-aware调度的支持,该调度将任务唤醒到phone中更节能的CPU;它还包括对低功耗设备的adiantum文件系统加密;它增加了对amdgpu驱动程序中AMD Freesync(可变刷新率)的支持;它增加了对UDP中接收卸载和MSG_ZEROCOPY支持的支持;它增加了对ARM指针认证的支持;它增加了对cgroupv2中的cpuset资源控制器(它可以约束任务的CPU和内存节点位置)的支持;它增加了对binderfs的命名空间支持,它允许运行多个android实例;它增加了对btrfs中交换文件的支持;它还增加了许多新的驱动因素和其他改进。5.12019.5.5此版本包括用于异步I/O的高性能接口io_uring;它还增加了fanotify的改进,以提供在大型文件系统上监视更改的可伸缩方式;它增加了一种方法,允许在PID重用的情况下安全地传递信号;持久内存现在可以用作热插拔RAM;Zstd压缩级别可以在Btrfs中配置;它还添加了一个新的cpuidle调控器,比菜单调控器做出更好的电源管理决策;所有32位体系结构都添加了处理y2038问题所需的系统调用;现在可以在没有initramfs的情况下引导到设备映射器设备;而实时补丁增加了对创建累积补丁的支持。一如既往,还有许多其他新的驱动因素和改进。5.22019.7.7此版本包括Sound Open Firmware,这是一个将开源固件引入到DSP音频设备的项目;还包括许多英特尔产品的开放固件。此版本还改进了Pressure Stall Information资源监控,使其可供Android使用;通过新的系统调用重新设计了mount API;BFQ I/O调度程序获得了一些性能改进;新的CLONEPIDFD标志允许CLONE(2)返回PIDFDsend_signal(2)可用的pidfs;Ext4已经获得了对不区分大小写的名称查找的支持;还有一个新的设备映射器目标,它模拟有失败扇区和/或读取失败的设备;已经添加了ARM Mali t4xx和更新的6xx/7xx的开源驱动程序。一如既往,有最新的CPU错误(MDS)和许多其他新的驱动程序和改进。5.32019.9.15此版本包括对AMD Navi gpu的支持;对umwait x86指令的支持,该指令允许进程在短时间内等待而无需spinning loops;一种“利用率限制”机制,用于增强手机中使用的功率不对称cpu的交互性;一个新的PIDFDXOPEN(2)系统调用,完成了让用户处理PID重用问题的工作;在0.0.0.0/8范围内提供了16百万个新的IPv4地址;支持Zaxin x86 CPU;支持英特尔速度选择,以便在Xeon服务器中更容易地进行电源选择;以及支持轻量级管理程序ACRN,这是为嵌入式物联网设备构建的。一如既往,还有许多其他新的驱动和改进。5.42019.11.24此版本包括kernel lockdown mode,旨在加强UID 0和内核之间的边界;virtio fs,一个高性能virtio驱动程序,它允许一个虚拟化的客户机去装载已导出到主机上的目录;fs-verity,用于检测文件篡改,如dm-verity,但是可以在文件上工作,而不是在块设备上工作;dm-clone允许对dm目标进行实时克隆;两个新的madvise()标志用于改进Android上的应用程序内存管理,支持新的Intel/AMD gpu,支持exfat文件系统,并删除EROFS文件系统的实验状态;一个新的haltpoll cpuidle驱动程序和调控器,大大提高了虚拟化客户机在空闲循环中进行客户机端轮询的性能;blk-iocost,一个I/O cgroup控制器,试图更准确地计算I/O的成本。一如既往,还有许多其他新的驱动和改进。由此可见Linux内核不断支持新的功能,不断变得更加的复杂。二、openEuler 特性华为服务器操作系统内部代号为 EulerOS,有近10年的技术积累,已广泛用于华为内部产品配套。同时,华为基于对鲲鹏处理器的深刻理解,在性能、可靠性、安全性等方面对 EulerOS 进行了深度优化。为促进多样性计算产业发展及生态建设,华为将把服务器领域的技术积累进行开源。2019年1月7日华为正式推出了鲲鹏920处理器,并开始着力构建鲲鹏生态。华为开发了基于鲲鹏处理器的TaiShan服务器,并开源了其内部代号为EulerOS的服务器操作系统[8],社区开源版被命名为“openEuler”。openEuler是一款开源操作系统。当前openEuler内核源于Linux,支持鲲鹏及其它多种处理器,能够充分释放计算芯片的潜能,是由全球开源贡献者构建的高效、稳定、安全的开源操作系统,适用于数据库、大数据、云计算、人工智能等应用场景。在之后的连载过程中,我们会逐步分析openEuler对ARM架构的支持、进程机制、内存管理机制、文件系统、网络通信、虚拟化与容器技术、系统安全技术、设备驱动程序以及初始化过程,整个连载预计192期,通过本连载的持续学习,您将对openEuler的内核有一个较为细致的了解。为了为读者提供一些实践的机会,本连载在每章之后会有一些对本章知识应用方法的介绍,帮助大家能把知识运用于实际。三、巨人的肩膀其实,除了之前提到的Minix系统外,Linux系统本身也是站在巨人的肩膀上,在它发布之前操作系统就已经经过了长期的发展,下表展现了Linux更深的渊源[7]:时间事件20世纪60年代MIT开发分时操作系统(Compatible TIme-Sharing System),支持30台终端访问主机;主机负责运算,而终端负责输入输出。1965年Bell实验室、MIT、GE(通用电气公司)准备开发Multics系统,为了同时支持300个终端访问主机,但是1969年失败了。刚开始并没有鼠标、键盘,输入设备只有卡片机,因此如果要测试某个程序,则需要将读卡纸插入卡片机,如果有错误,还需要重新来过。(Multics:Multiplexed Information and Computing Service)1969年Ken Thompson(C语言之父)利用汇编语言开发了FIle Server System(Unics,即Unix的原型。因为汇编语言对于硬件的依赖性,因此只能针对特定硬件。这么做只是为了移植一款“太空旅游”的游戏。1973年Dennis Ritchie和Ken Thompson发明了C语言,而后写出了Unix的内核 。其中90%的代码是C语言写的,10%的代码用汇编写的,因此移植时只要修改那10%的代码即可。1977年Berkeley大学的Bill Joy针对他的机器修改Unix源码,称为BSD(Berkeley Software Distribution),Bill Joy是Sun公司的创始人。1979年Unix发布System V,用于个人计算机。1984年因为Unix规定:“不能对学生提供源码”,Tanenbaum老师自己编写兼容于Unix的Minix,用于教学。1984年Stallman开始GNU(GNU’s Not Unix)项目,创办FSF(Free Software Foundation)基金会。自由软件指用户可以对软件做任何修改,甚至再发行,但是始终要挂着GPL的版权。产品:GCC、Emacs、Bash Shell、GLIBC。1985年为了避免GNU开发的自由软件被其他人用作专利软件,因此创建GPL(General Public License)版权声明。1988年MIT为了开发GUI,成立了XFree86的组织。1991年芬兰赫尔辛基大学的研究生Linus Torvalds基于gcc、bash开发了针对386机器的Lniux内核。1994年Torvalds发布Linux-v1.0。1996年Torvalds发布Linux-v2.0,确定了Linux的吉祥物:企鹅。在上面这张表中,有两个重要的项目对Linux的诞生产生了重要的影响,它们是Unix系统和GNU项目。在下面两篇连载中,我们将简要介绍Unix系统和GNU项目。下图展示了与Linux有关的操作系统发展史:四、结语本小节中我们简要回顾了Linux内核的发展历史。Linux的成功不但让Linus还清了其DIY个人计算机的欠款,而且还让他收获了爱情——一位叫朵芙(Tove)的姑娘向他发来邮件,邀请他去约会。不知道Linus赴约的时候是否知道,邀请他的这个女生曾六次获得芬兰空手道冠军。“朵芙是第一个通过互联网方式接近我的女人,而我干脆就把她娶回了家。”多年以后,Linus回忆这一段经历,十分得意[1]。最后献上一句Linus的话与大家共勉[2]:“做自己喜欢的、并对其他人也有帮助的事情很重要。”参考文献[1]http://tech.sina.com.cn/csj/2019-07-26/doc-ihytcitm4728357.shtml?cre=tianyi&mod=pchp&loc=4&r=0&rfunc=43&tj=none&tr=12[2]https://www.sohu.com/a/251078953_355140[3]https://baijiahao.baidu.com/s?id=1611958048582090280&wfr=spider&for=pc[4]https://blog.csdn.net/xiebingsuccess/article/details/91861871[5]https://www.oschina.net/news/101070/linux-kernel-4-19-released[6]https://kernelnewbies.org/Linux_4.19[7]https://www.cnblogs.com/alantu2018/p/8991158.html[8]http://baijiahao.baidu.com/s?id=1645207733241546990&wfr=spider&for=pc
  • [近期热门] 关于深度学习、NLP和计算机视觉的30个顶级Python库
    译者:AI研习社(话左)双语原文链接:Top Python Libraries for Deep Learning, Natural Language Processing & Computer Vision请注意,下面的图示由Gregory Piatetsky绘制,每个库都有其类别,按星标和贡献者对其进行绘制,符号大小则以该库在Github上的提交次数的对数表示。图1:深度学习,自然语言处理和计算机视觉的顶级Python库按星级和贡献者数量绘制;按提交数的对数表示相对大小那么事不宜迟 ,下面就是由KDnuggets员工精心挑选的30个可用于深度学习,自然语言处理和计算机视觉顶级Python库。深度学习1. TensorFlow星标:149000,提交数:97741,贡献者:754TensorFlow是针对机器学习的端对端开源平台。它具备综合灵活的工具、库和社区资源,可以帮助研究者推动先进的机器学习技术的发展以及开发者更轻松地开发和发布由机器学习支持的应用。2. Keras星标:50000,提交数:5349,贡献者:864  Keras是由python编写的机器学习API,其运行在机器学习的顶级平台TensorFlow上。3. PyTorch星标:43200,提交数:30696,贡献者:1619  使用Python实现的张量和动态神经网络,并带有强大的GPU加速。4. fastai星标:19800,提交数:1450,贡献者:607  通过利用当下最佳的技术实践,fastai极快地简化了训练过程也加速了神经网络。5. PyTorch Lightning星标:9600,提交数:3594,贡献者:317  针对高性能AI研究的封装轻量版PyTorch。可缩小你的模型,而不是提供小的样板。6. JAX星标:10000,提交数:5708,贡献者:221  Python+NumPy程序的组合变换:区分、向量化、在GPU/TPU上的JIT等等。7. MXNet星标:19100,提交数:11387,贡献者:839  带有动态和突变感知的数据流管理调度程序的轻量、便捷、灵活的分布式/移动机器学习库:支持Python、R、Julia、Scala、Go、JavaScript等等。8. Ignite星标:3100,提交数:747,贡献者:112  可灵活透明地训练评估PyTorch神经网络的高级别库。自然语言处理9. FastText星标:21700,提交数:379,贡献者:47fastText是一个可高效学习单词表意和句子分类的库。10. spaCy星标:17400,提交数:11628,贡献者:482  使用Python和Cython实现的工业级自然语言处理库(NLP)11. gensim星标:11200,提交数:4024,贡献者:361gensim通过使用大型语料库进行主题建模、文档索引和相似性检索。目标受众是自然语言处理(NLP)和信息检索(IR)社区12. NLTK星标:9300,提交数:13990,贡献者:319NLTK——自然语言工具箱——是一整套针对自然语言处理研究和开发的开源Python模块、数据集和教程13. Datasets(Huggingface)星标:4300,提交数:568,贡献者:64用于自然语言处理的使用PyTorch,TensorFlow,NumPy和Pandas工具的快速,高效,开放式数据集和评估指标 14. Tokenizers(Huggingface)星标:3800,提交数:1252,贡献者:30  针对研究和生产的快速顶级的分词器15. Transformers(Huggingface)星标:3500,提交数:5480,贡献者:585Transformers:针对Pytorch和TensorFlow 2.0 的顶级自然语言处理库  16. Stanza星标:4800,提交数:1514,贡献者:19针对很多人类语言的正式标准NLP Python库  17. TextBlob星标:7300,提交数:542,贡献者:24简单,Python风格,文本处理-情感分析,词性标记,名词短语提取,翻译等等。  18. PyTorch-NLP星标:1800,提交数:442,贡献者:15用于PyTorch自然语言处理(NLP)的基础实用工具19. Textacy星标:1500,提交数:1324,贡献者:23 用于执行各种自然语言处理(NLP)任务的Python库,构建在一个高性能spaCy库之上。  20. Finetune星标:626,提交数:1405,贡献者:13   Finetune是一个库,它允许用户利用最新的预训练NLP模型来执行各种下游任务。 21. TextHero星标:1900,提交数:266,贡献者:17   文本预处理、表示和可视化,从零到精通。22. Spark NLP星标:1700,提交数:4363,贡献者:50   Spark NLP是建立在Apache Spark ML之上的自然语言处理库。  23. GluonNLP星标:2200,提交数:712,贡献者:72   GluonNLP这个工具包,可简化文本预处理,数据集加载和神经模型构建,以帮助您加快对自然语言处理(NLP)的研究。计算机视觉24. Pillow星标:7800,提交数:10799,贡献者:303Pillow是个对用户十分友好的PIL分支。PIL是Python图像库25. OpenCV星标:49600,提交数:29453,贡献者:1234  开源计算机视觉库26. scikit-image星标:4000,提交数:12352,贡献者:403  用Python做图像处理27. Mahotas星标:644,提交数:1273,贡献者:25  Mahotas是个包含了最快的计算机视觉算法(所有算法用C++实现保证运行速度)的库,针对numpy数组运行28. Simple-CV星标:2400,提交数:2625,贡献者:69  SimpleCV是一个针对开源机器视觉的架构,使用了OpenCV和Python编程语言。29. GluonCV星标:4300,提交数:774,贡献者:101 GluonCV提供了计算机视觉中最先进(SOTA)的深度学习模型。30. Torchvision星标:7500,提交数:1286,贡献者:334  Torchvision包包含了流行的数据集、模型架构和计算机视觉中常用的图像转换方法。AI研习社是AI学术青年和AI开发者技术交流的在线社区。我们与高校、学术机构和产业界合作,通过提供学习、实战和求职服务,为AI学术青年和开发者的交流互助和职业发展打造一站式平台,致力成为中国最大的科技创新人才聚集地。如果,你也是位热爱分享的AI爱好者。欢迎与译站一起,学习新知,分享成长。
  • [热门活动] MindCon极客周 · 点亮城市接力活动正式启动!期待您的加入!
    12个城市的接力狂欢——MindCon极客周活动,今天正式启动啦! 12月14日 上海 首棒开跑的城市是上海,点Star通道已开启,今天(12.14)7:00-24:00在Gitee和GitHub上MindSpore新增的Star数将算入上海城市积分,每个Star为10积分。上海场我们邀请到亚马逊上海人工智能研究院应用科学家王敏捷,通过线上分享的方式,为大家带来主题为Building Efficient Systems for Deep Learning on Graphs的演讲。微信扫描上方二维码报名,上海打call! 12月15日长沙 接力第二棒的城市是火辣湘情——长沙明天(12.15)7:00-24:00在Gitee和GitHub上MindSpore新增的Star数将算入长沙城市积分,每个Star为10积分。「MindCon极客周」——点亮城市,微信扫描上方二维码报名,为长沙打call!12月16日 武汉  接力第三棒的城市武汉有两位MSG组织者为武汉召集小伙伴们点亮城市,为武汉加油~后天(12.16)7:00-24:00在Gitee和GitHub上MindSpore新增的Star数将算入武汉城市积分,每个Star为10积分。「MindCon极客周」——点亮城市,微信扫描上方二维码报名,为武汉打call!「MindCon极客周」可获得积分的活动内容分为三部分,想在12个城市中积分排名最高,需要您仔细阅读下面的规则,借鉴下文中的例子结合自身优势,充分发挥赢取积分的能力!点Star(新增star积10分)Bugfix(完成bugfix积100分)模型大赛(完成青铜赛段任务积200分) 01点Star活动内容 12个城市接力开启‘点Star’通道,每个城市‘点Star’活动时间为17小时(当天7:00-24:00),后台将统计17小时的活动时间里,MindSpore在Gitee和GitHub官网主仓新增的Star数,用每天的star新增数乘以10所得积分,记为参与‘点Star’活动内容所获得的积分。开启各个城市‘点Star’通道的日期表↓ 参与方式 在Gitee官网为MindSpore点Star:https://gitee.com/mindspore/mindspore在GitHub官网为MindSpore点Star:https://github.com/mindspore-ai/mindspore  举例 1 活动时间:12月14日(7:00-24:00)活动城市:上海Gitee官网新增Star数:200个GitHub官网新增Star数:200个上海的‘点Star’活动得分 =(200 + 200)* 10 = 4000分02Bugfix  活动内容 活动期间(12.14-12.25)将分为两个阶段(阶段一:12.14-12.19;阶段二:12.19-12.25)。第一阶段,每个MSG城市群会有专属任务:提交2个可被合入的bugfix,12个城市共计需完成24个bugfix;第二阶段,12个城市争夺抢分任务:集体参与解决第一阶段各个城市未完成的专属任务,在截止时间抢先提交的bugfix被合入可为所在城市赢得积分。 可获得积分 = bugfix数 * 100即每解决一个bug积100分,bug全部修复可获得2400个积分(24 * 100 = 2400分)。  参与方式 阶段一(12.14-12.19):专属任务· 12月14日 09:00小助手将在每个MSG城市的活动群发布该城市的专属任务(待解决的2个bug),每个MSG城市活动群接收到的任务不同;· 截止到12月19日 09:00完成任务(修复2个bug),即提交bugfix被合入的城市可获得积分 = 2 * 100 = 200分;阶段二(12.19-12.25):抢分任务· 12月19日 10:00若在第一阶段截止时间(12月19日 09:00前)2个bug均未修复或仅修复1个bug,小助手将在12月19日 10:00向12个MSG活动群公布未解决的Bugfix题目;· 截止到12月25日 24:00抢先提交可合入的bugfix数越多积分越高,在抢分任务阶段能争分夺秒的为所在城市赢得更多积分!  举例 2 阶段一 完成专属任务12月14日 09:00 - 12月19日 09:00上海MSG成员提交1个可合入的bugfix,有1个bug未解决在此期间上海积分 = 1 * 100 = 100分阶段二 完成抢分任务12月19日 10:00 - 12月25日 24:0012.19 小助手在12个MSG城市群公布了6个未解决bug,截止时间前MSG上海群抢先解决了其中的3个bug,将获得积分 = 3 * 100 = 300分 上海的‘Bugfix’活动得分 = 100 + 300 = 400分 03模型大赛  活动内容 12月25日 24:00前 完成‘青铜段位赛’可获得200积分。还可获得青铜徽章礼盒、HUAWEI WATCH GT 2Pro、500元京东卡、码豆、DevRun 开发者纪念品哟!*青铜段位赛的任务:完成模型训练脚本的迁移启动成功并完成单Step训练。  参与方式 在12月14日-25日期间完成昇腾模型王者挑战赛中的‘青铜段位赛’任务。微信扫描下方二维码关注「昇腾开发者」获取参赛细则↓ 举例 3 MSG上海群成员完成青铜赛段任务上海的‘模型大赛’活动得分 = 200分MindCon极客周活动截止时间12月25日 24:0012月28日公布12个城市积分排行榜和各个城市获得的总积分结合上面3个活动内容的例子上海总积分 = 4000 + 400 + 200 = 4600分MSG上海组织者可获得MindCon激励奖「价值2000元的索尼耳机+价值300元的官方定制卫衣一件」在「MindCon极客周」活动截止前(12月25日24:00)完成Bugfix任务(下文有详细任务介绍),即提交bugfix被合入的报名者将拥有优先进阶为「MindSpore优秀开发者」的权利,MindSpore社区团队会全力协助您完成「MindSpore优秀开发者」考核项目,评选通过后可享有如下「MindSpore优秀开发者」权益:i. 优秀开发者名单官网展示 ii. 获取专属礼品(价值1500元)iii. 官方大会门票、线下meetup等「MindCon极客周」活动期间(12.14-12.25)通过积分评比方式从12个城市选出积分最高的城市,这个城市的MSG组织者将获得惊喜好礼:我们希望在全世界范围征集对AI、深度学习框架MindSpore感兴趣,想学习更多知识,或者想结识更多有意思的人,为开源社区贡献一份力量的开发者,加入MindSpore社区成为MSG的组织者,MindSpore帮助您更快实现目标。有志于成为MSG组织者的朋友们,在公众号后台发送‘MSG组织者’即可报名!无论您是AI研究领域的资深玩家,还是对新奇事物充满好奇的AI零基础小白,欢迎大家报名「MindCon极客周」活动,点亮城市计划——助力城市获得更多积分、赢取惊喜大奖!微信添加下方小助手为好友报名记得备注:城市MindSpore官方资料GitHub:https://github.com/mindspore-ai/mindsporeGitee:https://gitee.com/mindspore/mindspore官方QQ群: 871543426海报制作:吴佳聪责任编辑:程旭总策划:胡晓曼长按下方二维码加入MindSpore项目↓
  • [热门活动] 12月19日云原生AI大数据Meetup北京站来袭
    Cloud Native Days China由CNCF携手华为云联合主办,聚焦云原生领域,专注技术探讨和趋势挖掘。自2018年启动以来已走过北京、上海、广州、成都、杭州、武汉等10多个城市,覆盖线下与线上的云原生爱好者5万+,共同享悦云原生技术。 12月19日(星期六),Volcano社区联合CNCF、云原生产业联盟将在北京举办一场关于【云原生AI大数据】Meetup , 本场Meetup聚焦AI、大数据等高性能计算场景在云原生领域的落地实践。 诚挚邀请您届时参会!活动邀请了来自华为云、腾讯、中科类脑和华宇的技术大咖与大家面对面,共话高性能批量计算技术的现状和未来、CNCF首个批量计算平台Volcano的技术架构与落地、云原生在互联网与司法领域的实践经验分享等。时间:12月19日(星期六)13:00-18:00 地点:中国信息通信研究院 地址:北京市海淀区花园北路52号中国信息通信研究院科研楼2层工业互联网展厅 报名方式:识别下方二维码即可马上报名                  立刻报名,现场有丰富奖品等你来拿 活动礼品 社区贡献者专属礼品(凭Github ID领取)打开下方链接,即可为社区做贡献:Github地址:https://github.com/volcano-sh/volcano官网地址:https://volcano.sh/zh/ 转发活动,也有神秘礼品相送规则:将活动文章转发到朋友圈,截图发给小助手,转发的第6位、第18位、第36位、第66位、第100位可获得神秘礼品 注意:参与时间截止12月18日18:00前 备注:小助手二维码见文末 交通指南按分享位置到达信通院北门——主会场的位置在正南方向黄色大楼(科研楼)二楼大厅 备注:报名用户直接在一楼前台提供姓名,审核后即可进入,若遇特殊情况,可联系小助手(小助手微信见文末) Q1:怎么确认报名是否成功?报名成功后,系统会自动发送报名成功提示信息,入场凭信息签到即可。Q2:门票是免费的吗?门票是免费领取的哦!Q3: Meetup有交流群吗?如何加入?长按下方二维码,添加小助手微信回复“活动报名”即可入群,优先获取抽奖资格。识别二维码添加小助手Q4:有线上直播吗?活动当天,我们会在B站同步直播,扫描下方二维码,关注Volcano云原生社区账号,即可预约观看。扫一扫,关注B站直播账号
  • [交流吐槽] 关于小熊派抄袭我司开源项目代码行为的谴责声明
    关于小熊派抄袭我司开源项目代码行为的谴责声明我先做一下自我介绍,我是润和HiHope团队的许思维。今天我向大家介绍一下——南京小熊派智能科技有限公司抄袭我们开源项目代码的相关事件。事发背景昨天(12月9号)下午,微信群里有华为的朋友说小熊派已经在HPM平台上发了一个鸿蒙的发行版,随后给我发了一个链接。从这里开始,才有了后文的故事。原来是上周,小熊派有两个年轻人,在华为的鸿蒙包管理平台(https://hpm.harmonyos.com/#/cn/home)上发布了几个HPM组件包,制作了一个发行版。发现违规按照HPM页面上的命令,我把他们的发行版下载下来了。下载下来之后,我在他们Wi-Fi相关的目录中,发现了两个文件——wifi_scan_demo.c, wifi_connect_demo.c。我一看内容,这是抄我们直播课的代码的吗?Beyond Compare一比较,还真是!连拼写错误都一样啊!我们课程代码已经在码云开源了,你抄没关系,毕竟,“读书人的事能叫偷吗”?再往上一看,Copyright和原始LICENSE文本被他们给删掉了!这就过分了啊!不讲武德啊!你如果留着Copyright和原始LICENSE文本,那就是“参与开源”,大家可以和谐相处、愉快玩耍!可你不是,你删了我们的Copyright和原始LICENSE,还好意思加上自己的公司的签名???要点脸好吗???说实在的,大家玩开源,把代码放出来让别人免费用,很多时候图的就是一个名声,仅此而已。你这吃相可真够难看的啊!另外,因为这两个文件中的这一行为影响了我的心情,导致我没有心思继续看他们的东西,不确定他们的其他组件和文件中是否存在类似行为!谴责声明本人仅以HiHope团队成员、润和软件员工、深鸿会群友、鸿蒙开发者,以及 码云用户的身份,向南京小熊派智能科技有限公司表示强烈谴责!同时要求你们:尽快整改你们在码云代码仓和HPM平台发布的代码,恢复我们原来的Copyright和LICENSE声明;好自为之,好好反思,以后不要再犯这样的聪明,小聪明,啊!要以和为贵,要讲武德!另外,华为鸿蒙和码云平台均强力反对他们的这种违规侵权行为,同时提醒你们:我们暂时还没有在HPM和码云发起举报流程,望你们尽快整改,耗子尾汁!我们保留在HPM和码云平台的举报,以及进一步追究相关责任的权利。事件回放9月25号,我们HiHope的《 Harmony OS物联网应用开发实战》课程资料 项目在码云开源,链接是:https://gitee.com/hihopeorg/HarmonyOS-IoT-Application-Development我们代码仓创建的时候,就在码云项目创建页面勾选了LICENSE文件——BSD 3-Clause License。我们的代码仓一创建就有LICENSE文件,后续所有源代码文件的头部注释也添加了一行Copyright和一份LICENSE声明文本。9月29号,我们在项目的README.md文件中添加了“许可与版权”说明,主要是为了防止文字的部分被拿去商用(出付费课程、书籍之类的):本课程所有代码使用BSD 3-Clause License许可证发布;本课程所有文档使用CC BY-NC-SA许可证发布,即《知识共享许可证》的“署名-非商业性使用-相同方式共享”版本;9月30号,我们提交了 wifi_scan_demo.c 文件,链接是:https://gitee.com/hihopeorg/HarmonyOS-IoT-Application-Development/commit/92ad7cef87eee81e7463e5b449a5a5d55540ddaa10月8号,我们提交了 wifi_connect_demo.c 文件,链接是:https://gitee.com/hihopeorg/HarmonyOS-IoT-Application-Development/commit/7780342888bc9901edd7e606523f534485f22f8b12月3号(昨天查看到的是12月3号,今天他们已重新发布,发布时间已变为12月10号),他们小熊派在发布了 bearpi_hm_nano_sample_app 组件包,链接是:https://hpm.harmonyos.com/#/cn/bundles/@bearpi%2Fbearpi_hm_nano_sample_app (可以用hpm命令:hpm init -t dist; hpm i @bearpi/bearpi_hm_nano_sample_app 下载这个组件的代码)12月10号(今天),我在他们的组件介绍页找到了他们的码云代码仓:https://gitee.com/bearpi/bearpi-hm_nano ,大家也可以去这里查看他们的代码。这个代码仓中也存在同样的违规行为——使用了我们开源项目的代码,但删除了我们的原始Copyright和LICENSE文本。证据备份今天上午,我已向润和软件股份有限公司相关领导反馈了这一情况。今天中午,我在“深鸿会”QQ群中吐槽了小熊派的这一“不讲武德”的行为。今天下午,通过钊哥帮助,相关情况已反馈到华为官方人员,官方人员已通知小熊派整改。截止发文前,为防止他们伪造码云提交记录(方法很多,最简单就是直接把代码仓删掉重新创建,或者本地.git目录删掉重新提交force-push),我已在CSDN、GitHub、GitLab三个代码平台“导入”了他们的码云代码仓,留做备份,链接分别如下。CSDN:https://codechina.csdn.net/xusiwei1236/bearpi-hm_nanoGitHub:https://github.com/xusiwei/bearpi-hm_nanoGitLab:https://gitlab.com/xusiwei/bearpi-hm_nano原本准备使用码云的CopyCat功能扫描他们的代码和我们代码仓之间的相似度,但因为码云该功能尚不完善,在扫描两个代码仓时发生超时,遂放弃了继续深入调查取证。感兴趣的同学,可以用我们的码云代码仓 https://gitee.com/hihopeorg/HarmonyOS-IoT-Application-Development (我们的代码仓在GitHub也有备份)和我三个备份中的任意一个进行对比。后续发展10号下午,他们收到华为的通知之后,只是修改了变量命名,提交了一下,还是没有加我们的copyright和license声明,真够鸡贼的!12月11号,他们真的删除了代码仓,重新提交了整个代码仓,伪造了提交记录,不敢面对自己犯下的错误!还好,我留了一手,备份了他们10号中午之前的代码仓,以及本地留存了9号他们的HPM包。由于他们代码仓把整个鸿蒙源码树都添加上去了,代码仓比较大,导致码云CopyCat检测超时。今天,我把他们示例代码单独在码云上传了一个代码仓,和我的课程代码进行了比较,生生了比对报告。详见附件,欢迎下载查看。大家也可以尝试,访问 https://copycat.gitee.com/ 两边分别填入:https://gitee.com/hihopeorg/HarmonyOS-IoT-Application-Developmenthttps://gitee.com/swxu/bearpi-hm_nano_sample
  • [热门活动] MindCon极客周,除了P40 Pro+等礼品,什么都没有
    时间走至2020年末,但似乎有关这一年“余额不足”的讨论,并不及往年多。年初flag未能实现的焦虑,多被这不顺意的一年即将过去的庆幸替代。回想这即将匆匆而过的2020,有收获、有遗憾,最重要的是我们能从过去的经历更加了解现在的自己并让我们倍感找寻共识的重要性与必要性。因此,在即将告别2020之际,参加「MindCon极客周」与志趣相同的伙伴们一起分享学习心得,修复社区bug,参加模型王者挑战赛赢取奖励!12个城市接力狂欢,用我们的热情将城市点亮,一直high到圣诞,一切尽在「MindCon极客周」!优秀开发者直通车在「MindCon极客周」活动截止前(12月25日24:00)完成Bugfix任务(下文有详细任务介绍),即提交bugfix被合入的报名者将拥有优先进阶为「MindSpore优秀开发者」的权利,MindSpore社区团队会全力协助您完成「MindSpore优秀开发者」考核项目,评选通过后可享有如下「MindSpore优秀开发者」权益:i. 优秀开发者名单官网展示 ii. 获取专属礼品(价值1500元)iii. 官方大会门票、线下meetup等活动积分规则「MindCon极客周」可获得积分的活动内容分为三部分,想在12个城市中积分排名最高,需要您仔细阅读下面的规则,借鉴下文中的例子结合自身优势,充分发挥赢取积分的能力!点Star(新增star积10分)Bugfix(完成bugfix积100分)模型大赛(完成青铜赛段任务积200分) 01点Star活动内容 12个城市接力开启‘点Star’通道,每个城市‘点Star’活动时间为17小时(当天7:00-24:00),后台将统计17小时的活动时间里,MindSpore在Gitee和GitHub官网主仓新增的Star数,用每天的star新增数乘以10所得积分,记为参与‘点Star’活动内容所获得的积分。开启各个城市‘点Star’通道的日期表↓ 参与方式 在Gitee官网为MindSpore点Star:https://gitee.com/mindspore/mindspore在GitHub官网为MindSpore点Star:https://github.com/mindspore-ai/mindspore  举例 1 活动时间:12月14日(7:00-24:00)活动城市:上海Gitee官网新增Star数:200个GitHub官网新增Star数:200个上海的‘点Star’活动得分 =(200 + 200)* 10 = 4000分02Bugfix  活动内容 活动期间(12.14-12.25)将分为两个阶段(阶段一:12.14-12.19;阶段二:12.19-12.25)。第一阶段,每个MSG城市群会有专属任务:提交2个可被合入的bugfix,12个城市共计需完成24个bugfix;第二阶段,12个城市争夺抢分任务:集体参与解决第一阶段各个城市未完成的专属任务,在截止时间抢先提交的bugfix被合入可为所在城市赢得积分。 可获得积分 = bugfix数 * 100即每解决一个bug积100分,bug全部修复可获得2400个积分(24 * 100 = 2400分)。  参与方式 阶段一(12.14-12.19):专属任务· 12月14日 09:00小助手将在每个MSG城市的活动群发布该城市的专属任务(待解决的2个bug),每个MSG城市活动群接收到的任务不同;· 截止到12月19日 09:00完成任务(修复2个bug),即提交bugfix被合入的城市可获得积分 = 2 * 100 = 200分;阶段二(12.19-12.25):抢分任务· 12月19日 10:00若在第一阶段截止时间(12月19日 09:00前)2个bug均未修复或仅修复1个bug,小助手将在12月19日 10:00向12个MSG活动群公布未解决的Bugfix题目;· 截止到12月25日 24:00抢先提交可合入的bugfix数越多积分越高,在抢分任务阶段能争分夺秒的为所在城市赢得更多积分!  举例 2 阶段一 完成专属任务12月14日 09:00 - 12月19日 09:00上海MSG成员提交1个可合入的bugfix,有1个bug未解决在此期间上海积分 = 1 * 100 = 100分阶段二 完成抢分任务12月19日 10:00 - 12月25日 24:0012.19 小助手在12个MSG城市群公布了6个未解决bug,截止时间前MSG上海群抢先解决了其中的3个bug,将获得积分 = 3 * 100 = 300分 上海的‘Bugfix’活动得分 = 100 + 300 = 400分 03模型大赛  活动内容 12月25日 24:00前 完成‘青铜段位赛’可获得200积分。还可获得青铜徽章礼盒、HUAWEI WATCH GT 2Pro、500元京东卡、码豆、DevRun 开发者纪念品哟!*青铜段位赛的任务:完成模型训练脚本的迁移启动成功并完成单Step训练。  参与方式 在12月14日-25日期间完成昇腾模型王者挑战赛中的‘青铜段位赛’任务。微信扫描下方二维码关注「昇腾开发者」获取参赛细则↓ 举例 3 MSG上海群成员完成青铜赛段任务上海的‘模型大赛’活动得分 = 200分MindCon极客周活动截止时间12月25日 24:0012月28日公布12个城市积分排行榜和各个城市获得的总积分结合上面3个活动内容的例子上海总积分 = 4000 + 400 + 200 = 4600分MSG上海组织者可获得MindCon激励奖「价值2000元的索尼耳机+价值300元的官方定制卫衣一件」MSG组织者的特别答谢「MindCon极客周」活动期间(12.14-12.25)通过积分评比方式从12个城市选出积分最高的城市,这个城市的MSG组织者将获得惊喜好礼:我们希望在全世界范围征集对AI、深度学习框架MindSpore感兴趣,想学习更多知识,或者想结识更多有意思的人,为开源社区贡献一份力量的开发者,加入MindSpore社区成为MSG的组织者,MindSpore帮助您更快实现目标。有志于成为MSG组织者的朋友们,在公众号后台发送‘MSG组织者’即可报名!无论您是AI研究领域的资深玩家,还是对新奇事物充满好奇的AI零基础小白,欢迎大家报名「MindCon极客周」活动,点亮城市计划——助力城市获得更多积分、赢取惊喜大奖!微信添加下方小助手为好友报名记得备注:城市MindSpore官方资料GitHub:https://github.com/mindspore-ai/mindsporeGitee:https://gitee.com/mindspore/mindspore官方QQ群: 871543426海报制作:吴佳聪责任编辑:程旭总策划:胡晓曼长按下方二维码加入MindSpore项目↓
  • [其他] AI经典论文Caffe:用于快速特征嵌入的卷积架构
           Caffe为多媒体科学家和从业人员提供了一个干净且可修改的框架,用于最新的深度学习算法和参考模型的集合。该框架是具有BSD许可的C ++库,具有Python和MATLAB绑定,可在商品架构上有效地训练和部署通用卷积神经网络和其他深度模型。 Caffe通过CUDA GPU计算满足了行业和互联网规模的媒体需求,每天在单个K40或Titan GPU上处理超过4000万张图像(每幅图像≈2.5 ms)。通过将模型表示与实际实现分离,Caffe允许在平台之间进行实验和无缝切换,以简化从原型机到云环境的开发和部署。 Caffe由伯克利视觉与学习中心(BVLC)在GitHub上活跃的贡献者社区的帮助下进行维护和开发。它为正在进行的研究项目,大规模工业应用以及视觉,语音和多媒体中的启动原型提供动力。       下载地址:https://arxiv.org/pdf/1408.5093v1.pdf