- 前言上一篇文章中我们主要通过编写各优化器函数,找到其在目标函数上的极小值,得到不同优化器的作用。本篇文章我们将接着上一篇的学习,继续详细介绍不同优化器在鸢尾花数据集上的分类表现。鸢尾花数据在不同优化器下的分类表现这一部分主要通过构建全连接网络,体会有无优化器的全连接网络的差别,从而深入理解优化器在神经网络模型构建中的作用,主要设计流程如下:创建实验环境:在ModelArts平台创建MindS... 前言上一篇文章中我们主要通过编写各优化器函数,找到其在目标函数上的极小值,得到不同优化器的作用。本篇文章我们将接着上一篇的学习,继续详细介绍不同优化器在鸢尾花数据集上的分类表现。鸢尾花数据在不同优化器下的分类表现这一部分主要通过构建全连接网络,体会有无优化器的全连接网络的差别,从而深入理解优化器在神经网络模型构建中的作用,主要设计流程如下:创建实验环境:在ModelArts平台创建MindS...
- 学习笔记|线性规划的标准化提到了用拉格朗日乘子法求解标准形式的线性规划,实际上拉格朗日乘子法更适用于求解非线性优化问题,而对于线性规划的求解,更加适合用单纯形法求解,不再继续展开。本篇主要讨论传说中的KKT条件与拉格朗日乘子法。KKT条件是Karush[1939],以及Kuhn和Tucker[1951]先后独立发表出來的,是确定某点为极值点的必要条件。在引入KKT条件前,让我们先回到拉格朗日... 学习笔记|线性规划的标准化提到了用拉格朗日乘子法求解标准形式的线性规划,实际上拉格朗日乘子法更适用于求解非线性优化问题,而对于线性规划的求解,更加适合用单纯形法求解,不再继续展开。本篇主要讨论传说中的KKT条件与拉格朗日乘子法。KKT条件是Karush[1939],以及Kuhn和Tucker[1951]先后独立发表出來的,是确定某点为极值点的必要条件。在引入KKT条件前,让我们先回到拉格朗日...
- 本文介绍了如何在Ubuntu 18.04上源码安装MindSpore V1.5 GPU版本。干货满满。 本文介绍了如何在Ubuntu 18.04上源码安装MindSpore V1.5 GPU版本。干货满满。
- MindSpore两日训练营第六期内容MindSpore第六期主要有以下内容组成MindSpore AI科学计算MOE异构并行MindSpore Boost可视化集群调优MindSpore控制流MindSpore Lite 1.5六个内容都是围绕MindSpore最新的1.5版本的新特性进行介绍,也是通过课程了解新功能的一个不错的方法。在每个课程的最后都有两个作业,一个简单的和一个稍难一点... MindSpore两日训练营第六期内容MindSpore第六期主要有以下内容组成MindSpore AI科学计算MOE异构并行MindSpore Boost可视化集群调优MindSpore控制流MindSpore Lite 1.5六个内容都是围绕MindSpore最新的1.5版本的新特性进行介绍,也是通过课程了解新功能的一个不错的方法。在每个课程的最后都有两个作业,一个简单的和一个稍难一点...
- 机器学习典型步骤 过拟合 & 欠拟合 为什么需要交叉验证数据集? 什么是学习曲线? 为什么需要查准率和召回率来评估模型的好坏?查准率和召回率适合哪些问题领域? 数据预处理 & 特征选择 kNN 使用k-近邻算法进行回归拟合 糖尿病预测 线性回归 波士顿房价预测 逻辑回归 乳腺癌检测(数据预处理) 决策树 基本概念 决策树的创建 算法分类 剪枝算法 预测泰坦尼克号幸存者 集合算法 随机森林(... 机器学习典型步骤 过拟合 & 欠拟合 为什么需要交叉验证数据集? 什么是学习曲线? 为什么需要查准率和召回率来评估模型的好坏?查准率和召回率适合哪些问题领域? 数据预处理 & 特征选择 kNN 使用k-近邻算法进行回归拟合 糖尿病预测 线性回归 波士顿房价预测 逻辑回归 乳腺癌检测(数据预处理) 决策树 基本概念 决策树的创建 算法分类 剪枝算法 预测泰坦尼克号幸存者 集合算法 随机森林(...
- MindElec是MindSpore 1.5的新特性之一,它是MindScience科学套件的一部分。 MindElec是MindSpore 1.5的新特性之一,它是MindScience科学套件的一部分。
- 神经网络的学习笔记 一、神经网络概述神经网络是深度学习的重要的工具,其本身是机器学习的一个算法,主要用于解决复杂的AI问题,包括卷积神经网络(CNN),全连接神经网络(FNN),循环神经网络(RNN)等。神经网络算法复杂,涉及的原理较多也较难,包括参数的迭代更新,激活函数,损失函数,梯度消失,反向传播等,下面将列出个人对于这些知识点的见解,仅供参考,也欢迎大佬指正。 二、神经网络的工作流程神... 神经网络的学习笔记 一、神经网络概述神经网络是深度学习的重要的工具,其本身是机器学习的一个算法,主要用于解决复杂的AI问题,包括卷积神经网络(CNN),全连接神经网络(FNN),循环神经网络(RNN)等。神经网络算法复杂,涉及的原理较多也较难,包括参数的迭代更新,激活函数,损失函数,梯度消失,反向传播等,下面将列出个人对于这些知识点的见解,仅供参考,也欢迎大佬指正。 二、神经网络的工作流程神...
- 学习笔记|logistic回归 中提到了二项分布的极大似然估计,我们来简单回顾一下似然函数与极大似然估计。1. 似然函数似然函数是统计学中关于统计模型参数的函数。百度百科的词条指出,“给定输出x时,关于参数θ的似然函数L(θ|x)(在数值上)等于给定参数θ后变量X的概率:L(θ|x)=P(X=x|θ)”。同时,它又指出,P(X=x|θ)“此处并非条件概率”。但在数学表达式上,P(X=x|θ)... 学习笔记|logistic回归 中提到了二项分布的极大似然估计,我们来简单回顾一下似然函数与极大似然估计。1. 似然函数似然函数是统计学中关于统计模型参数的函数。百度百科的词条指出,“给定输出x时,关于参数θ的似然函数L(θ|x)(在数值上)等于给定参数θ后变量X的概率:L(θ|x)=P(X=x|θ)”。同时,它又指出,P(X=x|θ)“此处并非条件概率”。但在数学表达式上,P(X=x|θ)...
- Kaldi的nnet3网络结构。xconfig: 类似于keras,简洁的网络定义,xconfig覆盖了大部分常用的神经网络layerconfig: kaldi实际使用的config, 基于node定义网络结构,如果xconfig无法满足需求,可在config层实现。C++: 如果某些网络无法用config构建,或者想提高效率,则可以在C++层实现。(Kaldi本身的LSTM可以通过conf... Kaldi的nnet3网络结构。xconfig: 类似于keras,简洁的网络定义,xconfig覆盖了大部分常用的神经网络layerconfig: kaldi实际使用的config, 基于node定义网络结构,如果xconfig无法满足需求,可在config层实现。C++: 如果某些网络无法用config构建,或者想提高效率,则可以在C++层实现。(Kaldi本身的LSTM可以通过conf...
- 1. 生成最小二乘回归树的算法实现首先,计算(j,s)确定情况下的损失:def cal_regression_loss(x, y, j, s): r1 = np.where(x[:, j] <= s) r2 = np.where(x[:, j] > s) c1 = get_max_class(y[r1]) c2 = get_max_class(y[r2]) re... 1. 生成最小二乘回归树的算法实现首先,计算(j,s)确定情况下的损失:def cal_regression_loss(x, y, j, s): r1 = np.where(x[:, j] <= s) r2 = np.where(x[:, j] > s) c1 = get_max_class(y[r1]) c2 = get_max_class(y[r2]) re...
- **概述**:深度学习模型的计算任务分为训练和推理.训练往往是放在云端或者超算集群中,利用GPU强大的浮点计算能力,来完成网络模型参数的学习过程.一般来说训练时,计算资源往往非常充足,基本上受限于显存资源/多节点扩展/通讯库效率的问题。相对于训练过程,推理往往被应用于终端设备,如手机,计算资源/功耗都收到严格的限制,为了解决这样的问题,提出了很多不同的方法来减少模型的大小以及所需的计... **概述**:深度学习模型的计算任务分为训练和推理.训练往往是放在云端或者超算集群中,利用GPU强大的浮点计算能力,来完成网络模型参数的学习过程.一般来说训练时,计算资源往往非常充足,基本上受限于显存资源/多节点扩展/通讯库效率的问题。相对于训练过程,推理往往被应用于终端设备,如手机,计算资源/功耗都收到严格的限制,为了解决这样的问题,提出了很多不同的方法来减少模型的大小以及所需的计...
- 本文(Unsupervised Time Series Outlier Detection with Diversity-Driven Convolutional Ensembles)是由华为云数据库创新Lab联合丹麦Aalborg University与电子科技大学发表在顶会VLDB'22的文章。 本文(Unsupervised Time Series Outlier Detection with Diversity-Driven Convolutional Ensembles)是由华为云数据库创新Lab联合丹麦Aalborg University与电子科技大学发表在顶会VLDB'22的文章。
- 学习笔记|决策树的特征选择、学习笔记|决策树的生成、学习笔记决策树的剪枝分别介绍了决策树算法的特征选择、树生成与剪枝,三者结合者是完整的决策树算法。1. 信息增益(比)的计算信息增益和信息增益比分别是ID3算法和C4.5算法特征选择的方法。首先,计算信息熵。def count_entropy(y): e = dict(Counter(y)) return np.sum([- v ... 学习笔记|决策树的特征选择、学习笔记|决策树的生成、学习笔记决策树的剪枝分别介绍了决策树算法的特征选择、树生成与剪枝,三者结合者是完整的决策树算法。1. 信息增益(比)的计算信息增益和信息增益比分别是ID3算法和C4.5算法特征选择的方法。首先,计算信息熵。def count_entropy(y): e = dict(Counter(y)) return np.sum([- v ...
- Word2vec 最主要的问题是这个处理过程非常耗时,需要计算的参数较多。通常,词汇表容量在百万级别以上,这意味着输出层使用 softmax 计算各个词的输出概率的计算量很大,这就会导致模型在通过反向传播算法更新模型参数时的工作量变大,从而导致训练过程缓慢,无法很快收敛。Mikolov等人在 2013 年提出了几种解决办法,有效的提高了Word2vec 模型的训练速度和模型效果,使得 Wor... Word2vec 最主要的问题是这个处理过程非常耗时,需要计算的参数较多。通常,词汇表容量在百万级别以上,这意味着输出层使用 softmax 计算各个词的输出概率的计算量很大,这就会导致模型在通过反向传播算法更新模型参数时的工作量变大,从而导致训练过程缓慢,无法很快收敛。Mikolov等人在 2013 年提出了几种解决办法,有效的提高了Word2vec 模型的训练速度和模型效果,使得 Wor...
- 1. 朴素贝叶斯算法首先,构造朴素贝叶斯类,初始化x和y。class naive_bayes(object): def __init__(self, x, y): self.x = x self.y = y其次,计算先验概率。 def cal_prior_probability(self): self.prior_probability ... 1. 朴素贝叶斯算法首先,构造朴素贝叶斯类,初始化x和y。class naive_bayes(object): def __init__(self, x, y): self.x = x self.y = y其次,计算先验概率。 def cal_prior_probability(self): self.prior_probability ...
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签