- AIRS/Aqua L2 Support Retrieval (AIRS+AMSU) V006 (AIRX2SUP) at GES DISC简介大气红外探测器 (AIRS) 是搭载于第二个地球观测系统 (EOS) 极地轨道平台 EOS Aqua 上的一台光栅光谱仪 (R = 1200)。AIRS 与先进微波探测装置 (AMSU) 和巴西湿度探测器 (HSB) 相结合,构成了一个由可见光、红外... AIRS/Aqua L2 Support Retrieval (AIRS+AMSU) V006 (AIRX2SUP) at GES DISC简介大气红外探测器 (AIRS) 是搭载于第二个地球观测系统 (EOS) 极地轨道平台 EOS Aqua 上的一台光栅光谱仪 (R = 1200)。AIRS 与先进微波探测装置 (AMSU) 和巴西湿度探测器 (HSB) 相结合,构成了一个由可见光、红外...
- I-ViT: 用于高效视觉Transformer推理的纯整数量化Li Z, Gu Q. I-vit: Integer-only quantization for efficient vision transformer inference[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision.... I-ViT: 用于高效视觉Transformer推理的纯整数量化Li Z, Gu Q. I-vit: Integer-only quantization for efficient vision transformer inference[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision....
- VEMAP 2: Annual Ecosystem Model Responses to U.S. Climate Change, 1994-2100简介植被-生态系统建模与分析项目 (VEMAP) 是一项大型、多机构合作的国际项目,其目标是评估陆地生态系统和植被过程对气候变化和大气中二氧化碳升高的敏感性。VEMAP 项目的第一阶段开发了符合生态系统模型和植被分布模型要求的历史 (1895-... VEMAP 2: Annual Ecosystem Model Responses to U.S. Climate Change, 1994-2100简介植被-生态系统建模与分析项目 (VEMAP) 是一项大型、多机构合作的国际项目,其目标是评估陆地生态系统和植被过程对气候变化和大气中二氧化碳升高的敏感性。VEMAP 项目的第一阶段开发了符合生态系统模型和植被分布模型要求的历史 (1895-...
- 游戏NPC的智能行为设计:从规则驱动到强化学习的演进 引言:NPC行为设计的挑战与机遇在传统游戏中,NPC(非玩家角色)的行为通常由**有限状态机(FSM)或行为树(Behavior Trees)**驱动。这些方法逻辑清晰、易于调试,但在复杂交互和动态环境中表现僵硬,难以适应玩家的高自由度行为。随着人工智能的发展,**强化学习(Reinforcement Learning, RL)**为N... 游戏NPC的智能行为设计:从规则驱动到强化学习的演进 引言:NPC行为设计的挑战与机遇在传统游戏中,NPC(非玩家角色)的行为通常由**有限状态机(FSM)或行为树(Behavior Trees)**驱动。这些方法逻辑清晰、易于调试,但在复杂交互和动态环境中表现僵硬,难以适应玩家的高自由度行为。随着人工智能的发展,**强化学习(Reinforcement Learning, RL)**为N...
- 吃得安心靠数据?聊聊用大数据盯紧咱们的餐桌安全 吃得安心靠数据?聊聊用大数据盯紧咱们的餐桌安全
- 模型量化技术简要详解 模型量化的本质与基础原理模型量化技术本质上是一种精度与效率的权衡艺术。想象一下,如果我们用数字来记录一个房间的温度,使用小数点后十位的精度(如23.1234567890°C)虽然非常精确,但在日常生活中,精确到小数点后一位(23.1°C)就足够了。模型量化的核心思想与此类似——将神经网络中的高精度浮点数(通常是32位浮点数,FP32)转换为低精度的整数表示(如8位整数... 模型量化技术简要详解 模型量化的本质与基础原理模型量化技术本质上是一种精度与效率的权衡艺术。想象一下,如果我们用数字来记录一个房间的温度,使用小数点后十位的精度(如23.1234567890°C)虽然非常精确,但在日常生活中,精确到小数点后一位(23.1°C)就足够了。模型量化的核心思想与此类似——将神经网络中的高精度浮点数(通常是32位浮点数,FP32)转换为低精度的整数表示(如8位整数...
- NLP参数高效迁移学习:Adapter方法的深度解析Houlsby N, Giurgiu A, Jastrzebski S, et al. Parameter-efficient transfer learning for NLP[C]//International conference on machine learning. PMLR, 2019: 2790-2799. 第一章 引言与... NLP参数高效迁移学习:Adapter方法的深度解析Houlsby N, Giurgiu A, Jastrzebski S, et al. Parameter-efficient transfer learning for NLP[C]//International conference on machine learning. PMLR, 2019: 2790-2799. 第一章 引言与...
- 数据喂得好,机器人才能学得快:大数据对智能机器人训练的真正影响 数据喂得好,机器人才能学得快:大数据对智能机器人训练的真正影响
- 你是否曾想过让强大的开源大模型(LLM)更懂你的专业领域,或者更能模仿你的写作风格?微调(Fine-Tuning)就是实现这一目标的钥匙。过去,微调是资源雄厚的大公司的专利,动辄需要数十张GPU和复杂的分布式训练知识。但现在,感谢 Ollama 和 Python 生态的强大工具,这一切变得前所未有的简单。本文将手把手带你,用一个消费级GPU(甚至CPU!),在1小时内完成属于你自己的模型微调... 你是否曾想过让强大的开源大模型(LLM)更懂你的专业领域,或者更能模仿你的写作风格?微调(Fine-Tuning)就是实现这一目标的钥匙。过去,微调是资源雄厚的大公司的专利,动辄需要数十张GPU和复杂的分布式训练知识。但现在,感谢 Ollama 和 Python 生态的强大工具,这一切变得前所未有的简单。本文将手把手带你,用一个消费级GPU(甚至CPU!),在1小时内完成属于你自己的模型微调...
- pytorch量化[!note]官方定义:performing computations and storing tensors at lower bitwidths than floating point precision.支持INT8量化,可以降低4倍的模型大小以及显存需求,加速2-4倍的推理速度通俗理解:降低权重和激活值的精度(FP32→INT8),从而提高模型大小以及显存需求。 ... pytorch量化[!note]官方定义:performing computations and storing tensors at lower bitwidths than floating point precision.支持INT8量化,可以降低4倍的模型大小以及显存需求,加速2-4倍的推理速度通俗理解:降低权重和激活值的精度(FP32→INT8),从而提高模型大小以及显存需求。 ...
- Word2Vec How achieve Lookup table Coding Pre-dataing Model Negative sameple Word2Vec单词与单词之间的向量往往不在同一个向量空间,例如,传统的编码方式:one-hot编码,不同单词[1, 0, 0]和[0, 1, 0]之间的余弦相似度为0。因此,Word2Vec希望能够通过训练得到一个新的词向量表达方式,从而... Word2Vec How achieve Lookup table Coding Pre-dataing Model Negative sameple Word2Vec单词与单词之间的向量往往不在同一个向量空间,例如,传统的编码方式:one-hot编码,不同单词[1, 0, 0]和[0, 1, 0]之间的余弦相似度为0。因此,Word2Vec希望能够通过训练得到一个新的词向量表达方式,从而...
- Adaboost 一、基本内容[!note]实现思路:在每一轮训练中,记录每一次由f(x)=∑m=1i−1αmGm(x)f(x) = \sum_{m=1}^{i-1}\alpha_mG_m(x)f(x)=∑m=1i−1αmGm(x)【错误\正确】分类的样本,在加入新的弱学习器中【提高\降低】分类【错误\正确】样本的权值(即改变样本的比例,类似过采样与降采样)加法模型:多个弱分类器Gm... Adaboost 一、基本内容[!note]实现思路:在每一轮训练中,记录每一次由f(x)=∑m=1i−1αmGm(x)f(x) = \sum_{m=1}^{i-1}\alpha_mG_m(x)f(x)=∑m=1i−1αmGm(x)【错误\正确】分类的样本,在加入新的弱学习器中【提高\降低】分类【错误\正确】样本的权值(即改变样本的比例,类似过采样与降采样)加法模型:多个弱分类器Gm...
- 一、前置知识 真阳性(TPR):正样本被正确分类个数与所有正样本的总数的比值TPR=TPTP+FNTPR = \frac{TP}{TP+FN}TPR=TP+FNTP 假阳性(FPR):负样本被错误分类个数与所有负样本的总数的比值FPR=FNFN+TNFPR=\frac{FN}{FN+TN}FPR=FN+TNFN 其中,TP表示正确分类的正样本,TN表示正确分类的负样本,FN表示错... 一、前置知识 真阳性(TPR):正样本被正确分类个数与所有正样本的总数的比值TPR=TPTP+FNTPR = \frac{TP}{TP+FN}TPR=TP+FNTP 假阳性(FPR):负样本被错误分类个数与所有负样本的总数的比值FPR=FNFN+TNFPR=\frac{FN}{FN+TN}FPR=FN+TNFN 其中,TP表示正确分类的正样本,TN表示正确分类的负样本,FN表示错...
- BLIP2 跌倒项目实战(一) BLIP2 跌倒项目实战(一)
- MicroNAS:面向MCU的零样本神经架构搜索Qiao Y, Xu H, Zhang Y, et al. Micronas: Zero-shot neural architecture search for mcus[C]//2024 Design, Automation & Test in Europe Conference & Exhibition (DATE). IEEE, 202... MicroNAS:面向MCU的零样本神经架构搜索Qiao Y, Xu H, Zhang Y, et al. Micronas: Zero-shot neural architecture search for mcus[C]//2024 Design, Automation & Test in Europe Conference & Exhibition (DATE). IEEE, 202...
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签