• 盘古大模型与人工智能产品的NLP/CV技术对比分析
    盘古大模型与人工智能产品的NLP/CV技术对比分析盘古大模型简介盘古大模型是由华为云推出的一个全面的AI大模型,它涵盖了自然语言处理(NLP)、计算机视觉(CV)等多个领域,旨在为各行各业提供AI赋能。盘古大模型采用了分层解耦的设计,包括L0、L1、L2三层架构,分别对应不同的应用场景和能力。盘古大模型与人工智能产品的NLP技术对比盘古NLP大模型是业界首个超千亿参数的中文预训练大模型,它在权威的中文语言理解评测基准CLUE榜单中排名第一,显示出其卓越的语言理解能力。相比之下,其他人工智能产品如GPT-3等虽然也有强大的语言处理能力,但在中文语境下的表现不如盘古大模型。盘古大模型在多任务学习、多模态交互以及代码生成等方面表现出色,能够更好地适应不同场景的需求。盘古大模型与人工智能产品的CV技术对比在计算机视觉领域,盘古CV大模型首次兼顾了图像判别与生成能力,能够同时满足底层图像处理与高层语义的理解需求。它不仅可以应用于传统的图像分类、目标检测等任务,还可以生成符合物理规律的多模态内容,如自动驾驶合成数据生成。相比其他AI产品,盘古CV大模型在多模态数据处理能力上有明显优势,特别是在处理复杂视觉任务如视觉问答、常识推理等方面。盘古大模型适用场景详解盘古大模型适用于多个行业和场景,包括但不限于政务、金融、医疗、矿业、气象、汽车等领域。例如,在医疗健康领域,盘古大模型助力医疗服务平台构建智慧医疗场景能力,提升医疗服务水平。在矿业领域,盘古采矿模型已在中国多个煤矿得到应用,提高了矿山的智能化水平。在气象领域,盘古气象模型超过了传统的数值天气预报方法,提高了预测速度和准确性。结论综合来看,盘古大模型在NLP和CV技术方面展现出的能力超越了市场上同类的人工智能产品,其多模态、多任务的处理能力以及在多个行业中的应用证明了其在实际场景中的有效性和商业价值。随着技术的不断发展和完善,盘古大模型有望在未来的人工智能领域扮演更加重要的角色。
  • [技术干货] AI创作之旅:探索提示工程的奇妙世界 -转载
     在当今信息爆炸的时代,人工智能的发展为创作者们提供了全新的可能性。本文将引导你从零开始,利用提示工程(Prompt Engineering)学习并应用大语言模型,创作一篇超过2000字的文章。我们将深入探讨提示工程的基本概念,并通过实际代码演示如何发挥大语言模型的创作潜力。 1. 引言 随着数字化时代的来临,人工智能已经不再仅仅是科技的进步,更成为创作领域中不可或缺的有力助手。在这个信息爆炸的时代,创作者们面临着巨大的文本创作挑战,而人工智能通过其强大的语言生成能力,为他们提供了一种前所未有的创作思维方式。  提示工程作为人工智能技术的一种应用,通过给定简短的提示,能够生成丰富、连贯的文本内容。这种方法的兴起标志着创作者们在创作过程中迎来了一场革命,不再局限于传统的创作手段,而是可以借助机器智能的力量进行创意的探索和表达。  在以往,创作者们可能需要花费大量时间和精力进行调研、构思和编辑,但有了提示工程这一工具,他们可以更加聚焦于创作的核心思想,将人工智能作为创意的延伸。这种全新的思维方式使得创作者们能够更加高效地表达他们的想法,同时也为他们带来了更多样化的创作可能性。  2. 什么是提示工程? 提示工程是指通过给定一个简短的提示(prompt),利用大语言模型生成相应的文本。这种方法在自然语言处理领域取得了巨大的成功,尤其是近年来GPT等大型语言模型的崛起,使得提示工程成为创作者们不可忽视的工具。  3. 准备工作 在进入实际的提示工程应用之前,我们需要进行一些准备工作,确保环境和依赖库都已经正确安装。以下是一些基本的准备步骤,以确保我们能够顺利地利用提示工程学习和应用大语言模型。  3.1 安装必要的库 首先,我们需要安装与提示工程相关的 Python 库。在终端或命令提示符中执行以下命令:  pip install openai 这将安装 OpenAI 的 Python 客户端库,它是与 OpenAI GPT-3 大语言模型进行交互的必要工具。  3.2 获取 OpenAI API 密钥 在使用提示工程之前,您需要获得 OpenAI API 密钥。访问 OpenAI 官方网站 注册并获取您的 API 密钥。将密钥保存在安全的地方,我们将在后续的代码中使用它。 4 设置 OpenAI API 密钥 在您的 Python 项目中,设置 OpenAI API 密钥是非常重要的。您可以使用以下代码将 API 密钥设置为环境变量:  import openai  # 设置 OpenAI API 密钥 openai.api_key = '您的API密钥' 请确保替换 '您的API密钥' 为您真实的 API 密钥。 通过这些准备工作,我们将为接下来的提示工程学习和代码实现打下基础。在此之后,我们将能够使用提示工程生成丰富的文本内容,展开更多有趣的主题。 5. 提示工程实战 在这一部分,我们将展示一个简单的提示工程实例,通过向 OpenAI GPT 模型提供一个提示来生成一段文章。  import openai  # 设置 OpenAI API 密钥 openai.api_key = '您的API密钥'  # 提示工程示例 prompt = "人工智能在创作领域的应用" response = openai.Completion.create(   engine="text-davinci-002",   prompt=prompt,   max_tokens=300 )  # 提取生成的文本 generated_text = response.choices[0].text.strip() print(generated_text) 这段代码使用 OpenAI GPT 模型,通过给定的提示生成一段与“人工智能在创作领域的应用”相关的文本。你可以根据自己的兴趣和需求修改提示内容,以探索不同主题和创作风格。这个简单的示例演示了如何利用提示工程与 GPT 模型进行互动,为创作者提供了一个强大而灵活的创作工具。在接下来的部分,我们将进一步探讨如何优化和扩展这种方法,以满足更复杂的创作需求。  6. 探索更多可能性 提示工程是一个充满创造性和灵活性的领域,你可以通过尝试不同的提示、调整参数以及结合多个模型来探索更多的创作可能性。以下是一些探索的方法和建议:  6.1 尝试不同的提示 改变提示内容可以显著影响生成文本的风格和内容。尝试使用不同主题、问题或情境,观察生成的文本如何变化。通过多次尝试,你可以找到最适合你需求的提示方式。  prompt = "探索不同的提示工程内容" # 其他代码... 6.2 调整参数 提示工程 API 允许你调整一些参数,例如 temperature(温度),它控制生成文本的创造性程度。尝试不同的温度值,看看文本生成的变化。  response = openai.Completion.create(   engine="text-davinci-002",   prompt=prompt,   max_tokens=300,   temperature=0.7  # 尝试不同的温度值 ) 6.3 结合多个模型 OpenAI 提供了多个预训练模型,你可以结合它们来获取更多的创作可能性。通过在不同模型间切换,你可以体验到不同的文本生成风格。  response = openai.Completion.create(   engine="text-codex-002",  # 切换到另一个模型   prompt=prompt,   max_tokens=300 ) 1 2 3 4 5 通过不断实践和探索,你将更好地理解如何利用提示工程,发挥大语言模型的创作潜力。这个过程也是一个自我发现的过程,帮助你更好地运用人工智能助手进行创作。  结语 通过本文的介绍,相信你对如何利用提示工程学习应用大语言模型有了更清晰的认识。在人工智能的引领下,创作者们可以更轻松地进行创作,拓展思维边界。愿你在这个AI创作之旅中有所收获,不断探索文学的奇妙世界。  ⭐️ 好书推荐 《AI提示工程实战:从零开始利用提示工程学习应用大语言模型》   【内容简介】  随着大语言模型的快速发展,语言AI已经进入了新的阶段。这种新型的语言AI模型具有强大的自然语言处理能力,能够理解和生成人类语言,从而在许多领域中都有广泛的应用前景。大语言模型的出现将深刻影响人类的生产和生活方式。本书将介绍提示工程的基本概念和实践,旨在帮助读者了解如何构建高质量的提示内容,以便更高效地利用大语言模型进行工作和学习。  本书内容通俗易懂,案例丰富,适合所有对大语言模型和提示工程感兴趣的读者。无论是初学者还是进阶读者,都可以从本书中获得有价值的信息和实用技巧,帮助他们更好地应对各种挑战和问题。  📚 京东购买链接:《AI提示工程实战:从零开始利用提示工程学习应用大语言模型》 ————————————————                              版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。                          原文链接:https://blog.csdn.net/qq_44273429/article/details/135770338 
  • [技术干货] 【人工智能】-- 受限玻尔兹曼机-转载
     🍉引言         在当今科技飞速发展的时代,人工智能的研究不断取得突破性的进展。其中,受限玻尔兹曼机作为一种重要的模型,正逐渐引起人们的广泛关注。它独特的结构和强大的学习能力,为解决各种复杂的问题提供了新的思路和方法。受限玻尔兹曼机不仅在理论研究上具有深刻的意义,在实际应用中也展现出了巨大的潜力,例如图像识别、语音处理、自然语言处理等领域。  🍉受限玻尔兹曼机         受限玻尔兹曼机(Restricted Boltzmann Machine,RBM)是一种生成性随机人工神经网络,也是一种无向概率图模型,并且受限为二分图。          整个模型有两层,即可见层(包含可见单元)和隐藏层(包含隐单元),满足层内无连接,层间全连接。这种限制使得它在神经元之间的连接上有特定的规则,来自两组单元中的每一组的一对节点(通常称为“可见”和“隐藏”单元)可以在它们之间具有对称连接,而组内的节点之间没有连接。相比一般的玻尔兹曼机,这种限制允许使用更有效的训练算法。  RBM 通常由二值隐单元和可见单元组成,其中权重矩阵  中的每个元素指定了隐单元  和可见层单元  之间边的权重。          此外,对于每个可见层单元  有偏置项 ,对每个隐层单元  有偏置项 。具体来说,需满足以下条件   其能量函数对于一组给定的状态  定义为:   由能量函数可以给出状态  的联合概率分布:   其中, 是归一化常数,计算式为 ,其计算复杂度为 。可见层的边缘分布:  ;隐藏层的边缘分布:  。          RBM 的一个重要性质是,由于它是一个二分图,层内没有边相连,因而隐藏层的激活状态在给定可见层节点取值的情况下是条件独立的,类似地,可见层节点的激活状态在给定隐藏层节点取值的情况下也条件独立,用数学公式表示为:   由此可以推导得出在给定可视层  的基础上,隐层第  个节点为 1 或者为 0 的概率为:   在给定隐层  的基础上,可视层第  个节点为 1 或者为 0 的概率为:           在训练 RBM 时,关键是计算模型中的参数  。通常采用对数损失函数,并考虑最大化对数似然函数。但直接按梯度公式计算梯度的复杂度很高,因为其中涉及到归一化常数  的计算,而  的计算复杂度为  。          为解决这个问题,一般使用基于马尔可夫链蒙特卡罗(MCMC)的方法来模拟计算梯度,如 Geoffrey Hinton 提出的对比散度(contrastive divergence,CD)算法。该算法给定样本  后,取初始值  ,然后执行  步 Gibbs 采样,先后采样得到  和  。Gibbs 采样得到的样本服从联合分布  ,利用采样得到的  可以估算梯度公式中期望项的近似值,从而得到梯度的近似值,之后在每一步利用梯度上升法进行参数更新。          RBM 可用于降维、分类、协同过滤、特征学习、生成模型等任务。根据任务的不同,它可以使用监督学习或无监督学习的方法进行训练。例如在推荐系统中,可以把每个用户对各个物品的评分作为可见层神经元的输入,从而进行训练。          RBM 在深度学习中有重要应用,它可以通过“堆叠”形成深层信念网络等更复杂的结构。但 RBM 也存在一些局限性,例如在处理大规模数据时可能效率不高,对初始值敏感等。不过,研究人员仍在不断探索和改进 RBM 及其相关算法,以拓展其应用领域和提高性能。  🍈RBM的结构 🍍RBM的架构图  🍍RBM的经典实现  🍍代码实现 import numpy as np import matplotlib.pyplot as plt from sklearn import preprocessing from sklearn.datasets import fetch_openml from sklearn.model_selection import train_test_split   # 加载 MNIST 数据集 mnist = fetch_openml('mnist_784', version=1, cache=True) X = mnist.data y = mnist.target   # 数据预处理 X = preprocessing.MinMaxScaler().fit_transform(X) X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)   class RBM:     def __init__(self, n_visible, n_hidden, learning_rate=0.1, n_epochs=100):         """         初始化 RBM 模型         参数:         n_visible:可见层神经元数量(输入数据的维度)         n_hidden:隐藏层神经元数量         learning_rate:学习率         n_epochs:训练轮数         """         self.n_visible = n_visible         self.n_hidden = n_hidden         self.learning_rate = learning_rate         self.n_epochs = n_epochs           # 随机初始化权重矩阵 W,偏置向量 bv(可见层)和 bh(隐藏层)         self.W = np.random.randn(n_visible, n_hidden) * 0.1         self.bv = np.zeros(n_visible)         self.bh = np.zeros(n_hidden)       def sigmoid(self, x):         """         Sigmoid 激活函数         参数:         x:输入值         返回:         Sigmoid 函数的输出         """         return 1 / (1 + np.exp(-x))       def sample_hidden(self, v):         """         根据给定的可见层状态 v 采样隐藏层         参数:         v:可见层状态         返回:         隐藏层的激活概率 p_hidden 和采样后的隐藏层状态 h         """         hidden_activation = np.dot(v, self.W) + self.bh         p_hidden = self.sigmoid(hidden_activation)         return p_hidden, np.random.binomial(1, p_hidden)       def sample_visible(self, h):         """         根据给定的隐藏层状态 h 采样可见层         参数:         h:隐藏层状态         返回:         可见层的激活概率 p_visible 和采样后的可见层状态 v_prime         """         visible_activation = np.dot(h, self.W.T) + self.bv         p_visible = self.sigmoid(visible_activation)         return p_visible, np.random.binomial(1, p_visible)       def train(self, X):         """         训练 RBM 模型         参数:         X:训练数据         """         for epoch in range(self.n_epochs):             for v in X:                 # 正向传播:根据输入的可见层状态 v 计算隐藏层的激活概率和采样后的隐藏层状态                 p_hidden, h = self.sample_hidden(v)                   # 反向传播:根据采样得到的隐藏层状态 h 计算可见层的激活概率和采样后的可见层状态 v_prime                 p_visible, v_prime = self.sample_visible(h)                   # 更新参数                 # 计算权重更新量 dW                 dW = np.outer(v, p_hidden) - np.outer(v_prime, p_hidden)                 # 更新权重 W                 self.W += self.learning_rate * dW                 # 更新可见层偏置 bv                 self.bv += self.learning_rate * (v - v_prime)                 # 更新隐藏层偏置 bh                 self.bh += self.learning_rate * (p_hidden - np.mean(p_hidden))       def reconstruct(self, X):         """         对输入数据进行重建         参数:         X:输入数据         返回:         重建后的可见层状态         """         h = np.zeros((X.shape[0], self.n_hidden))         for i, v in enumerate(X):             _, h[i] = self.sample_hidden(v)         _, v_prime = self.sample_visible(h)         return v_prime   # 初始化 RBM 模型,设置可见层神经元数量为 784(MNIST 图像的维度),隐藏层神经元数量为 128 rbm = RBM(n_visible=784, n_hidden=128, learning_rate=0.1, n_epochs=50)   # 训练模型 rbm.train(X_train)   # 重建测试集图像 reconstructed_images = rbm.reconstruct(X_test)   # 展示原始图像和重建图像 n_images = 5 for i in range(n_images):     original_image = X_test[i].reshape(28, 28)     reconstructed_image = reconstructed_images[i].reshape(28, 28)       plt.subplot(2, n_images, i + 1)     plt.imshow(original_image, cmap='gray')     plt.axis('off')       plt.subplot(2, n_images, i + 1 + n_images)     plt.imshow(reconstructed_image, cmap='gray')     plt.axis('off')   plt.show()  🍍代码分析 RBM 类的 __init__ 方法:  初始化模型的参数,包括可见层和隐藏层的神经元数量、学习率和训练轮数。 随机初始化权重矩阵 W 、可见层偏置 bv 和隐藏层偏置 bh 。 sigmoid 方法:定义了 Sigmoid 激活函数,用于计算神经元的激活概率。  sample_hidden 方法:  计算给定可见层状态下隐藏层的激活值。 通过激活值计算隐藏层的激活概率。 基于激活概率进行二项分布采样得到隐藏层的状态。 sample_visible 方法:与 sample_hidden 类似,用于根据隐藏层状态采样可见层状态。  train 方法:  在每一轮训练中,遍历训练数据中的每个样本。 进行正向传播,从可见层到隐藏层的采样。 进行反向传播,从隐藏层到可见层的采样。 根据采样结果计算权重和偏置的更新量,并进行更新。 reconstruct 方法:  首先对输入数据采样得到隐藏层状态。 然后根据隐藏层状态采样重建可见层状态。 在主程序中:  加载 MNIST 数据集并进行预处理和划分。 初始化 RBM 模型并进行训练。 对测试集数据进行重建,并展示原始图像和重建图像的对比。         这段代码主要实现了一个受限玻尔兹曼机(RBM)模型,并将其应用于 MNIST 数据集的图像重建任务。          首先,代码从开放数据集中加载 MNIST 数据,进行预处理和划分。然后定义了 RBM 类,在类的初始化方法中,设定了模型的关键参数,包括可见层和隐藏层的神经元数量、学习率以及训练轮数,并随机初始化了权重和偏置。     RBM 类中包含了 sigmoid 激活函数,以及用于正向和反向传播的 sample_hidden 和 sample_visible 方法。训练方法 train 通过不断的正向和反向传播,并基于采样结果更新权重和偏置来优化模型。reconstruct 方法用于对输入数据进行重建。          在主程序中,初始化并训练 RBM 模型,最后对测试集数据进行重建,并通过图像展示原始图像和重建图像的对比,以直观评估模型的重建效果。  🍉总结         受限玻尔兹曼机(RBM)是一种具有独特结构和强大学习能力的概率图模型。          在结构上,RBM 由两层神经元组成,即可见层和隐藏层。层内神经元无连接,层间神经元全连接。这种结构简化了计算,同时也使得模型能够有效地学习数据中的特征和模式。          在学习过程中,RBM 通过不断调整参数(包括权重、可见层偏置和隐藏层偏置)来优化模型。常见的学习算法如对比散度(CD)算法,通过采样和近似计算梯度来更新参数。          RBM 具有多种应用,例如在数据降维方面,它能够将高维数据映射到低维的隐藏层表示;在特征学习中,能够自动从原始数据中提取有意义的特征;在生成模型中,可以生成新的数据样本。          然而,RBM 也存在一些局限性。例如,训练时间可能较长,尤其是在处理大规模数据时;对初始参数的设置较为敏感;模型的解释性相对较复杂等。          尽管如此,RBM 在深度学习领域仍然具有重要地位,其思想和方法为后续更复杂的深度模型的发展提供了基础和启发。 ————————————————                              版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。                          原文链接:https://blog.csdn.net/2302_76516899/article/details/140363690 
  • [问题求助] yolov8移植到昇腾平台的问题,求助
    我已经写了这2句了,但是出错,可否帮忙解决import torch_npu from torch_npu.contrib import transfer_to_npu  -------------------------------import torch import torch_npu from torch_npu.contrib import transfer_to_npu  from ultralytics import YOLO  # 加载模型 model = YOLO("yolov8n.pt")  # 加载预训练模型(建议用于训练)  # 使用模型 model.train(data="yolov8_pcb.yaml", epochs=10, imgsz=640)  # 训练模型 metrics = model.val()  # 在验证集上评估模型性 _______出现了错误的输出,如下__________________________________________/home/ma-user/anaconda3/envs/MindSpore/lib/python3.7/site-packages/tqdm/auto.py:21: TqdmWarning: IProgress not found. Please update jupyter and ipywidgets. See https://ipywidgets.readthedocs.io/en/stable/user_install.html from .autonotebook import tqdm as notebook_tqdm[W OperatorEntry.cpp:121] Warning: Overriding a previously registered kernel for the same operator and the same dispatch key operator: aten::_has_compatible_shallow_copy_type(Tensor self, Tensor from) -> (bool) registered at /usr1/v1.8.1/pytorch/build/aten/src/ATen/RegisterSchema.cpp:20 dispatch key: Math previous kernel: registered at /usr1/v1.8.1/pytorch/build/aten/src/ATen/RegisterMath.cpp:5686 new kernel: registered at /usr1/workspace/FPTA_Daily_Plugin_open_date/Plugin/torch_npu/csrc/aten/ops/HasCompatibleShallowCopyType.cpp:37 (function registerKernel)/home/ma-user/anaconda3/envs/MindSpore/lib/python3.7/site-packages/torch_npu/contrib/transfer_to_npu.py:99: ImportWarning: ************************************************************************************************************* The torch.Tensor.cuda and torch.nn.Module.cuda are replaced with torch.Tensor.npu and torch.nn.Module.npu now.. The torch.cuda.DoubleTensor is replaced with torch.npu.FloatTensor cause the double type is not supported now.. The backend in torch.distributed.init_process_group set to hccl now.. The torch.cuda.* and torch.cuda.amp.* are replaced with torch.npu.* and torch.npu.amp.* now.. The device parameters have been replaced with npu in the function below: torch.logspace, torch.randint, torch.hann_window, torch.rand, torch.full_like, torch.ones_like, torch.rand_like, torch.randperm, torch.arange, torch.frombuffer, torch.normal, torch._empty_per_channel_affine_quantized, torch.empty_strided, torch.empty_like, torch.scalar_tensor, torch.tril_indices, torch.bartlett_window, torch.ones, torch.sparse_coo_tensor, torch.randn, torch.kaiser_window, torch.tensor, torch.triu_indices, torch.as_tensor, torch.zeros, torch.randint_like, torch.full, torch.eye, torch._sparse_csr_tensor_unsafe, torch.empty, torch._sparse_coo_tensor_unsafe, torch.blackman_window, torch.zeros_like, torch.range, torch.sparse_csr_tensor, torch.randn_like, torch.from_file, torch._cudnn_init_dropout_state, torch._empty_affine_quantized, torch.linspace, torch.hamming_window, torch.empty_quantized, torch._pin_memory, torch.device, torch.Tensor.new_empty, torch.Tensor.new_empty_strided, torch.Tensor.new_full, torch.Tensor.new_ones, torch.Tensor.new_tensor, torch.Tensor.new_zeros, torch.Tensor.to, torch.nn.Module.to, torch.nn.Module.to_empty ************************************************************************************************************* warnings.warn(msg, ImportWarning)/home/ma-user/anaconda3/envs/MindSpore/lib/python3.7/site-packages/torchvision/transforms/functional_pil.py:207: DeprecationWarning: BILINEAR is deprecated and will be removed in Pillow 10 (2023-07-01). Use Resampling.BILINEAR instead. def resize(img, size, interpolation=Image.BILINEAR):/home/ma-user/anaconda3/envs/MindSpore/lib/python3.7/site-packages/torchvision/transforms/functional_pil.py:280: DeprecationWarning: BICUBIC is deprecated and will be removed in Pillow 10 (2023-07-01). Use Resampling.BICUBIC instead. def perspective(img, perspective_coeffs, interpolation=Image.BICUBIC, fill=None):/home/ma-user/anaconda3/envs/MindSpore/lib/python3.7/site-packages/thop/profile.py:12: DeprecationWarning: distutils Version classes are deprecated. Use packaging.version instead. if LooseVersion(torch.__version__) < LooseVersion("1.0.0"):Ultralytics YOLOv8.0.145 🚀 Python-3.7.10 torch-1.8.0a0+56b43f4 CUDA:0 (Ascend910A, 32768MiB)WARNING ⚠️ Upgrade to torch>=2.0.0 for deterministic training.engine/trainer: task=detect, mode=train, model=yolov8n.pt, data=yolov8_pcb.yaml, epochs=10, patience=50, batch=16, imgsz=640, save=True, save_period=-1, cache=False, device=None, workers=8, project=None, name=None, exist_ok=False, pretrained=True, optimizer=auto, verbose=True, seed=0, deterministic=True, single_cls=False, rect=False, cos_lr=False, close_mosaic=10, resume=False, amp=True, fraction=1.0, profile=False, overlap_mask=True, mask_ratio=4, dropout=0.0, val=True, split=val, save_json=False, save_hybrid=False, conf=None, iou=0.7, max_det=300, half=False, dnn=False, plots=True, source=None, show=False, save_txt=False, save_conf=False, save_crop=False, show_labels=True, show_conf=True, vid_stride=1, line_width=None, visualize=False, augment=False, agnostic_nms=False, classes=None, retina_masks=False, boxes=True, format=torchscript, keras=False, optimize=False, int8=False, dynamic=False, simplify=False, opset=None, workspace=4, nms=False, lr0=0.01, lrf=0.01, momentum=0.937, weight_decay=0.0005, warmup_epochs=3.0, warmup_momentum=0.8, warmup_bias_lr=0.1, box=7.5, cls=0.5, dfl=1.5, pose=12.0, kobj=1.0, label_smoothing=0.0, nbs=64, hsv_h=0.015, hsv_s=0.7, hsv_v=0.4, degrees=0.0, translate=0.1, scale=0.5, shear=0.0, perspective=0.0, flipud=0.0, fliplr=0.5, mosaic=1.0, mixup=0.0, copy_paste=0.0, cfg=None, tracker=botsort.yaml, save_dir=runs/detect/trainOverriding model.yaml nc=80 with nc=6 from n params module arguments 0 -1 1 464 ultralytics.nn.modules.conv.Conv [3, 16, 3, 2] 1 -1 1 4672 ultralytics.nn.modules.conv.Conv [16, 32, 3, 2] 2 -1 1 7360 ultralytics.nn.modules.block.C2f [32, 32, 1, True] 3 -1 1 18560 ultralytics.nn.modules.conv.Conv [32, 64, 3, 2] 4 -1 2 49664 ultralytics.nn.modules.block.C2f [64, 64, 2, True] 5 -1 1 73984 ultralytics.nn.modules.conv.Conv [64, 128, 3, 2] 6 -1 2 197632 ultralytics.nn.modules.block.C2f [128, 128, 2, True] 7 -1 1 295424 ultralytics.nn.modules.conv.Conv [128, 256, 3, 2] 8 -1 1 460288 ultralytics.nn.modules.block.C2f [256, 256, 1, True] 9 -1 1 164608 ultralytics.nn.modules.block.SPPF [256, 256, 5] 10 -1 1 0 torch.nn.modules.upsampling.Upsample [None, 2, 'nearest'] 11 [-1, 6] 1 0 ultralytics.nn.modules.conv.Concat [1] 12 -1 1 148224 ultralytics.nn.modules.block.C2f [384, 128, 1] 13 -1 1 0 torch.nn.modules.upsampling.Upsample [None, 2, 'nearest'] 14 [-1, 4] 1 0 ultralytics.nn.modules.conv.Concat [1] 15 -1 1 37248 ultralytics.nn.modules.block.C2f [192, 64, 1] 16 -1 1 36992 ultralytics.nn.modules.conv.Conv [64, 64, 3, 2] 17 [-1, 12] 1 0 ultralytics.nn.modules.conv.Concat [1] 18 -1 1 123648 ultralytics.nn.modules.block.C2f [192, 128, 1] 19 -1 1 147712 ultralytics.nn.modules.conv.Conv [128, 128, 3, 2] 20 [-1, 9] 1 0 ultralytics.nn.modules.conv.Concat [1] 21 -1 1 493056 ultralytics.nn.modules.block.C2f [384, 256, 1] 22 [15, 18, 21] 1 752482 ultralytics.nn.modules.head.Detect [6, [64, 128, 256]] Model summary: 225 layers, 3012018 parameters, 3012002 gradients, 8.2 GFLOPsTransferred 319/355 items from pretrained weightsAMP: running Automatic Mixed Precision (AMP) checks with YOLOv8n...Ultralytics YOLOv8.0.145 🚀 Python-3.7.10 torch-1.8.0a0+56b43f4 ---------------------------------------------------------------------------ValueError Traceback (most recent call last)/tmp/ipykernel_118047/2329360287.py in <module> 13 14 # 使用模型---> 15 model.train(data="yolov8_pcb.yaml", epochs=10, imgsz=640) # 训练模型 16 metrics = model.val() # 在验证集上评估模型性~/anaconda3/envs/MindSpore/lib/python3.7/site-packages/ultralytics/engine/model.py in train(self, trainer, **kwargs) 375 self.model = self.trainer.model 376 self.trainer.hub_session = self.session # attach optional HUB session--> 377 self.trainer.train() 378 # Update model and cfg after training 379 if RANK in (-1, 0):~/anaconda3/envs/MindSpore/lib/python3.7/site-packages/ultralytics/engine/trainer.py in train(self) 190 ddp_cleanup(self, str(file)) 191 else:--> 192 self._do_train(world_size) 193 194 def _setup_ddp(self, world_size):~/anaconda3/envs/MindSpore/lib/python3.7/site-packages/ultralytics/engine/trainer.py in _do_train(self, world_size) 274 self._setup_ddp(world_size) 275 --> 276 self._setup_train(world_size) 277 278 self.epoch_time = None~/anaconda3/envs/MindSpore/lib/python3.7/site-packages/ultralytics/engine/trainer.py in _setup_train(self, world_size) 217 if self.amp and RANK in (-1, 0): # Single-GPU and DDP 218 callbacks_backup = callbacks.default_callbacks.copy() # backup callbacks as check_amp() resets them--> 219 self.amp = torch.tensor(check_amp(self.model), device=self.device) 220 callbacks.default_callbacks = callbacks_backup # restore callbacks 221 if RANK > -1 and world_size > 1: # DDP~/anaconda3/envs/MindSpore/lib/python3.7/site-packages/ultralytics/utils/checks.py in check_amp(model) 414 try: 415 from ultralytics import YOLO--> 416 assert amp_allclose(YOLO('yolov8n.pt'), im) 417 LOGGER.info(f'{prefix}checks passed ✅') 418 except ConnectionError:~/anaconda3/envs/MindSpore/lib/python3.7/site-packages/ultralytics/utils/checks.py in amp_allclose(m, im) 401 def amp_allclose(m, im): 402 """All close FP32 vs AMP results."""--> 403 a = m(im, device=device, verbose=False)[0].boxes.data # FP32 inference 404 with torch.cuda.amp.autocast(True): 405 b = m(im, device=device, verbose=False)[0].boxes.data # AMP inference~/anaconda3/envs/MindSpore/lib/python3.7/site-packages/ultralytics/engine/model.py in __call__(self, source, stream, **kwargs) 96 def __call__(self, source=None, stream=False, **kwargs): 97 """Calls the 'predict' function with given arguments to perform object detection."""---> 98 return self.predict(source, stream, **kwargs) 99 100 @staticmethod~/anaconda3/envs/MindSpore/lib/python3.7/site-packages/torch/autograd/grad_mode.py in decorate_context(*args, **kwargs) 25 def decorate_context(*args, **kwargs): 26 with self.__class__():---> 27 return func(*args, **kwargs) 28 return cast(F, decorate_context) 29 ~/anaconda3/envs/MindSpore/lib/python3.7/site-packages/ultralytics/engine/model.py in predict(self, source, stream, predictor, **kwargs) 236 predictor = predictor or self.smart_load('predictor') 237 self.predictor = predictor(overrides=overrides, _callbacks=self.callbacks)--> 238 self.predictor.setup_model(model=self.model, verbose=is_cli) 239 else: # only update args if predictor is already setup 240 self.predictor.args = get_cfg(self.predictor.args, overrides)~/anaconda3/envs/MindSpore/lib/python3.7/site-packages/ultralytics/engine/predictor.py in setup_model(self, model, verbose) 304 """Initialize YOLO model with given parameters and set it to evaluation mode.""" 305 self.model = AutoBackend(model or self.args.model,--> 306 device=select_device(self.args.device, verbose=verbose), 307 dnn=self.args.dnn, 308 data=self.args.data,~/anaconda3/envs/MindSpore/lib/python3.7/site-packages/ultralytics/utils/torch_utils.py in select_device(device, batch, newline, verbose) 82 install = 'See cid:link_0 for up-to-date torch install instructions if no ' \ 83 'CUDA devices are seen by torch.\n' if torch.cuda.device_count() == 0 else ''---> 84 raise ValueError(f"Invalid CUDA 'device={device}' requested." 85 f" Use 'device=cpu' or pass valid CUDA device(s) if available," 86 f" i.e. 'device=0' or 'device=0,1,2,3' for Multi-GPU.\n"ValueError: Invalid CUDA 'device=devicetype=npu,index=0' requested. Use 'device=cpu' or pass valid CUDA device(s) if available, i.e. 'device=0' or 'device=0,1,2,3' for Multi-GPU.torch.cuda.is_available(): Truetorch.cuda.device_count(): 1os.environ['CUDA_VISIBLE_DEVICES']: None--------------------------------------------------------------------
  • [问题求助] 基于 ModelArts 自定义算法实现图片识别, 指导手册过期了,现在上传图片多了个参数,应该填什么呀?
    创建服务后进行图片预测,可是这个界面和指导手册不一致啊,应该填什么?
  • [教程] 星塔链StarTowerchain介绍
    解析星塔链startowerchain是什么?它们要做什么?首先我们先来了解一下星塔链的背景,经资料查证它是一个由法国人发起联合7个国家17名技术人员共同协作开发的DePin赛道的公链。1.Depin是什么?  Depin,全称为“Decentralized Physical Infrastructure Networks”,是一种新型的去中心化物理基础设施网络。该网络的目标在于整合和激活分散的物理资源,如硬盘和计算能力,以构建庞大的基础设施网络。这个网络主要分为两个部分:物理资源网络(PRN)和数字资源网络(DRN)。PRN致力于提供独特的商品和服务,而DRN则专注于数字资源的供给。了解完DePin我们在回到星塔链。2.星塔链在做什么?  根据网上查询到的资料显示,星塔链是区块链DePin赛道Layer1创新公链项目,传统区块链网络工作原理是基于有限的固定中心化节点去处理维护链上各种形式的转账.交易。而星塔链是把RIP(资源交互证明)融入到星塔链里面利用RIP的跳数工作原理形成自己独有的链上数据交换方式,实现低能耗、低延迟、高安全性和跨链资产互联等问题。当然要完成这个目标不是一项简单的任务,它需要大量的设备协同工作。2.RIP钱包RIP 是星塔链的核心共识机制,它允许智能设备通过共享计算、存储和网络资源来参与区块链采矿和交易处理。RIP 采用了一种分布式准线性网络,由运行在众多智能设备上的节点组成。这些节点相互通信和交换信息,共同维护整个区块链网络。RIP 的工作原理 当多用户在移动智能设备上安装运行了RIP协议钱包以后这个智能设备就会变成一个移动节点,节点和节点之间通过RIP技术完成自动同步,协同处理链上交易转账。同时节点与节点之间利用跳数原理智能匹配附近的节点去处理相关的交易,处理交易的同时还会以同样的方式进行链上数据同步,以保证数据的完整性。3.智能设备过剩的资源怎么处理  RIP在让设备进行挖矿和交易的同时,会把设备过剩的网络,存储,算力资源进行打包整合然后出售给第三方中小企业,去降低中小企业的发展成本。4.钱包用户能得到什么    每一个安装运行RIP钱包的智能设备在做节点贡献自己智能设备资源维护公链网络运行的同时还在进行采矿任务,挖出来的数字资产在公链正式上线以后会映射到星塔链,走向二级市场进行交易。星塔链的目标是解决传统公链环境中的高能耗、高延迟、安全性差和跨链资产互联等问题,构建智能计算网络,促进资源共享,增强数据安全性,推动智能计算和区块链的应用,为学术研究和知识贡献做出贡献。
  • [问题求助] atc转模型时报错AttributeError: module 'sys' has no attribute 'argv'
    转换命令:(MindSpore) [ma-user work]$atc --model=./resnet50_v1.onnx --framework=5 --output=./onnx_resnet50 --soc_version=Ascend910A报错:ATC start working now, please wait for a moment. Traceback (most recent call last):   File "/usr/local/Ascend/ascend-toolkit/latest/python/site-packages/te_fusion/fusion_util.py", line 2357, in multi_process_check     if not fix_forkserver():   File "/usr/local/Ascend/ascend-toolkit/latest/python/site-packages/te_fusion/fusion_util.py", line 2334, in fix_forkserver     fs.ensure_running()   File "/usr/lib64/python3.7/multiprocessing/forkserver.py", line 111, in ensure_running     data = spawn.get_preparation_data('ignore')   File "/usr/lib64/python3.7/multiprocessing/spawn.py", line 163, in get_preparation_data     sys_argv=sys.argv, AttributeError: module 'sys' has no attribute 'argv' ATC run failed, Please check the detail log, Try 'atc --help' for more information E29999: Inner Error! E29999  [GraphOpt][InitializeInner][InitTbeFunc] Failed to init tbe.[FUNC:InitializeInner][FILE:tbe_op_store_adapter.cc][LINE:1338]         [SubGraphOpt][PreCompileOp][InitAdapter] InitializeAdapter adapter [tbe_op_adapter] failed! Ret [4294967295][FUNC:InitializeAdapter][FILE:op_store_adapter_manager.cc][LINE:67]         [SubGraphOpt][PreCompileOp][Init] Initialize op store adapter failed, OpsStoreName[tbe-custom].[FUNC:Initialize][FILE:op_store_adapter_manager.cc][LINE:114]         [FusionMngr][Init] Op store adapter manager init failed.[FUNC:Initialize][FILE:fusion_manager.cc][LINE:326]         PluginManager InvokeAll failed.[FUNC:Initialize][FILE:ops_kernel_manager.cc][LINE:99]         OpsManager initialize failed.[FUNC:InnerInitialize][FILE:gelib.cc][LINE:167]         GELib::InnerInitialize failed.[FUNC:Initialize][FILE:gelib.cc][LINE:119] PYTHONPATH是:(MindSpore) [ma-user work]$echo $PYTHONPATH/home/ma-user/anaconda3/envs/MindSpore/lib/python3.7/site-packages/:/home/ma-user/anaconda3/envs/MindSpore/lib:/usr/local/Ascend/tfplugin/latest/python/site-packages:/usr/local/Ascend/ascend-toolkit/latest/python/site-packages:/usr/local/Ascend/ascend-toolkit/latest/opp/op_impl/built-in/ai_core/tbe:/usr/local/seccomponent/lib:/home/ma-user/infer/model/1 
  • [公告] 【获奖公示】DTSE Tech Talk丨NO.63:边云协同新场景,KubeEdge架构设计与边缘AI实践探索
    中奖结果公示感谢各位小伙伴参与本次活动,欢迎关注华为云DTSE Tech Talk 技术直播更多活动~本次活动获奖名单如下(部分视频号抽奖用户无账号名):账号名 奖项名称 奖品名称 linghz666 口令抽奖 华为云定制T恤hw_008618020934589_01 口令抽奖 华为云定制T恤xj120141121 优质提问  华为云定制双肩包视频号抽奖 华为云定制Polo衫视频号抽奖 华为云定制Polo衫视频号抽奖 华为云定制Polo衫
  • [行业前沿] 【分享交流】中美无人驾驶的两种技术方向,你更看好哪一个?
    中美无人驾驶的两种技术方向,你更看好哪一个?中国现在比较火的是:萝卜快跑老美则是只需要升级软件就能用的:特斯拉
  • [问题求助] 运行样例总会遇到model_path这样的报错
    在昇腾的环境上跑了两个样例(lenet_mindspore和google_mindspore),都遇到model_path这样的报错,还请帮忙看下,谢谢。
  • [问题求助] 创建AclLiteVideoProc 文件之后,调用 Read 提示错误 stream not in current context
    背景: 硬件(300I PRO),  多路视频文件,读取流,解码送推理。使用new AclLiteVideoProc 对应一个视频文件,最开始提示context is null,于是使用aclrtCreateContext ,创建了一个 Context,创建成功。但是调用Read 出错 提示 107003  ---stream not in current context请问怎么绑定Steam到Context
  • [问题求助] BUG求助
    在关系标签下,如rate标签,选择标签的属性进行画布展示,但却没有变化,而在其他节点标签中却可以实现,这是一个BUG吗,要如何解决。
  • [问题求助] 人工智能
    以目前人工智能发展的形式来看,未来人工智能发展的趋势会是什么样的呢?
  • [AI类] 人工智能训练师
    请问大家哪里可以提供人工智能训练师实操平台?
  • [行业动态] 人工智能中,有哪些比较著名的算法或技术
    人工智能中,有哪些比较著名的算法或技术
总条数:6536 到第
上滑加载中