• [技术干货] 1月博客热门文章汇总贴
    1. 浅谈如何处理大语言模型训练数据之二数据影响分析文章链接:https://bbs.huaweicloud.com/blogs/420886文章描述:由于大语言模型的训练需要巨大的计算资源,通常不可能多次迭代大语言模型预训练。千亿级参数量的大语言模型每次预训练的计算需要花费数百万元人民币。因此,在训练大语言模型之前,构建一个准备充分的预训练语料库尤为重要。本篇文章中,将从数据规模、数量质量以及数据多样性三个方面分析数据对大语言模型的性能的影响。需要特别的说明的是,由于在千亿参数规模的大语言模型上进行实验的成本非常高,很多结论是在2. CodeArts Check全面守护软件质量与安全文章链接:https://bbs.huaweicloud.com/blogs/418900文章描述:质量是软件产品的生命线,如何高效进行代码质量检查工作?如何做到在代码开发阶段事前就能修正软件缺陷和安全隐患?华为云资深产品专家揭秘,支撑了华为15万研发人员的CodeArts Check如何一站式完成代码检查作业!3. Python 的练手项目有哪些值得推荐文章链接:https://bbs.huaweicloud.com/blogs/420649文章描述: Python作为一门广泛应用的编程语言,对于初学者来说,通过实际项目的练习是提高编程技能的有效途径之一。在这篇文章中,我们将介绍一些适合Python初学者的练手项目,这些项目循序渐进,有助于深入理解Python的各个方面。4. 什么是大模型、超大模型和 Foundation Model文章链接:https://bbs.huaweicloud.com/blogs/420580文章描述: 前言大模型旨在解决人类面临的各种问题,提高人类的生产力和生活质量。是一门涉及计算机科学、数学、哲学、心理学等多个领域的交叉学科,旨在研究如何使计算机能够像人类一样思考、学习、推理和创造。大模型的出现,让很多产业人士认为这项技术会改变信息产业格局,即基于数据的互联网时代、基于算力的云计算时代之后,将进入基于大模型的AI时代。一 基本概念大模型是指包含超大规模参数(通常在十亿个以上)的神经网络模。5. ICDM'23 BICE论文解读文章链接:https://bbs.huaweicloud.com/blogs/420542文章描述: 华为云数据库创新Lab在论文《Efficient Cardinality and Cost Estimation with Bidirectional Compressor-based Ensemble Learning》中提出了基于集成学习的基数和代价估计模型。本文发表在ICDM'23上, ICDM会议是由电气与电子工程师协会组织的、数据挖掘领域的顶级国际学术会议。6. 操作系统与 AI 大模型时代下的默契合作与未来展望文章链接:https://bbs.huaweicloud.com/blogs/420527文章描述: 本篇的主题内容是讲解人工智能(AI)与操作系统之间相辅相成的关系,以及它们之间的紧密合作,并且本文会列举两个华为的 OS 级别的产品来说明或者说让读者更能容易的理解为什么说 AI 与 操作系统 OS 是相辅相成的。以上就是部分1月博客热门文章的汇总。
  • [大赛资讯] 评测机是windows还是linux
    评测机是windows还是linux
  • [问题求助] 代码发布完成,开发环境更新不了
    同一个组件,代码已经发布了新环境不能更新旧环境有升级按钮
  • [问题求助] was配置被叫号码应急流程后删除,所有拨打接入码通过队列或ivr都被重新路由
    问题来源】【必填】    【亿迅信息】    【问题简要】【必填】was配置被叫号码应急流程后删除,所有拨打接入码通过队列或ivr都被重新路由,【问题类别】【必填】    【可选问题分类:CCS】【AICC解决方案版本】【必填】    【AICC可选择版本:AICC 22.200】   【期望解决时间】【选填】【问题现象描述】【必填】was配置被叫号码应急流程后删除openeye拨打接入码,坐席直接被置忙icddebug查看被重新路由了删除应急流程配置,仍然无法恢复,还请能协助看下如何解决
  • [问题求助] WAS中的业务代表如何全选,然后导出导Excel
    【问题来源】:亿迅【问题简要】:WAS中的业务代表如何全选,然后导出【问题类别】:WAS中的业务代表如何全选,然后导出需求:生产环境中目前有业务代表2千多个,想全选然后进行导出到Excel表格。目前是没有全选功能的,只能一次次进行翻页很麻烦。有什么办法将所有的业务代表全选然后进行导出到Excel。【AICC解决方案版本】:AICC 22.100【日志或错误截图】
  • [问题求助] 求助一下这个是什么权限
    这个是什么权限呀。。。求助
  • [问题求助] 23.200客户提供证书安装问题
    问题来源】【必填】    【歌华有线】    【问题简要】【必填】23.200客户提供证书安装问题【问题类别】【必填】23.200客户提供证书安装问题【AICC解决方案版本】【必填】    【AICC可选择版本:AICC 23.200】   【期望解决时间】【选填】【问题现象描述】【必填】目前23.200采用的dv下发证书管理。客户不想用华为的证书,准备用企业自己的证书。需要告诉客户该准备哪些证书。我们如何用dv进行管理下发客户的证书?最好能详细说明一下,谢谢
  • [技术干货] 12月应用构建文章汇总贴
    1. NFT系统:功能、智能合约及实践文章链接:https://bbs.huaweicloud.com/blogs/417365文章描述:非同质化代币(NFT)系统是一种基于区块链技术的数字资产所有权解决方案。NFT可以代表独特且不可互换的数字资产,如艺术品、音频、视频、游戏物品等。NFT系统允许用户创建、交易和追踪这些独特数字资产的所有权。2. 科技融合金融深度 创新成果加速落地——华为云Web3与伙伴共创价值文章链接:https://bbs.huaweicloud.com/blogs/417286文章描述: 2023年是区块链技术飞速发展的一年,也是华为云Web3服务的辉煌之年,作为华为云核心产品,华为云Web3服务致力为客户提供安全、可靠、高效、易用的区块链平台服务,帮助客户构建基于区块链的创新应用,实现业务价值提升与数字化转型。在过去一年,华为云Web3服务的区块链引擎—华为云BCS、节点引擎—华为云NES,在产品创新、行业实践、生态合作上均取得振奋人心的成果。回顾2023:Web3多领域应...3. 超越节点引擎临界:华为云NES颠覆游戏规则文章链接:https://bbs.huaweicloud.com/blogs/417264文章描述: 华为云Web3节点引擎服务NES(以下简称:华为云NES)以卓越的技术实力赢得业内良好口碑。在近期SUSTAINABLE WEB3 SG 2023,华为云NES发表一系列性能优化成果及开发者支持计划,让Web3网络运营商惊喜连连。4. 合约跟单交易开发介绍文章链接:https://bbs.huaweicloud.com/blogs/417222文章描述:合约交易是一种高收益、高风险的投资方式,适合有一定风险承受能力和投资经验的投资者。5. DApp智能合约开发:流程、难点与解决方案文章链接:https://bbs.huaweicloud.com/blogs/417127文章描述:DApp(去中心化应用)是一种运行在区块链上的程序,旨在为用户提供一种去中心化的、安全的、抗审查的应用体验。6. 使用 ABAP 代码生成区块链文章链接:https://bbs.huaweicloud.com/blogs/417021文章描述:介绍使用 ABAP 代码生成区块链7. 区块链技术的 ABAP 模拟实现文章链接:https://bbs.huaweicloud.com/blogs/417021文章描述: 思路本文这段ABAP代码是一个简单的区块链(Blockchain)模拟实现,主要用于演示和理解区块链的基本概念。下面将逐行解释该代码的主要功能和实现逻辑。报表声明:REPORT zblockchain.这是ABAP报表的声明,用于创建一个独立的ABAP报表程序。参数声明:PARAMETERS: diffle TYPE char5 default '00000', no...以上就是部分12月应用构建文章的汇总。
  • [问题求助] IVR开发需求
    问题来源】【必填】    【华夏银行】    【问题简要】【必填】AICC 22.100 IVR开发问题咨询【问题类别】【必填】    【可选问题分类:ICD】【AICC解决方案版本】【必填】    【AICC可选择版本:AICC 22.100】   【期望解决时间】【选填】【问题现象描述】【必填】IVR开发需求:问题一:平台能不能锁定一个坐席,他本来是空闲的,我这边匹配到要给他转,但是我先把他占住,因为转接请求可能有点延迟,怕被别人给进线了,只有我才能进来。问题二:我们转接到一个队列,这个队列里面有a,b,c三个坐席,我能不能通过参数给你送过去一个a的工号以及队列号,,这样到时候匹配时候你就只匹配b和c不要给我匹配a。想咨询这两个需求是否可以实现,和实现方式,谢谢。
  • [其他] 你心目中的开发者空间应该长啥样子有啥功能?
    你心目中的开发者空间应该长啥样子有啥功能?来交流交流
  • [技术干货] 11月应用构建文章汇总贴
    1. [自然语言处理|NLP]NLP在商业智能(BI)中的应用:从原理到实践文章链接:https://bbs.huaweicloud.com/blogs/416085文章描述:NLP在商业智能(BI)中的巧妙应用:赋能决策,拓展商业洞见商业智能(Business Intelligence,BI)是企业管理中不可或缺的一环,它通过收集、分析和可视化数据,帮助企业做出更明智的决策。随着自然语言处理(NLP)技术的不断发展,NLP正逐渐成为提升商业智能的强大工具。本文将深入探讨NLP在商业智能中的应用,从智能数据查询到情感分析,为企业提供更全面、智能的决策支持。 1....2. 数据处理之标准化/归一化方法文章链接:https://bbs.huaweicloud.com/blogs/415662文章描述:归一化方法(Normalization Method)1.把数变为(0,1)之间的小数      主要是为了数据处理方便提出来的,把数据映射到0~1范围之内处理,更加便捷快速,应该归到数字信号处理范畴之内。2.把有量纲表达式变为无量纲表达式      归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为纯量。 比如,复数阻抗可以归一化书写:Z = R ...3. GPT大升级!它可以在哪些场景辅助数据采集?文章链接:https://bbs.huaweicloud.com/blogs/415565文章描述:用ChatGPT辅助数据采集, XPath、正则表达式都能写!轻松搞定数据采集分析!4.  FP-Growth算法文章链接:https://bbs.huaweicloud.com/blogs/415419文章描述:本篇博客全面探讨了FP-Growth算法,从基础原理到实际应用和代码实现。我们深入剖析了该算法的优缺点,并通过Python示例展示了如何进行频繁项集挖掘。关注TechLead,分享AI全维度知识。作者拥有10+年互联网服务架构、AI产品研发经验、团队管理经验,同济本复旦硕,复旦机器人智能实验室成员,阿里云认证的资深架构师,项目管理专业人士,上亿营收AI产品研发负责人。 一、简介FP-Grow...5.  跨链互操作性的可实施性文章链接:https://bbs.huaweicloud.com/blogs/415346文章描述:跨链互操作性是指不同区块链网络之间实现数据和资产的无缝交互和互通能力。实现跨链互操作性是区块链发展的一个重要目标,尽管存在一些挑战,但已经有一些解决方案和技术被提出来实现这一目标。以下是一些可实现跨链互操作性的技术和方法:原子交换:原子交换是一种通过智能合约实现跨链资产交换的方法。它通过使用多签名地址和时间锁定等技术来确保交易的安全性和可靠性。中继链:中继链是一种通过引入额外的区块链网络来实...6. 区块链的发展趋势文章链接:https://bbs.huaweicloud.com/blogs/415342文章描述:区块链作为一种分布式账本技术,具有去中心化、安全性和透明性等特点,正不断发展和演进。以下是区块链的一些发展趋势:跨行业应用:区块链正在逐渐扩展到各个行业,包括金融、供应链管理、物联网、医疗保健等。它被用于改进业务流程、提高数据安全性和增强透明度。隐私保护:隐私保护一直是区块链发展的一个关键领域。随着数据保护法规的加强,区块链技术正在不断演进,以提供更好的隐私保护解决方案,包括零知识证明、同态...以上就是部分11月应用构建文章的汇总。
  • [技术干货] Ansible如何写playbook及playbook中使用变量
    【Ansible Playbook及变量的使用】 Ansible Playbook是用于定义Ansible任务的一种格式,它是一个YAML文件,可以用于执行一系列的配置管理和自动化任务。Playbook中可以使用变量来提供灵活性和可重用性。以下是如何编写Ansible Playbook及如何在Playbook中使用变量的简要说明:  编写Ansible Playbook  创建一个新的YAML文件,并在其中定义你的Ansible Playbook。 Playbook的基本结构如下:  --- - name: Playbook名称   hosts: 目标主机组   become: 是否使用sudo或root用户执行任务   vars:  # 可选,定义Playbook级别的变量     var_name: value   tasks:     - name: 任务名称       模块名:  # 模块名,用于执行具体的任务         参数1: 值1         参数2: 值2       become: 是否使用sudo或root用户执行该任务 在 hosts字段中指定目标主机组,可以在 /etc/ansible/hosts文件中定义主机组。 在 tasks字段中定义要执行的任务,使用不同的模块执行不同的操作。 在Playbook中使用变量  在Playbook中,可以定义两种类型的变量:Playbook级别的变量和主机级别的变量。 定义Playbook级别的变量: 在Playbook的顶部,使用 vars字段定义Playbook级别的变量,如下所示:  --- - name: Example Playbook   hosts: web_servers   vars:     var_name: value   tasks:     - name: Task 1       模块名:         参数1: "{{ var_name }}" 定义主机级别的变量: 可以在 /etc/ansible/hosts文件中为每个主机定义变量,如下所示:  [web_servers] server1 var_name=value1 server2 var_name=value2 使用变量: 在Playbook的任务中,可以使用 {{ 变量名 }}语法来引用变量,如上例中的 {{ var_name }}。 通过编写Ansible Playbook和使用变量,你可以将配置和任务更好地组织起来,并且实现灵活性和可重用性。Ansible的变量机制为自动化部署提供了强大的支持,使得你可以根据不同的情况定制不同的任务,提高了自动化的效率和灵活性。 ———————————————— 原文链接:https://blog.csdn.net/tiansyun/article/details/134025615 
  • [问题求助] 请问使用pycharm连接服务器运行github项目时出现这样的问题该怎么解决啊
     ***************************************** Setting OMP_NUM_THREADS environment variable for each process to be 1 in default, to avoid your system being overloaded, please further tune the variable for optimal performance in your application as needed.  ***************************************** /home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/mmcv/__init__.py:20: UserWarning: On January 1, 2023, MMCV will release v2.0.0, in which it will remove components related to the training process and add a data transformation module. In addition, it will rename the package names mmcv to mmcv-lite and mmcv-full to mmcv. See https://github.com/open-mmlab/mmcv/blob/master/docs/en/compatibility.md for more details.   warnings.warn( /home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/mmcv/__init__.py:20: UserWarning: On January 1, 2023, MMCV will release v2.0.0, in which it will remove components related to the training process and add a data transformation module. In addition, it will rename the package names mmcv to mmcv-lite and mmcv-full to mmcv. See https://github.com/open-mmlab/mmcv/blob/master/docs/en/compatibility.md for more details.   warnings.warn( /home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/mmcv/__init__.py:20: UserWarning: On January 1, 2023, MMCV will release v2.0.0, in which it will remove components related to the training process and add a data transformation module. In addition, it will rename the package names mmcv to mmcv-lite and mmcv-full to mmcv. See https://github.com/open-mmlab/mmcv/blob/master/docs/en/compatibility.md for more details.   warnings.warn( /home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/mmcv/__init__.py:20: UserWarning: On January 1, 2023, MMCV will release v2.0.0, in which it will remove components related to the training process and add a data transformation module. In addition, it will rename the package names mmcv to mmcv-lite and mmcv-full to mmcv. See https://github.com/open-mmlab/mmcv/blob/master/docs/en/compatibility.md for more details.   warnings.warn( /home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/mmcv/__init__.py:20: UserWarning: On January 1, 2023, MMCV will release v2.0.0, in which it will remove components related to the training process and add a data transformation module. In addition, it will rename the package names mmcv to mmcv-lite and mmcv-full to mmcv. See https://github.com/open-mmlab/mmcv/blob/master/docs/en/compatibility.md for more details.   warnings.warn( /home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/mmcv/__init__.py:20: UserWarning: On January 1, 2023, MMCV will release v2.0.0, in which it will remove components related to the training process and add a data transformation module. In addition, it will rename the package names mmcv to mmcv-lite and mmcv-full to mmcv. See https://github.com/open-mmlab/mmcv/blob/master/docs/en/compatibility.md for more details.   warnings.warn( /home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/mmcv/__init__.py:20: UserWarning: On January 1, 2023, MMCV will release v2.0.0, in which it will remove components related to the training process and add a data transformation module. In addition, it will rename the package names mmcv to mmcv-lite and mmcv-full to mmcv. See https://github.com/open-mmlab/mmcv/blob/master/docs/en/compatibility.md for more details.   warnings.warn( /home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/mmcv/__init__.py:20: UserWarning: On January 1, 2023, MMCV will release v2.0.0, in which it will remove components related to the training process and add a data transformation module. In addition, it will rename the package names mmcv to mmcv-lite and mmcv-full to mmcv. See https://github.com/open-mmlab/mmcv/blob/master/docs/en/compatibility.md for more details.   warnings.warn( Traceback (most recent call last):   File "tools/ddp_train.py", line 270, in <module>     main()   File "tools/ddp_train.py", line 105, in main     init_distributed_mode(args)   File "tools/ddp_train.py", line 92, in init_distributed_mode Traceback (most recent call last): Traceback (most recent call last):   File "tools/ddp_train.py", line 270, in <module>   File "tools/ddp_train.py", line 270, in <module>     torch.cuda.set_device(args.local_rank)   File "/home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/torch/cuda/__init__.py", line 311, in set_device     torch._C._cuda_setDevice(device) RuntimeError: CUDA error: invalid device ordinal CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1.     main()   File "tools/ddp_train.py", line 105, in main     main()   File "tools/ddp_train.py", line 105, in main     init_distributed_mode(args)   File "tools/ddp_train.py", line 92, in init_distributed_mode     init_distributed_mode(args)   File "tools/ddp_train.py", line 92, in init_distributed_mode     torch.cuda.set_device(args.local_rank)   File "/home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/torch/cuda/__init__.py", line 311, in set_device     torch.cuda.set_device(args.local_rank)   File "/home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/torch/cuda/__init__.py", line 311, in set_device     torch._C._cuda_setDevice(device) RuntimeError    : torch._C._cuda_setDevice(device)CUDA error: invalid device ordinal CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1.  RuntimeError: CUDA error: invalid device ordinal CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1. | distributed init (rank 1), gpu 1 Traceback (most recent call last):   File "tools/ddp_train.py", line 270, in <module>     main()   File "tools/ddp_train.py", line 105, in main     init_distributed_mode(args)   File "tools/ddp_train.py", line 92, in init_distributed_mode     torch.cuda.set_device(args.local_rank)   File "/home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/torch/cuda/__init__.py", line 311, in set_device     torch._C._cuda_setDevice(device) RuntimeError: CUDA error: invalid device ordinal CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1. | distributed init (rank 0), gpu 0 Traceback (most recent call last):   File "tools/ddp_train.py", line 270, in <module>     main()   File "tools/ddp_train.py", line 105, in main     init_distributed_mode(args)   File "tools/ddp_train.py", line 92, in init_distributed_mode     torch.cuda.set_device(args.local_rank)   File "/home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/torch/cuda/__init__.py", line 311, in set_device     torch._C._cuda_setDevice(device) RuntimeError: CUDA error: invalid device ordinal CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1. Traceback (most recent call last):   File "tools/ddp_train.py", line 270, in <module>     main()   File "tools/ddp_train.py", line 105, in main     init_distributed_mode(args)   File "tools/ddp_train.py", line 92, in init_distributed_mode     torch.cuda.set_device(args.local_rank)   File "/home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/torch/cuda/__init__.py", line 311, in set_device     torch._C._cuda_setDevice(device) RuntimeError: CUDA error: invalid device ordinal CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1. WARNING:torch.distributed.elastic.multiprocessing.api:Sending process 1984272 closing signal SIGTERM WARNING:torch.distributed.elastic.multiprocessing.api:Sending process 1984276 closing signal SIGTERM ERROR:torch.distributed.elastic.multiprocessing.api:failed (exitcode: 1) local_rank: 2 (pid: 1984280) of binary: /home/lrn/anaconda3/envs/pytorch1.10/bin/python Traceback (most recent call last):   File "/home/lrn/anaconda3/envs/pytorch1.10/bin/torchrun", line 33, in <module>     sys.exit(load_entry_point('torch==1.10.0', 'console_scripts', 'torchrun')())   File "/home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/torch/distributed/elastic/multiprocessing/errors/__init__.py", line 345, in wrapper     return f(*args, **kwargs)   File "/home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/torch/distributed/run.py", line 719, in main     run(args)   File "/home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/torch/distributed/run.py", line 710, in run     elastic_launch(   File "/home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/torch/distributed/launcher/api.py", line 131, in __call__     return launch_agent(self._config, self._entrypoint, list(args))   File "/home/lrn/anaconda3/envs/pytorch1.10/lib/python3.8/site-packages/torch/distributed/launcher/api.py", line 259, in launch_agent     raise ChildFailedError( torch.distributed.elastic.multiprocessing.errors.ChildFailedError:  ============================================================ tools/ddp_train.py FAILED ------------------------------------------------------------ Failures: [1]:   time      : 2023-11-27_15:52:05   host      : zlp-Z790-UD   rank      : 3 (local_rank: 3)   exitcode  : 1 (pid: 1984281)   error_file: <N/A>   traceback : To enable traceback see: https://pytorch.org/docs/stable/elastic/errors.html [2]:   time      : 2023-11-27_15:52:05   host      : zlp-Z790-UD   rank      : 4 (local_rank: 4)   exitcode  : 1 (pid: 1984282)   error_file: <N/A>   traceback : To enable traceback see: https://pytorch.org/docs/stable/elastic/errors.html [3]:   time      : 2023-11-27_15:52:05   host      : zlp-Z790-UD   rank      : 5 (local_rank: 5)   exitcode  : 1 (pid: 1984283)   error_file: <N/A>   traceback : To enable traceback see: https://pytorch.org/docs/stable/elastic/errors.html [4]:   time      : 2023-11-27_15:52:05   host      : zlp-Z790-UD   rank      : 6 (local_rank: 6)   exitcode  : 1 (pid: 1984284)   error_file: <N/A>   traceback : To enable traceback see: https://pytorch.org/docs/stable/elastic/errors.html [5]:   time      : 2023-11-27_15:52:05   host      : zlp-Z790-UD   rank      : 7 (local_rank: 7)   exitcode  : 1 (pid: 1984285)   error_file: <N/A>   traceback : To enable traceback see: https://pytorch.org/docs/stable/elastic/errors.html ------------------------------------------------------------ Root Cause (first observed failure): [0]:   time      : 2023-11-27_15:52:05   host      : zlp-Z790-UD   rank      : 2 (local_rank: 2)   exitcode  : 1 (pid: 1984280)   error_file: <N/A>   traceback : To enable traceback see: https://pytorch.org/docs/stable/elastic/errors.html ============================================================ 
  • [问题求助] Aicc23.200 DV时钟同步问题咨询
    问题来源】【必填】    【歌华有线】    【问题简要】【必填】aicc 23.200 服务器时间同步问题咨询【问题类别】【必填】aicc 23.200 服务器时间同步问题咨询【AICC解决方案版本】【必填】    【AICC可选择版本:AICC 23.200】   【期望解决时间】【选填】【问题现象描述】【必填】AICC  23.200 Params.xlsx文件中填写‘客户外部一级时钟源’地址,如果不填写的情况Aicc组件(例如cti、uap等组件)默认会与dv服务器做时间同步,如果填写了‘客户外部一级时钟源’地址,Aicc组件(例如cti、uap等组件)是直接与‘客户外部一级时钟源’进行时间同步?还是DV服务器先与’客户外部一级时钟源’做时间同步,Aicc组件(例如cti、uap等组件)在与DV服务器做时间同步。
  • [问题求助] CCDIS配置页面,无法修改配置的数据源信息
    【问题来源】:亿迅【问题简要】:CCDIS配置页面,无法修改配置的数据源信息【问题类别】:CTI组件,CCDIS配置页面,无法修改配置的数据源信息, 报错id不存在。需求:我们现在想修改一下UIDB/CCDIS数据源配置中连接数据库的IP地址。是否可以通过数据库修改或者配置文件进行修改呢?【AICC解决方案版本】:AICC 22.100【日志或错误截图】第一条记录无法编辑第一条记录无法删除
总条数:395 到第
上滑加载中