• [区域复赛赛题问题] 任务书上初始化泊位信息顺序与地图txt最后的泊位信息顺序不一样
    任务书上初始化泊位信息顺序与地图txt最后的泊位信息顺序不一样,应该以哪个为准???
  • [区域复赛赛题问题] 任务书上初始化泊位信息顺序与地图txt最后的泊位信息顺序不一样,我该信谁的。
    任务书上以及示例代码的泊位信息顺序为:id,x,y,loading_speed,而给的三张map中的顺序为:x,y,id,loading_speed。二者矛盾了。以及问题二int main() { Init(); while(scanf("%d", &frame_id) != EOF) { Input(); if(money >= robot_price && robot_num <= 1){ printf("lbot %d %d\n", robot_purchase_point[0].first, robot_purchase_point[0].second); } if(money >= boat_price && boat_num <= 0){ printf("lboat %d %d\n", boat_purchase_point[0].first, boat_purchase_point[0].second); } for(int i = 0; i < robot_num; i ++) printf("move %d %d\n", i, rand() % 4); if(frame_id==3) { cout<<"dept 0\n"; } if(frame_id>3) { cout<<"ship 0\n"; } puts("OK"); fflush(stdout); } return 0; }这是我的main函数,其余部分和示例代码一样。使用map1试我的代码,效果是我买了一艘船,然后立刻执行dept 0命令,结果这艘船瞬移到了靠泊区,请问这个是bug还是 feature
  • [交流分享] HCIE 云计算证书,可联系有红利
    HCIE 云计算方向,考证通过的朋友留个联系方式
  • [参赛经验分享] 2023“域见杯”医检人工智能开发者大赛(赛题二:智能染色体核型分析)-赛队“智能网优”TOP2方案分享
    前言 大家好,我是“智能网优”赛队的队长,这次是单人参赛,有幸拿下取得第二成绩,在此做个简单的分享。 分享 首先是简单的数据分析,本赛题根据金域提供的核型分析异常结果及其对应的解释文本数据,生成含有辅助诊断要素且便于意思理解的结果解释文本信息。需要注意的本次比赛数据均为脱敏处理数据,训练数据共7527条。在基本数据分析阶段主要包含三个工作,分析输入输出文本长度分布将模型文本长度定在256;根据脱敏后文本分布确定可用tokken长度大于616;丢弃异常数据。模型选择方面,先对比t5/bart/gpt/cpt选择t5,对比t5-pegasus的small与base版本选择small版本(large的我没有硬件算力),从huggingface上选择多种t5系列模型预训练权值进行对比,最后选定t5-pegasus-small,mt0-small,Randeng-T5-Char-57M-Chinese等系列融合。赛后交流有部分队伍说比如t5-copy效果很好,但是我对比的时候只选择了有small版本的模型,比如t5-copy没有small版本就不对比了。训练策略主要使用了预训练,EMA,FGM效果比较好:最后总结下亮点与不足,赛后与大部分队伍进行方案交流只有本方案使用了small版本,训练和推理速度肯定是领先的,但是在可以采集更多训练样本情况下,small将明显弱于base。针对这个问题和主办方交流的得知,该领域7527条训练样本还真的是现实生产情况,那small版本还有其意义吧,不过相信未来领域数据应该会越来越多,small版本潜力有限。感想 本人本职工作为通信行业,也是在传统行业耕耘10年以后才开始从零基础学习编程和算法。这次参加金域比赛收获颇多,受邀参观了国内最先进的医检实验室初步了解医检行业的同时也交流了AI在医检行业的应用,从现场专家坦诚的交流来看AI在医检行业的落地及困难与通信行业有诸多共通之处,感觉未来工作有很多借鉴思路。与这次接待的金域文瑛等专家的交流,也能感觉到金域众多工程师的工匠精神以及赛事总结梁董发言的复合型人才发展理念。感谢广州市科学技术局、金域医学以及华为云提供的这次机会,也希望有一天能看到医疗AI普惠到千万家庭中去。 
  • [赛事资讯] CodeCraft云上先锋黑客松-软件精英实战营赛题发布
    赛题简介本次大赛的赛题需要选手通过代码操控4个机器人完成物资递送任务,以实现收益最大化。赛题模拟了真实机器人的操作接口并通过物理引擎来模拟真实世界的物理法则,如惯性、摩擦、碰撞等。         比赛所使用的判题器和数据集完全开放给大家下载,并且我们给判题器做了图形化界面设计+键盘操作机器人的能力,让大家可以低门槛的上手本次赛题。         为了照顾到使用不同平台的选手,本次大赛特地对判题器做了跨平台设计,可以支持Windows、Linux、MacOS三个平台,选手可以根据自身习惯选择其中一款判题器下载。         每次运行判题器,都会产生一个回放文件置于replay目录中,可以用判题器自带的播放器进行播放,以分析过往比赛的表现。附件下载1. 赛题文档.zip:===页面下方===包含:复赛任务书、判题器使用说明、编译运行环境说明2. WindowsRelease.zip :===下载链接===包含:Windows版本的判题器、播放器、数据集、SDK3. LinuxRelease.zip :===下载链接===包含:Linux版本的判题器、播放器、数据集、SDK4. MacOSRelease.zip :===下载链接===包含:MacOS版本的判题器、播放器、数据集、SDK,该版本可同时支持x86和M1芯片。5.SDK :===页面下方===包含:python、java、C++、C4种语言
  • [HDC.Cloud] 博客发文的码豆没有计入吗
    博客发文有如下说明,奖励办法成功发表一篇原创博文,可获得150码豆,每天最多可获得300码豆。→码豆中心发文博客文章后,实际进入码豆中心,码豆并没有增加。
  • [其他] 天使小狗
    金色毛发,蓝天白云。
  • [其他] AI人工绘画梦幻绿色唯美活力森林
     梦幻唯美活力生机森林
  • [问题求助] 综合考核通过如何查看证书
    如题,通过了学习资源-高校人才发展社区 (huawei.com)的一个综合考核 写了可以申请证书,但没找到证书在哪,拜托讲解一下
  • [热门活动] 华为云开发者学堂人才计划-人才入库相关说明
    华为云开发者学堂人才计划人才入库相关说明1.华为云开发者学堂人才计划介绍人才计划旨在让更多的企业和开发者和加入华为云生态,助力在线大学生、IT从业者提升就业竞争力,解决企业实际用人需求,助力企业及人才生态循环发展。2.华为云开发者学堂人才计划人才入库条件满足如下任一条件即可加入人才计划人才库:通过任意一个主题的华为云开发者认证;报名2022华为开发者大赛且提交合格作品。 【未达到入库条件,显示界面】【达到入库条件,显示界面】3.华为云开发者学堂人才入库流程人才入驻流程基本包含 “考取华为云开发者认证”/“报名参加开发者大赛且提交合格作品”-->“白名单导入系统后台”-->”登录人才计划页面,查看简历投递方式”,具体流程说明如下:step1  通过任意一个主题的华为云开发者认证;或者报名2022华为开发者大赛且提交合格作品。step2  工作人员将在申请之日起7个工作日内完成名单导入,成功入库的用户可使用华为云帐号登录-->华为云开发者学堂人才计划 ,查看投递方式,完成简历投递。备注:无华为帐号的,点击“注册”按要求注册华为帐号;企业华为云帐号需完成实名认证(参见帮助文档)。4.华为云开发者学堂人才计划接口人华为云开发者学堂 李晓静 lixiaojing.li@huawei.com华为云开发者学堂 刘宝贤liubaoxian@huawei-partners.com                   【人才计划官网】登陆华为云开发者学堂,了解更多人才计划详情                    ​                   【人才计划小助手】备注“人才计划”,添加小助手微信,咨询更多人才计划内容
  • [问题求助] 智能基座考试证书问题
    在智能基座高校人才发展社区中进行综合考核,通过考试之后无法获取电子证书(在昇腾社区-高校-学习资源,点击跳转到这一网站)
  • [算子使用] MindSpore和PyTorch API映射(昇腾AI创新大赛2022-昇思赛道参赛踩坑记录)
     MindSpore和PyTorch API映射 1、nn.Conv2d 2、nn.Dense & nn.Linear 3、nn.Dropout 4、nn.BatchNorm2d 【!】nn.SyncBatchNorm & nn.BatchNorm2d 5、维度变化 本文是我参加昇腾AI创新大赛2022-昇思赛道,使用 Mindspore 复现顶会论文的学习笔记。这是第一篇,主要记录论文复现过程中常用算子如何从 Pytorch 映射到 Mindspore。  Mindspore 其实提供了相关的 API 映射文档,绝大多数的算子映射都能找到相关的说明,写的详细的我就偷懒一下照搬了。  PyTorch APIs和MindSpore APIs之间的映射  (注:本文使用的MindSpore为1.7版本,PyTorch为1.7版本)  1、nn.Conv2d mindspore.nn.Conv2d  class mindspore.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, pad_mode="same", padding=0, dilation=1,                           group=1, has_bias=False, weight_init="normal", bias_init="zeros", data_format="NCHW"))  torch.nn.Conv2d  class torch.nn.Conv2d(in_channels: int, out_channels: int, kernel_size: Union[T, Tuple[T, T]], stride: Union[T, Tuple[T, T]] = 1,                       padding: Union[T, Tuple[T, T]] = 0, dilation: Union[T, Tuple[T, T]] = 1, groups: int = 1, bias: bool = True,                       padding_mode: str = 'zeros')  主要区别: PyTorch:默认不对输入进行填充,bias 为 True。  MindSpore:默认对输入进行填充,使输出与输入维度一致,如果不需要 padding,可以将 pad_mode 参数设为 “valid”;如果需要填充,将 pad_mode 参数设为 “pad”。默认 has_bias 为 False。  2、nn.Dense & nn.Linear mindspore.nn.Dense  class mindspore.nn.Dense(in_channels, out_channels, weight_init='normal', bias_init='zeros', has_bias=True, activation=None) torch.nn.Linear class torch.nn.Linear(in_features: int, out_features: int, bias: bool = True)3、nn.Dropoutmindspore.nn.Dropoutclass mindspore.nn.Dropout(keep_prob=0.5, dtype=mstype.float32)torch.nn.Dropoutclass torch.nn.Dropout(p: float = 0.5, inplace: bool = False) 主要区别: MindSpore:概率值对应 Dropout 算子的属性 keep_prob,是指输入被保留的概率,1-keep_prob 是指输入被置 0 的概率。  PyTorch:概率值分别对应 Dropout算子的属性 p,是指输入被置 0 的概率,与 MindSpore 相反。 4、nn.BatchNorm2dmindspore.nn.BatchNorm2dclass mindspore.nn.BatchNorm2d(num_features, eps=1e-5, momentum=0.9, affine=True, gamma_init='ones', beta_init='zeros',                                moving_mean_init='zeros', moving_var_init='ones', use_batch_statistics=None, data_format='NCHW') torch.nn.BatchNorm2dclass torch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) 主要区别: PyTorch:用于 running_mean 和 running_var 计算的 momentum 参数的默认值为 0.1。  MindSpore:momentum 参数的默认值为 0.9,与 PyTorch 的 momentum 关系为 1-momentum。其中,gamma、beta、moving_mean 和 moving_variance 参数分别对应 PyTorch 的 weight、bias、running_mean 和 running_var 参数。  【!】nn.SyncBatchNorm & nn.BatchNorm2d MindSpore 的 Batch Normalization 的实现只对每个设备内的数据进行规范化。  mindspore.nn.SyncBatchNorm 是跨设备同步的 Batch Normalization。 class mindspore.nn.SyncBatchNorm(num_features, eps=1e-5, momentum=0.9, affine=True, gamma_init='ones', beta_init='zeros',                                  moving_mean_init='zeros', moving_var_init='ones', use_batch_statistics=None, process_groups=None) 5、维度变化PyTorch 的 reshape,flatten,transpose,permute 可用 MindSpore 的 reshape, transpose 代替。MindSpore 的 transpose 要指定全部维度的顺序。(未完待续。。。)