• [计算类] Atlas 200I A2用于EP侧,每次重启Atlas 200I A2的OS,系统都会还原
    Atlas 200I A2用于EP侧,安装了驱动,可以通过串口进入Atlas 200I A2的系统,但是每次重启Atlas 200I A2的系统,我在里面写的脚本就会被还原
  • [分享交流] 【分享交流】大模型时代下的AI开发,大家有什么想法可以分享
    大模型的浪潮让AI开发和应用有了全新的面貌,大家有什么想法可以分享
  • [其他] AI Gallery的定位
    一张图来看目前AI Gallery的定位。个人感觉,它应该是在越来越找准自己的定位的状态中了....
  • [技术干货] CNN-VIT 视频动态手势识别
    CNN-VIT 视频动态手势识别人工智能的发展日新月异,也深刻的影响到人机交互领域的发展。手势动作作为一种自然、快捷的交互方式,在智能驾驶、虚拟现实等领域有着广泛的应用。手势识别的任务是,当操作者做出某个手势动作后,计算机能够快速准确的判断出该手势的类型。本文将使用ModelArts开发训练一个视频动态手势识别的算法模型,对上滑、下滑、左滑、右滑、打开、关闭等动态手势类别进行检测,实现类似华为手机隔空手势的功能。算法简介CNN-VIT 视频动态手势识别算法首先使用预训练网络InceptionResNetV2逐帧提取视频动作片段特征,然后输入Transformer Encoder进行分类。我们使用动态手势识别样例数据集对算法进行测试,总共包含108段视频,数据集包含无效手势、上滑、下滑、左滑、右滑、打开、关闭等7种手势的视频,具体操作流程如下:首先我们将采集的视频文件解码抽取关键帧,每隔4帧保存一次,然后对图像进行中心裁剪和预处理,代码如下:def load_video(file_name): cap = cv2.VideoCapture(file_name) # 每隔多少帧抽取一次 frame_interval = 4 frames = [] count = 0 while True: ret, frame = cap.read() if not ret: break # 每隔frame_interval帧保存一次 if count % frame_interval == 0: # 中心裁剪 frame = crop_center_square(frame) # 缩放 frame = cv2.resize(frame, (IMG_SIZE, IMG_SIZE)) # BGR -> RGB [0,1,2] -> [2,1,0] frame = frame[:, :, [2, 1, 0]] frames.append(frame) count += 1 return np.array(frames) 然后我们创建图像特征提取器,使用预训练模型InceptionResNetV2提取图像特征,代码如下:def get_feature_extractor(): feature_extractor = keras.applications.inception_resnet_v2.InceptionResNetV2( weights = 'imagenet', include_top = False, pooling = 'avg', input_shape = (IMG_SIZE, IMG_SIZE, 3) ) preprocess_input = keras.applications.inception_resnet_v2.preprocess_input inputs = keras.Input((IMG_SIZE, IMG_SIZE, 3)) preprocessed = preprocess_input(inputs) outputs = feature_extractor(preprocessed) model = keras.Model(inputs, outputs, name = 'feature_extractor') return model接着提取视频特征向量,如果视频不足40帧就创建全0数组进行补白:def load_data(videos, labels): video_features = [] for video in tqdm(videos): frames = load_video(video) counts = len(frames) # 如果帧数小于MAX_SEQUENCE_LENGTH if counts < MAX_SEQUENCE_LENGTH: # 补白 diff = MAX_SEQUENCE_LENGTH - counts # 创建全0的numpy数组 padding = np.zeros((diff, IMG_SIZE, IMG_SIZE, 3)) # 数组拼接 frames = np.concatenate((frames, padding)) # 获取前MAX_SEQUENCE_LENGTH帧画面 frames = frames[:MAX_SEQUENCE_LENGTH, :] # 批量提取特征 video_feature = feature_extractor.predict(frames) video_features.append(video_feature) return np.array(video_features), np.array(labels)最后创建VIT Model,代码如下:# 位置编码 class PositionalEmbedding(layers.Layer): def __init__(self, seq_length, output_dim): super().__init__() # 构造从0~MAX_SEQUENCE_LENGTH的列表 self.positions = tf.range(0, limit=MAX_SEQUENCE_LENGTH) self.positional_embedding = layers.Embedding(input_dim=seq_length, output_dim=output_dim) def call(self,x): # 位置编码 positions_embedding = self.positional_embedding(self.positions) # 输入相加 return x + positions_embedding # 编码器 class TransformerEncoder(layers.Layer): def __init__(self, num_heads, embed_dim): super().__init__() self.p_embedding = PositionalEmbedding(MAX_SEQUENCE_LENGTH, NUM_FEATURES) self.attention = layers.MultiHeadAttention(num_heads=num_heads, key_dim=embed_dim, dropout=0.1) self.layernorm = layers.LayerNormalization() def call(self,x): # positional embedding positional_embedding = self.p_embedding(x) # self attention attention_out = self.attention( query = positional_embedding, value = positional_embedding, key = positional_embedding, attention_mask = None ) # layer norm with residual connection output = self.layernorm(positional_embedding + attention_out) return output def video_cls_model(class_vocab): # 类别数量 classes_num = len(class_vocab) # 定义模型 model = keras.Sequential([ layers.InputLayer(input_shape=(MAX_SEQUENCE_LENGTH, NUM_FEATURES)), TransformerEncoder(2, NUM_FEATURES), layers.GlobalMaxPooling1D(), layers.Dropout(0.1), layers.Dense(classes_num, activation="softmax") ]) # 编译模型 model.compile(optimizer = keras.optimizers.Adam(1e-5), loss = keras.losses.SparseCategoricalCrossentropy(from_logits=False), metrics = ['accuracy'] ) return model模型训练完整体验可以点击Run in ModelArts一键运行我发布的Notebook:最终模型在整个数据集上的准确率达到87%,即在小数据集上训练取得了较为不错的结果。视频推理首先加载VIT Model,获取视频类别索引标签:import random # 加载模型 model = tf.keras.models.load_model('saved_model') # 类别标签 label_to_name = {0:'无效手势', 1:'上滑', 2:'下滑', 3:'左滑', 4:'右滑', 5:'打开', 6:'关闭', 7:'放大', 8:'缩小'}然后使用图像特征提取器InceptionResNetV2提取视频特征:# 获取视频特征 def getVideoFeat(frames): frames_count = len(frames) # 如果帧数小于MAX_SEQUENCE_LENGTH if frames_count < MAX_SEQUENCE_LENGTH: # 补白 diff = MAX_SEQUENCE_LENGTH - frames_count # 创建全0的numpy数组 padding = np.zeros((diff, IMG_SIZE, IMG_SIZE, 3)) # 数组拼接 frames = np.concatenate((frames, padding)) # 取前MAX_SEQ_LENGTH帧 frames = frames[:MAX_SEQUENCE_LENGTH,:] # 计算视频特征 N, 1536 video_feat = feature_extractor.predict(frames) return video_feat最后将视频序列的特征向量输入Transformer Encoder进行预测:# 视频预测 def testVideo(): test_file = random.sample(videos, 1)[0] label = test_file.split('_')[-2] print('文件名:{}'.format(test_file) ) print('真实类别:{}'.format(label_to_name.get(int(label))) ) # 读取视频每一帧 frames = load_video(test_file) # 挑选前帧MAX_SEQUENCE_LENGTH显示 frames = frames[:MAX_SEQUENCE_LENGTH].astype(np.uint8) # 保存为GIF imageio.mimsave('animation.gif', frames, duration=10) # 获取特征 feat = getVideoFeat(frames) # 模型推理 prob = model.predict(tf.expand_dims(feat, axis=0))[0] print('预测类别:') for i in np.argsort(prob)[::-1][:5]: print('{}: {}%'.format(label_to_name[i], round(prob[i]*100, 2))) return display(Image(open('animation.gif', 'rb').read()))模型预测结果:文件名:hand_gesture/woman_014_0_7.mp4 真实类别:无效手势 预测类别: 无效手势: 99.82% 下滑: 0.12% 关闭: 0.04% 左滑: 0.01% 打开: 0.01%
  • [其他] 2024年,你最期待AI在哪个方面的革命
    2024年,你最期待AI在哪个方面的革命
  • 资讯|盘古大模型,跑在铁路上
    “双节”货物运输繁忙如何保证货运列车始终“在状态”那就不得不提这一双双“火眼金睛”啦想象一下依靠强大的AI科技一列货运列车的上万个零部件十几分钟内便可完成检查这个超厉害的“AI检车”系统是国铁集团郑州北车辆段使用的经华为云盘古大模型“AI训练”后的TFDS系统2022年12月,“AI检车”系统正式投入试用。该段对处于京广铁路、陇海铁路、京九铁路等干线位置的6个TFDS探测站进行了升级,采取“AI检车”作业,同时对“AI检车”识别预警的故障进行人工复核。相较于人工检车,通过“AI检车”结合人工复核的方式:作业时长由平均17分钟减少至14分钟;作业人数由4-5人减少至2-3人;故障识别准确率由98.26%提高至99.89%。经过10个月的试用“AI检车”系统实现了以铁路货车拦停重点故障为主的400+余种故障的智能识别已大大优于人工作业效率更高、可靠性更强,当前已逐步推广到全国多个路局试用。这个“AI检车”系统究竟啥来头?这套系统叫TFDS,即货车故障轨边图像检测系统。一列货车只要从探测站通过,电子眼就会高速拍摄、动态采集车底配件和车体侧部状态等4800余张图像,实时传输到动态检车室。传统的TFDS系统,需要动态检车员及时分析每一张图片,发现车辆故障隐患,并将故障部位图片反馈至一线检车员。“AI训练”后的TFDS系统,能够利用“AI”技术,实时分析采集的图像,自动识别各种不同类型的铁路货车故障。为啥要对郑州北车辆段的TFDS进行“AI”升级?这里“太忙”该段管内京广线、陇海线、京九线货物运输任务繁忙,5T检测车间的80个检测工位,每天要完成4万多辆货车、280多万张图片的检查任务。重要课题落户2021年,国铁集团货车事业部把TFDS故障图像智能识别项目作为国铁集团第一批科研计划“揭榜挂帅”课题,指定郑州局集团公司郑州北车辆段5T检测车间作为该项目的试点单位,和华为公司、慧铁科技公司共同研究、联手推进TFDS故障图像智能识别项目。自此,“AI检车”系统升级试点“花落”郑州北车辆段。“AI训练”后TFDS系统有多厉害?专家博士联合推进为保证研发进度和效果,该段5T检测车间组建经验丰富的“专家”团队,结合近年典型故障案例,从故障分类、判断方式等方面提供数据,从而提升算法精准度、降低误报率。算法模型世界领先对TFDS系统进行“AI训练”,采用的是目前业界最大的视觉预训练模型华为云盘古CV大模型,其训练、推理速度均处于世界领先水平。同时,这套基于盘古大模型的“AI检车”系统根据大量的数据样本,自动总结部件特征,自动寻找故障规律,并在实际试用中持续改善分析效果,实现从整体到局部、再到故障细节特征的逐步精细识别。TFDS检测遇到的另一个问题是故障样本稀缺。随着我国铁路安全水平的不断提升,很多故障已经极少发生,多数人都没有见过,但是这样的故障一旦发生通常都是大故障。对AI模型来讲,小样本无样本也会制约模型精度提升。郑州北站在段修车间模拟制造了大量的故障样本的同时,华为云基于小样本学习技术和样本生成技术,生成了大量的训练样本提升模型质量。比如摇枕心盘脱出的故障,全国范围内只找到一张故障样本,但是通过小样本学习,目前已经能正确识别这个故障。近年来铁路部门不断加大科技投入力度这些新设备、新技术的投用已经重塑了现场职工的作业模式期待未来有更多的科技手段应用到铁路运输生产各环节转自华为云公众号
  • 提高模型性能的有效方法笔记
    领域微调是一种通过使用少量特定用例的增量数据对基础模型进行进一步训练的方法,以改变其神经网络中的参数权重。它适用于任务或领域定义明确且具有足够标记数据的场景,比如风格微调。目前,常用的领域微调方法包括Freeze、P-tuning和LoRA。在领域微调中,Freeze是一种常见的方法。它的核心思想是固定基础模型的一部分参数,只对特定任务的相关参数进行微调。通过冻结一部分参数,可以保留基础模型在通用任务上的学习能力,同时针对特定任务进行有针对性的微调,以提高模型在该领域中的性能。另一种常见的微调方法是P-tuning。P-tuning通过引入一个专门的控制参数来控制基础模型的学习能力。这个控制参数可以根据特定任务的需求进行调整,从而实现对基础模型的微调。P-tuning的优势在于可以根据具体任务的特点和要求进行灵活的调整,提高模型在特定领域中的表现。LoRA是一种基于语言重要性的领域微调方法。它通过对不同领域的语言重要性进行建模,对基础模型进行微调。具体而言,LoRA通过引入一个领域相关的语言权重参数,来调整基础模型对不同领域中不同语言的重视程度。这样,模型可以更好地适应不同领域的语言特点,提高在特定领域的性能。领域微调的应用非常广泛。在自然语言处理领域,领域微调可以用于情感分析、命名实体识别、机器翻译等任务,通过微调模型,使其更好地适应特定领域的语言特点和任务需求。在计算机视觉领域,领域微调可以用于目标检测、图像分类等任务,通过微调模型,提高在特定领域中的准确性和鲁棒性。然而,领域微调也面临一些挑战。首先,微调需要有足够的标记数据来进行训练,但在某些领域中,获取大量标记数据可能是困难的。其次,微调可能导致过拟合问题,即模型在特定领域中表现良好,但在其他领域中性能下降。因此,如何在微调过程中平衡模型的泛化能力和领域特定性能是一个重要的问题。
  • 有效的数据增强方法以改善模型的泛化能力
    1数据增强数据增强是一种通过对训练数据进行一系列变换来扩增数据集的方法。数据增强可以有效地提高模型的泛化性能,因为它可以帮助模型更好地学习数据的不变性和鲁棒性。例如,在图像分类任务中,可以通过旋转、平移、缩放等方式对图像进行变换,从而增加数据集的多样性,提高模型的泛化性能。2正则化正则化是一种在损失函数中引入额外项的方法,用于惩罚模型的复杂度。正则化可以约束模型的参数,从而避免模型在训练过程中过拟合。过拟合是指模型在训练数据上表现很好,但在新的测试数据上表现较差的现象。常见的正则化方法包括L1正则化、L2正则化和Dropout等。3模型集成模型集成是一种将多个模型的预测结果进行融合的方法。模型集成可以帮助消除单个模型的缺点,并提高模型的泛化性能。常见的模型集成方法包括Bagging、Boosting和Stacking等。Bagging和Boosting是两种集成方法,它们通过对训练数据进行不同的采样和加权来训练多个模型,并将它们的预测结果进行平均或加权融合。Stacking是一种更加复杂的集成方法,它将多个模型的预测结果作为输入,并使用另一个模型来预测最终的输出。4领域自适应领域自适应是一种将已有的模型应用到新的领域中的方法。在新的领域中,训练数据往往不足或分布不同,因此在这种情况下,直接使用已有的模型可能会导致泛化性能下降。领域自适应方法可以通过在已有模型中引入领域自适应机制,来适应新的领域数据。例如,在自然语言处理中,可以使用基于预训练语言模型的领域自适应方法。5对抗训练对抗训练是一种将对抗性样本引入训练数据中的方法,用于提高模型的鲁棒性。对抗性样本是指经过有意制造的变化,使得模型在处理该样本时出错的样本。对抗训练可以通过训练模型在对抗性样本上的鲁棒性,来提高模型的泛化性能。例如,在图像分类任务中,可以通过添加噪声或扰动来生成对抗性样本。
  • 模型优化以减少内存和计算资源的笔记分享
    机器学习模型在许多应用场景中发挥着重要作用,但是模型的存储和计算资源消耗往往是带来挑战的关键因素。为了提高模型的性能和效率,在模型设计和优化过程中需要重点考虑如何减少存储和计算资源的消耗。①模型压缩和精简②模型结构优化③模型量化和加速④基于剪枝的可由实施算法一、模型压缩和精简模型压缩是一种减少存储资源消耗的重要技术。通过压缩模型的参数、权重和结构,可以减小模型的存储空间。常见的模型压缩方法包括剪枝、量化和低秩分解。剪枝是指通过减少模型中不重要的连接权重来降低模型的复杂度。量化是指将模型中的参数从高精度表示转换为低精度表示,以减小存储需求。而低秩分解则是将模型的权重矩阵分解为低秩近似矩阵,以减少存储和计算开销。二、模型结构优化模型结构优化是进一步减少计算资源消耗的关键步骤。通过精心设计模型的结构,可以降低计算复杂度和存储需求。常见的模型结构优化方法包括卷积操作优化、网络剪枝和特征选择。卷积操作优化是指通过引入空洞卷积、深度可分离卷积等技术,减少卷积操作的计算量和存储需求。网络剪枝是指通过去除低重要性的通道和层来减小网络的尺寸和计算复杂度。而特征选择则是在模型训练过程中,选择对任务有重要影响的特征,舍弃冗余信息,减小存储和计算开销。三、模型量化和加速除了以上提到的方法外,模型量化和加速也是减少计算资源消耗的重要手段。通过对模型进行量化,将模型参数从浮点表示转换为定点表示,可以降低计算的复杂度和存储需求。此外,使用专门的硬件加速器例如GPU、TPU等可以提供更高的计算能力,加速模型的推理过程。另外,将模型部署到分布式计算环境中,可以通过并行计算来提高计算效率。四、基于剪枝的可由实施算法剪枝是一种有效的模型优化技术,可以减小模型的计算和存储开销。此外,通过剪枝可以提升模型的泛化能力和鲁棒性。基于剪枝的可由实施算法包括层级剪枝算法、通道剪枝算法和权重剪枝算法。层级剪枝算法是指通过移除整个层或通道来减小模型的计算量和存储需求。通道剪枝算法是指通过剔除某些通道来减少计算复杂度,而权重剪枝算法是指通过移除模型中小于某个阈值的权重来简化和优化模型。总结起来,优化机器学习模型的存储和计算资源消耗是一个复杂而关键的任务。通过模型压缩和精简、模型结构优化、模型量化和加速以及基于剪枝的可由实施算法等方法和技术,可以减少存储和计算开销,提高模型的性能和效率。这些优化措施可以在不降低模型准确性的情况下,提供快速高效的机器学习应用。随着技术的不断发展,更多创新方法和工具将进一步推动机器学习模型的存储和计算资源消耗的优化。
  • [校园大使专区] HCSD校园大使自发活动-活动申请
    重庆工程学院HCSD活动合作申请书申请人姓名:肖宏城申请人所在学校:重庆工程学院活动主题/活动名称码上服务-华为云活动背景及意义通过宣讲,以及教师团队的协助,给未接触和接触较浅的同学和老师进行宣讲,让其了解和深入学习我们华为云的一些技术,了解我们华为云的产品以及好处,加大师生对华为云的认知度,认可度以及能通过此次活动吸取更多优秀的人才进入到我们的组织。活动目标活动宣传辐射人数全校计算机专业同学、活动参与人数力争200余人,通过介绍华为云的技术以及产品,吸引更多的开发者使用华为API、开发工具以及一些云服务,了解华为云带来的功能以及对于自身带来的好处。活动时间及地点暂定于4月19日本科评估时期,地点暂定。活动规模校级举办,吸引全校对华为云感兴趣的师生活动受众分析软件与人工智能学院、计算机学院、20、21年级、未接触云服务或接触较少、对华为云的了解程度较为浅薄的同学。流程及分工流程工作详情责任人活动准备阶段活动策划:师生进场,学校领导、老师介绍,华为云讲解,答疑Q&A,拍照留恋肖宏城物资采购及财务管理:活动海报以及横幅肖宏城场地准备:场地选这能容纳200余人的场地肖宏城、张杰、卢俊宣传准备:进行为期3天的宣传,宣传地点为师生人员密集的区域,通过社交软件或其他文件方式进行宣传肖宏城、陈静、张杰活动开展阶段拍照向晋康、刘宴控场肖宏城、卢俊、陈靖、张杰物资需求明细表物料数量单价总价华为云HCSD宣传海报1华为云HCSD活动横幅1总计风险控制及备案如场地、设备等出现问题,有备选方案不影响活动正常开展
  • [赛事资讯] 2023“域见杯”医检人工智能开发者大赛开启报名
    AIGC(生成式AI),正掀起人工智能新一波巨浪,重塑各行各业。围绕AIGC技术,金域医学携手华为云等举办2023“域见杯”医检人工智能开发者大赛,6月21日重磅开启,探索AIGC新范式!2022年首届“域见杯”成功吸引海内外405支队伍参赛引爆医检人工智能领域2023年6月2023“域见杯”精彩再现6月21日报名通道正式开启未来已来医检AIGC未来等你开创了解更多华为云AI平台ModelArts:cid:link_0ModelArts 是面向开发者的一站式 AI 平台,为机器学习与深度学习提供海量数据预处理及交互式智能标注、大规模分布式训练、自动化模型生成,及端-边-云模型按需部署能力,帮助用户快速创建和部署模型,管理全周期 AI 工作流。
  • [赛事资讯] 金域医学2023“域见杯”医检人工智能开发者大赛正式启动
    人工智能与大模型开发迎来“新风口”,AIGC(生成式AI)技术正在重构各行各业。为培养交叉复合型人才,构建智慧医检新范式,汇聚医检生态合作伙伴,6月27日,由广州市科学技术局、广州市工业和信息化局指导,广州金域医学检验集团股份有限公司和广东省人工智能产业协会主办,广州人工智能公共算力中心协办,华为云计算技术有限公司提供技术支持的2023“域见杯”医检人工智能开发者大赛正式启动。▲2023“域见杯”医检人工智能开发者大赛正式启动大赛依托海量医检文本数据,从应用场景需求出发,围绕检前临床咨询和检后报告解读场景设置双赛题,吸引全球初创企业、IT巨头、高等院校、科研院所等多领域、多层次的团队及个人开发者同场PK。大赛最终将决出两个一等奖,每支队伍可获得10万元奖金。▲广州市科技局党组成员、总工程师林焕绪致辞广州市科技局党组成员、总工程师林焕绪表示:“广州着眼于打造我国人工智能技术创新、应用示范和产业发展高地。金域医学举办的‘域见杯’为行业打造智慧医检创新生态进行了有益尝试与突破。这也是‘产业界出题、科技界答题’的有力抓手。我相信,大赛举办将成为建设广州市医学人工智能交叉领域的应用场景示范。”▲金域医学董事长兼首席执行官梁耀铭致辞“医检AIGC的开发与应用是大势所趋。”金域医学董事长兼首席执行官梁耀铭表示,“通过举办本次大赛,我们希望能够凝聚医检生态伙伴之力,共同探索生物技术与新一代信息技术融合创新的应用场景,着力培养一批技术、产业的交叉复合型人才,让疾病诊断更加高效可及,共同将‘域见杯’打造成广州市、广东省乃至全国医检人工智能领域的一张名片。”▶聚焦真实应用场景,大赛首次设置双赛题作为广东省新一代人工智能开放创新平台的承建单位,金域医学早已在医检AIGC领域有所布局。目前已建立起标准报告语言规范及高质量专病数据库,并利用预训练模型在医学文本实体抽取、病理报告结构化等领域开展探索与应用。为探索AIGC在医检领域应用的更多可能,2023“域见杯”医检人工智能开发者大赛,设置“智能临床咨询模型”“智能染色体核型分析结果解读模型”双赛题。据了解,金域医学每年完成检测项目临床咨询量达17.6万条,完成用于染色体核型分析的细胞遗传染色体标本量超40万例。本次赛题中提到的智能临床咨询模型,主要为临床医生医检项目决策提供多维度、个性化辅助支持;智能染色体核型分析结果解读模型,主要生成便于医生理解的结果解释,为部分遗传病的结果判读提速,缩短报告出具时间。作为大赛的技术支持方,华为云也将依托盘古基础大模型,提供NLP(自然语言处理)方向的技术服务,帮助开发者们开发出优秀的模型。▲华为云大数据与人工智能领域总经理尤鹏致辞华为云大数据与人工智能领域总经理尤鹏表示:“华为云持续在AI领域投入研发资源,从通用大模型到垂直行业应用大模型开发,始终坚持AI for Industries方向。本次大赛以当前医检业务的真实场景为题目,向全社会征集解决方案,有助于开发出优秀的模型和解决方案,加速大模型在医检行业场景应用落地探索。我们将携手金域医学,一同助力医检行业向智慧医疗迈进,探索符合产业发展的新思路和新方案。”▲金域医学高级副总裁于世辉为田奇教授(左一)和陈俊龙教授(右一)颁发评委会主席聘书本届大赛还特别邀请华为云人工智能领域首席科学家、国家欧亚科学院院士田奇教授,华南理工大学计算机科学与工程学院院长、欧洲科学院外籍院士陈俊龙教授担任评委会主席。据了解,初赛于6月27日正式开启。每道赛题前25名将进入复赛,并分别决出6名参加决赛,角逐最高荣誉。每个赛题的获胜者不仅最高可得10万元奖金,更有机会赢得入职金域医学的offer直通车、创投机会等诸多奖励。▶构建智慧医检生态,金域数字化转型工作提速金域医学大赛项目组总监兼自然语言处理算法总监刘斯分享“从启动数字化转型工作至今,金域的智慧医检建设工作已经取得初步成效。”据金域医学副总裁李映华介绍,金域医学在自然语言处理、计算机视觉、多模态AI和大数据应用等方面进行建设,相继开发出宫颈细胞学AI辅筛、新生儿遗传代谢病辅助诊断、淋巴瘤基因分型预测模型、智慧报告解读系统、病原学大数据监测网等;依托广东省临床检验与病理诊断人工智能开放创新平台,实现了“政产学研金用”智慧医检生态共建。去年,金域医学举办首届“域见杯”医检人工智能开发者大赛。赛事吸引了全球405支参赛队伍,提交超过5000件作品,引爆医检行业,为探索医检AI真实应用场景落地带来极大的启发。今年,金域医学依托每年超1.5亿例的检测量,超7PB的总数据量,从当前的前沿技术研究热点出发,再次汇聚全球伙伴加速推动医检AIGC落地应用。数字化已成为当前推进企业高质量发展的重要引擎,也是构筑企业竞争新优势的重要支撑。金域医学将把握AIGC“新风口”,进一步提速数字化转型工作,以大样本和大数据为基础,协同合作伙伴开发出医检大模型,作为新引擎推动医检新基建,助力广州抢占国内乃至全球智慧医检发展制高点。未来,金域医学将汇聚医检生态合作伙伴,利用人工智能算法辅助医生找到最优的治疗方案,重构医检产业价值,实现智慧医检生态共创、共享、共赢,让患者享受到“多、快、好、省”的医检服务。了解更多华为云AI平台ModelArts:cid:link_0ModelArts 是面向开发者的一站式 AI 平台,为机器学习与深度学习提供海量数据预处理及交互式智能标注、大规模分布式训练、自动化模型生成,及端-边-云模型按需部署能力,帮助用户快速创建和部署模型,管理全周期 AI 工作流。
  • 游乐园
    prompt:友谊 ,游乐园
  • 动漫
    kkkkkkkkkkkkkkkkkkkkkkkk
  • [分享交流] 火箭
    主打抽像哈哈哈, a i画的火箭更像是正在维修的火箭h
总条数:45 到第
上滑加载中