- diou比ciou要小,比iou的值也小,训练时候用比较好。 测试时还是iou比较好,训练时giou比较好 import mathimport torch def bbox_iou(box1, box2, x1y1x2y2=True, GIoU=False, DIoU=False, CIoU=False): # Returns the IoU of box1 to bo... diou比ciou要小,比iou的值也小,训练时候用比较好。 测试时还是iou比较好,训练时giou比较好 import mathimport torch def bbox_iou(box1, box2, x1y1x2y2=True, GIoU=False, DIoU=False, CIoU=False): # Returns the IoU of box1 to bo...
- python tensorrt: 激活函数:hard_sigmoid https://github.com/TrojanXu/yolov5-tensorrt https://github.com/wang-xinyu/tensorrtx The Pytorch implementation is ultralytics/yol... python tensorrt: 激活函数:hard_sigmoid https://github.com/TrojanXu/yolov5-tensorrt https://github.com/wang-xinyu/tensorrtx The Pytorch implementation is ultralytics/yol...
- 1) 一个算法中多个训练任务之间需要共享输出目录,在第一个任务结果保存在目录Context.get_output_path(level="algo")中,第二个任务使用的时候获取目录Context.get_output_path(level="algo")下的结果;2) 这个项目中多个训练任务之间需要共享输出目录,在第一个任务结果保存在目录Context.get_output_... 1) 一个算法中多个训练任务之间需要共享输出目录,在第一个任务结果保存在目录Context.get_output_path(level="algo")中,第二个任务使用的时候获取目录Context.get_output_path(level="algo")下的结果;2) 这个项目中多个训练任务之间需要共享输出目录,在第一个任务结果保存在目录Context.get_output_...
- CVPR2016的文章,CMU与rbg大神的合作。原谅我一直没有对这篇文章做一个笔记~~ 文章提出了一种通过online hard example mining(OHEM)算法训练基于区域的卷积检测算子的高效目标检测算法,能够对简单样本和一些小数量样本进行抑制,使得训练过程更加高效。该方法利用显著的bootstrapping技术(SVM中被普遍利用),对SG... CVPR2016的文章,CMU与rbg大神的合作。原谅我一直没有对这篇文章做一个笔记~~ 文章提出了一种通过online hard example mining(OHEM)算法训练基于区域的卷积检测算子的高效目标检测算法,能够对简单样本和一些小数量样本进行抑制,使得训练过程更加高效。该方法利用显著的bootstrapping技术(SVM中被普遍利用),对SG...
- torch.distributed 包支持 Pytorch 分布式目前只支持 Linux Pytorch 中通过 torch.distributed 包提供分布式支持,包括 GPU 和 CPU 的分布式训练支持。。 在此之前,torch.nn.DataParalle... torch.distributed 包支持 Pytorch 分布式目前只支持 Linux Pytorch 中通过 torch.distributed 包提供分布式支持,包括 GPU 和 CPU 的分布式训练支持。。 在此之前,torch.nn.DataParalle...
- 结果分布:左边是正样本,右边是负样本。 正负loss要均衡,负样本开始略站优势 左边是正样本,右边是负样本 正确姿势: 先调小学习率,再慢慢加大,因为负样本多,慢慢找正样本。 开始负样本可以在0.8-1之间,占比0.003以内,网络好的话后面就没有了。 先负样本收敛,再正样本收敛 学习率太大的表现: 正负样本两边... 结果分布:左边是正样本,右边是负样本。 正负loss要均衡,负样本开始略站优势 左边是正样本,右边是负样本 正确姿势: 先调小学习率,再慢慢加大,因为负样本多,慢慢找正样本。 开始负样本可以在0.8-1之间,占比0.003以内,网络好的话后面就没有了。 先负样本收敛,再正样本收敛 学习率太大的表现: 正负样本两边...
- 听说效果不错,有预训练, https://github.com/yinboc/liif https://github.com/junpan19/RRN 有预训练 https://github.com/XuecaiHu/Meta-SR-Pytorch 听说效果不错,有预训练, https://github.com/yinboc/liif https://github.com/junpan19/RRN 有预训练 https://github.com/XuecaiHu/Meta-SR-Pytorch
- Ctrl+C之后呈现的信息表明,这个bug是和多线程有关系。 经过笔者实验,目前有三种可靠的解决方式 1).Dataloader里面不用cv2.imread进行读取图片,用cv2.imread还会带来一系列的不方便,比如不能结合torchvision进行数据增强,所以最好用PIL 里面的I... Ctrl+C之后呈现的信息表明,这个bug是和多线程有关系。 经过笔者实验,目前有三种可靠的解决方式 1).Dataloader里面不用cv2.imread进行读取图片,用cv2.imread还会带来一系列的不方便,比如不能结合torchvision进行数据增强,所以最好用PIL 里面的I...
- 数据官网:http://shuoyang1213.me/WIDERFACE/ 官方训练集和验证集都有标注,测试集没有 验证集: WIDER_val.zip 标注:wider_face_val_bbx_gt.txt 标注文件:wider_face_split.zip 官网有。 retinaface网址: https://github.com/biu... 数据官网:http://shuoyang1213.me/WIDERFACE/ 官方训练集和验证集都有标注,测试集没有 验证集: WIDER_val.zip 标注:wider_face_val_bbx_gt.txt 标注文件:wider_face_split.zip 官网有。 retinaface网址: https://github.com/biu...
- https://github.com/Michael-Jing/EfficientDet-pytorch/blob/master/efficientdet_pytorch/BiFPN.py 这里面的参数不可导, 训练集有map,但是测试集map全是0, 经过验证,不是bifpn的问题。 bifpn 动态参数和静态参数 改成可求导的参数后,准确率反而下... https://github.com/Michael-Jing/EfficientDet-pytorch/blob/master/efficientdet_pytorch/BiFPN.py 这里面的参数不可导, 训练集有map,但是测试集map全是0, 经过验证,不是bifpn的问题。 bifpn 动态参数和静态参数 改成可求导的参数后,准确率反而下...
- 11年it研发经验,从一个会计转行为算法工程师,学过C#,c++,java,android,php,go,js,python,CNN神经网络,四千多篇博文,三千多篇原创,只为与你分享,共同成长,一起进步,关注我,给你分享更多干货知识! 注意:73上map连续几天一直低,因为负样本loss由0.01改为了0.02 还要分析是分类的loss大,还是回归的los... 11年it研发经验,从一个会计转行为算法工程师,学过C#,c++,java,android,php,go,js,python,CNN神经网络,四千多篇博文,三千多篇原创,只为与你分享,共同成长,一起进步,关注我,给你分享更多干货知识! 注意:73上map连续几天一直低,因为负样本loss由0.01改为了0.02 还要分析是分类的loss大,还是回归的los...
- nn.Module中定义参数:不需要加cuda,可以求导,反向传播 class BiFPN(nn.Module): def __init__(self, fpn_sizes): self.w1 = nn.Parameter(torch.rand(1)) print("no--... nn.Module中定义参数:不需要加cuda,可以求导,反向传播 class BiFPN(nn.Module): def __init__(self, fpn_sizes): self.w1 = nn.Parameter(torch.rand(1)) print("no--...
- Hinge Loss 作者:陈雕 链接:https://www.zhihu.com/question/47746939/answer/286432586 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 我说一个前面没提到的,李航老师在他的《统计学习基础》中有提到, hinge 的中文意思是 “... Hinge Loss 作者:陈雕 链接:https://www.zhihu.com/question/47746939/answer/286432586 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 我说一个前面没提到的,李航老师在他的《统计学习基础》中有提到, hinge 的中文意思是 “...
- 最简单的: state_dict = torch.load(weight_path) self.load_state_dict(state_dict,strict=False) 加载cpu: model = IResNet(IBasicBlock, [2, 2, 2, 2]) a_path=r"ms1mv3_ar... 最简单的: state_dict = torch.load(weight_path) self.load_state_dict(state_dict,strict=False) 加载cpu: model = IResNet(IBasicBlock, [2, 2, 2, 2]) a_path=r"ms1mv3_ar...
- 感觉深度学习在移动端的全面开花就在这两年了,其实感觉已经开始开花了。 先说说量化是怎么一回事,目前我们在caffe, tensorflow等框架上训练模型(前向和反向)都是使用float 32的,与int 8相比,所需储存空间更大,但是精度更好。 量化目前来讲,有两种方式,一种是通过训练量化finetune原来的模型,另一种是直接对模型和计算进行量化。这篇... 感觉深度学习在移动端的全面开花就在这两年了,其实感觉已经开始开花了。 先说说量化是怎么一回事,目前我们在caffe, tensorflow等框架上训练模型(前向和反向)都是使用float 32的,与int 8相比,所需储存空间更大,但是精度更好。 量化目前来讲,有两种方式,一种是通过训练量化finetune原来的模型,另一种是直接对模型和计算进行量化。这篇...
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签