YOLOv6:又快又准的目标检测框架开源啦
近日 ,快又框架开源美团视觉智能部研发了一款致力于工业应用的目标目标检测框架 YOLOv6 ,能够同时专注于检测的检测精度和推理效率 。在研发过程中 ,快又框架开源视觉智能部不断进行了探索和优化,目标同时吸取借鉴了学术界和工业界的检测一些前沿进展和科研成果 。在目标检测权威数据集 COCO 上的快又框架开源实验结果显示 ,YOLOv6 在检测精度和速度方面均超越其他同体量的目标算法 ,同时支持多种不同平台的检测部署 ,极大简化工程部署时的快又框架开源适配工作。特此开源,目标希望能帮助到更多的检测同学 。
1. 概述
YOLOv6 是快又框架开源美团视觉智能部研发的一款目标检测框架,致力于工业应用 。目标本框架同时专注于检测的检测精度和推理效率,在工业界常用的尺寸模型中:YOLOv6-nano 在 COCO 上精度可达 35.0% AP ,在 T4 上推理速度可达 1242 FPS;YOLOv6-s 在 COCO 上精度可达 43.1% AP,在 T4 上推理速度可达 520 FPS。在部署方面,YOLOv6 支持 GPU(TensorRT)、CPU(OPENVINO)、ARM(MNN 、TNN、NCNN)等不同平台的部署 ,极大地简化工程部署时的适配工作 。
目前,项目已开源至Github,传送门:https://github.com/meituan/YOLOv6。欢迎有需要的小伙伴们Star收藏,随时取用。
精度与速度远超 YOLOv5 和 YOLOX 的新框架
目标检测作为计算机视觉领域的一项基础性技术,在工业界得到了广泛的应用,其中 YOLO 系列算法因其较好的综合性能,逐渐成为大多数工业应用时的首选框架 。至今 ,业界已衍生出许多 YOLO 检测框架,其中以 YOLOv5[1] 、YOLOX[2] 和 PP-YOLOE[3] 最具代表性 ,但在实际使用中 ,我们发现上述框架在速度和精度方面仍有很大的提升的空间 。基于此,我们通过研究并借鉴了业界已有的先进技术,开发了一套新的目标检测框架——YOLOv6。该框架支持模型训练、推理及多平台部署等全链条的工业应用需求 ,并在网络结构 、训练策略等算法层面进行了多项改进和优化,在 COCO 数据集上,YOLOv6 在精度和速度方面均超越其他同体量算法 ,相关结果如下图 1 所示:
图1-1 YOLOv6 各尺寸模型与其他模型性能对比